Nothing Special   »   [go: up one dir, main page]

JP2012059008A - Program, information storage medium and image generation system - Google Patents

Program, information storage medium and image generation system Download PDF

Info

Publication number
JP2012059008A
JP2012059008A JP2010201464A JP2010201464A JP2012059008A JP 2012059008 A JP2012059008 A JP 2012059008A JP 2010201464 A JP2010201464 A JP 2010201464A JP 2010201464 A JP2010201464 A JP 2010201464A JP 2012059008 A JP2012059008 A JP 2012059008A
Authority
JP
Japan
Prior art keywords
drawing area
image
main
surrounding
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010201464A
Other languages
Japanese (ja)
Other versions
JP5620202B2 (en
Inventor
Motohisa Ishii
源久 石井
Yosuke Kuroda
陽介 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2010201464A priority Critical patent/JP5620202B2/en
Publication of JP2012059008A publication Critical patent/JP2012059008A/en
Application granted granted Critical
Publication of JP5620202B2 publication Critical patent/JP5620202B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program capable of improving the degree of freedom in stereoscopic expression, and to provide an information storage medium and an image generation system.SOLUTION: An image generation system includes: an object space setting unit for setting an object space where plural objects are placed; a drawing area setting unit for setting a main drawing area ARM and a periphery drawing area ARP set around the main drawing area ARM; and an image generation unit for generating an image for stereoscopic vision by performing drawing processing so as to set the main drawing area ARM as a drawing area for a first object OB1 among the plural objects and by performing drawing processing so as to set the main drawing area ARM and the whole periphery drawing area ARP as a drawing area for a second object OB2 among the plural objects.

Description

本発明は、プログラム、情報記憶媒体及び画像生成システム等に関する。   The present invention relates to a program, an information storage medium, an image generation system, and the like.

近年、映画やゲーム等の分野において、より臨場感が溢れる画像を生成するシステムとして、立体視画像の生成システムが脚光を浴びている。例えばこの立体視画像生成システムの1つである2眼式の立体視画像生成システムでは、左眼用画像と右眼用画像を生成する。そして例えばプレーヤが立体視用の眼鏡を装着して、左眼は左眼用画像のみを見て、右眼は右眼用画像のみを見るようにすることで、立体視を実現する。このような立体視を実現する画像生成システムの従来技術としては、例えば特許文献1に開示される技術がある。また立体視方式としては、眼鏡式以外にも裸眼式がある。例えば、パララックスバリアによって、画素ごとに、「左眼には見えるが右眼には見えない」、「右眼には見えるが左眼には見えない」という状態を作り出すことで、裸眼の立体視システムを実現できる。また、レンチキュラ等の光学素子による光の屈折等を利用することで、画素ごとに光の方向を制御し、上記と同様の状態を作り出すことでも、裸眼の立体視システムを実現できる。   2. Description of the Related Art In recent years, stereoscopic image generation systems have been spotlighted as systems for generating images that are more realistic in the fields of movies and games. For example, in a binocular stereoscopic image generation system which is one of the stereoscopic image generation systems, an image for the left eye and an image for the right eye are generated. Then, for example, the player wears stereoscopic glasses, the left eye sees only the left eye image, and the right eye sees only the right eye image, thereby realizing stereoscopic vision. As a conventional technique of an image generation system that realizes such a stereoscopic view, there is a technique disclosed in Patent Document 1, for example. Further, as a stereoscopic viewing method, there is a naked eye type in addition to the glasses type. For example, a parallax barrier creates a state of “visible to the left eye but not to the right eye” or “visible to the right eye but not to the left eye” for each pixel. Visual system can be realized. Also, by utilizing the refraction of light by an optical element such as a lenticular, the direction of the light is controlled for each pixel, and a state similar to the above can be created to realize a stereoscopic vision system with naked eyes.

このような立体視用画像をCG(Computer Graphics)で生成する場合には、左眼用仮想カメラに対応する左眼用ビューボリューム(左眼用視錐台)を視界に設定して、描画処理を行い、左眼用画像を生成する。また右眼用仮想カメラに対応する右眼用ビューボリューム(右眼用視錐台)を視界に設定して、描画処理を行い、右眼用画像を生成する。   When such a stereoscopic image is generated by CG (Computer Graphics), the left-eye view volume (left-eye frustum) corresponding to the left-eye virtual camera is set as the field of view, and drawing processing is performed. To generate an image for the left eye. In addition, the right eye view volume (right eye frustum) corresponding to the right eye virtual camera is set as the field of view, rendering processing is performed, and a right eye image is generated.

しかしながら、左眼用画像、右眼用画像などの立体視用画像が表示される表示部のディスプレイサイズは有限である。このため、キャラクタなどのオブジェクトを画面から飛び出させる立体視演出を行った場合に、画面からのオブジェクトの飛び出し度合いや飛び出し方向が制限されてしまうという課題があった。   However, the display size of the display unit on which the stereoscopic image such as the left-eye image and the right-eye image is displayed is limited. For this reason, there has been a problem that when a stereoscopic effect that causes an object such as a character to jump out of the screen is performed, the degree and direction of the jumping out of the object from the screen are limited.

特開2004−126902号公報JP 2004-126902 A

本発明の幾つかの態様によれば、立体視表現の自由度の向上等を図れるプログラム、情報記憶媒体、画像生成システム等を提供できる。   According to some aspects of the present invention, it is possible to provide a program, an information storage medium, an image generation system, and the like that can improve the degree of freedom of stereoscopic expression.

本発明の一態様は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行うオブジェクト空間設定部と、主描画領域と、前記主描画領域の周囲に設定される周囲描画領域の設定処理を行う描画領域設定部と、前記複数のオブジェクトのうちの第1のオブジェクトについては、前記主描画領域が描画領域に設定される描画処理を行い、前記複数のオブジェクトのうちの第2のオブジェクトについては、前記主描画領域及び前記周囲描画領域の全体が描画領域に設定される描画処理を行って、立体視用画像を生成する画像生成部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   According to an aspect of the present invention, an object space setting unit that performs an object space setting process in which a plurality of objects are arranged, a main drawing area, and a surrounding drawing area setting process that is set around the main drawing area are performed. For the first object of the plurality of objects, the drawing region setting unit performs a drawing process in which the main drawing region is set as a drawing region, and for the second object of the plurality of objects, The present invention relates to an image generation system including an image generation unit configured to generate a stereoscopic image by performing a drawing process in which the main drawing area and the entire surrounding drawing area are set as a drawing area. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、主描画領域と、その周囲の周囲描画領域が設定される。そして第1のオブジェクトを、主描画領域を描画領域に設定して描画することで、主描画領域の画像が生成される。一方、第2のオブジェクトを、主描画領域及び周囲描画領域の全体を描画領域に設定して描画することで、立体視用画像が生成される。このようにすれば、立体視の対象となる第2のオブジェクトを例えば主描画領域からはみ出して描画することが可能になり、立体視表現の自由度の向上等を図れる。   According to one aspect of the present invention, a main drawing area and a surrounding drawing area around the main drawing area are set. An image of the main drawing area is generated by drawing the first object while setting the main drawing area as the drawing area. On the other hand, a stereoscopic image is generated by drawing the second object by setting the main drawing area and the entire surrounding drawing area as the drawing area. In this way, it is possible to draw the second object to be stereoscopically viewed, for example, outside the main drawing area, and the degree of freedom of stereoscopic expression can be improved.

また本発明の一態様では、前記描画領域設定部は、所与の情報に基づいて、前記主描画領域のサイズ、形状及び位置の少なくとも1つである設定状態を制御してもよい。   In the aspect of the invention, the drawing area setting unit may control a setting state that is at least one of a size, a shape, and a position of the main drawing area based on given information.

このようにすれば、主描画領域のサイズや形状や位置をリアルタイムに変化させることが可能になり、多様な立体視表現を実現できる。   In this way, the size, shape and position of the main drawing area can be changed in real time, and various stereoscopic expressions can be realized.

また本発明の一態様では、前記描画領域設定部は、前記第2のオブジェクトの情報に基づいて、前記主描画領域の前記設定状態を制御してもよい。   In the aspect of the invention, the drawing area setting unit may control the setting state of the main drawing area based on information on the second object.

このようにすれば、第2のオブジェクトの情報を利用して、主描画領域のサイズや形状や位置などの設定状態を変化させ、立体視用画像を生成できるようになる。   In this way, it is possible to generate a stereoscopic image by changing the setting state such as the size, shape, and position of the main drawing area using the information of the second object.

また本発明の一態様では、前記描画領域設定部は、前記第2のオブジェクトの位置情報、方向情報、移動情報、個数情報及び画面での占有面積情報の少なくとも1つに基づいて、前記主描画領域の前記設定状態を制御してもよい。   In the aspect of the invention, the drawing area setting unit may perform the main drawing based on at least one of position information, direction information, movement information, number information, and occupied area information on the screen of the second object. The setting state of the area may be controlled.

このようにすれば、第2のオブジェクトの位置情報や方向情報や移動情報や個数情報や占有面積情報を反映させた、主描画領域の設定状態の制御を実現できる。   In this way, control of the setting state of the main drawing area reflecting the position information, direction information, movement information, number information, and occupied area information of the second object can be realized.

また本発明の一態様では、前記描画領域設定部は、ユーザの入力情報に基づいて、前記主描画領域の前記設定状態を制御してもよい。   In the aspect of the invention, the drawing area setting unit may control the setting state of the main drawing area based on user input information.

このようにすれば、ユーザの入力情報に応じた主描画領域の設定状態の制御が可能になる。   In this way, it is possible to control the setting state of the main drawing area in accordance with user input information.

また本発明の一態様では、前記描画領域設定部は、前記ユーザが入力した立体視の強さ設定情報に基づいて、前記主描画領域の前記設定状態を制御してもよい。   In the aspect of the invention, the drawing area setting unit may control the setting state of the main drawing area based on stereoscopic intensity setting information input by the user.

このようにすれば、ユーザが入力した立体視の強さ設定情報に連動させて、主描画領域の設定状態を変化させることが可能になる。   In this way, the setting state of the main drawing area can be changed in conjunction with the stereoscopic intensity setting information input by the user.

また本発明の一態様では、前記描画領域設定部は、時間情報に基づいて、前記主描画領域の前記設定状態を制御してもよい。   In the aspect of the invention, the drawing area setting unit may control the setting state of the main drawing area based on time information.

このようにすれば、時間経過等に応じて主描画領域の設定状態を変化させて、立体視用画像を生成できるようになる。   In this way, it is possible to generate a stereoscopic image by changing the setting state of the main drawing area according to the passage of time or the like.

また本発明の一態様では、前記描画領域設定部は、前記主描画領域及び前記周囲描画領域の少なくとも一方の設定状態を、立体視における複数の視点の第1の視点での描画時と第2の視点での描画時とで、互いに異ならせてもよい。   In the aspect of the invention, the drawing area setting unit may set a setting state of at least one of the main drawing area and the surrounding drawing area at the time of drawing at a first viewpoint among a plurality of viewpoints in a stereoscopic view and a second state. The drawing may be different from each other at the time of drawing.

このようにすれば、立体視表現における自由度や多様度等を更に向上できる。なお、第1、第2の視点は、2眼式の立体視における左眼用視点、右眼用視点であってもよいし、多眼式の立体視における複数の視点であってもよい。   In this way, the degree of freedom and diversity in stereoscopic expression can be further improved. The first and second viewpoints may be a left-eye viewpoint and a right-eye viewpoint in binocular stereoscopic vision, or may be a plurality of viewpoints in multi-eye stereoscopic vision.

また本発明の一態様では、前記描画領域設定部は、前記主描画領域及び前記周囲描画領域の少なくとも一方が設定される位置を、前記第1の視点での描画時と前記第2の視点での描画時とで、互いに異ならせてもよい。   In the aspect of the invention, the drawing area setting unit may set a position at which at least one of the main drawing area and the surrounding drawing area is set at the time of drawing at the first viewpoint and the second viewpoint. It may be different from each other at the time of drawing.

このようにすれば、表示画面が実際とは異なる位置に移動したかのような映像表現等が可能になり、立体視表現における自由度や多様度等を向上できる。   In this way, it is possible to perform video expression and the like as if the display screen has moved to a position different from the actual position, and the degree of freedom and diversity in stereoscopic expression can be improved.

また本発明の一態様では、前記画像生成部は画像処理部を含み、前記画像処理部は、前記周囲描画領域の画像に対して画像処理を行うと共に、前記第2のオブジェクトを前記周囲描画領域に描画する際には、前記画像処理を行わない又は前記画像処理とは異なる態様の画像処理を行ってもよい。   In the aspect of the invention, the image generation unit includes an image processing unit, and the image processing unit performs image processing on the image of the surrounding drawing area, and converts the second object into the surrounding drawing area. When rendering, the image processing may not be performed, or image processing in a mode different from the image processing may be performed.

このようにすれば、周囲描画領域に対して画像処理が施された画像を生成しながら、第2のオブジェクトについては、その画像処理が施されないようにする、或いは異なる態様の画像処理を施して、立体視用画像を生成できるようになる。   In this way, while generating an image subjected to image processing on the surrounding drawing area, the second object is not subjected to the image processing or is subjected to image processing of a different aspect. A stereoscopic image can be generated.

また本発明の一態様では、前記画像処理部は、前記周囲描画領域の画像に対して、前記周囲描画領域の外側に向かうにつれてピクセル色をターゲット色に近づけるグラデーション処理を行うと共に、前記第2のオブジェクトを前記周囲描画領域に描画する際には、前記グラデーション処理を行わない又はグラデーション度合いが少ないグラデーション処理を行ってもよい。   In the aspect of the invention, the image processing unit may perform gradation processing on the image of the surrounding drawing area so as to make the pixel color closer to the target color toward the outside of the surrounding drawing area. When the object is drawn in the surrounding drawing area, the gradation process may not be performed or the gradation process with a small gradation degree may be performed.

このようにすれば、周囲描画領域に対してグラデーション処理を行うことが可能になると共に、第2のオブジェクトについては、そのグラデーション処理が施されないようにする、或いはグラデーション度合いが少ないグラデーション処理を施して、立体視用画像を生成できるようになる。   In this way, gradation processing can be performed on the surrounding drawing area, and the second object is not subjected to gradation processing, or gradation processing with a low gradation degree is performed. A stereoscopic image can be generated.

また本発明の一態様では、前記画像処理部は、前記周囲描画領域の画像に対してぼかし処理を行うと共に、前記第2のオブジェクトを前記周囲描画領域に描画する際には、前記ぼかし処理を行わない又はぼかし度合いが少ないぼかし処理を行ってもよい。   In one aspect of the present invention, the image processing unit performs a blurring process on the image of the surrounding drawing area, and performs the blurring process when drawing the second object in the surrounding drawing area. You may perform the blurring process which is not performed or the degree of blurring is small.

このようにすれば、周囲描画領域に対してぼかし処理を行うことが可能になると共に、第2のオブジェクトについては、そのぼかし処理が施されないようにする、或いはぼかし度合いが少ないぼかし処理を施して、立体視用画像を生成できるようになる。   In this way, it is possible to perform the blurring process on the surrounding drawing area, and the second object is not subjected to the blurring process or is subjected to a blurring process with a low degree of blurring. A stereoscopic image can be generated.

また本発明の一態様では、前記画像生成部は、前記周囲描画領域に、表示枠画像が描画された立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a stereoscopic image in which a display frame image is drawn in the surrounding drawing area.

このようにすれば、周囲描画領域を、あたかも表示部の本物の画面のように見せかけて、立体視用画像を生成できるようになる。   In this way, it is possible to generate a stereoscopic image by making the surrounding drawing area look like a real screen of the display unit.

また本発明の一態様では、前記画像生成部は、前記周囲描画領域に、前記第2のオブジェクトの少なくとも一部がはみ出て描画された立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a stereoscopic image in which at least a part of the second object is drawn in the surrounding drawing area.

このようにすれば、第2のオブジェクトの少なくとも一部がはみ出て描画された立体視用画像を生成することで、例えば立体視の飛び出し効果の高い画像を生成できるようになる。   In this way, by generating a stereoscopic image in which at least a part of the second object is drawn and drawn, it is possible to generate an image having a high stereoscopic effect, for example.

また本発明の一態様では、前記画像生成部は、前記周囲描画領域に、前記第2のオブジェクトである情報表示オブジェクトの少なくとも一部がはみ出て描画された立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a stereoscopic image in which at least a part of the information display object that is the second object protrudes in the surrounding drawing area. .

このようにすれば、これまでにない立体視表現で情報表示オブジェクトを表示できるようになる。   In this way, the information display object can be displayed with an unprecedented stereoscopic expression.

また本発明の一態様では、前記画像生成部は、前記第1のオブジェクトについては、前記主描画領域が描画領域に設定された描画処理を行い、前記第2のオブジェクトについては、前記主描画領域及び前記周囲描画領域の全体が描画領域に設定された描画処理を行って、左眼用画像を生成する左眼用画像生成部と、前記第1のオブジェクトについては、前記主描画領域が描画領域に設定された描画処理を行い、前記第2のオブジェクトについては、前記主描画領域及び前記周囲描画領域の全体が描画領域に設定された描画処理を行って、右眼用画像を生成する右眼用画像生成部とを含んでもよい。   In the aspect of the invention, the image generation unit may perform a drawing process in which the main drawing area is set as a drawing area for the first object, and the main drawing area for the second object. And a left-eye image generation unit that generates a left-eye image by performing a drawing process in which the entire surrounding drawing area is set as a drawing area, and for the first object, the main drawing area is the drawing area. A right eye that generates a right-eye image by performing a drawing process in which the main drawing area and the entire surrounding drawing area are set as a drawing area for the second object. And an image generation unit.

このようにすれば、2眼分離眼鏡方式等の立体視に対して本発明の手法を適用して、立体視表現の自由度の向上等を図れるようになる。   In this way, the technique of the present invention can be applied to stereoscopic vision such as a two-eye separation spectacle system to improve the degree of freedom of stereoscopic expression.

本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system according to the present embodiment. 左眼用ビューボリューム、右眼用ビューボリュームの設定手法の説明図。Explanatory drawing of the setting method of the view volume for left eyes, and the view volume for right eyes. 立体視におけるオブジェクトの描画位置の説明図。Explanatory drawing of the drawing position of the object in stereoscopic vision. 従来手法の問題点についての説明図。Explanatory drawing about the problem of a conventional method. 本実施形態の手法の説明図。Explanatory drawing of the method of this embodiment. 本実施形態により生成される画像の例。The example of the image produced | generated by this embodiment. 本実施形態により生成される画像の例。The example of the image produced | generated by this embodiment. 本実施形態により生成される画像の例。The example of the image produced | generated by this embodiment. 本実施形態の手法の優位点の説明図。Explanatory drawing of the advantage of the method of this embodiment. 図10(A)、図10(B)は左眼用主描画領域と右眼用主描画領域を別々に設定する手法の説明図。FIGS. 10A and 10B are explanatory diagrams of a method for separately setting the main drawing area for the left eye and the main drawing area for the right eye. 図11(A)、図11(B)は飛び出し対象オブジェクトの位置情報に基づいて主描画領域の設定状態を制御する手法の説明図。FIG. 11A and FIG. 11B are explanatory diagrams of a method for controlling the setting state of the main drawing area based on the position information of the pop-out target object. 図12(A)、図12(B)は飛び出し対象オブジェクトの個数情報に基づいて主描画領域の設定状態を制御する手法の説明図。FIGS. 12A and 12B are explanatory diagrams of a method for controlling the setting state of the main drawing area based on the number information of the pop-out target objects. 図13(A)、図13(B)はユーザの入力情報に基づいて主描画領域の設定状態を制御する手法の説明図。13A and 13B are explanatory diagrams of a method for controlling the setting state of the main drawing area based on user input information. 時間情報に基づいて主描画領域の設定状態を制御する手法の説明図。Explanatory drawing of the method of controlling the setting state of a main drawing area | region based on time information. 本実施形態の画像処理手法の説明図。Explanatory drawing of the image processing method of this embodiment. 本実施形態の画像処理手法の説明図。Explanatory drawing of the image processing method of this embodiment. 図17(A)、図17(B)は本実施形態の変形例の手法の説明図。FIG. 17A and FIG. 17B are explanatory diagrams of a method of a modification of the present embodiment. 図18(A)、図18(B)は左眼用周囲描画領域と右眼用周囲描画領域を別々に設定する手法の説明図。FIG. 18A and FIG. 18B are explanatory diagrams of a method for separately setting a left-eye surrounding drawing area and a right-eye surrounding drawing area. 図19(A)、図19(B)は本実施形態の変形例の手法の説明図。FIG. 19A and FIG. 19B are explanatory diagrams of a method of a modification of the present embodiment. 図20(A)、図20(B)は本実施形態の変形例の手法の説明図。FIG. 20A and FIG. 20B are explanatory diagrams of a method of a modification of the present embodiment. 本実施形態の変形例の手法の説明図。Explanatory drawing of the method of the modification of this embodiment. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 図26(A)、図26(B)は本実施形態の手法が適用される立体視用画像生成手法の説明図。26A and 26B are explanatory diagrams of a stereoscopic image generation method to which the method of this embodiment is applied.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)のブロック図の例を示す。なお、本実施形態の画像生成システムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows an example of a block diagram of an image generation system (game system) of the present embodiment. Note that the configuration of the image generation system of the present embodiment is not limited to that shown in FIG. 1, and various modifications may be made such as omitting some of the components (each unit) or adding other components. .

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、操作ボタン、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 is for a player to input operation data, and functions thereof are direction instruction keys, operation buttons, analog sticks, levers, various sensors (such as an angular velocity sensor and an acceleration sensor), a microphone, or a touch panel type. This can be realized with a display.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), memory (ROM, etc.), etc. Can be realized. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.

通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバ、ホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (for example, another image generation system, a server, or a host device) via a wired or wireless network, and functions as a communication ASIC, a communication processor, or the like. It can be realized by hardware and communication firmware.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium of a server (host device) via an information storage medium 180 (or storage unit 170, auxiliary storage) via a network and communication unit 196. May be distributed to the device 194). Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、ゲーム演算部102、オブジェクト空間設定部104、移動体演算部106、仮想カメラ制御部108、描画領域設定部110、画像生成部120、音生成部130を含む。   The processing unit 100 includes a game calculation unit 102, an object space setting unit 104, a moving body calculation unit 106, a virtual camera control unit 108, a drawing area setting unit 110, an image generation unit 120, and a sound generation unit 130.

ゲーム演算部102はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 102 performs game calculation processing. Here, as a game calculation, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied and so on.

オブジェクト空間設定部104は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、キャラクタ(人、動物、ロボット、車、船舶、飛行機等)、マップ(地形)、建物、コース(道路)、樹木、壁などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部172には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部104は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。   The object space setting unit 104 performs an object space setting process in which a plurality of objects are arranged. For example, various objects (polygon, free-form surface or subdivision surface) representing display objects such as characters (people, animals, robots, cars, ships, airplanes, etc.), maps (terrain), buildings, courses (roads), trees, walls, etc. The object is configured to place and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the object data storage unit 172 of the storage unit 170 stores object data such as the position, rotation angle, moving speed, moving direction, etc. of the object (part object) in association with the object number. . The object space setting unit 104 performs a process of updating the object data for each frame, for example.

移動体演算部106は、キャラクタ等の移動体を移動させるための演算を行う。また移動体(移動体オブジェクト)を動作させるための演算も行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(オブジェクト、モデルオブジェクト)をオブジェクト空間内で移動させたり、移動体を動作(モーション、アニメーション)させる処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The moving object calculation unit 106 performs an operation for moving a moving object such as a character. Also, a calculation for operating the moving object (moving object) is performed. That is, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), etc., a moving body (object, model object) is moved in the object space, Performs processing to move the moving body (motion, animation). Specifically, a simulation process for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (1/60 second). I do. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object.

仮想カメラ制御部108は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 108 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラによりキャラクタを後方から撮影する場合には、キャラクタの位置又は方向の変化に仮想カメラが追従するように、仮想カメラの位置(視点位置)や方向(視線方向)を制御する。この場合には、移動体演算部106で得られたキャラクタの位置、方向又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は方向を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when a character is photographed from behind using a virtual camera, the position (viewpoint position) and direction (gaze direction) of the virtual camera are controlled so that the virtual camera follows changes in the position or direction of the character. In this case, the virtual camera can be controlled based on information such as the position, direction, or speed of the character obtained by the moving body computing unit 106. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on virtual camera data for specifying the position (movement path) or direction of the virtual camera.

描画領域設定部110は、描画領域についての種々の設定処理を行う。具体的には、描画バッファ178に描画領域を確保する処理などを行う。   The drawing area setting unit 110 performs various setting processes for the drawing area. Specifically, processing for securing a drawing area in the drawing buffer 178 is performed.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、描画処理は頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The image generation unit 120 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that the rendering process can be realized by a vertex shader process, a pixel shader process, or the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

そして本実施形態では、オブジェクト空間設定部104が、複数のオブジェクトが配置されるオブジェクト空間の設定処理(配置処理等)を行う。また描画領域設定部110が、主描画領域と、主描画領域の周囲に設定される周囲描画領域の設定処理を行う。例えば描画バッファ178に対して主描画領域(中央描画領域)や周囲描画領域(周辺描画領域)の領域指定(アドレス指定)を行って、主描画領域及び周囲描画領域を描画バッファ178に確保する処理を行う。   In this embodiment, the object space setting unit 104 performs an object space setting process (arrangement process or the like) in which a plurality of objects are arranged. In addition, the drawing area setting unit 110 performs processing for setting a main drawing area and a surrounding drawing area set around the main drawing area. For example, the main drawing area (center drawing area) and the surrounding drawing area (peripheral drawing area) are designated (address designation) for the drawing buffer 178, and the main drawing area and the surrounding drawing area are secured in the drawing buffer 178. I do.

そして画像生成部120は、複数のオブジェクトのうちの第1のオブジェクト(例えば背景オブジェクト)については、主描画領域が描画領域に設定される描画処理を行う。一方、複数のオブジェクトのうちの第2のオブジェクト(例えば飛び出し対象オブジェクト)については、主描画領域及び周囲描画領域の全体が描画領域に設定される描画処理を行って、立体視用画像(左眼用画像、右眼用画像等)を生成する。   Then, the image generation unit 120 performs a drawing process in which the main drawing area is set as the drawing area for the first object (for example, the background object) among the plurality of objects. On the other hand, for the second object (for example, the pop-out target object) of the plurality of objects, a drawing process in which the main drawing area and the entire surrounding drawing area are set as the drawing area is performed, and the stereoscopic image (left eye) Image, right eye image, etc.).

このように本実施形態では、第1のオブジェクトについては主描画領域が描画領域に設定されて描画されるのに対して、第2のオブジェクトについては、主描画領域のみならず周囲描画領域も描画領域に設定されて描画され、立体視用画像が生成されるようになる。従って、周囲描画領域にはみ出して第2のオブジェクトを描画できるようになり、例えば画面から手前側に第2のオブジェクトが大きく飛び出して見える立体視表現や、画面の横方向に第2のオブジェクトが飛び出して見える立体視表現などが可能になり、立体視表現の自由度の向上等を図れる。   As described above, in the present embodiment, the first object is drawn with the main drawing area set as the drawing area, while the second object is drawn not only in the main drawing area but also in the surrounding drawing area. A region is set and rendered, and a stereoscopic image is generated. Accordingly, the second object can be drawn by protruding into the surrounding drawing area. For example, a stereoscopic expression in which the second object appears to protrude greatly from the screen to the near side, or the second object protrudes in the horizontal direction of the screen. Stereoscopic viewing and the like can be realized, and the degree of freedom of stereoscopic expression can be improved.

なお、主描画領域は、例えば表示部190の画面中央に対応する描画領域であり、オブジェクト描画のメインとなる描画領域である。周囲描画領域は、主描画領域の周囲(周辺)に設けられる描画領域であり、例えば主描画領域は、周囲描画領域に囲まれた領域になる。これらの主描画領域、周囲描画領域は例えば描画バッファ178上に確保される領域であり、領域のサイズ、形状又は位置等の設定状態(設定情報)を可変に設定できる。   The main drawing area is a drawing area corresponding to the center of the screen of the display unit 190, for example, and is a main drawing area for object drawing. The surrounding drawing area is a drawing area provided around (periphery) the main drawing area. For example, the main drawing area is an area surrounded by the surrounding drawing area. These main drawing area and surrounding drawing area are areas secured on the drawing buffer 178, for example, and the setting state (setting information) such as the size, shape, or position of the area can be variably set.

また第1のオブジェクトは、例えば背景などのオブジェクトであり、この第1のオブジェクトは、主描画領域に描画される。一方、第2のオブジェクトは、例えば画面から飛び出して見えることが想定される飛び出し対象オブジェクトであり、主描画領域のみならず周囲描画領域にも描画される。また立体視用画像は、2眼分離眼鏡方式等を例にとれば、左眼用画像、右眼用画像である。但し立体視用画像は、2眼分離眼鏡方式の左眼用画像、右眼用画像には限定されず、裸眼方式方式の立体視用画像であってもかまわない。裸眼方式には、裸眼2眼式のほか、多眼方式や、空間像方式等が含まれる。空間像方式としては、例えば「フラクショナル・ビュー方式」(特開2006−048659号公報)が提案されている。   The first object is an object such as a background, for example, and the first object is drawn in the main drawing area. On the other hand, the second object is, for example, a pop-out target object that is expected to pop out from the screen, and is drawn not only in the main drawing area but also in the surrounding drawing area. Further, the stereoscopic image is a left-eye image and a right-eye image, for example, using a two-eye separation spectacle system. However, the stereoscopic image is not limited to the left-eye image and the right-eye image of the two-eye separation spectacle method, and may be a naked-eye type stereoscopic image. The naked-eye method includes a multi-eye method, an aerial image method, and the like in addition to the naked-eye binocular method. As the aerial image method, for example, a “fractional view method” (Japanese Patent Laid-Open No. 2006-048659) has been proposed.

また本実施形態では描画領域設定部110は、所与の情報(描画領域設定用情報)に基づいて、主描画領域の設定状態(設定情報、設定状況)を制御する。ここで主描画領域の設定状態は、主描画領域(周囲描画領域)のサイズ、形状及び位置の少なくとも1つである。そして主描画領域のサイズは主描画領域の面積等であり、主描画領域の形状は、主描画領域の外形形状等であり、主描画領域の位置は主描画領域の設定位置等である。なお、主描画領域の設定状態を制御することは、周囲描画領域の設定状態(サイズ、形状又は位置)を制御することと等価である。   In the present embodiment, the drawing area setting unit 110 controls the setting state (setting information, setting status) of the main drawing area based on given information (drawing area setting information). Here, the setting state of the main drawing area is at least one of the size, shape and position of the main drawing area (surrounding drawing area). The size of the main drawing area is the area of the main drawing area, the shape of the main drawing area is the outer shape of the main drawing area, and the position of the main drawing area is the setting position of the main drawing area. Note that controlling the setting state of the main drawing area is equivalent to controlling the setting state (size, shape, or position) of the surrounding drawing area.

例えば描画領域設定部110は、第2のオブジェクトの情報に基づいて、主描画領域の設定状態(サイズ、位置又は形状)を制御する。具体的には、第2のオブジェクトの位置情報、方向情報、移動情報、個数情報及び画面での占有面積情報の少なくとも1つに基づいて、主描画領域の設定状態を制御する。ここで第2のオブジェクトの位置情報は、例えば第2のオブジェクトのX座標、Y座標又はZ座標情報などであり、方向情報は、第2のオブジェクトの進行方向情報又は視線方向情報などである。また移動情報は、速度情報、加速度情報、角速度情報又は角加速度情報などである。また個数情報は、第2のオブジェクトの個数(出現数)を表す情報であり、占有面積情報は、例えば表示部190の画面において第2のオブジェクト(1又は複数の第2のオブジェクト)の画像が占有する面積を表す情報などである。   For example, the drawing area setting unit 110 controls the setting state (size, position, or shape) of the main drawing area based on the information of the second object. Specifically, the setting state of the main drawing area is controlled based on at least one of position information, direction information, movement information, number information, and occupied area information on the screen of the second object. Here, the position information of the second object is, for example, X-coordinate, Y-coordinate, or Z-coordinate information of the second object, and the direction information is the traveling direction information or the line-of-sight direction information of the second object. The movement information is speed information, acceleration information, angular velocity information, angular acceleration information, or the like. The number information is information representing the number (number of appearances) of the second object, and the occupied area information is, for example, an image of the second object (one or a plurality of second objects) on the screen of the display unit 190. Information indicating the occupied area.

また描画領域設定部110は、ユーザの入力情報に基づいて、主描画領域の設定状態を制御してもよい。この入力情報は、例えば操作部160を介してユーザ(狭義にはプレーヤ)により入力される情報である。具体的には描画領域設定部110は、ユーザが入力した立体視の強さ設定情報に基づいて、主描画領域の設定状態を制御する。或いは描画領域設定部110は、時間情報に基づいて、主描画領域の設定状態を制御してもよい。ここで時間情報は、ゲーム等の経過時間情報又はプレイ時間情報などの情報であり、時間経過や日時やプレイ時間などを表す情報である。   The drawing area setting unit 110 may control the setting state of the main drawing area based on user input information. This input information is information input by a user (a player in a narrow sense) via the operation unit 160, for example. Specifically, the drawing area setting unit 110 controls the setting state of the main drawing area based on the stereoscopic intensity setting information input by the user. Alternatively, the drawing area setting unit 110 may control the setting state of the main drawing area based on the time information. Here, the time information is information such as elapsed time information or play time information of a game or the like, and is information representing time elapsed, date and time, play time, or the like.

また描画領域設定部110は、主描画領域及び周囲描画領域の少なくとも一方の設定状態を、立体視における複数の視点の第1の視点での描画時と、第2の視点(第1の視点とは異なる他の視点)での描画時とで、互いに異ならせてもよい。例えば第1の視点での描画時と第2の視点での描画時とで、主描画領域の設定状態を異ならせたり、周囲描画領域の設定状態を異ならせたり、主描画領域及び周囲描画領域の両方の設定状態を異ならせてもよい。例えば第1の視点での描画時には第1の設定状態にし、第2の視点での描画時には第2の設定状態にする。ここで設定状態は、主描画領域、周囲描画領域の設定位置、サイズ又は形状等である。また第1、第2の視点は2眼式の視点であってもよいし、多眼式(3眼以上)の視点であってもよい。   In addition, the drawing area setting unit 110 changes the setting state of at least one of the main drawing area and the surrounding drawing area at the time of drawing at the first viewpoint among the plurality of viewpoints in the stereoscopic view and the second viewpoint (the first viewpoint and the first viewpoint). May be different at the time of drawing at different viewpoints). For example, when drawing from the first viewpoint and drawing from the second viewpoint, the main drawing area setting state is different, the surrounding drawing area setting state is different, the main drawing area and the surrounding drawing area Both of the setting states may be different. For example, the first setting state is set when drawing at the first viewpoint, and the second setting state is set when drawing at the second viewpoint. Here, the setting state is the setting position, size or shape of the main drawing area and the surrounding drawing area. In addition, the first and second viewpoints may be binocular viewpoints or multi-lens viewpoints (three or more eyes).

更に具体的には描画領域設定部110は、主描画領域及び周囲描画領域の少なくとも一方が設定される位置を、第1の視点での描画時と第2の視点での描画時とで、互いに異ならせてもよい。例えば第1の視点での描画時には第1の位置に設定し、第2の視点での描画時には第2の位置に設定する。   More specifically, the drawing area setting unit 110 sets the position at which at least one of the main drawing area and the surrounding drawing area is set between the drawing at the first viewpoint and the drawing at the second viewpoint. It may be different. For example, the first position is set at the time of drawing at the first viewpoint, and the second position is set at the time of drawing at the second viewpoint.

また画像生成部120は画像処理部122を含む。そして画像処理部122は、周囲描画領域の画像に対して画像処理を行う。一方、画像処理部122は、第2のオブジェクトを周囲描画領域に描画する際には、画像処理を行わない又は画像処理とは異なる態様の画像処理を行う。ここで異なる態様の画像処理とは、画像処理のエフェクトの度合い(程度)や種類等が異なる処理を意味する。   The image generation unit 120 includes an image processing unit 122. The image processing unit 122 performs image processing on the image in the surrounding drawing area. On the other hand, the image processing unit 122 does not perform image processing or performs image processing in a mode different from image processing when drawing the second object in the surrounding drawing area. Here, the different types of image processing mean processes having different degrees (degrees) and types of image processing effects.

具体的には画像処理部122は、周囲描画領域の画像に対して、周囲描画領域の外側に向かうにつれてピクセル色をターゲット色に近づけるグラデーション処理を行う。一方、第2のオブジェクトを周囲描画領域に描画する際には、グラデーション処理を行わない又はグラデーション度合いが少ないグラデーション処理(広義には異なる態様のグラデーション処理)を行う。或いは、画像処理部122は、周囲描画領域の画像に対してぼかし処理(ブラー処理)を行う。一方、第2のオブジェクトを周囲描画領域に描画する際には、ぼかし処理を行わない又はぼかし度合いが少ないぼかし処理(広義には異なる態様のぼかし処理)を行う。   Specifically, the image processing unit 122 performs gradation processing on the image of the surrounding drawing area so that the pixel color approaches the target color as it goes outside the surrounding drawing area. On the other hand, when drawing the second object in the surrounding drawing area, gradation processing is not performed or gradation processing with a small gradation degree (gradation processing in a different form in a broad sense) is performed. Alternatively, the image processing unit 122 performs blurring processing (blur processing) on the image in the surrounding drawing area. On the other hand, when drawing the second object in the surrounding drawing area, the blurring process is not performed or the blurring process with a low degree of blurring (blurring process in a different manner in a broad sense) is performed.

また画像生成部120は、周囲描画領域に、表示枠画像が描画された立体視用画像を生成してもよい。ここで表示枠画像は、主描画領域を擬似的な画面とした場合に、その画面の周囲に画面の表示枠として表示される画像である。   The image generation unit 120 may generate a stereoscopic image in which a display frame image is drawn in the surrounding drawing area. Here, the display frame image is an image displayed as a display frame of the screen around the screen when the main drawing area is a pseudo screen.

なお第2のオブジェクトは、例えば第1のオブジェクトよりも仮想カメラ(左眼用仮想カメラ、右眼用仮想カメラ、基準仮想カメラ)から見て手前側(奥行き方向において手前側)に配置されるオブジェクトである。そして画像生成部120は、周囲描画領域に、第2のオブジェクトの少なくとも一部がはみ出て描画された立体視用画像を生成する。例えば画像生成部120は、周囲描画領域に、第2のオブジェクトである情報表示オブジェクトの少なくとも一部がはみ出て描画された立体視用画像を生成する。ここで情報表示オブジェクトは、各種の情報をユーザ(プレーヤ)に伝えるためのオブジェクトであり、伝えられる情報としては、ユーザの使用キャラクタの情報(ステータス情報等)、敵の情報、ゲーム状況情報又はマップ情報などである。   The second object is, for example, an object arranged closer to the front side (front side in the depth direction) than the first object when viewed from the virtual camera (the left eye virtual camera, the right eye virtual camera, or the reference virtual camera). It is. Then, the image generation unit 120 generates a stereoscopic image in which at least a part of the second object protrudes from the surrounding drawing area. For example, the image generation unit 120 generates a stereoscopic image in which at least a part of the information display object, which is the second object, is drawn in the surrounding drawing area. Here, the information display object is an object for transmitting various types of information to the user (player). Examples of the transmitted information include user character information (status information, etc.), enemy information, game situation information, or a map. Information.

また2眼分離眼鏡方式の場合には、画像生成部120は、左眼用画像生成部(広義には第1視点画像生成部)124、右眼用画像生成部(広義には第2視点画像生成部)126を含む。この場合には左眼用画像生成部124は、第1のオブジェクトについては、主描画領域が描画領域に設定された描画処理を行い、第2のオブジェクトについては、主描画領域及び周囲描画領域の全体が描画領域に設定された描画処理を行って、左眼用画像を生成する。即ち左眼用仮想カメラの視点(広義には第1の視点)での画像である左眼用画像(広義には第1視点画像)を生成する。また右眼用画像生成部(広義には第2視点画像生成部)126も、第1のオブジェクトについては、主描画領域が描画領域に設定された描画処理を行い、第2のオブジェクトについては、主描画領域及び周囲描画領域の全体が描画領域に設定された描画処理を行って、右眼用画像を生成する。即ち右眼用仮想カメラの視点(広義には第2の視点)での画像である右眼用画像(広義には第2視点画像)を生成する。   In the case of the two-eye separation spectacle method, the image generation unit 120 includes a left-eye image generation unit (first viewpoint image generation unit in a broad sense) 124 and a right-eye image generation unit (second viewpoint image in a broad sense). Generating section) 126. In this case, the left-eye image generation unit 124 performs the drawing process in which the main drawing area is set as the drawing area for the first object, and the main drawing area and the surrounding drawing area for the second object. The left eye image is generated by performing a drawing process in which the whole is set in the drawing area. That is, a left-eye image (first viewpoint image in a broad sense) that is an image at the viewpoint (first viewpoint in a broad sense) of the left-eye virtual camera is generated. The right-eye image generation unit (second viewpoint image generation unit in a broad sense) 126 also performs a drawing process in which the main drawing area is set as the drawing area for the first object, and for the second object, The right eye image is generated by performing a drawing process in which the main drawing area and the entire surrounding drawing area are set as the drawing area. That is, an image for the right eye (second viewpoint image in a broad sense) that is an image at the viewpoint (second viewpoint in a broad sense) of the virtual camera for the right eye is generated.

なお仮想カメラ制御部108は、例えば左眼用、右眼用仮想カメラを設定するための基準となる基準仮想カメラの制御を行う。そして、得られた基準仮想カメラの位置情報、方向情報と、設定されたカメラ間距離の情報に基づいて、左眼用、右眼用仮想カメラの位置情報(視点位置)、方向情報(視線方向)を求める。なお仮想カメラ制御部108が、左眼用、右眼用仮想カメラを直接制御するようにしてもよい。   Note that the virtual camera control unit 108 controls a reference virtual camera serving as a reference for setting, for example, left-eye and right-eye virtual cameras. Then, based on the obtained position information and direction information of the reference virtual camera and information on the set inter-camera distance, position information (viewpoint position) and direction information (line-of-sight direction) of the left-eye and right-eye virtual cameras ) Note that the virtual camera control unit 108 may directly control the left-eye and right-eye virtual cameras.

また立体方式としては、2眼分離眼鏡方式や、パララックスバリアやレンチキュラや、その他、光線の方向を制御することができる光学素子を用いた裸眼方式などの様々な方式を想定できる。2眼分離眼鏡方式としては、例えば偏光眼鏡方式、継時分離方式、色分離方式などがある。偏光眼鏡方式では、例えば表示部190の奇数ラインと偶数ラインに左眼用画像と右眼用画像を交互に表示し、これを偏光眼鏡(例えば左眼に水平方向の偏光フィルタ、右眼に垂直方向の偏光フィルタを付けた眼鏡)で見ることで立体視を実現する。或いは左眼用画像と右眼用画像を特殊な偏光フィルタを有するプロジェクタで投影し、投影画像を偏光眼鏡で見ることで立体視を実現してもよい。また継時分離方式(ページ・フリップ方式)では、表示部190に左眼用画像、右眼用画像を所定期間毎(例えば1/120秒毎、1/60秒毎)に交互に表示する。そして、この表示の切り替えに連動して液晶シャッター付きの眼鏡の左眼、右眼の液晶シャッターを交互に開閉することで、立体視を実現する。色分離方式では、例えばアナグリフ画像を生成し、赤青眼鏡等で見ることで、立体視を実現する。   As a stereoscopic method, various methods such as a two-eye separation spectacle method, a parallax barrier, a lenticular, and a naked eye method using an optical element capable of controlling the direction of light can be assumed. Examples of the binocular separation glasses method include a polarization glasses method, a time separation method, and a color separation method. In the polarized glasses method, for example, the left-eye image and the right-eye image are alternately displayed on the odd-numbered and even-numbered lines of the display unit 190, and this is displayed on the polarized glasses (for example, the horizontal polarization filter for the left eye and the vertical for the right eye). Stereoscopic viewing is realized by viewing with a pair of spectacles with a directional polarizing filter. Alternatively, the stereoscopic image may be realized by projecting the image for the left eye and the image for the right eye with a projector having a special polarization filter and viewing the projection image with polarized glasses. In the continuous separation method (page-flip method), the left-eye image and the right-eye image are alternately displayed on the display unit 190 every predetermined period (for example, every 1/120 second or 1/60 second). In conjunction with the switching of the display, the left and right liquid crystal shutters of the glasses with the liquid crystal shutter are alternately opened and closed to realize stereoscopic viewing. In the color separation method, for example, an anaglyph image is generated and viewed with red-blue glasses or the like to realize stereoscopic viewing.

また左眼用画像と右眼用画像から立体用視画像を生成する機能は、画像生成部120に持たせてもよいし、表示部190(テレビ等)に持たせてもよい。例えば画像生成部120が、サイドバイサイド方式の画像信号を出力する。すると表示部190が、このサイドバイサイドの画像信号に基づいて、奇数ラインと偶数ラインに左眼用画像と右眼用画像が交互に割り当てられるフィールドシーケンシャル方式の画像を表示する。或いは、左眼用画像と右眼用画像が所定期間毎に交互に切り替えられるフレームシーケンシャル方式の画像を表示する。或いは画像生成部120の方が、フィールドシーケンシャル方式やフレームシーケンシャル方式の画像を生成して、表示部190に出力するようにしてもよい。   In addition, the function of generating a stereoscopic image from the left-eye image and the right-eye image may be provided in the image generation unit 120 or may be provided in the display unit 190 (such as a television). For example, the image generation unit 120 outputs a side-by-side image signal. Then, the display unit 190 displays a field sequential image in which left-eye images and right-eye images are alternately assigned to odd lines and even lines based on the side-by-side image signal. Alternatively, a frame sequential image in which the left-eye image and the right-eye image are alternately switched every predetermined period is displayed. Alternatively, the image generation unit 120 may generate a field sequential method or frame sequential method image and output the generated image to the display unit 190.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。
2. Next, the method of this embodiment will be described in detail.

2.1 主描画領域、周囲描画領域の設定
まず立体視におけるビューボリュームの設定について説明する。図2に示すように、立体視用画像を生成するためには、所与のカメラ間距離だけ離れた位置に設定される左眼用仮想カメラVCLと右眼用仮想カメラVCRを用いる。
2.1 Setting of main drawing area and surrounding drawing area First, setting of a view volume in stereoscopic view will be described. As shown in FIG. 2, in order to generate a stereoscopic image, a left-eye virtual camera VCL and a right-eye virtual camera VCR that are set at positions separated by a given inter-camera distance are used.

そして左眼用仮想カメラVCLに対応して左眼用ビューボリュームVVL(左眼用視錐台)が設定され、右眼用仮想カメラVCRに対応して右眼用ビューボリュームVVR(右眼用視錐台)が設定される。具体的には左眼用、右眼用仮想カメラVCL、VCRの位置や方向に基づいて、左眼用、右眼用ビューボリュームVVL、VVRの位置や方向が設定される。   Then, a left-eye view volume VVL (left-eye view frustum) is set corresponding to the left-eye virtual camera VCL, and a right-eye view volume VVR (right-eye view) corresponding to the right-eye virtual camera VCR. Frustum) is set. Specifically, the positions and directions of the left-eye and right-eye view volumes VVL and VVR are set based on the positions and directions of the left-eye and right-eye virtual cameras VCL and VCR.

この場合に左眼用仮想カメラVCLから見える画像である左眼用画像は、左眼用ビューボリュームVVL内に存在するオブジェクトをスクリーンSCに透視投影して描画することで生成される。同様に右眼用仮想カメラVCRから見える画像である右眼用画像は、右眼用ビューボリュームVVR内に存在するオブジェクトをスクリーンSCに透視投影して描画することで生成される。   In this case, the image for the left eye, which is an image that can be seen from the left-eye virtual camera VCL, is generated by perspectively projecting and drawing an object existing in the left-eye view volume VVL on the screen SC. Similarly, an image for the right eye, which is an image that can be viewed from the virtual camera for right eye VCR, is generated by perspectively projecting an object existing in the right-eye view volume VVR onto the screen SC and drawing it.

この場合、スクリーンSCに透視投影されない位置にあるオブジェクトは、描画対象にはならないため、これらのオブジェクトに対して透視投影変換処理を行うと、処理の無駄となる。このため、各左眼用、右眼用仮想カメラにおいてスクリーンSCに透視投影されない位置にあるオブジェクトがビューボリューム内に入らないように、図2に示すように左眼用、右眼用ビューボリュームVVL、VVRが設定される。なお図2において、CNL、CFLは、各々、左眼用ビューボリュームVVLの前方クリッピング面、後方クリッピング面であり、CNR、CFRは、各々、右眼用ビューボリュームVVRの前方クリッピング面、後方クリッピング面である。   In this case, since objects at positions that are not perspective-projected on the screen SC are not drawn, if perspective projection conversion processing is performed on these objects, processing is wasted. Therefore, as shown in FIG. 2, the left-eye and right-eye view volumes VVL are provided so that objects at positions that are not perspective-projected on the screen SC in the left-eye and right-eye virtual cameras do not enter the view volume. , VVR is set. In FIG. 2, CNL and CFL are the front clipping plane and the rear clipping plane of the left eye view volume VVL, respectively. CNR and CFR are the front clipping plane and the rear clipping plane of the right eye view volume VVR, respectively. It is.

さて、以上のように左眼用画像、右眼用画像を生成して立体視を実現する手法では、左眼用画像と右眼用画像の視差により奥行き感を認識させている。   As described above, in the method of generating the left-eye image and the right-eye image to realize stereoscopic viewing, the sense of depth is recognized by the parallax between the left-eye image and the right-eye image.

例えば図3において、スクリーンSC上の点Aに位置するオブジェクトについての、左眼用画像での描画位置ALと、右眼用画像での描画位置ARは同じ位置になる。   For example, in FIG. 3, the drawing position AL in the left-eye image and the drawing position AR in the right-eye image for the object located at the point A on the screen SC are the same position.

これに対して、点Bに位置するオブジェクトは、左眼用画像では点BLの位置に描画され、右眼用画像では点BRの位置に描画される。そして、このように左眼用画像、右眼用画像の描画位置にズレを持たせることで、点Bに位置するオブジェクトが、画面からユーザの方に飛び出して見える立体視表現を実現できる。   On the other hand, the object located at the point B is drawn at the position of the point BL in the image for the left eye, and is drawn at the position of the point BR in the image for the right eye. Then, by providing a shift in the drawing positions of the left-eye image and the right-eye image in this way, it is possible to realize a stereoscopic expression in which the object located at the point B appears to jump out of the screen toward the user.

しかしながら、左眼用画像、右眼用画像などの立体視用画像が表示される表示部190のディスプレイサイズは有限である。このため、オブジェクトを画面から飛び出させる立体視表現の際に、画面からのオブジェクトの飛び出し度合いや飛び出し方向が制限されてしまう。   However, the display size of the display unit 190 on which stereoscopic images such as the left-eye image and the right-eye image are displayed is finite. For this reason, the degree of projecting and the projecting direction of the object from the screen are limited in the stereoscopic expression in which the object is ejected from the screen.

例えば図4のOB2Rは、オブジェクトOB2の右眼用画像でのオブジェクト画像であり、OB2Lは、オブジェクトOB2の左眼用画像でのオブジェクト画像である。オブジェクト画像OB2RがOB2Lよりも向かって左側にずれている位置関係において、その描画位置のズレが大きくなればなるほど、図3で説明したように、立体視におけるオブジェクトの飛び出し度合いが大きくなる。   For example, OB2R in FIG. 4 is an object image in the image for the right eye of the object OB2, and OB2L is an object image in the image for the left eye of the object OB2. In the positional relationship in which the object image OB2R is shifted to the left side with respect to OB2L, the greater the displacement of the drawing position, the greater the degree of projecting of the object in stereoscopic view as described with reference to FIG.

しかしながら、図4に示すように表示部190のディスプレイサイズは有限であり、従来手法では、表示部190の画面を超えてキャラクタなどのオブジェクトが飛び出して見えるような立体視表現が困難になる。例えば、画面の左右端の周辺にキャラクタなどのオブジェクトが位置する場合、オブジェクトを飛び出させようとすると、すぐに画面の範囲を超えてしまうため、飛び出させられる量が少なくなってしまうという問題があった。   However, as shown in FIG. 4, the display size of the display unit 190 is finite, and with the conventional method, it is difficult to make a stereoscopic expression such that an object such as a character appears beyond the screen of the display unit 190. For example, if an object such as a character is positioned around the left and right edges of the screen, attempting to pop out the object will quickly exceed the screen range, resulting in a small amount of popping out. It was.

そこで本実施形態では、描画領域の周りに余白領域を設け、飛び出し対象となるオブジェクトを描画する際には、余白領域も含む領域に当該オブジェクトを描画する。このようにことで、心理的な錯覚を誘導し、従来手法の問題を解決しているかのように見せかけることができる。即ち、実際のディスプレイサイズよりも小さなサイズの描画領域を設定して背景画像等を描画し、飛び出し対象となるオブジェクトを描画する際には、当該描画領域と余白領域からなる領域に当該オブジェクトを描画する。   Therefore, in the present embodiment, a blank area is provided around the drawing area, and when drawing an object to be popped out, the object is drawn in an area including the blank area. In this way, it is possible to induce a psychological illusion and make it appear as if the problem of the conventional method is solved. In other words, when drawing a background image or the like by setting a drawing area smaller than the actual display size and drawing an object to be popped out, the object is drawn in the area consisting of the drawing area and the margin area. To do.

例えば図5では、主描画領域ARMと、その余白領域となる周囲描画領域ARPが設定される。これらの主描画領域ARM、周囲描画領域ARPは例えば描画バッファ178に確保される。なお主描画領域ARM、周囲描画領域ARPの形状・配置等は図5には限定されず、種々の変形実施が可能である。例えば主描画領域ARMの左右のみに、余白領域となる周囲描画領域ARPを設けてもよいし、主描画領域ARMの上下のみに、余白領域となる周囲描画領域ARPを設けてもよい。もちろん、設ける場所は、左のみ、右のみ、上のみ、下のみ、或いはこれらの組み合わせであってもよい。また主描画領域ARMは矩形領域には限定されず、種々の形状を想定できる。さらには、これらの主描画領域ARMや周囲描画領域ARPの設定状態は、左眼用(第1の視点)と右眼用(第2の視点)とで異なっていてもよい。   For example, in FIG. 5, the main drawing area ARM and the surrounding drawing area ARP serving as the margin area are set. The main drawing area ARM and the surrounding drawing area ARP are secured in the drawing buffer 178, for example. Note that the shape and arrangement of the main drawing area ARM and the surrounding drawing area ARP are not limited to those shown in FIG. 5, and various modifications can be made. For example, the surrounding drawing area ARP serving as the margin area may be provided only on the left and right of the main drawing area ARM, or the surrounding drawing area ARP serving as the margin area may be provided only above and below the main drawing area ARM. Of course, the place to be provided may be only left, only right, only above, only below, or a combination thereof. The main drawing area ARM is not limited to a rectangular area, and various shapes can be assumed. Furthermore, the setting states of the main drawing area ARM and the surrounding drawing area ARP may be different for the left eye (first viewpoint) and the right eye (second viewpoint).

そして本実施形態では図5に示すように、背景などの第1のオブジェクトOB1については、例えば主描画領域ARMだけを描画領域に設定して描画する。一方、飛び出し対象等となる第2のオブジェクトOB2(図3の点Bのオブジェクト)については、主描画領域ARMのみならず周囲描画領域ARPも描画領域に設定して描画する。例えば周囲描画領域ARPに、第2のオブジェクトOB2の少なくとも一部がはみ出て描画されるようにする。   In the present embodiment, as shown in FIG. 5, for the first object OB1 such as the background, for example, only the main drawing area ARM is set as the drawing area and is drawn. On the other hand, the second object OB2 (the object at the point B in FIG. 3) to be popped out is drawn by setting not only the main drawing area ARM but also the surrounding drawing area ARP as the drawing area. For example, at least a part of the second object OB2 protrudes from the surrounding drawing area ARP.

例えば図6では、ドアを表す第1のオブジェクトOB1などの背景オブジェクトが主描画領域ARMに描画されて、背景画像が生成されている。即ち主描画領域ARMだけが描画領域に設定されて、オブジェクトの描画が行われ、主描画領域ARMの画像が生成される。具体的には、主描画領域ARMの画像として、左眼用仮想カメラの視点での画像と右眼用仮想カメラの視点での画像が生成される。なお、この時に図6では、周囲描画領域ARPは、画像が何も書かれていない状態(黒色)、或いは所定色に塗りつぶされた状態になっている。   For example, in FIG. 6, a background object such as a first object OB1 representing a door is drawn in the main drawing area ARM, and a background image is generated. That is, only the main drawing area ARM is set as the drawing area, the object is drawn, and an image of the main drawing area ARM is generated. Specifically, as the image of the main drawing area ARM, an image at the viewpoint of the left-eye virtual camera and an image at the viewpoint of the right-eye virtual camera are generated. At this time, in FIG. 6, the surrounding drawing area ARP is in a state where no image is written (black) or in a state where the image is filled with a predetermined color.

次に、主描画領域ARM及び周囲描画領域ARPの両方が描画領域に設定されて、飛び出し対象となるキャラクタを表す第2のオブジェクトOB2(OB2R、OB2L)が描画される。   Next, both the main drawing area ARM and the surrounding drawing area ARP are set as the drawing area, and the second object OB2 (OB2R, OB2L) representing the character to be popped out is drawn.

ここで、図6ではオブジェクトOB2は仮想カメラ(左眼用仮想カメラ、右眼用仮想カメラ)側にそれほど近づいていないため、オブジェクト画像OB2RとOB2Lの描画位置のズレは少なく、立体視における画面からの飛び出し度合いも少ない。   Here, in FIG. 6, since the object OB2 is not so close to the virtual camera (left-eye virtual camera, right-eye virtual camera) side, the drawing positions of the object images OB2R and OB2L are not misaligned. The degree of popping out is small.

一方、図7ではオブジェクトOB2は仮想カメラ側に近づいており、オブジェクト画像OB2RとOB2Lの描画位置のズレは大きく、画面からの飛び出し度合いも大きい。   On the other hand, in FIG. 7, the object OB2 is closer to the virtual camera side, the drawing positions of the object images OB2R and OB2L are greatly displaced, and the degree of popping out from the screen is large.

しかも図7では、オブジェクトOB2は、主描画領域ARMのみならず周囲描画領域ARPにもその一部が描画されている。従って、ユーザから見ると、あたかもオブジェクトOB2が画面から手前側に大きく飛び出して見えるような画像が生成される。即ち、図4では、表示部190の画面から手前側にオブジェクトOB2が大きく飛び出して見えるような立体視表現は実現できなかった。これに対して図7では、主描画領域ARMにより表現される擬似的な画面から手前側にオブジェクトOB2が大きく飛び出して見える立体視表現を実現できる。   In addition, in FIG. 7, a part of the object OB2 is drawn not only in the main drawing area ARM but also in the surrounding drawing area ARP. Therefore, when viewed from the user, an image is generated as if the object OB2 appears to protrude greatly from the screen to the near side. That is, in FIG. 4, a stereoscopic expression in which the object OB <b> 2 appears to protrude greatly from the screen of the display unit 190 to the near side cannot be realized. On the other hand, in FIG. 7, it is possible to realize a stereoscopic expression in which the object OB2 appears to protrude greatly from the pseudo screen expressed by the main drawing area ARM.

また図8では、オブジェクトOB2は、仮想カメラから見て右方向に移動しており、主描画領域ARMの右方向において周囲描画領域ARPにその一部がはみ出して描画されている。従って、ユーザから見ると、あたかもオブジェクトOB2が画面から右方向に飛び出して見えるようになる。即ち、図4では、表示部190の画面の右方向にオブジェクトOB2が飛び出して見えるような立体視表現は実現できなかった。これに対して図8では、主描画領域ARMにより表現される擬似的な画面から右方向にオブジェクトOB2が飛び出して見える立体視表現を実現できる。   In FIG. 8, the object OB2 is moved in the right direction as viewed from the virtual camera, and a part of the object OB2 is drawn in the surrounding drawing area ARP in the right direction of the main drawing area ARM. Accordingly, when viewed from the user, the object OB2 appears to jump out of the screen in the right direction. That is, in FIG. 4, the stereoscopic expression in which the object OB <b> 2 appears to protrude rightward on the screen of the display unit 190 cannot be realized. On the other hand, in FIG. 8, it is possible to realize a stereoscopic expression in which the object OB2 appears to protrude rightward from the pseudo screen expressed by the main drawing area ARM.

図9は本実施形態の手法の優位点を説明するための図である。例えば図4の従来手法においても、画面の中央部付近のオブジェクトについては、仮想カメラVCL、VCR側に移動させて大きく飛び出させることは可能であった。しかしながら、画面の左端部や右端部のオブジェクトについては、大きく飛び出させようとすると、左眼用、右眼用の仮想カメラVCL、VCRの共通領域の外側に移動することになってしまい、視野範囲に入らなくなるため、大きく飛び出させる立体視を表現できなかった。また、画面の右端部付近のオブジェクトを、更に右側に移動させて飛び出させたり、画面の左端部付近のオブジェクトを、更に左側に移動させて飛び出させることも表現できなかった。   FIG. 9 is a diagram for explaining advantages of the method of this embodiment. For example, even in the conventional method of FIG. 4, it is possible to move the object near the center of the screen to the virtual camera VCL, VCR side so as to jump out greatly. However, if the object at the left end or the right end of the screen is to be protruded greatly, the object moves outside the common area of the left-eye and right-eye virtual cameras VCL, VCR, and the visual field range. I couldn't get into the 3D, so I couldn't express a big 3D view. Further, it is not possible to express that an object near the right edge of the screen is moved further to the right and jumped out, or an object near the left edge of the screen is further moved to the left and popped out.

これに対して本実施形態の手法では、実際の画面サイズよりも小さなサイズの主描画領域ARMが、擬似的な画面としてユーザに見られるようになる。従って、図9に示すように、画面の中央部付近のオブジェクトOB2Aのみならず、主描画領域ARMによる擬似的な画面の端部付近のオブジェクトOB2B、OB2Cについても、仮想カメラVCL、VCR側に大きく移動させて飛び出させることが表現可能になる。   On the other hand, in the method of the present embodiment, the main drawing area ARM having a size smaller than the actual screen size can be seen by the user as a pseudo screen. Therefore, as shown in FIG. 9, not only the object OB2A near the center of the screen but also the objects OB2B and OB2C near the edge of the pseudo screen by the main drawing area ARM are greatly increased toward the virtual cameras VCL and VCR. It is possible to express moving and jumping out.

また本実施形態の手法によれば、図9の左端部付近のオブジェクトOB2Dを、画面(ARM)から更に左方向に飛び出させたり、右端部付近のオブジェクトOB2Eを、画面(ARM)から更に右方向に飛び出させたりするなどの表現が可能になる。   Further, according to the method of the present embodiment, the object OB2D near the left end in FIG. 9 is further projected leftward from the screen (ARM), or the object OB2E near the right end is further moved rightward from the screen (ARM). It is possible to express things like jumping out.

即ち図4の従来技術では、画面の左端部の左側や右端部の右側に、オブジェクトを配置するスペースを設けることができない。これに対して本実施形態では図9に示すように、主描画領域ARMによる擬似的な画面の左端部の左側や右端部の右側に、オブジェクトの配置スペースを設けることができる。従って、画面端部から左方向や右方向へのオブジェクトの飛び出しを、従来よりも自由に行うことが可能になり、立体視表現の自由度を向上できる。   That is, in the prior art of FIG. 4, a space for arranging objects cannot be provided on the left side of the screen or on the right side of the right end. On the other hand, in the present embodiment, as shown in FIG. 9, an object arrangement space can be provided on the left side of the pseudo end screen and the right side of the right end part of the main drawing area ARM. Accordingly, it is possible to make the object jump out from the edge of the screen in the left direction or the right direction more freely than in the past, and the degree of freedom of stereoscopic expression can be improved.

また、主描画領域ARMや周囲描画領域ARPは、左眼映像の描画用(第1の視点での描画用)と、右眼映像の描画用(第2の視点での描画用)に、別々に設定してもよい。例えば図10(A)に示すように、左眼用(第1の視点用)の主描画領域ARMLと、右眼用(第2の視点用)の主描画領域ARMRを、左右にずらした状態で設定してもよい。このようにすることで、図10(B)に示すように、あたかも表示画面が実際とは異なる位置(ARMCの位置、奥側の位置)に移動したかのような映像表現が可能になる。このような設定にした上で、飛び出し対象となるオブジェクトについては、周囲描画領域をも用いて描画することで、図10(B)のように、画面から飛び出している表現を、より効果的に行うことが可能になる。   The main drawing area ARM and the surrounding drawing area ARP are separately provided for drawing the left eye video (for drawing at the first viewpoint) and for drawing the right eye video (for drawing at the second viewpoint). May be set. For example, as shown in FIG. 10A, the main drawing area ARML for the left eye (for the first viewpoint) and the main drawing area ARMR for the right eye (for the second viewpoint) are shifted left and right. It may be set with. In this way, as shown in FIG. 10B, it is possible to perform video expression as if the display screen has moved to a position different from the actual position (ARMC position, back position). With this setting, the object to be popped out is drawn using the surrounding drawing area, so that the expression popping out of the screen can be more effectively displayed as shown in FIG. It becomes possible to do.

2.2 主描画領域の設定状態の制御
本実施形態では主描画領域のサイズ、形状又は位置等の設定状態をリアルタイムに制御してもよい。例えば所与の情報に基づいて主描画領域の設定状態を制御する。
2.2 Control of Main Drawing Area Setting State In this embodiment, the setting state such as the size, shape, or position of the main drawing area may be controlled in real time. For example, the setting state of the main drawing area is controlled based on given information.

例えば図11(A)〜図12(B)では、飛び出し対象オブジェクトである第2のオブジェクトOB2の情報に基づいて、主描画領域ARMのサイズ等の設定状態を制御している。例えば図11(A)、図11(B)では、オブジェクトOB2の位置が変化して仮想カメラVCL、VCRの方に近づいており、この位置の変化に連動して主描画領域ARMのサイズが変化している。具体的にはオブジェクトOB2の位置が仮想カメラVCL、VCRに近づくにつれて、主描画領域ARMのサイズが小さくなっている。このように主描画領域ARMのサイズが小さくなることで、主描画領域ARMのサイズが一定である場合に比べて、より急激にオブジェクトOB2が手前側に飛び出しているような感覚をユーザに与えることができ、立体視における飛び出し効果を向上できる。即ち、図7等において擬似的な画面に相当する主描画領域ARMが小さくなりながら、オブジェクトOB2の左眼用、右眼用のオブジェクト画像OB2L、OB2R間の距離が離れることで、主描画領域ARMのサイズが固定である場合に比べて、オブジェクトOB2の飛び出し度合いが更に強調されるようになる。   For example, in FIGS. 11A to 12B, the setting state such as the size of the main drawing area ARM is controlled based on the information of the second object OB2 that is the pop-out target object. For example, in FIGS. 11A and 11B, the position of the object OB2 changes and approaches the virtual cameras VCL and VCR, and the size of the main drawing area ARM changes in conjunction with the change of the position. is doing. Specifically, the size of the main drawing area ARM decreases as the position of the object OB2 approaches the virtual cameras VCL and VCR. By reducing the size of the main drawing area ARM in this way, the user can be given a feeling that the object OB2 is projected more rapidly than the case where the size of the main drawing area ARM is constant. And the pop-up effect in the stereoscopic view can be improved. That is, the main drawing area ARM corresponding to the pseudo screen in FIG. 7 and the like is reduced, and the distance between the object images OB2L and OB2R for the left eye and the right eye of the object OB2 is increased, so that the main drawing area ARM is obtained. As compared with the case where the size of the object OB2 is fixed, the degree of pop-out of the object OB2 is further emphasized.

なお図11(A)、図11(B)では、主描画領域ARMのサイズを、オブジェクトOB2の位置(仮想カメラとの位置関係)に基づいて変化させているが、主描画領域ARMのサイズのみならず、主描画領域ARMの形状や位置(配置位置)を変化させてもよい。また、オブジェクトOB2の位置情報ではなく、方向情報(進行方向、視線方向)や移動情報(速度、加速度)に基づいて、主描画領域ARMのサイズ、形状又は位置を変化させてもよい。例えばオブジェクトOB2の移動方向に対応する方向に主描画領域ARMの配置位置を移動させたり、オブジェクトOB2の速度や加速度が速くになるにつれて、主描画領域ARMのサイズ、形状又は位置の変化率を速くしてもよい。   11A and 11B, the size of the main drawing area ARM is changed based on the position of the object OB2 (positional relationship with the virtual camera), but only the size of the main drawing area ARM is used. Instead, the shape and position (arrangement position) of the main drawing area ARM may be changed. Further, the size, shape, or position of the main drawing area ARM may be changed based on direction information (traveling direction, line-of-sight direction) and movement information (speed, acceleration) instead of the position information of the object OB2. For example, as the arrangement position of the main drawing area ARM is moved in a direction corresponding to the moving direction of the object OB2, or the speed or acceleration of the object OB2 increases, the change rate of the size, shape, or position of the main drawing area ARM increases. May be.

また図12(A)、図12(B)では、第2のオブジェクトOB2の個数情報(出現数情報)に基づいて主描画領域ARMの設定状態を制御している。例えば図12(A)では、オブジェクトOB2の数は1個であるが、図12(B)では、多数のオブジェクトOB2A〜OB2Gが出現している。このように主描画領域ARM及び周囲描画領域ARPが描画領域に設定される第2のオブジェクトの数が増えると、この数の増加に連動して、主描画領域ARMのサイズが小さくなる。このように主描画領域ARMのサイズが小さくなることで、主描画領域ARMのサイズが一定である場合に比べて、立体視における飛び出し効果を向上できる。即ち、図12(A)に比べて、より多数のオブジェクトがユーザの目の前に飛び出して見えるようになり、オブジェクトがモンスターなどを表すものである場合には、ユーザの恐怖感等を高めることができ、これまでにないタイプの映像効果を実現できる。   12A and 12B, the setting state of the main drawing area ARM is controlled based on the number information (appearance number information) of the second object OB2. For example, in FIG. 12A, the number of objects OB2 is one, but in FIG. 12B, many objects OB2A to OB2G appear. As described above, when the number of second objects in which the main drawing area ARM and the surrounding drawing area ARP are set as the drawing area increases, the size of the main drawing area ARM decreases in association with the increase in the number. Thus, by reducing the size of the main drawing area ARM, it is possible to improve the pop-out effect in the stereoscopic view compared to the case where the size of the main drawing area ARM is constant. That is, as compared with FIG. 12A, a larger number of objects appear to jump out in front of the user's eyes, and when the object represents a monster or the like, the user's fear or the like is enhanced. And can achieve an unprecedented type of video effect.

なお図12(A)、図12(B)では、第2のオブジェクトの個数情報に基づいて主描画領域ARMのサイズ等の設定状態を制御していたが、第2のオブジェクトの画面(表示領域)での占有面積情報に基づいて、主描画領域ARMの設定状態を制御してもよい。例えば、第2のオブジェクトの画面での占有面積(占有面積の割合)が大きくなったら、図12(A)、図12(B)と同様に主描画領域ARMのサイズを小さくする。このように占有面積情報を用いて制御することで、第2のオブジェクトの個数情報による主描画領域ARMの制御と同等の効果を得ることができる。   In FIGS. 12A and 12B, the setting state such as the size of the main drawing area ARM is controlled based on the number information of the second object, but the second object screen (display area) is displayed. The setting state of the main drawing area ARM may be controlled based on the occupied area information in (). For example, when the occupied area (ratio of occupied area) on the screen of the second object is increased, the size of the main drawing area ARM is reduced in the same manner as in FIGS. 12 (A) and 12 (B). By controlling using the occupied area information in this way, it is possible to obtain the same effect as the control of the main drawing area ARM by the number information of the second object.

更に、図10(A)、図10(B)で説明したような、主描画領域ARMや周囲描画領域ARPを、左眼映像の描画用と右眼映像の描画用に、左右別々に設定する場合にも、この領域を動的に変更してもよい。例えば、表示オブジェクトが飛び出してくるにつれて、左眼用主描画領域ARMLと右眼用主描画領域ARMRのズレを、その領域が画面より奥側に移動するように設定することで、更に効果的な飛び出し表現が可能になる。   Further, the main drawing area ARM and the surrounding drawing area ARP as described with reference to FIGS. 10A and 10B are set separately for the left eye drawing and the right eye drawing. In this case, this area may be changed dynamically. For example, as the display object pops out, it is more effective to set the shift between the main drawing area ARML for the left eye and the main drawing area ARMR for the right eye so that the area moves to the back side from the screen. Pop-up expression is possible.

また本実施形態では、ユーザの入力情報(操作情報)に基づいて、主描画領域ARMの設定状態を制御してもよい。   In the present embodiment, the setting state of the main drawing area ARM may be controlled based on user input information (operation information).

例えば図13(A)に、ユーザが自身のゲームプレイの環境を設定するためのゲーム環境の設定画面(オプション設定画面)の例を示す。   For example, FIG. 13A shows an example of a game environment setting screen (option setting screen) for the user to set his / her own game play environment.

例えば図13(A)では、ユーザは、ゲーム環境設定の立体視オプションとして、立体視方式、立体視強度、テレビサイズ、テレビまでの距離等を設定できるようになっている。立体視方式としては、偏光眼鏡を使用する偏光方式や、液晶シャッター等を用いるシャッター方式などの種々の方式を設定できる。   For example, in FIG. 13A, the user can set the stereoscopic viewing method, the stereoscopic viewing strength, the television size, the distance to the television, and the like as the stereoscopic viewing options in the game environment setting. Various methods such as a polarization method using polarized glasses and a shutter method using a liquid crystal shutter can be set as the stereoscopic method.

また、立体視強度は、左眼用仮想カメラと右眼用仮想カメラのカメラ間距離に対応するものであり、ユーザは、この立体視強度を設定することで、自身が所望する立体感で立体視用画像を見ることが可能になる。テレビサイズは、立体視用画像が表示するテレビ(表示部)のサイズである。テレビまでの距離は、ユーザの視聴位置からテレビまでの距離である。これらのテレビサイズやテレビまでの距離が変わると、同じカメラ間距離の設定であっても、ユーザが感じる立体感の強さは異なったものになる。従って、テレビサイズやテレビまでの距離に応じて、カメラ間距離の補正処理を行うことが望ましい。   The stereoscopic intensity corresponds to the inter-camera distance between the left-eye virtual camera and the right-eye virtual camera, and the user can set the stereoscopic intensity to achieve a stereoscopic effect desired by the user. It becomes possible to see a visual image. The television size is the size of the television (display unit) on which the stereoscopic image is displayed. The distance to the television is the distance from the viewing position of the user to the television. When the TV size and the distance to the TV change, even if the same inter-camera distance is set, the strength of the stereoscopic effect that the user feels is different. Therefore, it is desirable to perform a correction process for the inter-camera distance according to the TV size and the distance to the TV.

例えば図13(A)のオプション画面において、立体視強度が弱い値に設定されたとする。すると図13(B)のように、左眼用仮想カメラVCLと右眼用仮想カメラVCRのカメラ間距離DSが狭くなる。このようにカメラ間距離DSを狭くすると、立体感が少し控えめになり、近距離のものが立体的に見やすい状態になる。一方、遠方のもの(奥行き方向で遠い位置にあるもの)の立体感は薄れる。   For example, it is assumed that the stereoscopic intensity is set to a weak value on the option screen in FIG. Then, as shown in FIG. 13B, the inter-camera distance DS between the left-eye virtual camera VCL and the right-eye virtual camera VCR becomes narrower. When the inter-camera distance DS is reduced in this way, the stereoscopic effect is slightly conservative, and objects at short distances are easily viewed stereoscopically. On the other hand, the stereoscopic effect of distant objects (distant positions in the depth direction) is faded.

一方、図13(A)のオプション画面において、立体視強度が強い値に設定されたとする。すると図13(C)のようにカメラ間距離DSが広くなる。このようにカメラ間距離DSを広くすると、ユーザは、より強い立体感を感じるようになる。但し、このカメラ間距離DSは、ユーザの両眼距離に相当する距離よりも短く設定しないと、ユーザの不快感等を招く原因となるため、その設定には注意が必要になる。   On the other hand, assume that the stereoscopic screen intensity is set to a strong value on the option screen of FIG. Then, the inter-camera distance DS is increased as shown in FIG. When the inter-camera distance DS is increased in this way, the user feels a stronger stereoscopic effect. However, if the inter-camera distance DS is not set shorter than the distance corresponding to the user's binocular distance, it causes the user's discomfort and the like.

そして本実施形態では、図13(A)のようにユーザが入力した立体視の強さ設定情報に基づいて、主描画領域ARMのサイズ等の設定状態を制御する。即ち、ユーザが入力した立体視の強さ設定情報によるカメラ間距離DSの制御に連動して、主描画領域ARMのサイズ等の設定状態も制御する。   In this embodiment, the setting state such as the size of the main drawing area ARM is controlled based on the stereoscopic intensity setting information input by the user as shown in FIG. That is, in conjunction with the control of the inter-camera distance DS based on the stereoscopic intensity setting information input by the user, the setting state such as the size of the main drawing area ARM is also controlled.

例えば図13(B)のように、立体視強度が弱い値に設定された場合には、カメラ間距離DSを狭くすると共に、主描画領域ARMのサイズを大きくする。このようにすれば、カメラ間距離DSが狭くなることで立体視強度が弱くなると共に、主描画領域ARMのサイズが大きくなることで図6、図7で説明した立体視における飛び出し効果も低くなる。   For example, as shown in FIG. 13B, when the stereoscopic intensity is set to a low value, the inter-camera distance DS is reduced and the size of the main drawing area ARM is increased. In this manner, the stereoscopic strength is weakened by reducing the inter-camera distance DS, and the pop-out effect in the stereoscopic vision described with reference to FIGS. 6 and 7 is reduced by increasing the size of the main drawing area ARM. .

一方、図13(C)のように、立体視強度が強い値に設定された場合には、カメラ間距離DSを広くすると共に、主描画領域ARMのサイズを小さくする。このようにすれば、カメラ間距離DSが広くなることで立体視強度が強くなると共に、主描画領域ARMのサイズが小さくなることで立体視における飛び出し効果も高くなる。立体視強度と飛び出し効果を連動して高くすることで、ユーザにとってよりインパクトのある立体視の飛び出し表現を実現できるようになる。なお、このように立体視強度に連動させずに、主描画領域ARMのサイズに相当する情報を、入力情報としてユーザに直接入力させるようにしてもよい。   On the other hand, when the stereoscopic intensity is set to a strong value as shown in FIG. 13C, the inter-camera distance DS is increased and the size of the main drawing area ARM is decreased. In this manner, the stereoscopic strength increases as the inter-camera distance DS increases, and the pop-out effect in the stereoscopic view increases as the size of the main drawing area ARM decreases. By increasing the stereoscopic intensity and the pop-up effect in conjunction with each other, it is possible to realize a stereoscopic pop-up expression that has a greater impact on the user. Note that information corresponding to the size of the main drawing area ARM may be directly input to the user as input information without being linked to the stereoscopic intensity in this way.

また本実施形態では、時間情報に基づいて、主描画領域ARMの設定状態を制御してもよい。   In the present embodiment, the setting state of the main drawing area ARM may be controlled based on the time information.

例えば図14では、時間情報に基づいて主描画領域ARMのサイズを変化させている。具体的にはゲームを開始してからの経過時間に基づいて主描画領域ARMのサイズを変化させており、時間が経過するにつれて主描画領域ARMのサイズを小さくする。例えばゲーム開始タイミングでは、主描画領域ARMは通常のサイズ(例えば画面サイズ)となっており、その後、時間が経過するにつれて、ユーザに気づかれないように、主描画領域ARMのサイズを小さくする。そして主描画領域ARMのサイズが小さくなったところで、図7に示すようにオブジェクトOB2を仮想カメラ側に移動させて飛び出させるイベントを発生する。このようにすれば、ユーザに、予め表示領域が狭く設定されていることを気づかせることなく、図7のような飛び出し映像効果を実現できるようになる。   For example, in FIG. 14, the size of the main drawing area ARM is changed based on the time information. Specifically, the size of the main drawing area ARM is changed based on the elapsed time from the start of the game, and the size of the main drawing area ARM is reduced as time elapses. For example, at the game start timing, the main drawing area ARM has a normal size (for example, a screen size), and then the main drawing area ARM is reduced in size so that the user does not notice as time passes. Then, when the size of the main drawing area ARM is reduced, an event for causing the object OB2 to move to the virtual camera side and jump out is generated as shown in FIG. In this way, the pop-out video effect as shown in FIG. 7 can be realized without notifying the user that the display area is set narrow in advance.

なお、主描画領域ARMのサイズ等を変化させる時間経過の開始タイミングは、ゲームそのものの開始タイミングであってもよいし、ゲームを構成する各ゲームステージの開始タイミングであってもよい。或いは、ゲーム中で発生するイベントの発生タイミングであってもよい。また時間情報は、経過時間そのものではなく、経過時間と等価な情報(例えばプレイ時間等)であってもよい。また、時間情報に基づいて、主描画領域ARMの形状や配置位置を変化させてもよい。例えば時間経過に伴い主描画領域ARMの形状を第1の形状(例えば矩形等)から第2の形状(例えば円形等)に変化させる。また、時間経過に伴い、主描画領域ARMの配置設定位置をシフトさせるような処理を行ってもよい。   Note that the start timing of the passage of time for changing the size of the main drawing area ARM or the like may be the start timing of the game itself or the start timing of each game stage constituting the game. Alternatively, it may be an occurrence timing of an event that occurs in the game. Further, the time information may not be the elapsed time itself but may be information equivalent to the elapsed time (for example, play time). Further, the shape and arrangement position of the main drawing area ARM may be changed based on the time information. For example, the shape of the main drawing area ARM is changed from the first shape (for example, a rectangle) to the second shape (for example, a circle) with the passage of time. Further, a process of shifting the arrangement setting position of the main drawing area ARM with time may be performed.

また、以上では主描画領域ARMの設定状態を制御する所与の情報として、第2のオブジェクトの情報、時間情報、ユーザの入力情報を例示したが、本実施形態はこれに限定されない。例えば主描画領域ARMの設定状態を制御する所与の情報は、イベントの発生フラグの情報等であってもよい。例えば、ゲームにおいて所与のイベントが発生して、イベント発生フラグが立ったら、主描画領域ARMの設定状態の制御を開始する。   In the above description, the second object information, time information, and user input information are exemplified as given information for controlling the setting state of the main drawing area ARM. However, the present embodiment is not limited to this. For example, the given information for controlling the setting state of the main drawing area ARM may be information on an event occurrence flag. For example, when a given event occurs in the game and an event generation flag is set, control of the setting state of the main drawing area ARM is started.

2.3 周囲描画領域への画像処理
本実施形態では、主描画領域の周りの周囲描画領域の画像に対して画像処理を行ってもよい。
2.3 Image Processing on Surrounding Drawing Area In this embodiment, image processing may be performed on the surrounding drawing area image around the main drawing area.

例えば図15では、周囲描画領域ARPの画像に対してグラデーション処理を行っている。このグラデーション処理は、周囲描画領域ARPの外側(画面外側)に向かうにつれてピクセル色をターゲット色に近づける処理である。例えば表示部190の枠(縁部)の色をターゲット色としてグラデーション処理を行う。或いは、表示部190の周囲の色(プレーヤ側から見た場合の周囲の色)をターゲット色としてグラデーション処理を行い、いわゆる光学迷彩を実現する。このようにすることで、表示部190の実在感を無くすことが可能になり、主描画領域ARMを本当の画面のように見せることが可能になる。   For example, in FIG. 15, gradation processing is performed on the image in the surrounding drawing area ARP. This gradation process is a process of bringing the pixel color closer to the target color toward the outside (outside the screen) of the surrounding drawing area ARP. For example, gradation processing is performed using the color of the frame (edge) of the display unit 190 as the target color. Alternatively, gradation processing is performed using the surrounding color of the display unit 190 (the surrounding color when viewed from the player side) as a target color to realize a so-called optical camouflage. By doing so, it is possible to eliminate the presence of the display unit 190, and it is possible to make the main drawing area ARM look like a real screen.

そして、このように周囲描画領域ARPの画像に対してグラデーション処理を行った場合にも、第2のオブジェクトを周囲描画領域に描画する際には、このグラデーション処理を行わないようにする。或いは、第2のオブジェクトにグラデーション処理を行ったとしても、その態様を変更して、弱いグラデーション処理を行うようにする。   Even when the gradation process is performed on the image in the surrounding drawing area ARP as described above, the gradation process is not performed when the second object is drawn in the surrounding drawing area. Alternatively, even if gradation processing is performed on the second object, the mode is changed to perform weak gradation processing.

このようにすれば、図7のようにオブジェクトOB2を画面から飛び出させる映像効果を実現する場合に、このオブジェクトOB2に対してはグラデーション処理が施されないようになり、ユーザが不自然さを感じない立体視用画像を生成できる。   In this way, when realizing a video effect that causes the object OB2 to jump out of the screen as shown in FIG. 7, gradation processing is not performed on the object OB2, and the user does not feel unnaturalness. A stereoscopic image can be generated.

なお、ユーザが、ゲームコントローラ等の操作部160に設けられたカメラを用いて、表示部190やその周囲を撮影し、得られた撮影画像から、表示部190の枠の色や表示部190の周りの背景の色を取得してもよい。この場合には、撮影画像から取得された枠の色や背景の色をターゲット色に設定して、図15に示すようなグラデーション処理を行えばよい。   The user uses the camera provided in the operation unit 160 such as a game controller to photograph the display unit 190 and its surroundings, and from the obtained captured image, the frame color of the display unit 190 and the display unit 190 are displayed. The color of the surrounding background may be acquired. In this case, a gradation process as shown in FIG. 15 may be performed by setting the frame color or background color acquired from the captured image as the target color.

また周囲描画領域ARPの画像に対する画像処理は図15のようなグラデーション処理には限定されず、種々の変形実施が可能である。例えば周囲描画領域ARPの画像に対してぼかし処理(ブラー処理)を行ってもよい。   The image processing for the image in the surrounding drawing area ARP is not limited to the gradation processing as shown in FIG. 15, and various modifications can be made. For example, blurring processing (blur processing) may be performed on the image in the surrounding drawing area ARP.

例えば図16はレースゲームの画像の例であり、主描画領域ARMには、ユーザが操作するレースカーのオブジェクトOB1が描画されている。一方、周囲描画領域ARPに対しては、レースカーのオブジェクトOB1の周りの背景画像が描画されている。   For example, FIG. 16 shows an example of a race game image, in which a race car object OB1 operated by the user is drawn in the main drawing area ARM. On the other hand, in the surrounding drawing area ARP, a background image around the object OB1 of the race car is drawn.

この場合に、レースカーが速い速度で走っていることをユーザにリアルに感じさせるために、周囲描画領域ARPの画像に対してはぼかし処理が施されている。このようにすることで、レースカーが走行することにより背景が流れて見えるような画像表現を実現できる。   In this case, in order to make the user feel realistic that the race car is running at a high speed, a blurring process is performed on the image of the surrounding drawing area ARP. By doing so, it is possible to realize an image expression in which the background appears to flow as the race car runs.

そして図16では、レースカーのタイヤ付近から飛んでくる砂利や小石や火花等が、第2のオブジェクトOB2A、OB2Bとして描画されている。具体的には図7のキャラクタを表すオブジェクトOB2と同様に、オブジェクトOB2A、OB2Bを仮想カメラ側に速い速度で移動させる。   In FIG. 16, gravel, pebbles, sparks, and the like flying from near the tires of the race car are drawn as second objects OB2A and OB2B. Specifically, similarly to the object OB2 representing the character in FIG. 7, the objects OB2A and OB2B are moved to the virtual camera side at a high speed.

そして、このように周囲描画領域ARPの画像に対してぼかし処理を行っている場合にも、砂利等を表すオブジェクトOB2A、OB2Bを周囲描画領域ARPに描画する際には、オブジェクトOB2A、OB2Bに対してはぼかし処理を行わないようにする。或いはオブジェクトOB2A、OB2Bにぼかし処理を行ったとしても、その態様を変更して、弱いぼかし処理を行うようにする。   Even when the image of the surrounding drawing area ARP is blurred as described above, when the objects OB2A and OB2B representing gravel and the like are drawn on the surrounding drawing area ARP, the objects OB2A and OB2B are not displayed. Do not perform blur processing. Alternatively, even if the blurring process is performed on the objects OB2A and OB2B, the mode is changed so that the weak blurring process is performed.

このようにすれば、レースカーの周りの背景については、ぼかし処理を行うことでスピード感を表現できるようになると共に、砂利等を表すオブジェクトOB2A、OB2Bについては、ぼかし処理が行われないハッキリとした画像でユーザの視点側に飛んで来る表現が可能になる。従って、ぼかし処理によるスピード感の表現と、飛び出し効果の強い立体視表現とを両立して実現することが可能になる。   In this way, it is possible to express a sense of speed by performing the blurring process on the background around the race car, and the objects OB2A and OB2B representing gravel and the like are clearly not subjected to the blurring process. It is possible to make an expression that jumps to the viewpoint side of the user with the obtained image. Therefore, it is possible to realize both the expression of the speed feeling by the blurring process and the stereoscopic expression having a strong pop-out effect.

なお、ぼかし処理は、例えばぼかしフィルタなどを用いることで実現できる。具体的には、バイリニアフィルタリングによるぼかし処理である線形テクスチャフィルタリングの手法や、何枚ものテクスチャを同時に使用するマルチテクスチャによるぼかし処理であるボックスフィルタサンプリングの手法などを採用できる。また図16では、説明の簡素化のために左眼用オブジェクト画像と右眼用オブジェクト画像の描画位置を同じ位置にしている。   Note that the blurring process can be realized by using, for example, a blurring filter. Specifically, a linear texture filtering technique that is a blurring process using bilinear filtering, a box filter sampling technique that is a blurring process using multiple textures that simultaneously use multiple textures, and the like can be employed. In FIG. 16, the drawing positions of the left-eye object image and the right-eye object image are the same for the sake of simplicity.

2.4 変形例
次に本実施形態の変形例の手法について説明する。
2.4 Modification Next, a method of a modification of the present embodiment will be described.

例えば図6〜図8では、周囲描画領域ARPは黒色等の所定色に設定されているが、本実施形態はこれに限定されない。例えば周囲描画領域ARPに、表示枠画像が描画された立体視用画像を生成してもよい。   For example, in FIGS. 6 to 8, the surrounding drawing area ARP is set to a predetermined color such as black, but the present embodiment is not limited to this. For example, a stereoscopic image in which a display frame image is drawn may be generated in the surrounding drawing area ARP.

例えば図17(A)では、映画館のスクリーンの周囲の幕などを表す枠画像が生成されて、周囲描画領域ARPに描画されている。そして映画館のスクリーンに対応する場所が主描画領域ARMに設定されている。また図17(B)では、昔風のテレビの画面の周囲を表す枠画像が生成されて、周囲描画領域ARPに描画されている。そしてテレビの画面に対応する場所が主描画領域ARMに設定されている。   For example, in FIG. 17A, a frame image representing a curtain around the screen of a movie theater is generated and drawn in the surrounding drawing area ARP. A location corresponding to the movie theater screen is set in the main drawing area ARM. In FIG. 17B, a frame image representing the periphery of an old-fashioned television screen is generated and drawn in the surrounding drawing area ARP. A location corresponding to the television screen is set in the main drawing area ARM.

このような枠画像を生成すれば、表示部190の画面よりも小さいサイズに主描画領域ARMのサイズが設定されている場合にも、ユーザが感じる不自然さを低減できる。即ち、主描画領域ARMを、あたかも本物の画面のように、ユーザに感じさせることが可能になる。そして、このように主描画領域ARMを擬似的な画面に設定し、図6〜図8のように、この擬似的な画面からオブジェクトOB2が飛び出して見える立体視演出を実現できる。   If such a frame image is generated, unnaturalness felt by the user can be reduced even when the size of the main drawing area ARM is set to a size smaller than the screen of the display unit 190. That is, the main drawing area ARM can be made to feel to the user as if it were a real screen. In this way, the main drawing area ARM is set to a pseudo screen, and a stereoscopic effect in which the object OB2 is projected from the pseudo screen as shown in FIGS. 6 to 8 can be realized.

なお周囲描画領域ARPに描画される表示枠画像は図17(A)、図17(B)には限定されず、例えば写真印刷機のデコレーションフレーム画像などの種々の態様の表示枠画像を採用できる。   Note that the display frame image drawn in the surrounding drawing area ARP is not limited to FIGS. 17A and 17B, and various types of display frame images such as a decoration frame image of a photographic printer can be employed. .

さらには、周囲描画領域を左眼映像の描画用(第1の視点での描画用)と右眼映像の描画用(第2の視点での描画用)に、別々に設定してもよい。例えば図18(A)に示すように、左眼用(第1の視点用)の周囲描画領域ARPLと、右眼用(第2の視点用)の周囲描画領域ARPRを、左右にずらした状態で設定してもよい(192は画面全体を表す)。このようにすることで、図18(B)に示すように、あたかも、周囲領域に配置したオブジェクト(例えば図17(A)、図17(B)における表示枠画像)を表示している画面が、実際とは異なる奥行き値位置(ARPCの位置、手前側の位置)に移動したかのような映像表現が可能になる。この周囲描画領域の左右でのずれは、動的に変化させてもよいことはもちろんである。例えば、普段は実際の画面よりも手前側に表示させておき、ここからオブジェクトが飛び出してくるような表現を行う場合に、そのオブジェクトの飛び出し具合と連動させて、奥側に移動するような左右のズレの設定を行ってもよい。   Furthermore, the surrounding drawing areas may be set separately for drawing the left eye image (for drawing at the first viewpoint) and for drawing the right eye image (for drawing at the second viewpoint). For example, as shown in FIG. 18A, the surrounding drawing area ARPL for the left eye (for the first viewpoint) and the surrounding drawing area ARPR for the right eye (for the second viewpoint) are shifted left and right. (192 represents the entire screen). By doing so, as shown in FIG. 18B, a screen displaying objects arranged in the surrounding area (for example, display frame images in FIGS. 17A and 17B) is displayed. Thus, it is possible to express an image as if it has moved to a position of a depth value different from the actual position (ARPC position, front position). Of course, the right and left shift of the surrounding drawing area may be changed dynamically. For example, when displaying an object that usually appears on the near side of the actual screen and the object pops out from here, the left and right that move to the back side in conjunction with the projecting state of the object. You may set the gap.

また図6〜図8では主描画領域ARMの形状は矩形形状であったが、これに限定されない。例えば図19(A)では主描画領域ARMは鍵穴の形状になっている。そして図19(B)に示すように、お化けの発生イベントが発生すると、主描画領域ARMと周囲描画領域ARPが描画領域に設定されて、お化けを表すオブジェクトOB2A、OB2Bが描画される。このようにすることで、あたかも鍵穴からお化けが飛び出して来たように見える立体視表現を実現でき、これまでにない映像効果をユーザに提供できる。   6-8, the main drawing area ARM has a rectangular shape, but is not limited thereto. For example, in FIG. 19A, the main drawing area ARM has a keyhole shape. As shown in FIG. 19B, when a ghost occurrence event occurs, the main drawing area ARM and the surrounding drawing area ARP are set as the drawing area, and the objects OB2A and OB2B representing the ghost are drawn. By doing this, it is possible to realize a stereoscopic expression that looks as if a ghost has popped out of the keyhole, and it is possible to provide an unprecedented video effect to the user.

また、飛び出し対象となる第2のオブジェクトとしては、種々のオブジェクトを想定できる。例えば図20(A)、図20(B)は、RPG(ロールプレーイング)ゲームの例である。図20(A)では、主描画領域ARMに対して、敵のモンスターのオブジェクトOB1A、OB1B、OB1C(第1のオブジェクト)が描画されている。   Various objects can be assumed as the second object to be popped out. For example, FIGS. 20A and 20B are examples of an RPG (role playing) game. In FIG. 20A, enemy monster objects OB1A, OB1B, and OB1C (first objects) are drawn in the main drawing area ARM.

そして図20(B)では、ユーザ(プレーヤ)の攻撃時等に、RPGゲームの情報表示オブジェクトOB2が第2のオブジェクトとして描画される。この情報表示オブジェクトOB2では、ユーザが操作する各キャラクタの名前、各キャラクタのヒットポイント・マジックポイント等の情報が表示されている。そして図20(B)では、周囲描画領域ARPに、第2のオブジェクトである情報表示オブジェクトOB2の少なくとも一部がはみ出て描画された立体視用画像を生成されている。なお図20(B)では、説明の簡素化のために、左眼用オブジェクト画像と右眼用オブジェクト画像の描画位置を同じ位置にしている。   In FIG. 20B, the information display object OB2 of the RPG game is drawn as the second object when the user (player) attacks. In the information display object OB2, information such as the name of each character operated by the user and the hit point / magic point of each character is displayed. In FIG. 20B, a stereoscopic image is generated in which at least a part of the information display object OB2, which is the second object, protrudes from the surrounding drawing area ARP. In FIG. 20B, the drawing positions of the left-eye object image and the right-eye object image are the same for the sake of simplicity.

図20(B)のように、情報表示オブジェクトOB2が飛び出して見えるような画像を生成することで、これまでにないタイプのユーザインターフェースを、立体視表現により実現することが可能になる。   As shown in FIG. 20B, by generating an image in which the information display object OB2 appears to pop out, a user interface of an unprecedented type can be realized by stereoscopic expression.

なお図21に示すように、情報表示オブジェクトOB3(体力ゲージ、ヒットポイント、文字、アイコン情報等の表示オブジェクト)を周囲描画領域ARPに描画しておき、キャラクタなどのオブジェクトOB2A〜OB2Cの飛び出しイベント時に、そのオブジェクトOB2A〜OB2Cを、主描画領域ARM及び周囲描画領域ARPの両方を描画領域として描画するようにしてもよい。即ち周囲描画領域ARPに描画される表示枠画像として、図21に示すような情報表示オブジェクトOB3の画像を生成してもよい。   As shown in FIG. 21, the information display object OB3 (display objects such as physical strength gauges, hit points, characters, icon information, etc.) is drawn in the surrounding drawing area ARP, and the objects OB2A to OB2C such as characters are jumped out The objects OB2A to OB2C may be drawn using both the main drawing area ARM and the surrounding drawing area ARP as drawing areas. That is, an image of the information display object OB3 as shown in FIG. 21 may be generated as a display frame image drawn in the surrounding drawing area ARP.

2.5 詳細な処理例
次に本実施形態の詳細な処理例について図22〜図25のフローチャートを用いて説明する。
2.5 Detailed Processing Example Next, a detailed processing example of this embodiment will be described with reference to the flowcharts of FIGS.

図22は、本実施形態の立体視用画像の生成処理の詳細を説明するためのフローチャートである。   FIG. 22 is a flowchart for explaining details of the stereoscopic image generation processing of the present embodiment.

まず、主描画領域を描画領域に設定する(ステップS1)。そして、左眼用仮想カメラの視点で主描画領域にオブジェクトを描画して、主描画領域の左眼用画像を生成する(ステップS2)。また右眼用仮想カメラの視点で主描画領域にオブジェクトを描画して、主描画領域の右眼用画像を生成する(ステップS3)。   First, the main drawing area is set as a drawing area (step S1). Then, an object is drawn in the main drawing area from the viewpoint of the left-eye virtual camera, and a left-eye image in the main drawing area is generated (step S2). In addition, an object is drawn in the main drawing area from the viewpoint of the right-eye virtual camera, and an image for the right eye in the main drawing area is generated (step S3).

次に、主描画領域及び周囲描画領域の全体を描画領域に設定する(ステップS4)。そして、左眼用仮想カメラの視点で主描画領域及び周囲描画領域の全体領域にオブジェクトを描画することで、左眼用画像を生成する(ステップS5)。また右眼用仮想カメラの視点で主描画領域及び周囲描画領域の全体領域にオブジェクトを描画することで、右眼用画像を生成する(ステップS6)。   Next, the entire main drawing area and surrounding drawing area are set as a drawing area (step S4). Then, an image for the left eye is generated by drawing the object in the entire region of the main drawing area and the surrounding drawing area from the viewpoint of the left-eye virtual camera (step S5). Further, an image for the right eye is generated by drawing an object in the main drawing area and the whole drawing area from the viewpoint of the virtual camera for the right eye (step S6).

以上により、図6〜図8で説明したような飛び出し効果を実現できる立体視用画像が生成される。   As described above, a stereoscopic image capable of realizing the pop-out effect as described in FIGS. 6 to 8 is generated.

図23は、主描画領域の設定状態を制御する処理の詳細を説明するためのフローチャートである。   FIG. 23 is a flowchart for explaining details of processing for controlling the setting state of the main drawing area.

まず飛び出し対象オブジェクト(第2のオブジェクト)の出現イベントが発生したか否かを判断する(ステップS11)。そして出現イベントが発生した場合には、飛び出し対象オブジェクトの位置情報に基づいて、仮想カメラとの距離情報奥行き距離を取得する(ステップS12)。そして図11(A)、図11(B)で説明したように、取得された距離情報に基づいて、主描画領域のサイズを設定する(ステップS13)。   First, it is determined whether or not an appearance event of the pop-out target object (second object) has occurred (step S11). When an appearance event occurs, distance information depth distance from the virtual camera is acquired based on the position information of the pop-out target object (step S12). Then, as described in FIGS. 11A and 11B, the size of the main drawing area is set based on the acquired distance information (step S13).

次に、設定されたサイズの主描画領域、周囲描画領域でオブジェクトを描画して、左眼用画像を生成する(ステップS14)。また、設定されたサイズの主描画領域、周囲描画領域でオブジェクトを描画して、右眼用画像を生成する(ステップS15)。   Next, the left eye image is generated by drawing the object in the main drawing area and the surrounding drawing area of the set size (step S14). In addition, the right eye image is generated by drawing the object in the main drawing area and the surrounding drawing area of the set size (step S15).

以上により、第2のオブジェクトの情報に基づいて主描画領域のサイズ等の設定状態を制御する手法が実現される。   As described above, a method for controlling the setting state such as the size of the main drawing area based on the information of the second object is realized.

図24は、周囲描画領域の画像に画像処理を施す場合の処理の詳細を説明するためのフローチャートである。   FIG. 24 is a flowchart for explaining details of processing when image processing is performed on an image in the surrounding drawing area.

まず、図22等で説明した処理により左眼用画像、右眼用画像を生成する(ステップS21)。そして、左眼用画像の周囲描画領域の画像に対して、ぼかし処理又はグラデーション処理等の画像処理を行う(ステップS22)。また、右眼用画像の周囲描画領域の画像に対して、ぼかし処理又はグラデーション処理等の画像処理を行う(ステップS23)。   First, a left-eye image and a right-eye image are generated by the processing described with reference to FIG. 22 and the like (step S21). Then, image processing such as blurring or gradation processing is performed on the image in the drawing area around the left eye image (step S22). In addition, image processing such as blurring or gradation processing is performed on the image in the drawing area around the right-eye image (step S23).

次に、飛び出し対象となるオブジェクトを、ぼかし処理又はグラデーション処理等の画像処理を行わずに描画して、最終的な左眼用画像を生成する(ステップS24)。また、飛び出し対象となるオブジェクトを、ぼかし処理又はグラデーション処理等の画像処理を行わずに描画して、最終的な右眼用画像を生成する(ステップS25)。   Next, the object to be popped out is drawn without performing image processing such as blurring or gradation processing, and a final left eye image is generated (step S24). Further, the object to be popped out is drawn without performing image processing such as blur processing or gradation processing, and a final right eye image is generated (step S25).

以上により、図15、図16で説明した手法による立体視用画像を生成することが可能になる。   As described above, it is possible to generate a stereoscopic image by the method described with reference to FIGS. 15 and 16.

図25は、主描画領域を左右で別々に設定する処理の詳細を説明するためのフローチャートである。   FIG. 25 is a flowchart for explaining the details of the process of setting the main drawing area separately on the left and right.

まず、左眼用主描画領域を描画領域に設定する(ステップS31)。そして、左眼用仮想カメラの視点で左眼用主描画領域にオブジェクトを描画して、左眼用主描画領域での画像を生成する(ステップS32)。   First, the left-eye main drawing area is set as a drawing area (step S31). Then, an object is drawn in the left-eye main drawing area from the viewpoint of the left-eye virtual camera, and an image in the left-eye main drawing area is generated (step S32).

次に、右眼用主描画領域を描画領域に設定する(ステップS33)。そして、右眼用仮想カメラの視点で右眼用主描画領域にオブジェクトを描画して、右眼用主描画領域での画像を生成する(ステップS34)。   Next, the right eye main drawing area is set as the drawing area (step S33). Then, an object is drawn in the right eye main drawing area from the viewpoint of the right eye virtual camera to generate an image in the right eye main drawing area (step S34).

次に、主描画領域及び周囲描画領域の全体領域を描画領域に設定する(ステップS35)。そして、左眼用仮想カメラの視点で、ステップS32で生成された左眼用主描画領域での画像を用いて、全体領域にオブジェクトを描画することで、左眼用画像を生成する(ステップS36)。また右眼用仮想カメラの視点で、ステップS34で生成された右眼用主描画領域での画像を用いて、全体領域にオブジェクトを描画することで、右眼用画像を生成する(ステップS37)。   Next, the entire area of the main drawing area and the surrounding drawing area is set as a drawing area (step S35). Then, an image for the left eye is generated by drawing an object in the entire area using the image in the main drawing area for the left eye generated in step S32 from the viewpoint of the virtual camera for the left eye (step S36). ). Further, the right eye image is generated by drawing the object in the entire area using the image in the right eye main drawing area generated in step S34 from the viewpoint of the right eye virtual camera (step S37). .

以上により、図10(A)、図10(B)で説明したような主描画領域を左右別々に設定する手法を実現できる。   As described above, it is possible to realize a method of setting the main drawing areas as described in FIGS. 10A and 10B separately on the left and right.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、主描画領域、周囲描画領域の設定処理、第1、第2のオブジェクトの描画処理、主描画領域の設定状態の制御処理、周囲描画領域の画像処理手法等も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. The main drawing area, the surrounding drawing area setting process, the first and second object drawing processes, the main drawing area setting state control process, the surrounding drawing area image processing method, etc. are also described in this embodiment. However, the present invention is not limited thereto, and techniques equivalent to these are also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

また本実施形態の手法は、例えば特開2004−17858号公報に記載されるような立体視用画像生成手法にも適用可能である。この画像生成手法では、例えば、図26(A)に示すように、左眼用仮想カメラVCLからのビューボリュームVVLによって左眼用画像を作成し、右眼用仮想カメラVCRからのビューボリュームVVRによって右眼用画像を作成する。そしてこれらの左眼用画像と右目用画像により立体視が実現され、プレーヤは、図26(B)に示すような左眼視点VPL、右眼視点VPRで立体視用画像を鑑賞する。これにより、ピント調整や奥行き感の矛盾が少なく、より自然な立体視を実現できるようになる。   The method of the present embodiment is also applicable to a stereoscopic image generation method as described in, for example, Japanese Patent Application Laid-Open No. 2004-17858. In this image generation method, for example, as shown in FIG. 26A, an image for the left eye is created by the view volume VVL from the virtual camera for the left eye VCL, and the view volume VVR from the virtual camera for the right eye VCR is used. Create an image for the right eye. Then, stereoscopic viewing is realized by the left eye image and the right eye image, and the player views the stereoscopic image from the left eye viewpoint VPL and the right eye viewpoint VPR as shown in FIG. Thereby, there is little contradiction of focus adjustment and a feeling of depth, and a more natural stereoscopic vision can be realized.

このような立体視用画像生成手法においても、図5のように主描画領域、周囲描画領域を設定してオブジェクトの描画処理を行うことで、これまでにはないタイプの立体視表現を実現できる。例えば主描画領域に、ゲームの迷路等のゲームフィールド(第1のオブジェクト)を描画し、このゲームフィールド上で移動するキャラクタ等を、第2のオブジェクトとして描画する。こうすれば、背の高いキャラクタについても、ユーザの視点から見て周囲描画領域側にはみ出させて描画することが可能になり、立体視表現の自由度の向上等を図れる。   Even in such a stereoscopic image generation method, an unprecedented type of stereoscopic expression can be realized by performing an object drawing process by setting a main drawing area and a surrounding drawing area as shown in FIG. . For example, a game field (first object) such as a game maze is drawn in the main drawing area, and a character or the like moving on the game field is drawn as the second object. In this way, even a tall character can be drawn out of the surrounding drawing area as viewed from the user's viewpoint, and the degree of freedom of stereoscopic expression can be improved.

VCL 左眼用仮想カメラ、VCR 右眼用仮想カメラ、SC スクリーン、
VVL 左眼用ビューボリューム、VVR 右眼用ビューボリューム、
CNL、CNR、CFL、CFR クリッピング面、
ARM 主描画領域、ARP 周囲描画領域、
OB1 第1のオブジェクト、OB2、OB2A〜OB2G 第2のオブジェクト、
OB2L、OB2R オブジェクト画像、
100 処理部、102 ゲーム演算部、104 オブジェクト空間設定部、
106 移動体演算部、108 仮想カメラ制御部、110 描画領域設定部、
120 画像生成部、122 画像処理部、124 左眼用画像生成部、
126 右眼用画像生成部、170 記憶部、172 オブジェクトデータ記憶部、
178 描画バッファ、180 情報記憶媒体、190 表示部、192 音出力部、
194 補助記憶装置、196 通信部
VCL virtual camera for left eye, virtual camera for VCR right eye, SC screen,
VVL Left eye view volume, VVR Right eye view volume,
CNL, CNR, CFL, CFR clipping plane,
ARM main drawing area, ARP surrounding drawing area,
OB1 first object, OB2, OB2A-OB2G second object,
OB2L, OB2R object image,
100 processing unit, 102 game calculation unit, 104 object space setting unit,
106 moving body calculation unit, 108 virtual camera control unit, 110 drawing area setting unit,
120 image generation unit, 122 image processing unit, 124 image generation unit for left eye,
126 right-eye image generation unit, 170 storage unit, 172 object data storage unit,
178 Drawing buffer, 180 information storage medium, 190 display unit, 192 sound output unit,
194 Auxiliary storage device, 196 communication unit

Claims (18)

複数のオブジェクトが配置されるオブジェクト空間の設定処理を行うオブジェクト空間設定部と、
主描画領域と、前記主描画領域の周囲に設定される周囲描画領域の設定処理を行う描画領域設定部と、
前記複数のオブジェクトのうちの第1のオブジェクトについては、前記主描画領域が描画領域に設定される描画処理を行い、前記複数のオブジェクトのうちの第2のオブジェクトについては、前記主描画領域及び前記周囲描画領域の全体が描画領域に設定される描画処理を行って、立体視用画像を生成する画像生成部として、
コンピュータを機能させることを特徴とするプログラム。
An object space setting unit for setting an object space in which a plurality of objects are arranged;
A drawing area setting unit for performing a setting process of a main drawing area and a surrounding drawing area set around the main drawing area;
For the first object of the plurality of objects, the main drawing area is set as a drawing area, and for the second object of the plurality of objects, the main drawing area and the As an image generation unit that generates a stereoscopic image by performing a drawing process in which the entire surrounding drawing area is set as a drawing area,
A program characterized by causing a computer to function.
請求項1において、
前記描画領域設定部は、
所与の情報に基づいて、前記主描画領域のサイズ、形状及び位置の少なくとも1つである設定状態を制御することを特徴とするプログラム。
In claim 1,
The drawing area setting unit
A program that controls a setting state that is at least one of a size, a shape, and a position of the main drawing area based on given information.
請求項2において、
前記描画領域設定部は、
前記第2のオブジェクトの情報に基づいて、前記主描画領域の前記設定状態を制御することを特徴とするプログラム。
In claim 2,
The drawing area setting unit
A program for controlling the setting state of the main drawing area based on information of the second object.
請求項3において、
前記描画領域設定部は、
前記第2のオブジェクトの位置情報、方向情報、移動情報、個数情報及び画面での占有面積情報の少なくとも1つに基づいて、前記主描画領域の前記設定状態を制御することを特徴とするプログラム。
In claim 3,
The drawing area setting unit
A program for controlling the setting state of the main drawing area based on at least one of position information, direction information, movement information, number information, and occupied area information on a screen of the second object.
請求項2乃至4のいずれかにおいて、
前記描画領域設定部は、
ユーザの入力情報に基づいて、前記主描画領域の前記設定状態を制御することを特徴とするプログラム。
In any of claims 2 to 4,
The drawing area setting unit
A program for controlling the setting state of the main drawing area based on user input information.
請求項5において、
前記描画領域設定部は、
前記ユーザが入力した立体視の強さ設定情報に基づいて、前記主描画領域の前記設定状態を制御することを特徴とするプログラム。
In claim 5,
The drawing area setting unit
A program for controlling the setting state of the main drawing area based on stereoscopic intensity setting information input by the user.
請求項2乃至6のいずれかにおいて、
前記描画領域設定部は、
時間情報に基づいて、前記主描画領域の前記設定状態を制御することを特徴とするプログラム。
In any one of Claims 2 thru | or 6.
The drawing area setting unit
A program for controlling the set state of the main drawing area based on time information.
請求項1乃至7のいずれかにおいて、
前記描画領域設定部は、
前記主描画領域及び前記周囲描画領域の少なくとも一方の設定状態を、立体視における複数の視点の第1の視点での描画時と第2の視点での描画時とで、互いに異ならせることを特徴とするプログラム。
In any one of Claims 1 thru | or 7,
The drawing area setting unit
A setting state of at least one of the main drawing area and the surrounding drawing area is made different between drawing at a first viewpoint and drawing at a second viewpoint in a stereoscopic view. Program.
請求項8において、
前記描画領域設定部は、
前記主描画領域及び前記周囲描画領域の少なくとも一方が設定される位置を、前記第1の視点での描画時と前記第2の視点での描画時とで、互いに異ならせることを特徴とするプログラム。
In claim 8,
The drawing area setting unit
A program in which at least one of the main drawing area and the surrounding drawing area is set to be different at the time of drawing at the first viewpoint and at the time of drawing at the second viewpoint. .
請求項1乃至9のいずれかにおいて、
前記画像生成部は画像処理部を含み、
前記画像処理部は、
前記周囲描画領域の画像に対して画像処理を行うと共に、
前記第2のオブジェクトを前記周囲描画領域に描画する際には、前記画像処理を行わない又は前記画像処理とは異なる態様の画像処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 9,
The image generation unit includes an image processing unit,
The image processing unit
While performing image processing on the image of the surrounding drawing area,
When drawing the second object in the surrounding drawing area, the image processing is not performed, or an image processing different from the image processing is performed.
請求項10において、
前記画像処理部は、
前記周囲描画領域の画像に対して、前記周囲描画領域の外側に向かうにつれてピクセル色をターゲット色に近づけるグラデーション処理を行うと共に、
前記第2のオブジェクトを前記周囲描画領域に描画する際には、前記グラデーション処理を行わない又はグラデーション度合いが少ないグラデーション処理を行うことを特徴とするプログラム。
In claim 10,
The image processing unit
A gradation process is performed on the image of the surrounding drawing area to bring the pixel color closer to the target color toward the outside of the surrounding drawing area.
A program characterized in that when the second object is drawn in the surrounding drawing area, the gradation processing is not performed or gradation processing with a low gradation degree is performed.
請求項10において、
前記画像処理部は、
前記周囲描画領域の画像に対してぼかし処理を行うと共に、
前記第2のオブジェクトを前記周囲描画領域に描画する際には、前記ぼかし処理を行わない又はぼかし度合いが少ないぼかし処理を行うことを特徴とするプログラム。
In claim 10,
The image processing unit
While performing a blurring process on the image of the surrounding drawing area,
A program characterized by not performing the blurring process or performing a blurring process with a low degree of blurring when the second object is drawn in the surrounding drawing area.
請求項1乃至12のいずれかにおいて、
前記画像生成部は、
前記周囲描画領域に、表示枠画像が描画された立体視用画像を生成することを特徴とするプログラム。
In any one of Claims 1 to 12,
The image generation unit
A program for generating a stereoscopic image in which a display frame image is drawn in the surrounding drawing area.
請求項1乃至13のいずれかにおいて、
前記画像生成部は、
前記周囲描画領域に、前記第2のオブジェクトの少なくとも一部がはみ出て描画された立体視用画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 13.
The image generation unit
A program for generating a stereoscopic image in which at least a part of the second object protrudes in the surrounding drawing area.
請求項14において、
前記画像生成部は、
前記周囲描画領域に、前記第2のオブジェクトである情報表示オブジェクトの少なくとも一部がはみ出て描画された立体視用画像を生成することを特徴とするプログラム。
In claim 14,
The image generation unit
A program for generating a stereoscopic image in which at least a part of the information display object as the second object is drawn in the surrounding drawing area.
請求項1乃至15のいずれかにおいて、
前記画像生成部は、
前記第1のオブジェクトについては、前記主描画領域が描画領域に設定された描画処理を行い、前記第2のオブジェクトについては、前記主描画領域及び前記周囲描画領域の全体が描画領域に設定された描画処理を行って、左眼用画像を生成する左眼用画像生成部と、
前記第1のオブジェクトについては、前記主描画領域が描画領域に設定された描画処理を行い、前記第2のオブジェクトについては、前記主描画領域及び前記周囲描画領域の全体が描画領域に設定された描画処理を行って、右眼用画像を生成する右眼用画像生成部とを含むことを特徴とするプログラム。
In any one of Claims 1 thru | or 15,
The image generation unit
For the first object, the main drawing area is set as a drawing area, and for the second object, the main drawing area and the entire surrounding drawing area are set as the drawing area. A left-eye image generation unit that performs drawing processing and generates a left-eye image;
For the first object, the main drawing area is set as a drawing area, and for the second object, the main drawing area and the entire surrounding drawing area are set as the drawing area. A program that includes a right-eye image generation unit that performs drawing processing and generates a right-eye image.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至16のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 16 is stored. 複数のオブジェクトが配置されるオブジェクト空間の設定処理を行うオブジェクト空間設定部と、
主描画領域と、前記主描画領域の周囲に設定される周囲描画領域の設定処理を行う描画領域設定部と、
前記複数のオブジェクトのうちの第1のオブジェクトについては、前記主描画領域が描画領域に設定される描画処理を行い、前記複数のオブジェクトのうちの第2のオブジェクトについては、前記主描画領域及び前記周囲描画領域の全体が描画領域に設定される描画処理を行って、立体視用画像を生成する画像生成部と、
を含むことを特徴とする画像生成システム。
An object space setting unit for setting an object space in which a plurality of objects are arranged;
A drawing area setting unit for performing a setting process of a main drawing area and a surrounding drawing area set around the main drawing area;
For the first object of the plurality of objects, the main drawing area is set as a drawing area, and for the second object of the plurality of objects, the main drawing area and the An image generation unit that performs a drawing process in which the entire surrounding drawing area is set as the drawing area and generates a stereoscopic image;
An image generation system comprising:
JP2010201464A 2010-09-08 2010-09-08 Program, information storage medium, and image generation system Expired - Fee Related JP5620202B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010201464A JP5620202B2 (en) 2010-09-08 2010-09-08 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010201464A JP5620202B2 (en) 2010-09-08 2010-09-08 Program, information storage medium, and image generation system

Publications (2)

Publication Number Publication Date
JP2012059008A true JP2012059008A (en) 2012-03-22
JP5620202B2 JP5620202B2 (en) 2014-11-05

Family

ID=46056032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010201464A Expired - Fee Related JP5620202B2 (en) 2010-09-08 2010-09-08 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP5620202B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109972A (en) * 2012-12-04 2014-06-12 Mitsubishi Precision Co Ltd Image generation apparatus
CN104471932A (en) * 2012-05-24 2015-03-25 Lg电子株式会社 Device and method for processing digital signals
JP2018000688A (en) * 2016-07-05 2018-01-11 株式会社三共 Game machine
JP2020053096A (en) * 2013-02-06 2020-04-02 アップル インコーポレイテッドApple Inc. Input/output device with dynamically adjustable appearance and function
JP2020151488A (en) * 2016-10-21 2020-09-24 株式会社三共 Game machine

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133339A (en) * 1992-10-21 1994-05-13 Kanji Murakami Stereoscopic image pickup aid device
JPH0865715A (en) * 1994-08-22 1996-03-08 Toshiba Corp Method and device for stereoscopic video display
JP2001021836A (en) * 1999-07-13 2001-01-26 Nissan Motor Co Ltd Display device for car
JP2001119724A (en) * 1999-10-18 2001-04-27 Minolta Co Ltd Stereoscopic image display system, cross-sectional image generating method and cross-sectional image generator
JP2004126902A (en) * 2002-10-02 2004-04-22 Sega Corp Stereoscopic image forming method and device
JP2004295859A (en) * 2003-02-05 2004-10-21 Sharp Corp Device, method and program for generating stereoscopic image, and computer-readable recording medium with stereoscopic image generating program stored thereon
JP2006048659A (en) * 2004-06-28 2006-02-16 Namco Ltd Image generator, electronic equipment, print work, image generating method and program
JP2007044240A (en) * 2005-08-10 2007-02-22 Seiko Epson Corp Display device and game machine
JP2009147922A (en) * 2007-11-22 2009-07-02 Semiconductor Energy Lab Co Ltd Image processing method, image display system, and computer program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133339A (en) * 1992-10-21 1994-05-13 Kanji Murakami Stereoscopic image pickup aid device
JPH0865715A (en) * 1994-08-22 1996-03-08 Toshiba Corp Method and device for stereoscopic video display
JP2001021836A (en) * 1999-07-13 2001-01-26 Nissan Motor Co Ltd Display device for car
JP2001119724A (en) * 1999-10-18 2001-04-27 Minolta Co Ltd Stereoscopic image display system, cross-sectional image generating method and cross-sectional image generator
JP2004126902A (en) * 2002-10-02 2004-04-22 Sega Corp Stereoscopic image forming method and device
JP2004295859A (en) * 2003-02-05 2004-10-21 Sharp Corp Device, method and program for generating stereoscopic image, and computer-readable recording medium with stereoscopic image generating program stored thereon
JP2006048659A (en) * 2004-06-28 2006-02-16 Namco Ltd Image generator, electronic equipment, print work, image generating method and program
JP2007044240A (en) * 2005-08-10 2007-02-22 Seiko Epson Corp Display device and game machine
JP2009147922A (en) * 2007-11-22 2009-07-02 Semiconductor Energy Lab Co Ltd Image processing method, image display system, and computer program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104471932A (en) * 2012-05-24 2015-03-25 Lg电子株式会社 Device and method for processing digital signals
EP2860976A4 (en) * 2012-05-24 2016-01-06 Lg Electronics Inc Device and method for processing digital signals
JP2014109972A (en) * 2012-12-04 2014-06-12 Mitsubishi Precision Co Ltd Image generation apparatus
JP2020053096A (en) * 2013-02-06 2020-04-02 アップル インコーポレイテッドApple Inc. Input/output device with dynamically adjustable appearance and function
JP2018000688A (en) * 2016-07-05 2018-01-11 株式会社三共 Game machine
JP2020151488A (en) * 2016-10-21 2020-09-24 株式会社三共 Game machine

Also Published As

Publication number Publication date
JP5620202B2 (en) 2014-11-05

Similar Documents

Publication Publication Date Title
JP5148652B2 (en) Program, information storage medium, and image generation system
EP3111640B1 (en) Image encoding and display
EP3110518B1 (en) Image encoding and display
US10054796B2 (en) Display
JP2012253690A (en) Program, information storage medium, and image generation system
US9106906B2 (en) Image generation system, image generation method, and information storage medium
WO2014002347A1 (en) Video output device, 3d video observation device, video display device, and video output method
JP5620202B2 (en) Program, information storage medium, and image generation system
JPH11161814A (en) Image generation device, simulation device and information storage medium
JP2018157331A (en) Program, recording medium, image generating apparatus, image generation method
JP5649846B2 (en) Program and image generation system
JP5766540B2 (en) Program and game system
JP2016192029A (en) Image generation system and program
JP2013062731A (en) Program, information storage medium, and image generation system
US11187895B2 (en) Content generation apparatus and method
WO2014020753A1 (en) Three-dimensional image processing device, three-dimensional image processing method, and storage medium for same
JP5701638B2 (en) Program and image generation system
JP2009064355A (en) Program, information storage medium, and image producing system
JP2003203250A (en) Shooting game device and information storage medium
JP2012059009A (en) Program, information storage medium and image generation system
JP5701637B2 (en) Program and image generation system
JP2018112885A (en) Program and image generation system
JP5817135B2 (en) Three-dimensional image processing apparatus, program thereof and storage medium thereof
JP2012173822A (en) Program, information storage medium, image generation system, and server system
JP2013051460A (en) Display control program, display control device, display control system, and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140918

R150 Certificate of patent or registration of utility model

Ref document number: 5620202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees