JP4592087B2 - Image generation system, program, and information storage medium - Google Patents
Image generation system, program, and information storage medium Download PDFInfo
- Publication number
- JP4592087B2 JP4592087B2 JP2005144339A JP2005144339A JP4592087B2 JP 4592087 B2 JP4592087 B2 JP 4592087B2 JP 2005144339 A JP2005144339 A JP 2005144339A JP 2005144339 A JP2005144339 A JP 2005144339A JP 4592087 B2 JP4592087 B2 JP 4592087B2
- Authority
- JP
- Japan
- Prior art keywords
- glare
- setting target
- program
- target object
- virtual camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Generation (AREA)
Description
本発明は、画像生成システム、プログラム及び情報記憶媒体に関する。 The present invention relates to an image generation system, a program, and an information storage medium.
従来より、キャラクタなどのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。 Conventionally, an image generation system (game system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which an object such as a character is set is known. It is popular as a place to experience so-called virtual reality.
さてこのようなゲームシステムでは、プレーヤの仮想現実向上のために、よりリアルな画像を生成することが重要な技術的課題になっている。ここにおいてよりリアルな画像を生成するためには光の効果は重要であるため、表現したい画像に応じた光源処理を施しオブジェクトの立体感や質感をよりリアルに表現することが行われる。また光の反射を表現することでよりインパクトのある画像を生成することができる。 Now, in such a game system, it is an important technical problem to generate a more realistic image in order to improve the player's virtual reality. Here, since the effect of light is important for generating a more realistic image, the light source processing corresponding to the image to be expressed is performed to more realistically express the three-dimensional effect and texture of the object. In addition, an image having higher impact can be generated by expressing the reflection of light.
例えばオブジェクトに光源を加味したグーロシェーディングを施したり、またより強い光の反射を表現したい場合にはオブジェクトの表面の一部にハイライトが生じている画像を生成する。
しかし光源と物体の位置関係に基づいて光の反射をシミュレーションすると演算付加が増大し、限られたハードウエア資源でリアルタイムに画像生成を行うことが必要なゲーム装置等では処理が困難であるという問題点があった。 However, when light reflection is simulated based on the positional relationship between the light source and the object, the calculation addition increases, and it is difficult to process in a game device that requires real-time image generation with limited hardware resources. There was a point.
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、少ない処理付加で変化に富んでインパクトのある光の反射表現が可能な画像生成システム、プログラム及び情報記憶媒体を提供することにある。 The present invention has been made in view of the problems as described above, and an object of the present invention is to provide an image generation system, a program, and information capable of expressing light reflection with high impact and high impact with little processing addition. It is to provide a storage medium.
(1)本発明は、
オブジェクト空間において仮想カメラから見える画像を生成する画像生成システムであって、
グレア設定対象オブジェクトの所定面の法線ベクトルと、光源ベクトル及びカメラベクトルの少なくとも一方に基づき、グレア表現を行うために用いるグレアパラメータを演算する手段と、
第1のグレア表現を行うための第1のグレアオブジェクトの設定点を、前記グレアパラメータに基づきグレア設定対象オブジェクトに関連づけて設定されたグレア軌道上のいずれかの点に決定する手段と、
前記設定点に基づき、前記グレア軌道上又はその近傍に第1のグレアオブジェクトを配置する手段と、
グレア設定対象オブジェクト及び第1のグレアオブジェクトが配置されたオブジェクト空間を仮想カメラから見た画像を生成する手段とを、
含むことを特徴とする画像生成システムに関係する。
(1) The present invention
An image generation system for generating an image visible from a virtual camera in an object space,
Means for calculating a glare parameter used for performing glare expression based on a normal vector of a predetermined surface of a glare setting target object and at least one of a light source vector and a camera vector;
Means for determining a set point of the first glare object for performing the first glare expression as any point on the glare trajectory set in association with the glare setting target object based on the glare parameter;
Means for placing a first glare object on or near the glare trajectory based on the set point;
Means for generating an image of the object space in which the glare setting target object and the first glare object are viewed from a virtual camera;
It relates to an image generation system characterized by including.
また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。 The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.
グレア表現とは光が反射してまぶしい様子の演出であり、例えばオブジェクトの一部がひかりを反射して生じるさまざまな形状の反射光の画像を表示する。 The glare expression is an effect in which the light is reflected and is dazzling, and displays, for example, images of reflected light of various shapes generated by part of the object reflecting the light.
またグレア設定対象オブジェクトとはグレアオブジェクトを配置して光の反射演出が行われるオブジェクトであればよい。例えば剣等の武器でもよい。 Further, the glare setting target object may be an object in which a glare object is arranged and a light reflection effect is performed. For example, a weapon such as a sword may be used.
ここで光源ベクトルとは、光源0からの光線の向きを表すベクトルであり例えば影データを作成する際に用いるベクトルである。並行光源を使用する場合には、物体の位置にかかわらず一様な向きを有するベクトルとなる。 Here, the light source vector is a vector representing the direction of the light beam from the light source 0, and is a vector used when creating shadow data, for example. When a parallel light source is used, the vector has a uniform direction regardless of the position of the object.
また所定面の法線ベクトルとは、グレア設定対象オブジェクト所定面の法線ベクトルであり、本演算用に設定された法線ベクトルであり、例えば代表点に設定されたベクトルでもよい。 The normal vector of the predetermined plane is a normal vector of the predetermined plane of the glare setting target object, which is a normal vector set for this calculation, and may be a vector set as a representative point, for example.
またカメラベクトルとは、仮想カメラの座標と、グレア設定対象オブジェクトの代表点の座標を結ぶベクトルである。 The camera vector is a vector that connects the coordinates of the virtual camera and the coordinates of the representative point of the glare setting target object.
例えば、カメラベクトルと光源ベクトルの中間ベクトルと、グレア設定対象オブジェクトの固定面の法線ベクトルの内積値からグレアパラメータをもとめるようにしてもよい。またカメラベクトル、光源ベクトル、グレア設定対象オブジェクトの固定面の法線ベクトルから所定の関数fによりグレアパラメータf(KV、LV、NV)を求めるようにしてもよい。 For example, the glare parameter may be obtained from the inner product value of the intermediate vector of the camera vector and the light source vector and the normal vector of the fixed surface of the glare setting target object. Further, the glare parameter f (KV, LV, NV) may be obtained by a predetermined function f from the camera vector, the light source vector, and the normal vector of the fixed plane of the glare setting target object.
またグレア軌道はグレア設定対象オブジェクトに関連づけて設定される。例えばグレア設定対象オブジェクトをモデリングする際にグレア軌道を生成するための情報をモデル情報として持たせておくようにしてもよい。 The glare trajectory is set in association with the glare setting target object. For example, information for generating a glare trajectory may be provided as model information when modeling a glare setting target object.
なおグレアオブジェクト260をオブジェクト空間内に配置する場合には、グレアオブジェクトを設定点よりも仮想カメラ方向に少しずらして配置するようにしてもよい。 When the glare object 260 is arranged in the object space, the glare object may be arranged with a slight shift in the virtual camera direction from the set point.
本発明によれば法線ベクトル、光源ベクトル、カメラベクトルの変化に応じて、グレアパラメータの値を変化させ、グレアオブジェクトの設定点をグレア軌道上で移動させることができるので、オブジェクトや仮想カメラや光線の向きの変化を反映して移動または変化するインパクトのある反射光を表現することができる。 According to the present invention, the glare parameter value can be changed according to changes in the normal vector, the light source vector, and the camera vector, and the set point of the glare object can be moved on the glare trajectory. Reflecting light with impact that moves or changes reflecting the change in the direction of the light beam can be expressed.
しかも光の反射等の複雑なシミュレーション演算を行う必要がないので、少ない処理付加で変化に富んでインパクトのある光の反射表現が可能となる。 In addition, since it is not necessary to perform complicated simulation calculations such as light reflection, it is possible to express light reflection with high impact and a large amount of change with a small amount of processing.
(2)本発明は、
オブジェクト空間において仮想カメラから見える画像を生成する画像生成システムであって、
グレア設定対象オブジェクトの所定面の法線ベクトル、光源ベクトル、仮想カメラ位置、グレア設定対象オブジェクトの位置の少なくとも1つの変化に応じてグレア表現を行うためのグレアパラメータの値を変化させるための演算を行う手段と、
第1のグレア表現を行うための第1のグレアオブジェクトの設定点を、前記グレアパラメータに基づきグレア設定対象オブジェクトに関連づけて設定されたグレア軌道上のいずれかの点に決定する手段と、
前記設定点に基づき、前記グレア軌道上又はその近傍に第1のグレアオブジェクトを配置する手段と、
グレア設定対象オブジェクト及び第1のグレアオブジェクトが配置されたオブジェクト空間を仮想カメラから見た画像を生成する手段とを、
含むことを特徴とする画像生成システムに関係する。
また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
(2) The present invention
An image generation system for generating an image visible from a virtual camera in an object space,
An operation for changing a glare parameter value for performing glare expression according to at least one change of a normal vector, a light source vector, a virtual camera position, and a position of the glare setting target object of a predetermined surface of the glare setting target object Means to do,
Means for determining a set point of the first glare object for performing the first glare expression as any point on the glare trajectory set in association with the glare setting target object based on the glare parameter;
Means for placing a first glare object on or near the glare trajectory based on the set point;
Means for generating an image of the object space in which the glare setting target object and the first glare object are viewed from a virtual camera;
It relates to an image generation system characterized by including.
The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.
(3)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
光源ベクトルとグレア設定対象オブジェクトの仮想カメラ方向を向いた面の法線ベクトルに基づき、第1のグレアオブジェクトの長さ及び透明度の少なくとも一方を決定し、
決定された長さ及び透明度の少なくとも一方を用いてグレアオブジェクトの画像を生成することを特徴とする。
(3) In the image generation system, the program, and the information storage medium according to the present invention,
Determining at least one of the length and transparency of the first glare object based on the light source vector and the normal vector of the surface of the object to be glare set facing the virtual camera direction;
An image of the glare object is generated using at least one of the determined length and transparency.
ここで仮想カメラ方向を向いた法線ベクトルとは、グレア設定対象オブジェクトが例えば剣のように2面を持ったオブジェクトである場合には仮想カメラから見える側の法線ベクトルである。 Here, the normal vector facing the virtual camera direction is a normal vector on the side seen from the virtual camera when the glare setting target object is an object having two surfaces such as a sword.
本発明によれば、光源の位置や仮想カメラ位置グレア設定対象オブジェクトの位置の変化に応じてグレアオブジェクトの長さや透明度を変化させることができる。グレアオブジェクトの長さを変化させることにより反射光の形状を変化させることができる。またグレアオブジェクトの透明度を変化させることにより、反射光の強さを変化させることができる。 According to the present invention, it is possible to change the length and transparency of a glare object according to changes in the position of a light source and the position of a virtual camera position glare setting target object. The shape of the reflected light can be changed by changing the length of the glare object. Further, the intensity of the reflected light can be changed by changing the transparency of the glare object.
(4)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記グレア設定対象オブジェクトには複数の特徴点が設定されており、当該特徴点に基づき前記グレア軌道を設定することを特徴とする。
(4) In the image generation system, the program, and the information storage medium according to the present invention,
A plurality of feature points are set in the glare setting target object, and the glare trajectory is set based on the feature points.
グレア設定対象オブジェクトには複数の特徴点を設定するとは、たとえばグレア設定対象オブジェクトのモデル情報として特徴点の座標値(グレアオブジェクトのローカル座標系における座標値)をふくませておいもよい。そして当該特徴点をスプライン補完してグレア軌道を求めるようにしてもよい。 Setting a plurality of feature points in the glare setting target object may include, for example, coordinate values of the feature points (coordinate values in the local coordinate system of the glare object) as model information of the glare setting target object. Then, the glare trajectory may be obtained by performing spline interpolation on the feature points.
また特徴点についてのモデル情報として、例えばグレア設定対象オブジェクトに応じた幅データが設定されており、前記幅データに基づき、第1のグレアオブジェクトの幅を決定するようにしてもよい。 For example, width data corresponding to the glare setting target object is set as the model information about the feature point, and the width of the first glare object may be determined based on the width data.
(5)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記グレア設定対象オブジェクトの特徴点には、グレア設定対象オブジェクトに応じた幅データが設定されており、
前記幅データに基づき、第1のグレアオブジェクトの幅を決定することを特徴とする。
(5) In the image generation system, the program, and the information storage medium according to the present invention,
In the feature point of the glare setting target object, width data corresponding to the glare setting target object is set,
The width of the first glare object is determined based on the width data.
本発明によればあらかじめ特徴点に、幅データとしてグレア設定対象オブジェクトの形状に対応した幅の幅データを設定しておくことにより、グレア設定対象オブジェクトの形状に応じたグレアオブジェクトを生成することができる。したがって、グレア設定対象オブジェクトの形状に応じた光の反射画像を生成することができる。 According to the present invention, it is possible to generate a glare object corresponding to the shape of the glare setting target object by setting width data corresponding to the shape of the glare setting target object as width data in advance in the feature point. it can. Therefore, it is possible to generate a reflection image of light according to the shape of the glare setting target object.
(6)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
カメラベクトルとグレア設定対象オブジェクトの仮想カメラ方向を向いた面の法線に基づき、
第1のグレアオブジェクトの幅調整パラメータを決定し、
決定された幅調整パラメータを用いてグレアオブジェクトの幅を調整して画像を生成することを特徴とする。
(6) In the image generation system, the program, and the information storage medium according to the present invention,
Based on the normal of the surface facing the virtual camera direction of the camera vector and glare setting target object,
Determine the width adjustment parameter of the first glare object,
An image is generated by adjusting the width of the glare object using the determined width adjustment parameter.
ここで仮想カメラ方向を向いた面の法線ベクトルは、グレア設定対象オブジェクトが例えば剣のように2面を持ったオブジェクトである場合には仮想カメラから見える側の法線ベクトルである。 Here, the normal vector of the surface facing the virtual camera direction is the normal vector on the side seen from the virtual camera when the glare setting target object is an object having two surfaces such as a sword.
またカメラベクトルとは、仮想カメラの座標と、グレア設定対象オブジェクトの代表点の座標を結ぶベクトルである。 The camera vector is a vector that connects the coordinates of the virtual camera and the coordinates of the representative point of the glare setting target object.
仮想カメラから見えるグレア設定対象オブジェクトの幅はグレア設定対象オブジェクトの配置や仮想カメラの向きによって異なる。 The width of the glare setting target object seen from the virtual camera varies depending on the arrangement of the glare setting target object and the orientation of the virtual camera.
本発明によれば仮想カメラからみたグレア設定対象オブジェクトの幅に応じて幅調整パラメータの値も連動して変化させる(例えば幅の大小の変化とパラメータの大小の変化を連動させたり、所定の相関関係や関数関係を持たせて変化させる)ことにより、仮想カメラからみたグレア設定対象オブジェクトの幅に応じてグレアオブジェクトの幅の大小を調整することができる。 According to the present invention, the value of the width adjustment parameter is also changed in accordance with the width of the glare setting target object as viewed from the virtual camera (for example, the change in the width and the change in the parameter are linked, or a predetermined correlation is established. Thus, the size of the glare object can be adjusted according to the width of the glare setting object as viewed from the virtual camera.
例えば仮想カメラからみたグレア設定対象オブジェクトの幅が狭くなった場合にはグレアオブジェクトの幅も狭くするようにしてもよい。 For example, when the width of the glare setting target object viewed from the virtual camera is narrowed, the width of the glare object may be narrowed.
(7)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
第1のグレアオブジェクトとしてビルボードオブジェクトを用いることを特徴とする。
(7) In the image generation system, the program, and the information storage medium according to the present invention,
A billboard object is used as the first glare object.
ビルボードオブジェクトとは、仮想カメラに対して正対するオブジェクトであり、仮想カメラの視線方向に対して並行な法線ベクトルを有する板ポリゴン等でもよい。 The billboard object is an object directly facing the virtual camera, and may be a plate polygon having a normal vector parallel to the viewing direction of the virtual camera.
(8)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
第1のグレア表現を行うための第1のグレアテクスチャを記憶するテクスチャ記憶部を含み、
前記画像生成部は、
前記第1のグレアオブジェクトに第1のグレアテクスチャをマッピングすることを特徴とする。
(8) In the image generation system, the program, and the information storage medium according to the present invention,
A texture storage unit for storing a first glare texture for performing the first glare expression;
The image generation unit
A first glare texture is mapped to the first glare object.
(9)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
グレアオブジェクトの幅はグレア設定対象オブジェクトの幅より広い幅に設定されることを特徴とする。
(9) In the image generation system, the program, and the information storage medium according to the present invention,
The width of the glare object is set to be wider than the width of the glare setting target object.
例えば各特徴点に設定された幅データを各特徴点におけるグレア設定対象オブジェクトの実際の幅より広く設定することで実現することができる。 For example, it can be realized by setting the width data set for each feature point wider than the actual width of the glare setting target object at each feature point.
このようにするとグレア対象オブジェクトの外側にも絵をかくことができるため、例えばグレア設定対象オブジェクトからはみ出して光るグレアエフェクトの表現を行うことができる。 In this way, since a picture can be drawn outside the glare target object, for example, a glare effect that shines out of the glare setting target object can be expressed.
(10)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前フレームまたは過去に生成した第1のグレアオブジェクトの情報を保持する手段を含み、
前フレームまたは過去に生成した第1のグレアオブジェクトの情報に基づき、前フレームまたは過去に生成した第1のグレアオブジェクトの残像画像を生成する残像生成手段をさらに含み、
前記残像生成手段は、
残像画像の透明度を高く設定して(前回または過去に描画したときに比べて、または今回のグレアオブジェクトに比べて高く設定する)描画することを特徴とする。
(10) In the image generation system, the program, and the information storage medium according to the present invention,
Means for holding information of the first glare object generated in the previous frame or in the past,
Further comprising afterimage generation means for generating an afterimage of the first glare object generated in the previous frame or in the past based on the information of the first glare object generated in the previous frame or in the past;
The afterimage generating means includes:
The afterimage is rendered with a high transparency (set higher than the previous or past rendering or higher than the current glare object).
前フレームまたは過去に生成した第1のグレアオブジェクトの情報とは例えば頂点データの情報やマッピングするテクスチャ座標(UV座標値、ST座標値)等である。 The information of the first glare object generated in the previous frame or in the past is, for example, vertex data information, texture coordinates to be mapped (UV coordinate value, ST coordinate value), and the like.
残像画像の透明度を高く設定するとは例えば前回または過去に描画したときに比べて、または今回のグレアオブジェクトに比べて透明度を高く設定することである。 To set the transparency of the afterimage to be high is to set the transparency to be higher than, for example, the previous or previous drawing or the current glare object.
このように前フレームまたは過去に生成した第1のグレアオブジェクトの情報、前フレームまたは過去に生成した第1のグレアオブジェクトの情報に基づき、前フレームまたは過去に生成した第1のグレアオブジェクトの残像画像を生成することで、移動するグレアの残像が表示され、グレアの移動が滑らかで違和感のないグレア表現を行うことができる。 As described above, the afterimage of the first glare object generated in the previous frame or in the past based on the information on the first glare object generated in the previous frame or in the past and the information on the first glare object generated in the previous frame or in the past. By generating, an afterimage of the moving glare is displayed, so that the glare can be expressed smoothly without glare.
(11)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
グレア対象オブジェクトの法線ベクトルと光源ベクトルに基づいて、第2のグレアオブジェクト表示イベントの発生の有無を判断する手段と、
第2のグレアオブジェクト表示イベントの発生ありと判断すると、前記グレアオブジェクト設定点に基づき第2のグレア表現を行うための第2のグレアオブジェクトを配置する手段とを含み、
第2のグレアオブジェクト発生イベントから所定期間の間第2のグレアオブジェクトが表示されるように画像生成を行うことを特徴とする。
(11) In the image generation system, the program, and the information storage medium according to the present invention,
Means for determining whether a second glare object display event has occurred based on a normal vector and a light source vector of the glare target object;
Determining that a second glare object display event has occurred, and means for arranging a second glare object for performing a second glare expression based on the glare object set point,
Image generation is performed so that the second glare object is displayed for a predetermined period from the second glare object occurrence event.
グレア対象オブジェクトの法線ベクトルは仮想カメラ方向を向いた法線ベクトルをもちいるようにしてもよい。 The normal vector of the glare target object may be a normal vector facing the virtual camera direction.
本発明によれば、グレア対象オブジェクトの法線ベクトルと光源ベクトルに基づいて、例えばつよい光の反射を表現するイベント(第2のグレアオブジェクト表示イベント)の発生の有無を判断することができる。 According to the present invention, based on the normal vector and the light source vector of the glare target object, for example, it is possible to determine whether or not an event (second glare object display event) expressing strong light reflection has occurred.
そしてかかるイベントの発生があった場合には、第1のグレア表現(通常の光の反射)に加えて第2のグレア表現(例えば瞬間的な強い光の反射)を行うことができる。 When such an event occurs, the second glare expression (for example, instantaneous strong light reflection) can be performed in addition to the first glare expression (normal light reflection).
(12)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記グレアパラメータに基づき、第2のグレアオブジェクトを仮想カメラに正対する軸の回りで回転させて配置することを特徴とする。
(12) In the image generation system, the program, and the information storage medium according to the present invention,
Based on the glare parameter, the second glare object is arranged to rotate around an axis directly facing the virtual camera.
本発明によればグレアパラメータが変化すると第2のグレアオブジェクトが回転するので、グレア設定対象オブジェクトに反射する光についてよりインパクトのある演出を行うことができる。 According to the present invention, when the glare parameter changes, the second glare object rotates, so that it is possible to produce a more impactful effect on the light reflected on the glare setting target object.
(13)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
時間の経過とともに第2のグレアオブジェクトをフェードアウトさせる手段を含むことを特徴とする。
(13) In the image generation system, the program, and the information storage medium according to the present invention,
Means include fading out the second glare object over time.
なお時間の経過とともに第2のグレアオブジェクトをフェードアウトさせるようにしてもよい。例えば第2のグレアオブジェクトを半透明合成処理によって描画するようにして、時間の経過とともに半透明合成計数であるα値の値を変化させる(第2のグレアオブジェクトが透明になるように変化させる)ようにしてもよい。 Note that the second glare object may be faded out as time passes. For example, the second glare object is rendered by the semi-transparent composition process, and the value of the α value that is the semi-transparent composition count is changed with time (the second glare object is changed so as to be transparent). You may do it.
(14)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
第2のグレアオブジェクトとしてビルボードオブジェクトを用いることを特徴とする。
(14) In the image generation system, the program, and the information storage medium according to the present invention,
A billboard object is used as the second glare object.
(15)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記テクスチャ記憶部は、
第2のグレア表現を行うための第2のグレアテクスチャを記憶するテクスチャ記憶部を含み、
前記画像生成部は、
前記第2のグレアオブジェクトに第2のグレアテクスチャをマッピングすることを特徴とする。
(15) In the image generation system, the program, and the information storage medium according to the present invention,
The texture storage unit
A texture storage unit for storing a second glare texture for performing the second glare expression;
The image generation unit
The second glare texture is mapped to the second glare object.
以下、本実施形態について説明する。 Hereinafter, this embodiment will be described.
なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお、本実施形態の画像生成システムは、図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.
操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。 The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, a housing, or the like.
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMなどにより実現できる。 The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM or the like.
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶(記録、格納)される。 The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores (records and stores) a program for causing the computer to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit).
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。 The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.
携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。 The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device.
通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種の制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。 The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or a communication ASIC, It can be realized by a program.
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信するようにしてもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。 Note that a program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and the communication unit 196. You may do it. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.
処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。また処理部100は記憶部170をワーク領域として各種処理を行う。処理部100の機能は、各種プロセッサ(CPU、DSP等)やASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。 The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.
処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、第1のグレアオブジェクト設定部116、第2のグレアオブジェクト設定部118、画像生成部120、音生成部130を含む。なおこれらの一部を省略してもよい。 The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a first glare object setting unit 116, a second glare object setting unit 118, an image generation unit 120, and a sound generation unit. 130 is included. Some of these may be omitted.
オブジェクト空間設定部110は、キャラクタ、樹木、車、柱、壁、建物、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。 The object space setting unit 110 is a variety of objects (objects composed of primitive surfaces such as polygons, free-form surfaces or subdivision surfaces) representing display objects such as characters, trees, cars, columns, walls, buildings, and maps (terrain). The process of setting the placement in the object space is performed. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects.
移動・動作処理部112は、オブジェクト(車、飛行機、又はキャラクタ等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち、操作部160によりプレーヤが入力した操作データ、プログラム(移動・動作アルゴリズム)、或いは各種データ(モーションデータ)などに基づいて、オブジェクト(移動オブジェクト)をオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。ここでフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。 The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (such as a car, an airplane, or a character). In other words, an object (moving object) is moved in the object space or an object is moved based on operation data, a program (movement / motion algorithm), or various data (motion data) input by the player through the operation unit 160. Perform processing (motion, animation). Specifically, a simulation process for sequentially obtaining object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part object) every frame (1/60 second). I do. Here, the frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.
仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点での画像を生成するための仮想カメラを制御する処理を行う。即ち、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。 The virtual camera control unit 114 performs a process of controlling the virtual camera for generating an image at a given (arbitrary) viewpoint in the object space. That is, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle around the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line of sight) is performed.
例えば仮想カメラによりオブジェクトを後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた移動経路で移動させながら予め決められた回転角度で回転させるようにしてもよい。この場合には、仮想カメラの位置(移動経路)や回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。 For example, when an object is photographed from behind using a virtual camera, the position or rotation angle (direction of the virtual camera) of the virtual camera is controlled so that the virtual camera follows changes in the position or rotation of the object. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be rotated at a predetermined rotation angle while being moved along a predetermined movement route. In this case, the virtual camera is controlled based on virtual camera data for specifying the position (movement path) and rotation angle of the virtual camera.
第1のグレアオブジェクト設定部116は、グレア設定対象オブジェクトの所定面の法線ベクトルと、光源ベクトル及びカメラベクトルの少なくとも一方に基づき、グレア表現を行うために用いるグレアパラメータを演算する処理と、第1のグレア表現を行うための第1のグレアオブジェクトの設定点を、前記グレアパラメータに基づきグレア設定対象オブジェクトに関連づけて設定されたグレア軌道上のいずれかの点に決定する処理と、前記設定点に基づき、前記グレア軌道上又はその近傍に第1のグレアオブジェクトを配置する処理を行う。 The first glare object setting unit 116 calculates glare parameters used for performing glare expression based on a normal vector of a predetermined plane of the glare setting target object, at least one of a light source vector and a camera vector, Processing for determining a set point of a first glare object for performing one glare expression as any point on a glare trajectory set in association with a glare setting target object based on the glare parameter; The first glare object is placed on or near the glare trajectory based on the above.
また第1のグレアオブジェクト設定部116は、グレア設定対象オブジェクトの所定面の法線ベクトル、光源ベクトル、仮想カメラ位置、グレア設定対象オブジェクトの位置の少なくとも1つの変化に応じてグレア表現を行うためのグレアパラメータの値を変化させるための演算を行うようにしてもよい。 The first glare object setting unit 116 performs glare expression in accordance with at least one change in the normal vector, light source vector, virtual camera position, and glare setting target object position of the predetermined surface of the glare setting target object. You may make it perform the calculation for changing the value of a glare parameter.
また第1のグレアオブジェクト設定部116は、第1のグレア表現を行うための第1のグレアオブジェクトの設定点を、前記グレアパラメータに基づきグレア設定対象オブジェクトに関連づけて設定されたグレア軌道上のいずれかの点に決定する処理と、前記設定点に基づき、前記グレア軌道上又はその近傍に第1のグレアオブジェクトを配置する処理を行うようにしてもよい。 In addition, the first glare object setting unit 116 selects a set point of the first glare object for performing the first glare expression on the glare trajectory set in association with the glare setting target object based on the glare parameter. Based on the set point, the first glare object may be arranged on or near the glare trajectory based on the set point.
また第1のグレアオブジェクト設定部116は、光源ベクトルとグレア設定対象オブジェクトの仮想カメラ方向を向いた面の法線ベクトルに基づき、第1のグレアオブジェクトの長さ及び透明度の少なくとも一方を決定する処理を行うようにしてもよい。 Further, the first glare object setting unit 116 determines at least one of the length and transparency of the first glare object based on the light source vector and the normal vector of the surface of the glare setting target object facing the virtual camera direction. May be performed.
また第1のグレアオブジェクト設定部116は、前記グレア設定対象オブジェクトには複数の特徴点が設定されており、当該特徴点に基づき前記グレア軌道を設定する処理を行うようにしてもよい。 The first glare object setting unit 116 may perform a process of setting the glare trajectory based on a plurality of feature points set in the glare setting target object.
また前記グレア設定対象オブジェクトの特徴点には、グレア設定対象オブジェクトに応じた幅データが設定されており、第1のグレアオブジェクト設定部116は、前記幅データに基づき、第1のグレアオブジェクトの幅を決定する処理を行うようにしてもよい。 Further, width data corresponding to the glare setting target object is set in the feature point of the glare setting target object, and the first glare object setting unit 116 determines the width of the first glare object based on the width data. It is also possible to perform a process for determining.
また第1のグレアオブジェクト設定部116は、カメラベクトルとグレア設定対象オブジェクトの仮想カメラ方向を向いた面の法線に基づき、第1のグレアオブジェクトの幅調整パラメータを決定し、決定された幅調整パラメータを用いてグレアオブジェクトの幅を調整する処理を行うようにしてもよい。 The first glare object setting unit 116 determines the width adjustment parameter of the first glare object based on the camera vector and the normal of the surface of the glare setting target object facing the virtual camera direction, and the determined width adjustment You may make it perform the process which adjusts the width | variety of a glare object using a parameter.
第1のグレアオブジェクト設定部116は、第1のグレアオブジェクトとしてビルボードオブジェクトを用いるようにしてもよい。 The first glare object setting unit 116 may use a billboard object as the first glare object.
第2のグレアオブジェクト設定部118は、グレア対象オブジェクトの法線ベクトルと光源ベクトルに基づいて、第2のグレアオブジェクト表示イベントの発生の有無を判断する処理と、第2のグレアオブジェクト表示イベントの発生ありと判断すると、前記グレアオブジェクト設定点に基づき第2のグレア表現を行うための第2のグレアオブジェクトを配置する処理と、第2のグレアオブジェクト発生イベントから所定期間の間第2のグレアオブジェクトが表示されるように制御する処理を行う。 The second glare object setting unit 118 determines whether or not the second glare object display event has occurred based on the normal vector and the light source vector of the glare target object, and generates the second glare object display event. If it is determined that there is a second glare object for performing a second glare expression based on the glare object set point and a second glare object for a predetermined period from the second glare object occurrence event, A process of controlling to be displayed is performed.
また第2のグレアオブジェクト設定部118は、前記グレアパラメータに基づき、第2のグレアオブジェクトを仮想カメラに正対する軸の回りで回転させて配置する処理を行うようにしてもよい。 Further, the second glare object setting unit 118 may perform processing of rotating and arranging the second glare object around the axis facing the virtual camera based on the glare parameter.
第2のグレアオブジェクト設定部118は、時間の経過とともに第2のグレアオブジェクトをフェードアウトさせる処理を行うようにしてもよい。 The second glare object setting unit 118 may perform a process of fading out the second glare object as time passes.
また第2のグレアオブジェクト設定部118は、第2のグレアオブジェクトとしてビルボードオブジェクトを用いる処理を行うようにしてもよい。 The second glare object setting unit 118 may perform processing using a billboard object as the second glare object.
画像生成部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ172(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。 The image generation unit 120 performs drawing processing based on the results of various processes (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In the case of generating a so-called three-dimensional game image, first, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation is performed, and drawing data ( The position coordinates, texture coordinates, color data, normal vector, α value, etc.) of the vertexes of the primitive surface are created. Then, based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after the perspective transformation (after the geometry processing) is converted into image information in units of pixels such as a drawing buffer 172 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.
画像生成部120は、隠面消去部122、テクスチャマッピング部124、α合成部126を含む。なおこれらの一部を省略する構成としてもよい。 The image generation unit 120 includes a hidden surface removal unit 122, a texture mapping unit 124, and an α synthesis unit 126. Note that some of these may be omitted.
隠面消去部122は、Z値(奥行き情報)が格納されるZバッファ174(奥行きバッファ)等を用いて、Zバッファ法(奥行き比較法)により隠面消去処理を行う。 The hidden surface removal unit 122 performs hidden surface removal processing by a Z buffer method (depth comparison method) using a Z buffer 174 (depth buffer) in which a Z value (depth information) is stored.
マッピング部124は、テクスチャ記憶部176に記憶される第1のグレアテクスチャや第1のグレアテクスチャ等のテクスチャ(テクセル値)をオブジェクトにマッピングする処理を行う。具体的には、オブジェクト(プリミティブ面)の頂点に設定(付与)されるテクスチャ座標等を用いて、テクスチャ記憶部176からテクスチャ(α値、色の輝度、或いは法線などの表面プロパティ)を読み出す。なおテクスチャの読み出しに使用されるテクスチャ座標は、テクスチャ座標演算部116で求めることができる。そしてテクスチャマッピング部124は、2次元の画像又はパターンであるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やバイリニア補間(テクセル補間)などを行う。 The mapping unit 124 performs a process of mapping a texture (texel value) such as the first glare texture and the first glare texture stored in the texture storage unit 176 to the object. Specifically, the texture (surface property such as α value, color brightness, or normal) is read from the texture storage unit 176 using the texture coordinates set (given) to the vertex of the object (primitive surface). . The texture coordinates used for texture reading can be obtained by the texture coordinate calculation unit 116. The texture mapping unit 124 maps a texture that is a two-dimensional image or pattern onto an object. In this case, processing for associating pixels and texels, bilinear interpolation (texel interpolation), and the like are performed.
α合成部126はα値(A値)に基づくα合成処理(αブレンディング、α加算又はα減算、α乗算、α乗加算等)を行う。例えばα合成がαブレンディングである場合には下式のような合成処理を行う。 The α synthesis unit 126 performs α synthesis processing (α blending, α addition or α subtraction, α multiplication, α power addition, etc.) based on the α value (A value). For example, when α synthesis is α blending, a synthesis process as shown in the following equation is performed.
RQ=(1−α)×R1+α×R2 (1)
GQ=(1−α)×G1+α×G2 (2)
BQ=(1−α)×B1+α×B2 (3)
また合成処理が加算αブレンディングである場合を例にとれば、色合成部126は下式に従ったα合成処理を行う。
RQ = (1−α) × R1 + α × R2 (1)
GQ = (1−α) × G1 + α × G2 (2)
BQ = (1−α) × B1 + α × B2 (3)
Taking the case where the synthesis process is addition α blending as an example, the color synthesis unit 126 performs the α synthesis process according to the following equation.
RQ=R1+α×R2 (4)
GQ=G1+α×G2 (5)
BQ=B1+α×B2 (6)
また合成処理がα乗算である場合を例にとれば、色合成部126は下式に従ったα合成処理を行う。
RQ = R1 + α × R2 (4)
GQ = G1 + α × G2 (5)
BQ = B1 + α × B2 (6)
Taking the case where the composition processing is α multiplication as an example, the color composition unit 126 performs the α composition processing according to the following equation.
RQ=α×R1 (7)
GQ=α×G1 (8)
BQ=α×B1 (9)
また合成処理がα乗加算である場合を例にとれば、色合成部126は下式に従ったα合成処理を行う。
RQ = α × R1 (7)
GQ = α × G1 (8)
BQ = α × B1 (9)
Taking the case where the synthesis process is addition of α power as an example, the color synthesis unit 126 performs the α synthesis process according to the following equation.
RQ=α×R1+R2 (7)
GQ=α×G1+G2 (8)
BQ=α×B1+B2 (9)
ここで、R1、G1、B1は、描画バッファ172に既に描画されている画像(背景画像)の色(輝度)のR、G、B成分であり、R2、G2、B2は、描画バッファ172に描画するオブジェクト(プリミティブ)の色のR、G、B成分である。また、RQ、GQ、BQは、αブレンディングにより得られる画像の色のR、G、B成分である。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。
RQ = α × R1 + R2 (7)
GQ = α × G1 + G2 (8)
BQ = α × B1 + B2 (9)
Here, R1, G1, and B1 are R, G, and B components of the color (luminance) of an image (background image) that has already been drawn in the drawing buffer 172, and R2, G2, and B2 are in the drawing buffer 172. The R, G, and B components of the color of the object (primitive) to be drawn. RQ, GQ, and BQ are R, G, and B components of the color of an image obtained by α blending. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.
本実施の形態では、前記リフレクションテクスチャは、画素情報として少なくともα値情報を含み、画像生成部120は、各ピクセルごとに元画像の色値Cdとリフレクションマッピングされたリフレクションテクスチャのα値αsの乗算処理Cd×αsを行い各ピクセルの色値を演算する。 In the present embodiment, the reflection texture includes at least α value information as pixel information, and the image generation unit 120 multiplies the color value Cd of the original image and the α value αs of the reflection texture subjected to reflection mapping for each pixel. Processing Cd × αs is performed to calculate the color value of each pixel.
音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。 The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.
なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。 Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).
2.第1のグレアオブジェクトを用いたグレア表現の手法
図2は、本実施の形態の第1のグレアオブジェクトを用いてグレア表現を行った画像の一例である。
2. Glare Representation Method Using First Glare Object FIG. 2 is an example of an image in which glare expression is performed using the first glare object of the present embodiment.
200はグレア設定対象オブジェクト(ここでは剣)であり、220がグレア設定対象オブジェクト(ここでは剣)200に反射する光のグレアエフェクトである。ここでは剣の形状に沿って、剣の周囲にまで光るエフェクトとなっている。本実施の形態ではかかるグレアエフェクト220を、第1のグレアオブジェクトを用いて実現している。 Reference numeral 200 denotes a glare setting target object (here, a sword), and 220 denotes a glare effect of light reflected on the glare setting target object (here, a sword) 200. Here, the effect shines around the sword along the shape of the sword. In this embodiment, the glare effect 220 is realized by using the first glare object.
図3は、本実施の形態のグレアパラメータを求める処理について説明するための図である。 FIG. 3 is a diagram for explaining processing for obtaining a glare parameter according to the present embodiment.
本実施の形態ではグレア設定対象オブジェクト200の所定面の法線ベクトルNVと、光源ベクトルLV及びカメラベクトルKVの少なくとも一方に基づき、グレア表現を行うために用いるグレアパラメータを演算する。 In the present embodiment, a glare parameter used for performing glare expression is calculated based on at least one of a normal vector NV of a predetermined plane of the glare setting target object 200, a light source vector LV, and a camera vector KV.
ここで光源ベクトルLVとは、光源230からの光線の向きを表すベクトルであり例えば影データを作成する際に用いるベクトルである。並行光源を使用する場合には、物体の位置にかかわらず一様な向きを有するベクトルとなる。 Here, the light source vector LV is a vector that represents the direction of light rays from the light source 230, and is a vector used when creating shadow data, for example. When a parallel light source is used, the vector has a uniform direction regardless of the position of the object.
また所定面の法線ベクトルNVとは、グレア設定対象オブジェクト200の所定面の法線ベクトルであり、本演算用に設定された法線ベクトルであり、例えば代表点Pに設定されたベクトルでもよい。 The normal vector NV of the predetermined plane is a normal vector of the predetermined plane of the glare setting target object 200, which is a normal vector set for this calculation, and may be a vector set to the representative point P, for example. .
カメラベクトルKVとは、仮想カメラ240の座標と、グレア設定対象オブジェクト200の代表点Pの座標を結ぶベクトルである。 The camera vector KV is a vector that connects the coordinates of the virtual camera 240 and the coordinates of the representative point P of the glare setting target object 200.
このようにしてグレアパラメータを設定すると、法線ベクトルNV、光源ベクトルLV、カメラベクトルKVの変化に応じて、グレアパラメータの値を変化させることができる。 When the glare parameter is set in this manner, the value of the glare parameter can be changed according to changes in the normal vector NV, the light source vector LV, and the camera vector KV.
例えば、カメラベクトルKVと光源ベクトルLVの中間ベクトルと、グレア設定対象オブジェクト200の固定面の法線ベクトルNVの内積値からグレアパラメータをもとめるようにしてもよい。またカメラベクトルKV、光源ベクトルLV、グレア設定対象オブジェクト200の固定面の法線ベクトルNVから所定の関数fによりグレアパラメータf(KV、LV、NV)を求めるようにしてもよい。 For example, the glare parameter may be obtained from the inner product value of the intermediate vector of the camera vector KV and the light source vector LV and the normal vector NV of the fixed plane of the glare setting target object 200. Further, the glare parameter f (KV, LV, NV) may be obtained from the camera vector KV, the light source vector LV, and the normal vector NV of the fixed plane of the glare setting target object 200 by a predetermined function f.
なおそれ以外の、グレア設定対象オブジェクト200の所定面の法線ベクトルNV、光源ベクトルLV、仮想カメラ240の位置、グレア設定対象オブジェクト200の位置の少なくとも1つの変化に応じてグレアパラメータの値を変化させるための演算を行ってグレアパラメータを求めるようにしてもよい。 In addition, the glare parameter value is changed according to at least one change in the normal vector NV, the light source vector LV, the position of the virtual camera 240, and the position of the glare setting target object 200 of the predetermined plane of the glare setting target object 200. The glare parameter may be obtained by performing an operation for the purpose.
図4(A)(B)は、グレア軌道上の第1のグレアオブジェクトの設定点について説明するための図である。 FIGS. 4A and 4B are diagrams for explaining set points of the first glare object on the glare trajectory.
本実施の形態では、図4(A)に示すようにグレア設定対象オブジェクト200に関連づけてグレア軌道250が設定されている。 In the present embodiment, a glare trajectory 250 is set in association with the glare setting target object 200 as shown in FIG.
グレア設定対象オブジェクト200をモデリングする際にグレア軌道250を生成するための情報をモデル情報として持たせておくようにしてもよい。例えばグレア設定対象オブジェクト200のモデル情報にグレア軌道250を生成するための特徴点の座標(グレアオブジェクトのローカル座標系における座標値)を含ませておいて、当該特徴点をスプライン補完してグレア軌道250を求めるようにしてもよい。 Information for generating the glare trajectory 250 when modeling the glare setting target object 200 may be provided as model information. For example, the feature information for generating the glare trajectory 250 is included in the model information of the glare setting target object 200 (coordinate values in the local coordinate system of the glare object), and the glare trajectory is obtained by performing spline interpolation on the feature points. 250 may be obtained.
そしてグレアパラメータの値に基づいてグレア軌道250上のいずれかの点にグレアオブジェクト設定点を決定する。 Then, a glare object set point is determined at any point on the glare trajectory 250 based on the value of the glare parameter.
このようにすると例えばP1、P2、P3のようにグレアパラメータの変化に応じてグレアオブジェクト設定点の位置も変化する。 In this way, the position of the glare object set point also changes according to the change of the glare parameter, such as P1, P2, and P3.
図4(B)は、グレア軌道上の決定されたグレアオブジェクト設定点P1に基づき第1のグレアオブジェクト260が配置されている様子を示している。グレアオブジェクト260をオブジェクト空間内に配置する場合には、グレアオブジェクト260を設定点P1よりも仮想カメラ方向に少しずらして配置するようにしてもよい。 FIG. 4B shows a state in which the first glare object 260 is arranged based on the determined glare object set point P1 on the glare trajectory. When the glare object 260 is arranged in the object space, the glare object 260 may be arranged slightly shifted from the set point P1 in the virtual camera direction.
図4(C)は、グレア軌道上の決定されたグレアオブジェクト設定点P2に基づき第1のグレアオブジェクト260が配置されている様子を示している。 FIG. 4C shows a state in which the first glare object 260 is arranged based on the determined glare object set point P2 on the glare trajectory.
また図4(D)は、グレア軌道上の決定されたグレアオブジェクト設定点P3に基づき第1のグレアオブジェクト260が配置されている様子を示している。 FIG. 4D shows a state in which the first glare object 260 is arranged based on the determined glare object set point P3 on the glare trajectory.
このようにグレアパラメータの変化に応じてグレアオブジェクト設定点P1、P2、P3もグレア軌道上を移動するので、光源ベクトルの向きやカメラの向きやグレア設定対象オブジェクトの向きの変化に応じてグレアエフェクトの位置が変化する画像を生成することができる。 As described above, the glare object set points P1, P2, and P3 also move on the glare trajectory in accordance with the change in the glare parameter. It is possible to generate an image whose position changes.
図5(A)(B)は、グレア設定対象オブジェクトに埋め込まれた特徴点について説明するための図である。 5A and 5B are diagrams for explaining feature points embedded in the glare setting target object.
本実施の形態では図5(A)に示すようにグレア設定対象オブジェクト200には複数の特徴点K1、K2、K3、・・・が設定されており、当該特徴点K1、K2、K3、・・・に基づき前記グレア軌道250を設定する。 In the present embodiment, as shown in FIG. 5A, a plurality of feature points K1, K2, K3,... Are set in the glare setting target object 200, and the feature points K1, K2, K3,. The glare trajectory 250 is set based on.
図5(B)はグレア設定対象オブジェクト200のモデル情報に含まれた特徴点K1、K2、K3、・・・についてのデータの一例である。このように特徴点K1、K2、K3、・・・についてのモデル情報300として、例えば特徴点K1、K2、K3、・・・の座標値310(グレアオブジェクトのローカル座標系における座標値)をふくませておいて、当該特徴点をスプライン補完してグレア軌道250を求めるようにしてもよい。 FIG. 5B is an example of data regarding the feature points K1, K2, K3,... Included in the model information of the glare setting target object 200. As described above, as the model information 300 for the feature points K1, K2, K3,..., For example, the coordinate values 310 (coordinate values in the local coordinate system of the glare object) of the feature points K1, K2, K3,. In addition, the glare trajectory 250 may be obtained by performing spline interpolation on the feature points.
またK1、K2、K3、・・・についてのモデル情報300として、例えばグレア設定対象オブジェクトに応じた幅データ320が設定されており、前記幅データに基づき、第1のグレアオブジェクトの幅を決定するようにしてもよい。 Further, as model information 300 for K1, K2, K3,..., For example, width data 320 corresponding to the glare setting target object is set, and the width of the first glare object is determined based on the width data. You may do it.
なおグレアオブジェクトの幅はグレア対象オブジェクトの幅より広く設定するようにしてもよい。例えば各特徴点K1、K2、K3、・・・に設定された幅データw1、w2、w3、・・・を各特徴点におけるグレア設定対象オブジェクトの実際の幅ow1、ow2、ow3、・・・より広く設定することで実現することができる。 The width of the glare object may be set wider than the width of the glare target object. For example, the width data w1, w2, w3,... Set for each feature point K1, K2, K3,... Is used as the actual width ow1, ow2, ow3,. This can be realized by setting a wider range.
このようにするとグレア対象オブジェクトの外側にも絵をかくことができるため、例えば図2に示すように剣(グレア設定対象オブジェクト200)からはみ出して光るグレアエフェクト220の表現を行うことができる。 In this way, since it is possible to draw a picture outside the glare target object, for example, as shown in FIG. 2, the glare effect 220 that shines out of the sword (glare setting target object 200) can be expressed.
図6は、第1のグレアオブジェクトの生成について説明するための図である。 FIG. 6 is a diagram for explaining generation of the first glare object.
本実施の形態ではグレアオブジェクト260の長手方向の長さlと左右の端の幅wr、wlを求めてグレアオブジェクト260の形状を決定する。 In the present embodiment, the length l of the glare object 260 in the longitudinal direction and the widths wr and wl of the left and right ends are obtained to determine the shape of the glare object 260.
例えば光源ベクトルとオブジェクトの仮想カメラ方向を向いた面の法線に基づき、第1のグレアオブジェクトの長さlや透明度を決定するようにしてもよい。 For example, the length l and transparency of the first glare object may be determined based on the light source vector and the normal of the surface of the object facing the virtual camera.
また左右の端の幅wr、wlは、近くの特徴点(wrについてはK1とK2、wlについてはK3とK4)の幅データからそれぞれの特徴点までの距離に応じて求めることができる。 Further, the widths wr and wl of the left and right ends can be obtained according to the distance from the width data of nearby feature points (K1 and K2 for wr, K3 and K4 for wl) to each feature point.
このようにして、各フレーム毎に、グレアオブジェクト260の長手方向の長さlと左右の端の幅wr、wlを求めてリアルタイムにグレアオブジェクト260の形状を決定して第1のグレアオブジェクトを生成する。 In this way, for each frame, the length l of the glare object 260 in the longitudinal direction and the widths wr and wl of the left and right ends are obtained, and the shape of the glare object 260 is determined in real time to generate the first glare object. To do.
図7(A)(B)は本実施の形態のグレアオブジェクトとしてビルボードオブジェクトを使用する場合について説明する図である。 FIGS. 7A and 7B are diagrams illustrating a case where a billboard object is used as the glare object according to the present embodiment.
ビルボードオブジェクト262とは、仮想カメラ240に対して正対するオブジェクトであり、仮想カメラ240の視線方向242に対して並行な法線ベクトル264を有する板ポリゴン等でもよい。 The billboard object 262 is an object facing the virtual camera 240 and may be a plate polygon having a normal vector 264 parallel to the visual line direction 242 of the virtual camera 240.
図7(A)に示すようにグレアオブジェクト設定点をPとすると、グレアオブジェクトと重ならずに仮想カメラ240に対して手前に位置する点P’にビルボードオブジェクト262を仮想カメラ240と正対するように配置する。 As shown in FIG. 7A, when the glare object set point is P, the billboard object 262 faces the virtual camera 240 at a point P ′ positioned in front of the virtual camera 240 without overlapping the glare object. Arrange as follows.
グレアオブジェクトとしてビルボードオブジェクトを使用する場合には、図7(B)の200’に示すように仮想カメラの視線方向242に対するグレア設定対象オブジェクトの向きが変化したとしても(グレアオブジェクト設定点Pの位置が変化しないと仮定した場合には)ビルボードオブジェクトの向きは図7(A)のとき同じで変化しない。 When a billboard object is used as the glare object, even if the orientation of the glare setting target object with respect to the visual line direction 242 of the virtual camera changes as indicated by 200 ′ in FIG. The direction of the billboard object is the same as in FIG. 7A and does not change (assuming that the position does not change).
またグレアオブジェクトとしてビルボードオブジェクトを使用する場合には、図7(C)の242’に示すように仮想カメラ240の視線方向が変化した場合には(グレアオブジェクト設定点Pの位置が変化しないと仮定した場合には)ビルボードオブジェクトの向き264’も、仮想カメラの視線方向242’と並行になるように変化する。 When a billboard object is used as the glare object, if the line-of-sight direction of the virtual camera 240 changes as indicated by 242 ′ in FIG. 7C (if the position of the glare object set point P does not change). Assuming that) the billboard object orientation 264 ′ also changes to be parallel to the virtual camera viewing direction 242 ′.
図8(A)(B)、図9(A)(B)は、幅調整パラメータによるグレアオブジェクトの幅の調整について説明するための図である。 FIGS. 8A and 8B and FIGS. 9A and 9B are diagrams for explaining the adjustment of the width of the glare object by the width adjustment parameter.
図8(A)及び図9(A)は、オブジェクト空間のXZ平面におけるグレア設定対象オブジェクト200と仮想カメラ240とグレアオブジェクトの位置関係を示した図である。図8(A)では、仮想カメラ240は、図8(B)に示すようにグレア設定対象オブジェクト200の正面(ここでは剣の幅の広い部分)から見る位置にある。 FIGS. 8A and 9A are diagrams showing the positional relationship among the glare setting target object 200, the virtual camera 240, and the glare object in the XZ plane of the object space. In FIG. 8A, the virtual camera 240 is in a position viewed from the front (here, the wide part of the sword) of the glare setting target object 200 as shown in FIG. 8B.
また図9(A)では、仮想カメラ240は、図9(B)に示すようにグレア設定対象オブジェクト200の刃を上方向から見る位置にある。 In FIG. 9A, the virtual camera 240 is in a position to see the blade of the glare setting target object 200 from above as shown in FIG. 9B.
従って図8(B)の場合より図9(B)の場合のほうが仮想カメラから見た場合のグレア設定対象オブジェクトの幅が狭くなる(ow1>ow2)。 Therefore, in the case of FIG. 9B, the width of the glare setting target object when viewed from the virtual camera is narrower than that of FIG. 8B (ow1> ow2).
このような場合本実施の形態では、設定するグレアオブジェクトの幅も図8(B)の場合より図9(B)の場合のほうが狭くなるように調整する(ow1>ow2となるように調整する)。 In such a case, in the present embodiment, the width of the glare object to be set is adjusted so as to be narrower in the case of FIG. 9B than in the case of FIG. 8B (adjusted so that ow1> ow2). ).
すなわち本実施の形態ではカメラベクトルKVとグレア設定対象オブジェクト200の仮想カメラ240方向を向いた面206の法線ベクトルKVNに基づき第1のグレアオブジェクト260の幅調整パラメータを決定する。 That is, in the present embodiment, the width adjustment parameter of the first glare object 260 is determined based on the camera vector KV and the normal vector KVN of the surface 206 facing the virtual camera 240 direction of the glare setting target object 200.
ここで仮想カメラ240方向を向いた面206の法線ベクトルNVとは、グレア設定対象オブジェクト200が例えば剣のように2面を持ったオブジェクトである場合には仮想カメラから見える側の法線ベクトルである。例えば図9(A)のような場合には少しでもカメラから見える面の法線ベクトルを用いるようにしてもよい。 Here, the normal vector NV of the surface 206 facing the direction of the virtual camera 240 is the normal vector on the side seen from the virtual camera when the glare setting target object 200 is an object having two surfaces such as a sword. It is. For example, in the case of FIG. 9A, a normal vector of a surface that can be seen from the camera may be used.
カメラベクトルKVとは、仮想カメラ240の座標と、グレア設定対象オブジェクト200の代表点の座標を結ぶベクトルである。 The camera vector KV is a vector that connects the coordinates of the virtual camera 240 and the coordinates of the representative point of the glare setting target object 200.
そして決定された幅調整パラメータを用いて、例えば図6で説明したように特徴点の幅データに基づき決定されたグレアオブジェクトの幅の値を補正することにより、設定するグレアオブジェクトの幅を図8(B)の場合より図9(B)の場合のほうが狭くなるように調整する(ow1>ow2となるように調整する)ことができる。 Then, using the determined width adjustment parameter, for example, as described with reference to FIG. 6, by correcting the width value of the glare object determined based on the width data of the feature points, the width of the glare object to be set is set as shown in FIG. 9B can be adjusted to be narrower than (B) (adjusted so that ow1> ow2).
図10(A)〜(C)は、本実施の形態における残像表示について説明するための図である。 FIGS. 10A to 10C are diagrams for explaining the afterimage display in the present embodiment.
図10(A)の410は、第nフレームにおいて生成された第1のグレアオブジェクトの画像であり、図10(B)の420は、第n+1フレームにおいて生成された第1のグレアオブジェクトの画像である。 410 in FIG. 10A is an image of the first glare object generated in the nth frame, and 420 in FIG. 10B is an image of the first glare object generated in the (n + 1) th frame. is there.
本実施の形態では、第nフレームにおいて生成された第1のグレアオブジェクトの画像410を生成するために必要な情報(頂点データおよびテクスチャ座標)を保持し、前フレームまたは過去に生成した第1のグレアオブジェクトの情報に基づき、図10(C)に示すように、前フレームまたは過去に生成した第1のグレアオブジェクトの残像画像410’を生成する。 In the present embodiment, information (vertex data and texture coordinates) necessary for generating the first glare object image 410 generated in the nth frame is held, and the first frame generated in the previous frame or in the past is stored. Based on the glare object information, as shown in FIG. 10C, a residual image 410 ′ of the first glare object generated in the previous frame or in the past is generated.
ここで残像画像410’の透明度を高く設定して(前回または過去に描画した画像410に比べて、または今回の第1のグレアオブジェクト420に比べて高く設定する)描画する。 Here, the transparency of the afterimage 410 'is set high (set higher than the previous or previous image 410 or set higher than the first glare object 420 this time).
このように前フレームまたは過去に生成した第1のグレアオブジェクトの情報(頂点データおよびテクスチャ座標)を保持し、前フレームまたは過去に生成した第1のグレアオブジェクトの情報に基づき、前フレームまたは過去に生成した第1のグレアオブジェクトの残像画像を生成することで、移動するグレアの残像が表示され、グレアの移動が滑らかで違和感のないグレア表現を行うことができる。 In this way, the information (vertex data and texture coordinates) of the first glare object generated in the previous frame or in the past is held, and the information in the previous frame or in the past is determined based on the information of the first glare object generated in the previous frame or in the past. By generating the afterimage of the generated first glare object, the afterimage of the moving glare is displayed, and the glare expression can be performed with smooth glare movement and no sense of incongruity.
図11は、本実施の形態の第1のグレアオブジェクトにマッピングされる第1のグレアテクスチャの一例である。 FIG. 11 is an example of the first glare texture mapped to the first glare object of the present embodiment.
例えば図11に示すような第1のグレアテクスチャをテクスチャ記憶部に記憶し、前記第1のグレアオブジェクトに第1のグレアテクスチャをマッピングすることにより図2の220に示すような剣の形状に沿って、剣の周囲にまで光るエフェクト(第1のグレア表現)画像を生成するようにしてもよい。 For example, the first glare texture as shown in FIG. 11 is stored in the texture storage unit, and the first glare texture is mapped to the first glare object, thereby following the shape of the sword as shown at 220 in FIG. Then, an effect (first glare expression) image that shines around the sword may be generated.
3.第2のグレアオブジェクトを用いたグレア表現の手法
図12は、本実施の形態の第1のグレアオブジェクト及び第2のグレアオブジェクトを用いてグレア表現を行った画像の一例である。
3. Glare Representation Method Using Second Glare Object FIG. 12 is an example of an image in which glare expression is performed using the first glare object and the second glare object of the present embodiment.
同図では、200はグレア設定対象オブジェクト(ここでは剣)であり、220(剣の形状に沿って、剣の周囲にまで光るエフェクト)、510(星のような形状の光のエフェクト)がグレア設定対象オブジェクト(ここでは剣)200に反射する光のグレアエフェクトである。本実施の形態ではかかるグレアエフェクト220、510を、第1のグレアオブジェクト及び第2のグレアオブジェクトを用いて実現している。 In the figure, 200 is a glare setting target object (here, a sword), 220 (an effect that shines around the sword along the shape of the sword), and 510 (an effect of light shaped like a star). This is a glare effect of light reflected on the setting target object (here, a sword) 200. In the present embodiment, the glare effects 220 and 510 are realized using the first glare object and the second glare object.
図13、図14(A)〜(C)は、第2のグレアオブジェクトの配置について説明するための図である。 FIGS. 13 and 14A to 14C are diagrams for explaining the arrangement of the second glare object.
図13に示すように本実施の形態では、グレア対象オブジェクト200の法線ベクトル(仮想カメラ230方向を向いた法線)と光源ベクトルLVに基づいて、第2のグレアオブジェクト表示イベントの発生の有無を判断する。 As shown in FIG. 13, in the present embodiment, whether or not the second glare object display event has occurred based on the normal vector of the glare target object 200 (normal line facing the virtual camera 230) and the light source vector LV. Judging.
そして第2のグレアオブジェクト表示イベントの発生ありと判断すると、図14(B)に示すように前記グレアオブジェクト設定点P(図14(A)に示すように第1のグレアオブジェクトが設定されている)に第2のグレアオブジェクト560を配置する。そして第2のグレアオブジェクト発生イベントから所定期間の間第2のグレアオブジェクトが表示されるように画像を生成を行う。 When it is determined that the second glare object display event has occurred, the glare object set point P (as shown in FIG. 14A) is set as shown in FIG. 14B. ) To place the second glare object 560. Then, an image is generated so that the second glare object is displayed for a predetermined period from the second glare object occurrence event.
なお時間の経過とともに第2のグレアオブジェクト560をフェードアウトさせるようにしてもよい。例えば第2のグレアオブジェクトを半透明合成処理によって描画するようにして、時間の経過とともに半透明合成計数であるα値の値を変化させる(第2のグレアオブジェクトが透明になるように変化させる)ようにしてもよい。 Note that the second glare object 560 may be faded out as time passes. For example, the second glare object is rendered by the semi-transparent composition process, and the value of the α value that is the semi-transparent composition count is changed with time (the second glare object is changed so as to be transparent). You may do it.
また第2のグレアオブジェクトとしてビルボードオブジェクトを使用するようにしてもよい。ビルボードオブジェクトとは、仮想カメラに対して正対するオブジェクトであり、仮想カメラの視線方向に対して並行な法線ベクトルを有する板ポリゴン等でもよい。 A billboard object may be used as the second glare object. The billboard object is an object directly facing the virtual camera, and may be a plate polygon having a normal vector parallel to the viewing direction of the virtual camera.
このようにすると第2のグレアオブジェクト発生イベントから所定期間の間は、図14(C)に示すように第1のグレアオブジェクトと第2のグレアオブジェクトが両方配置され、図11に示すようなグレア表現を行うことができる。 In this way, during the predetermined period after the second glare object occurrence event, both the first glare object and the second glare object are arranged as shown in FIG. 14C, and the glare as shown in FIG. Can express.
図15(A)(B)は、第2のグレアオブジェクトの回転について説明するための図である。 FIGS. 15A and 15B are diagrams for explaining the rotation of the second glare object.
本実施の形態では前記グレアパラメータに基づき、第2のグレアオブジェクト560を仮想カメラに正対する軸590の回りで回転させて配置するようにしてもよい。 In the present embodiment, based on the glare parameter, the second glare object 560 may be rotated around an axis 590 that faces the virtual camera.
このようにするとグレアパラメータが変化すると図15(A)(B)に示すように第2のグレアオブジェクトが回転する(600参照)ので、グレア設定対象オブジェクトに反射する光についてよりインパクトのある演出を行うことができる。 In this way, when the glare parameter changes, the second glare object rotates (see 600) as shown in FIGS. 15A and 15B, so that the light reflected on the glare setting target object has a more impactful effect. It can be carried out.
図16は、本実施の形態の第2のグレアオブジェクトにマッピングされる第2のグレアテクスチャの一例である。 FIG. 16 is an example of the second glare texture mapped to the second glare object of the present embodiment.
例えば図16に示すような第2のグレアテクスチャをテクスチャ記憶部に記憶し、前記第2のグレアオブジェクトに第2のグレアテクスチャをマッピングすることにより図12の510に示すような星のような形状の光のエフェクト(第2のグレア表現)画像を生成するようにしてもよい。 For example, the second glare texture as shown in FIG. 16 is stored in the texture storage unit, and the second glare texture is mapped to the second glare object, thereby forming a star-like shape as shown in 510 of FIG. A light effect (second glare expression) image may be generated.
4.本実施形態の処理
図17は、第1のグレアオブジェクトを用いたグレア表現を行うための処理の流れを示すフローチャート図である。
4). Processing of this Embodiment FIG. 17 is a flowchart showing a flow of processing for performing glare expression using the first glare object.
まずグレア設定対象オブジェクトに仕込んだ特徴点から第1のグレアオブジェクトの軌道となるスプラインレールを作成する(ステップS10)。 First, a spline rail serving as the trajectory of the first glare object is created from the feature points charged in the glare setting target object (step S10).
次にカメラベクトル(カメラ座標と、グレア設定対象オブジェクトの代表点を結ぶベクトル)と光源ベクトル(影データを作成するためのベクトル)の中間ベクトルと、グレア設定対象オブジェクトの固定面の法線ベクトルの内積値からグレアパラメータをもとめ、グレアパラメータに基づき軌道上の設定点を演算する(ステップS20)。 Next, an intermediate vector between the camera vector (camera coordinate and the representative point of the glare setting target object) and the light source vector (vector for creating shadow data), and the normal vector of the fixed plane of the glare setting target object A glare parameter is obtained from the inner product value, and a set point on the trajectory is calculated based on the glare parameter (step S20).
次に光源ベクトルとグレア設定対象オブジェクトのカメラ方向を向いた面の法線の内積値から第1のグレアオブジェクトの長さと明るさ(半透明度)を決定する(ステップS30)。 Next, the length and brightness (translucency) of the first glare object are determined from the inner product value of the normal vector of the surface of the light source vector and the glare setting target object facing the camera direction (step S30).
グレア設定対象オブジェクトのカメラ方向を向いた面の法線とカメラベクトルの内積値からグレアオブジェクトの幅調整パラメータを決定する(ステップS40)。 The glare object width adjustment parameter is determined from the inner product value of the normal of the surface of the glare setting target object facing the camera direction and the camera vector (step S40).
決定された設定点及び長さと設定点に関連づけて記憶され幅データ及び幅調整パラメータに基づき第1のグレアオブジェクトとして使用するグレアビルボードの各座標点を決定する(ステップS50)。 Each coordinate point of the glare billboard to be used as the first glare object is determined based on the width data and the width adjustment parameter stored in association with the determined set point and length and the set point (step S50).
グレアビルボードを透視変換してスクリーン座標系に変換し、第1のグレアテクスチャをマッピングする(ステップS60)。 The glare billboard is perspective-transformed to the screen coordinate system, and the first glare texture is mapped (step S60).
次にグレアビルボードを描画する(ステップS70)。 Next, the glare billboard is drawn (step S70).
図18は、第2のグレアオブジェクトを用いたグレア表現を行うための処理の流れを示すフローチャート図である。 FIG. 18 is a flowchart showing a flow of processing for performing glare expression using the second glare object.
まず第2のグレアオブジェクトが表示中であるかを判定し(ステップS110)、第2のグレアオブジェクトが表示中でない場合にはステップS130にいく。 First, it is determined whether or not the second glare object is being displayed (step S110). If the second glare object is not being displayed, the process goes to step S130.
表示中ある場合には、光源ベクトルと武器のカメラ方向を向いた面の法線の内積値から第2のグレア発生オブジェクト表示イベントの発生の有無の判定を行う(ステップS120)。 If it is being displayed, whether or not the second glare occurrence object display event has occurred is determined from the inner product value of the light source vector and the normal of the surface facing the camera direction of the weapon (step S120).
発生ありの場合には(ステップS120)、グレアパラメータに基づき第2のグレアオブジェクトの設定点、回転を決定する(ステップS130)。ここでグレアパラメータは、各フレームにおいて第1のグレアオブジェクトに対して求めたもの(図17のステップS20で求めたもの)を使用することができる。 If it has occurred (step S120), the set point and rotation of the second glare object are determined based on the glare parameter (step S130). Here, as the glare parameter, the one obtained for the first glare object in each frame (the one obtained in step S20 in FIG. 17) can be used.
次に第2のグレア発生オブジェクト表示イベントの発生時からの経過時間に基づき半透明度を決定する(ステップS140)。 Next, the translucency is determined based on the elapsed time from the occurrence of the second glare occurrence object display event (step S140).
求めた半透明度に基づき、第2のグレアオブジェクトを描画(ステップS140)。 Based on the obtained translucency, a second glare object is drawn (step S140).
次に第2のグレア発生オブジェクト表示イベントの発生時からの経過時間が一定時間が経過していれば、第2のグレアオブジェクトを削除する(ステップS150)
4.ハードウェア構成
図19に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
Next, if the predetermined time has elapsed since the occurrence of the second glare occurrence object display event, the second glare object is deleted (step S150).
4). Hardware Configuration FIG. 19 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in the CD 982 (information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, and the like, and includes game processing, image processing, sound processing, and the like. Execute. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.
ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。 The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.
描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。 The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.
サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。 The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.
ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。 The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The CD drive 980 accesses a CD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).
なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。 The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.
そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。 When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。 The present invention is not limited to that described in the above embodiment, and various modifications can be made.
例えば、明細書又は図面中の記載において広義や同義な用語(テクセル値、テクセル値パターン、プリミティブ面等)として引用された用語(α値・輝度、グラディエーションパターン、ポリゴン等)は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。 For example, terms (α values / luminance, gradient patterns, polygons, etc.) cited as broad or synonymous terms (texel values, texel value patterns, primitive surfaces, etc.) in the description or drawings are described in the specification or In other descriptions in the drawings, terms can be replaced with terms having a broad meaning or the same meaning.
また、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。 In the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.
またテクスチャのマッピング処理も、本実施形態で説明したものに限定されず、これらと均等な変換処理も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯端末等の種々の画像生成システムに適用できる。 Also, the texture mapping process is not limited to that described in the present embodiment, and a conversion process equivalent to these is also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a portable terminal. it can.
100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、114 仮想カメラ制御部、116 第1のグレアオブジェクト設定部、118 第2のグレアオブジェクト設定部、120 画像生成部、122 隠面消去部、124 テクスチャマッピング部、126 α合成部、130 音生成部、160 操作部、170 記憶部、172 描画バッファ、174 Zバッファ、176 テクスチャ記憶部、180 情報記憶媒体、190 表示部、192 音出力部、194 携帯型情報記憶装置、196 通信部 100 processing unit, 110 object space setting unit, 112 movement / motion processing unit, 114 virtual camera control unit, 116 first glare object setting unit, 118 second glare object setting unit, 120 image generation unit, 122 hidden surface removal Unit, 124 texture mapping unit, 126 α synthesis unit, 130 sound generation unit, 160 operation unit, 170 storage unit, 172 drawing buffer, 174 Z buffer, 176 texture storage unit, 180 information storage medium, 190 display unit, 192 sound output Part, 194 portable information storage device, 196 communication part
Claims (18)
グレア設定対象オブジェクトの所定面の法線ベクトルと、光源ベクトル及びカメラベクトルの少なくとも一方に基づき、グレア表現を行うために用いるグレアパラメータを演算する手段と、
第1のグレア表現を行うための第1のグレアオブジェクトの設定点を、前記グレアパラメータに基づきグレア設定対象オブジェクトに関連づけて設定されたグレア軌道上のいずれかの点に決定する手段と、
前記設定点に基づき、前記グレア軌道上又はその近傍に第1のグレアオブジェクトを配置する手段と、
グレア設定対象オブジェクト及び第1のグレアオブジェクトが配置されたオブジェクト空間を仮想カメラから見た画像を生成する手段としてコンピュータを機能させることを特徴とするプログラム。 A program for generating an image visible from a virtual camera in an object space,
Means for calculating a glare parameter used for performing glare expression based on a normal vector of a predetermined surface of a glare setting target object and at least one of a light source vector and a camera vector;
Means for determining a set point of the first glare object for performing the first glare expression as any point on the glare trajectory set in association with the glare setting target object based on the glare parameter;
Means for placing a first glare object on or near the glare trajectory based on the set point;
A program that causes a computer to function as a means for generating an image of an object space in which a glare setting target object and a first glare object are arranged viewed from a virtual camera.
グレア設定対象オブジェクトの所定面の法線ベクトル、光源ベクトル、仮想カメラ位置、グレア設定対象オブジェクトの位置の少なくとも1つの変化に応じてグレア表現を行うためのグレアパラメータの値を変化させるための演算を行う手段と、
第1のグレア表現を行うための第1のグレアオブジェクトの設定点を、前記グレアパラメータに基づきグレア設定対象オブジェクトに関連づけて設定されたグレア軌道上のいずれかの点に決定する手段と、
前記設定点に基づき、前記グレア軌道上又はその近傍に第1のグレアオブジェクトを配置する手段と、
グレア設定対象オブジェクト及び第1のグレアオブジェクトが配置されたオブジェクト空間を仮想カメラから見た画像を生成する手段としてコンピュータを機能させることを特徴とするプログラム。 A program for generating an image visible from a virtual camera in an object space,
An operation for changing a glare parameter value for performing glare expression according to at least one change of a normal vector, a light source vector, a virtual camera position, and a position of the glare setting target object of a predetermined surface of the glare setting target object Means to do,
Means for determining a set point of the first glare object for performing the first glare expression as any point on the glare trajectory set in association with the glare setting target object based on the glare parameter;
Means for placing a first glare object on or near the glare trajectory based on the set point;
A program that causes a computer to function as a means for generating an image of an object space in which a glare setting target object and a first glare object are arranged viewed from a virtual camera.
光源ベクトルとグレア設定対象オブジェクトの仮想カメラ方向を向いた面の法線ベクトルに基づき、第1のグレアオブジェクトの長さ及び透明度の少なくとも一方を決定し、
決定された長さ及び透明度の少なくとも一方を用いてグレアオブジェクトの画像を生成することを特徴とするプログラム。 In any one of Claims 1 thru | or 2.
Determining at least one of the length and transparency of the first glare object based on the light source vector and the normal vector of the surface of the object to be glare set facing the virtual camera direction;
A program for generating an image of a glare object using at least one of a determined length and transparency.
前記グレア設定対象オブジェクトには複数の特徴点が設定されており、当該特徴点に基づき前記グレア軌道を設定することを特徴とするプログラム。 In any one of Claims 1 thru | or 3,
A program characterized in that a plurality of feature points are set in the glare setting target object, and the glare trajectory is set based on the feature points.
前記グレア設定対象オブジェクトの特徴点には、グレア設定対象オブジェクトに応じた幅データが設定されており、
前記幅データに基づき、第1のグレアオブジェクトの幅を決定することを特徴とするプログラム。 In any one of Claims 1 thru | or 4,
In the feature point of the glare setting target object, width data corresponding to the glare setting target object is set,
A program for determining a width of a first glare object based on the width data.
カメラベクトルとグレア設定対象オブジェクトの仮想カメラ方向を向いた面の法線に基づき、
第1のグレアオブジェクトの幅調整パラメータを決定し、
決定された幅調整パラメータを用いてグレアオブジェクトの幅を調整して画像を生成することを特徴とするプログラム。 In any one of Claims 1 thru | or 5,
Based on the normal of the surface facing the virtual camera direction of the camera vector and glare setting target object,
Determine the width adjustment parameter of the first glare object,
A program for generating an image by adjusting a width of a glare object using a determined width adjustment parameter.
第1のグレアオブジェクトとしてビルボードオブジェクトを用いることを特徴とするプログラム。 In any one of Claims 1 thru | or 6.
A program using a billboard object as a first glare object.
第1のグレア表現を行うための第1のグレアテクスチャを記憶するテクスチャ記憶部を含み、
前記画像生成部は、
前記第1のグレアオブジェクトに第1のグレアテクスチャをマッピングすることを特徴とするプログラム。 In any one of Claims 1 thru | or 7,
A texture storage unit for storing a first glare texture for performing the first glare expression;
The image generation unit
A program for mapping a first glare texture to the first glare object.
グレアオブジェクトの幅はグレア設定対象オブジェクトの幅より広い幅に設定されることを特徴とするプログラム。 In any one of Claims 1 thru | or 8.
A program characterized in that the width of the glare object is set to be wider than the width of the object to be glare set.
前フレームまたは過去に生成した第1のグレアオブジェクトの情報を保持する手段を含み、
前フレームまたは過去に生成した第1のグレアオブジェクトの情報に基づき、前フレームまたは過去に生成した第1のグレアオブジェクトの残像画像を生成する残像生成手段をさらに含み、
前記残像生成手段は、
残像画像の透明度を高く設定して描画することを特徴とするプログラム。 In any one of Claims 1 thru | or 9,
Means for holding information of the first glare object generated in the previous frame or in the past,
Further comprising afterimage generation means for generating an afterimage of the first glare object generated in the previous frame or in the past based on the information of the first glare object generated in the previous frame or in the past;
The afterimage generating means includes:
A program characterized by rendering with a high transparency of the afterimage.
グレア対象オブジェクトの法線ベクトルと光源ベクトルに基づいて、第2のグレアオブジェクト表示イベントの発生の有無を判断する手段と、
第2のグレアオブジェクト表示イベントの発生ありと判断すると、前記グレアオブジェクト設定点に基づき第2のグレア表現を行うための第2のグレアオブジェクトを配置する手段とを含み、
第2のグレアオブジェクト発生イベントから所定期間の間第2のグレアオブジェクトが表示されるように画像生成を行うことを特徴とするプログラム。 In any one of Claims 1 thru | or 10.
Means for determining whether a second glare object display event has occurred based on a normal vector and a light source vector of the glare target object;
Determining that a second glare object display event has occurred, and means for arranging a second glare object for performing a second glare expression based on the glare object set point,
A program for generating an image so that a second glare object is displayed for a predetermined period from a second glare object occurrence event.
前記グレアパラメータに基づき、第2のグレアオブジェクトを仮想カメラに正対する軸の回りで回転させて配置することを特徴とするプログラム。 In claim 11,
A program characterized in that, based on the glare parameter, the second glare object is rotated and arranged around an axis facing the virtual camera.
時間の経過とともに第2のグレアオブジェクトをフェードアウトさせる手段を含むことを特徴とするプログラム。 In any of claims 11 to 12,
A program comprising means for fading out the second glare object over time.
第2のグレアオブジェクトとしてビルボードオブジェクトを用いることを特徴とするプログラム。 In any of claims 11 to 13,
A program using a billboard object as the second glare object.
前記テクスチャ記憶部は、
第2のグレア表現を行うための第2のグレアテクスチャを記憶するテクスチャ記憶部を含み、
前記画像生成部は、
前記第2のグレアオブジェクトに第2のグレアテクスチャをマッピングすることを特徴とするプログラム画像生成システム。 In any one of Claims 1 thru | or 14.
The texture storage unit
A texture storage unit for storing a second glare texture for performing the second glare expression;
The image generation unit
A program image generation system, wherein a second glare texture is mapped to the second glare object.
グレア設定対象オブジェクトの所定面の法線ベクトルと、光源ベクトル及びカメラベクトルの少なくとも一方に基づき、グレア表現を行うために用いるグレアパラメータを演算する手段と、
第1のグレア表現を行うための第1のグレアオブジェクトの設定点を、前記グレアパラメータに基づきグレア設定対象オブジェクトに関連づけて設定されたグレア軌道上のいずれかの点に決定する手段と、
前記設定点に基づき、前記グレア軌道上又はその近傍に第1のグレアオブジェクトを配置する手段と、
グレア設定対象オブジェクト及び第1のグレアオブジェクトが配置されたオブジェクト空間を仮想カメラから見た画像を生成する手段とを、
含むことを特徴とする画像生成システム。 An image generation system for generating an image visible from a virtual camera in an object space,
Means for calculating a glare parameter used for performing glare expression based on a normal vector of a predetermined surface of a glare setting target object and at least one of a light source vector and a camera vector;
Means for determining a set point of the first glare object for performing the first glare expression as any point on the glare trajectory set in association with the glare setting target object based on the glare parameter;
Means for placing a first glare object on or near the glare trajectory based on the set point;
Means for generating an image of the object space in which the glare setting target object and the first glare object are viewed from a virtual camera;
An image generation system comprising:
グレア設定対象オブジェクトの所定面の法線ベクトル、光源ベクトル、仮想カメラ位置、グレア設定対象オブジェクトの位置の少なくとも1つの変化に応じてグレア表現を行うためのグレアパラメータの値を変化させるための演算を行う手段と、
第1のグレア表現を行うための第1のグレアオブジェクトの設定点を、前記グレアパラメータに基づきグレア設定対象オブジェクトに関連づけて設定されたグレア軌道上のいずれかの点に決定する手段と、
前記設定点に基づき、前記グレア軌道上又はその近傍に第1のグレアオブジェクトを配置する手段と、
グレア設定対象オブジェクト及び第1のグレアオブジェクトが配置されたオブジェクト空間を仮想カメラから見た画像を生成する手段とを、
含むことを特徴とする画像生成システム。 An image generation system for generating an image visible from a virtual camera in an object space,
An operation for changing a glare parameter value for performing glare expression according to at least one change of a normal vector, a light source vector, a virtual camera position, and a position of the glare setting target object of a predetermined surface of the glare setting target object Means to do,
Means for determining a set point of the first glare object for performing the first glare expression as any point on the glare trajectory set in association with the glare setting target object based on the glare parameter;
Means for placing a first glare object on or near the glare trajectory based on the set point;
Means for generating an image of the object space in which the glare setting target object and the first glare object are viewed from a virtual camera;
An image generation system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005144339A JP4592087B2 (en) | 2005-05-17 | 2005-05-17 | Image generation system, program, and information storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005144339A JP4592087B2 (en) | 2005-05-17 | 2005-05-17 | Image generation system, program, and information storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006323514A JP2006323514A (en) | 2006-11-30 |
JP4592087B2 true JP4592087B2 (en) | 2010-12-01 |
Family
ID=37543163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005144339A Active JP4592087B2 (en) | 2005-05-17 | 2005-05-17 | Image generation system, program, and information storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4592087B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7141200B2 (en) * | 2017-03-27 | 2022-09-22 | 東芝ライテック株式会社 | Information processing system |
JP7131090B2 (en) * | 2018-06-01 | 2022-09-06 | 岩崎電気株式会社 | Image generation device, image generation method, and image generation program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001325605A (en) * | 2000-05-17 | 2001-11-22 | Namco Ltd | Game system and information storage medium |
WO2005003945A1 (en) * | 2003-07-02 | 2005-01-13 | Ssd Company Limited | Information processing device, information processing system, operating article, information processing method, information processing program, and game system |
-
2005
- 2005-05-17 JP JP2005144339A patent/JP4592087B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001325605A (en) * | 2000-05-17 | 2001-11-22 | Namco Ltd | Game system and information storage medium |
WO2005003945A1 (en) * | 2003-07-02 | 2005-01-13 | Ssd Company Limited | Information processing device, information processing system, operating article, information processing method, information processing program, and game system |
Also Published As
Publication number | Publication date |
---|---|
JP2006323514A (en) | 2006-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4651435B2 (en) | Program, information storage medium, and image generation system | |
JP4527853B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP4804122B2 (en) | Program, texture data structure, information storage medium, and image generation system | |
JP4717622B2 (en) | Program, information recording medium, and image generation system | |
JP4305903B2 (en) | Image generation system, program, and information storage medium | |
JP4749198B2 (en) | Program, information storage medium, and image generation system | |
JP3748451B1 (en) | Program, information storage medium, and image generation system | |
JP4651527B2 (en) | Program, information storage medium, and image generation system | |
JP4743770B2 (en) | Image generation system, program, and information storage medium | |
JP4754384B2 (en) | Program, information recording medium, and image generation system | |
JP2006323512A (en) | Image generation system, program, and information storage medium | |
JP4592087B2 (en) | Image generation system, program, and information storage medium | |
JP4528008B2 (en) | Program, information storage medium, and image generation system | |
JP2009169471A (en) | Program, information storage medium, and image generation system | |
JP4913399B2 (en) | Program, information storage medium, and image generation system | |
JP4707078B2 (en) | Image generation system, program, and information storage medium | |
JP4488346B2 (en) | Program, information storage medium, and image generation system | |
JP2001229403A (en) | Game system and information storage medium | |
JP4577968B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP4574058B2 (en) | Image generation system, program, and information storage medium | |
JP4754385B2 (en) | Program, information recording medium, and image generation system | |
JP2006318196A (en) | Program, information storage medium and image generation system | |
JP2007164736A (en) | Image generation system, program and information storage medium | |
JP2008077406A (en) | Image generation system, program, and information storage medium | |
JP4693153B2 (en) | Image generation system, program, and information storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080415 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100908 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100913 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130924 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4592087 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130924 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |