JP4575937B2 - Image generating apparatus, image generating method, and program - Google Patents
Image generating apparatus, image generating method, and program Download PDFInfo
- Publication number
- JP4575937B2 JP4575937B2 JP2007184634A JP2007184634A JP4575937B2 JP 4575937 B2 JP4575937 B2 JP 4575937B2 JP 2007184634 A JP2007184634 A JP 2007184634A JP 2007184634 A JP2007184634 A JP 2007184634A JP 4575937 B2 JP4575937 B2 JP 4575937B2
- Authority
- JP
- Japan
- Prior art keywords
- texture
- transparency
- mirror image
- plane
- storage unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 22
- 238000004364 calculation method Methods 0.000 claims description 32
- 238000012545 processing Methods 0.000 description 17
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
Images
Landscapes
- Image Generation (AREA)
Description
本発明は、オブジェクトの位置や形状を認識しやすくしつつそのオブジェクトの映り込みを表現するために好適な画像生成装置、画像生成方法、ならびに、プログラムに関する。 The present invention relates to an image generation apparatus, an image generation method, and a program suitable for expressing the reflection of an object while making it easy to recognize the position and shape of the object.
仮想空間を表した画像を生成する際、よりリアルに表現するために、床などの反射面にオブジェクトの映り込みを描画する手法がある。例えば、特許文献1には、仮想視点からオブジェクトを見たときにあり得ない反射方向に存在するプリミティブ面への描画を省略するなどして、処理負担を軽減して映り込みを描画する手法が開示されている。
しかし、特許文献1に示すような従来の手法では、オブジェクトの位置や形状に関わらず単に忠実に仮想の鏡で映したような画像を映り込み画像にしているため、反射面から近い部分も遠い部分も同じように映り込みを作ることになる。その結果、全体として複雑で見づらい画像となってしまったり、オブジェクト本体の像とその映り込みの鏡像との区別がつきにくくなってオブジェクト本体の位置や形状を認識しにくくなったりする問題があった。
However, in the conventional method as shown in
本発明はこのような課題を解決するものであり、オブジェクトの位置や形状を認識しやすくしつつそのオブジェクトの映り込みを表現するために好適な画像生成装置、画像生成方法、ならびに、プログラムを提供することを目的とする。 The present invention solves such problems, and provides an image generation apparatus, an image generation method, and a program suitable for expressing the reflection of an object while making it easy to recognize the position and shape of the object. The purpose is to do.
以上の目的を達成するため、本発明の原理にしたがって、下記の発明を開示する。 In order to achieve the above object, the following invention is disclosed in accordance with the principle of the present invention.
本発明の第1の観点に係る画像生成装置は、位置形状記憶部、テクスチャ記憶部、鏡像計算部、透明度取得部、生成部を備える。
位置形状記憶部は、仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状を記憶する。
テクスチャ記憶部は、当該モデルオブジェクトの表面に貼り付ける第1のテクスチャを記憶する。
鏡像計算部は、位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する。
透明度取得部は、位置形状記憶部に記憶された当該面オブジェクトから鏡像計算部により計算された当該鏡像オブジェクトの表面を構成する各領域までの各距離に応じて、当該各領域に対する当該第1のテクスチャの透明度を取得する。
生成部は、当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該鏡像オブジェクトの当該各領域の投影先に、テクスチャ記憶部に記憶された第1のテクスチャのうち当該各領域に対応する部分を、透明度取得部により取得された透明度でそれぞれ貼り付け、当該モデルオブジェクトの投影先にテクスチャ記憶部に記憶された第1のテクスチャを貼り付けて、画像を生成する。
これらの構成により、オブジェクトの画像には反射面までの距離によってはっきりと映る部分や霞んで映る部分ができ、映り込みの透明度の違いによってオブジェクトの立体的な位置や形状が掴みやすくなり、且つ、複雑でない画像になる。例えば、あるオブジェクトの反射面への映り込み画像を生成するとき、映り込み画像に設定する透明度と、映り込み画像を構成する各部分と反射面との距離と、の間に依存関係を予め決めておく。画像生成装置は、この依存関係を満たすように映り込み画像の各部分の透明度を変える。すると、ユーザは、この依存関係に基づいて、映り込み画像の各部分に対応するオブジェクト本体の各部分が、それぞれ反射面からどれだけ離れているかを、透明度の違いによって掴むことができる。
An image generation apparatus according to a first aspect of the present invention includes a position shape storage unit, a texture storage unit, a mirror image calculation unit, a transparency acquisition unit, and a generation unit.
The position shape storage unit stores the position and shape of the model object arranged in the virtual space, and the position and shape of the plane object.
The texture storage unit stores a first texture to be pasted on the surface of the model object.
The mirror image calculation unit calculates the position and shape of the mirror image object obtained by inverting the model object with respect to the surface object based on the position and shape of the model object and the surface object stored in the position shape storage unit. calculate.
The transparency acquisition unit, according to each distance from the surface object stored in the position shape storage unit to each region constituting the surface of the mirror image object calculated by the mirror image calculation unit, the first for each region Get the transparency of the texture.
The generation unit obtains a projection destination of the model object and the mirror image object with respect to the projection plane arranged in the virtual space, and stores the first destination stored in the texture storage unit in the projection destination of each region of the mirror image object. The portion corresponding to each region of the texture is pasted with the transparency acquired by the transparency acquisition unit, the first texture stored in the texture storage unit is pasted to the projection destination of the model object, and the image is Generate.
With these configurations, the object's image can have a part that is clearly reflected or blurred due to the distance to the reflecting surface, and the three-dimensional position and shape of the object can be easily grasped by the difference in transparency of the reflection, and The image is not complicated. For example, when generating a reflection image on the reflection surface of an object, a dependency relationship is determined in advance between the transparency set for the reflection image and the distance between each part of the reflection image and the reflection surface. Keep it. The image generation device changes the transparency of each part of the reflected image so as to satisfy this dependency. Then, the user can grasp how far each part of the object body corresponding to each part of the reflected image is away from the reflecting surface based on the dependency, based on the difference in transparency.
透明度取得部は、当該面オブジェクトから当該鏡像オブジェクトまでの距離が長いほど当該透明度を大きくしてもよい。
これらの構成により、反射面から遠ざかるほどオブジェクトの映り込みは透明になり、反射面に近づくほどオブジェクトは不透明になるので、立体的な映り込みを表現でき、ユーザは距離感が掴みやすくなる。例えば、映り込みが明瞭な部分に対応するオブジェクト本体の部分は反射面から近くにあり、映り込みが明瞭でない部分に対応するオブジェクト本体の部分は反射面から遠くにあることがすぐに分かる。
The transparency acquisition unit may increase the transparency as the distance from the plane object to the mirror image object is longer.
With these configurations, the reflection of the object becomes transparent as the distance from the reflection surface increases, and the object becomes opaque as the distance from the reflection surface increases. Therefore, a three-dimensional reflection can be expressed, and the user can easily grasp the sense of distance. For example, it can be readily seen that the part of the object body corresponding to the part where the reflection is clear is close to the reflection surface, and the part of the object body corresponding to the part where the reflection is not clear is far from the reflection surface.
透明度取得部は、当該透明度を、当該面オブジェクトから当該鏡像オブジェクトまでの距離に対して単調増加させてもよい。
この場合、反射面から遠ざかるほどオブジェクトの映り込みは透明になり、反射面に近づくほどオブジェクトの映り込みは不透明になる。また、透明度は全体として単調増加する傾向であればよく、ある任意の距離区間で一定値をとることがあってもよい。例えば、所定の何段階かのグラデーションをつけるように透明度を変えることができる。画像生成装置は立体的な映り込みを表現でき、ユーザは距離感が掴みやすくなる。
The transparency acquisition unit may monotonously increase the transparency with respect to the distance from the plane object to the mirror image object.
In this case, the reflection of the object becomes transparent as the distance from the reflection surface increases, and the reflection of the object becomes opaque as the distance from the reflection surface approaches. Further, the transparency may be a monotonically increasing tendency as a whole, and may take a constant value in a certain arbitrary distance section. For example, the transparency can be changed to give a predetermined number of gradations. The image generation apparatus can express a three-dimensional reflection, and the user can easily grasp the sense of distance.
テクスチャ記憶部は、当該面オブジェクトの表面に貼り付ける第2のテクスチャを更に記憶してもよい。
そして、生成部は、当該面オブジェクトの表面に当該第2のテクスチャを貼り付け、次に、当該鏡像オブジェクトの当該各領域の投影先に、テクスチャ記憶部に記憶された当該第1のテクスチャのうち当該各領域に対応する部分を、透明度取得部により取得された透明度でそれぞれ貼り付け、次に、当該モデルオブジェクトの投影先にテクスチャ記憶部に記憶された第1のテクスチャを貼り付けて、画像を生成してもよい。
これらの構成により、リアリティのある画像を生成することができる。すなわち、オブジェクト画像と、そのオブジェクト画像の反射面への映り込み画像が、反射面の画像で上書きされて見えなくなってしまうことはない。また、視点の位置がどこにあったとしても、オブジェクト画像が、映り込み画像によって上書きされて見えなくなってしまうこともない。
The texture storage unit may further store a second texture to be pasted on the surface of the plane object.
Then, the generation unit pastes the second texture on the surface of the plane object, and then, among the first textures stored in the texture storage unit, in the projection destination of each region of the mirror image object The part corresponding to each area is pasted with the transparency acquired by the transparency acquisition unit, and then the first texture stored in the texture storage unit is pasted to the projection destination of the model object, and the image is It may be generated.
With these configurations, a realistic image can be generated. That is, the object image and the reflected image of the object image on the reflection surface are not overwritten with the image of the reflection surface and are not seen. Further, no matter where the viewpoint is located, the object image is not overwritten by the reflected image and cannot be seen.
本発明のその他の観点に係る画像生成方法は、位置形状記憶部、テクスチャ記憶部、鏡像計算部、透明度取得部、生成部を有する画像生成装置にて実行される画像生成方法であって、鏡像計算ステップ、透明度取得ステップ、生成ステップを備える。
位置形状記憶部には、仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状が記憶される。
テクスチャ記憶部には、当該モデルオブジェクトの表面に貼り付けるテクスチャが記憶される。
鏡像計算ステップは、鏡像計算部が、位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する。
透明度取得ステップは、透明度取得部が、位置形状記憶部に記憶された当該面オブジェクトから鏡像計算ステップにより計算された当該鏡像オブジェクトの表面を構成する各領域までの距離に応じて、当該各領域に対する当該テクスチャの透明度を変化させる。
生成ステップは、生成部が、当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該鏡像オブジェクトの当該各領域の投影先に、テクスチャ記憶部に記憶されたテクスチャのうち当該各領域に対応する部分を、透明度取得ステップにより取得された透明度でそれぞれ貼り付け、当該モデルオブジェクトの投影先にテクスチャ記憶部に記憶されたテクスチャを貼り付けて、画像を生成する。
これらの構成により、オブジェクトの画像には反射面までの距離によってはっきりと映る部分や霞んで映る部分ができ、映り込みの透明度の違いによってオブジェクトの立体的な位置や形状が掴みやすくなり、且つ、複雑でない画像になる。
An image generation method according to another aspect of the present invention is an image generation method executed by an image generation apparatus having a position shape storage unit, a texture storage unit, a mirror image calculation unit, a transparency acquisition unit, and a generation unit, A calculation step, a transparency acquisition step, and a generation step are provided.
The position shape storage unit stores the position and shape of the model object arranged in the virtual space and the position and shape of the plane object.
The texture storage unit stores a texture to be pasted on the surface of the model object.
The mirror image calculation step includes a mirror image object obtained by inverting the model object with respect to the plane object based on the position and shape of the model object and the plane object stored in the position shape storage unit. Calculate the position and shape.
The transparency acquisition step is performed by the transparency acquisition unit for each area according to the distance from the plane object stored in the position shape storage unit to each area constituting the surface of the mirror image object calculated by the mirror image calculation step. Change the transparency of the texture.
In the generation step, the generation unit obtains the projection destination of the model object and the mirror image object with respect to the projection plane arranged in the virtual space, and is stored in the texture storage unit in the projection destination of each region of the mirror image object. The portion corresponding to each area of the texture is pasted with the transparency acquired in the transparency acquisition step, and the texture stored in the texture storage unit is pasted to the projection destination of the model object to generate an image. .
With these configurations, the object's image can have a part that is clearly reflected or blurred due to the distance to the reflecting surface, and the three-dimensional position and shape of the object can be easily grasped by the difference in transparency of the reflection, and The image is not complicated.
本発明のその他の観点に係るプログラムは、コンピュータを、位置形状記憶部、テクスチャ記憶部、鏡像計算部、透明度取得部、生成部として機能させる。
位置形状記憶部は、仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状を記憶する。
テクスチャ記憶部は、当該モデルオブジェクトの表面に貼り付けるテクスチャを記憶する。
鏡像計算部は、位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する。
透明度取得部は、位置形状記憶部に記憶された当該面オブジェクトから計算部により計算された当該鏡像オブジェクトの表面を構成する各領域までの距離に応じて、当該各領域に対する当該テクスチャの透明度を取得する。
生成部は、当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該鏡像オブジェクトの当該各領域の投影先に、テクスチャ記憶部に記憶されたテクスチャのうち当該各領域に対応する部分を、透明度取得部により取得された透明度でそれぞれ貼り付け、当該モデルオブジェクトの投影先にテクスチャ記憶部に記憶されたテクスチャを貼り付けて、画像を生成する。
これらの構成により、オブジェクトの画像には反射面までの距離によってはっきりと映る部分や霞んで映る部分ができ、映り込みの透明度の違いによってオブジェクトの立体的な位置や形状が掴みやすくなり、且つ、複雑でない画像になる。
A program according to another aspect of the present invention causes a computer to function as a position shape storage unit, a texture storage unit, a mirror image calculation unit, a transparency acquisition unit, and a generation unit.
The position shape storage unit stores the position and shape of the model object arranged in the virtual space, and the position and shape of the plane object.
The texture storage unit stores a texture to be pasted on the surface of the model object.
The mirror image calculation unit calculates the position and shape of the mirror image object obtained by inverting the model object with respect to the surface object based on the position and shape of the model object and the surface object stored in the position shape storage unit. calculate.
The transparency acquisition unit acquires the transparency of the texture for each region according to the distance from the surface object stored in the position shape storage unit to each region constituting the surface of the mirror image object calculated by the calculation unit. To do.
The generation unit obtains the projection destination of the model object and the mirror image object on the projection plane arranged in the virtual space, and includes the texture stored in the texture storage unit at the projection destination of the region of the mirror image object. A portion corresponding to each region is pasted with the transparency acquired by the transparency acquisition unit, and a texture stored in the texture storage unit is pasted on the projection destination of the model object to generate an image.
With these configurations, the object's image can have a part that is clearly reflected or blurred due to the distance to the reflecting surface, and the three-dimensional position and shape of the object can be easily grasped by the difference in transparency of the reflection, and The image is not complicated.
本発明によれば、オブジェクトの位置や形状を認識しやすくしつつそのオブジェクトの映り込みを表現することができる。 According to the present invention, the reflection of an object can be expressed while making it easy to recognize the position and shape of the object.
図1は、本発明の実施形態に係る画像生成装置が実現される典型的なゲーム装置の概要構成を示す模式図である。以下、本図を参照して説明する。 FIG. 1 is a schematic diagram showing a schematic configuration of a typical game device in which an image generation device according to an embodiment of the present invention is realized. Hereinafter, a description will be given with reference to FIG.
ゲーム装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、インターフェース104と、コントローラ105と、外部メモリ106と、DVD(Digital Versatile Disk)−ROMドライブ107と、画像処理部108と、音声処理部109と、NIC(Network Interface Card)110と、を備える。
The
なお、ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ107に装着して、ゲーム装置100の電源を投入することにより、当該プログラムが実行され、本実施形態の画像生成装置が実現される。
Note that a DVD-ROM storing a game program and data is loaded into the DVD-
CPU 101は、ゲーム装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。
The
ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録され、CPU 101がDVD−ROMに記録されたプログラムをRAM 103に読み出して実行する。また、ROM 102には、ゲーム装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録され、CPU 101がこれらのプログラム等を読み出して実行する。
The
RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD−ROMから読み出したプログラムやデータ、その他ゲームの進行に必要なデータが保持される。
The
インターフェース104を介して接続されたコントローラ105は、ユーザがゲーム実行の際に行う操作入力を受け付ける。たとえば、コントローラ105には、Aボタン,Bボタン,Xボタン,Yボタンや4方向を示す各方向ボタン(方向キー)等が配置されている。そして、これらのボタンがユーザに押下されると、押下されたボタンに応じた操作入力を受け付ける。
The controller 105 connected via the
インターフェース104を介して着脱自在に接続された外部メモリ106には、ゲームの進行状態を示すデータ、通信のログ(記録)のデータなどが書き換え可能に記憶される。ユーザは、コントローラ105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記録することができる。
In the
DVD−ROMドライブ107に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記録される。CPU 101の制御によって、DVD−ROMドライブ107は、これに装着されたDVD−ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。
A DVD-ROM mounted on the DVD-
画像処理部108は、DVD−ROMから読み出されたデータをCPU 101や画像処理部108が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部108が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され画像処理部108に接続されるモニター(図示せず)へ出力される。これにより、各種の画像表示が可能となる。
The image processing unit 108 processes the data read from the DVD-ROM by the
なお、画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。
また、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを俯瞰したレンダリング画像を得る演算の高速実行も可能である。
The image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed.
In addition, the polygon information arranged in the virtual three-dimensional space and added with various kinds of texture information is rendered by the Z buffer method, and a rendered image is obtained by overlooking the polygon arranged in the virtual three-dimensional space from a predetermined viewpoint position. High speed execution of the obtained operation is also possible.
さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。フォント情報は、ROM 102に記録されているが、DVD−ROMに記録された専用のフォント情報を利用することも可能である。
Further, the
音声処理部109は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、これに接続されたスピーカー(図示せず)から出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。
The
NIC 110は、ゲーム装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)により構成される。
The
このほか、ゲーム装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD−ROMドライブ107に装着されるDVD−ROM等と同じ機能を果たすように構成してもよい。
また、ユーザからの文字列の編集入力を受け付けるためのキーボードや、各種の位置の指定および選択入力を受け付けるためのマウスなどの入出力デバイスを接続する形態も採用することができる。
In addition, the
In addition, it is possible to adopt a form in which an input / output device such as a keyboard for receiving a character string editing input from a user and a mouse for receiving various position designations and selection inputs is connected.
また、本実施形態のゲーム装置100にかえて、一般的なコンピュータ(汎用のパーソナルコンピュータ等)を本発明に係る画像生成装置として利用することもできる。例えば、一般的なコンピュータは、上記ゲーム装置100と同様に、CPU、RAM、ROM、DVD−ROMドライブ、および、NICを備え、ゲーム装置100よりも簡易な機能を備えた画像処理部を備え、外部記憶装置としてハードディスクを有する他、フレキシブルディスク、光磁気ディスク、磁気テープ等が利用できるようになっている。また、コントローラではなく、キーボードやマウスなどを入力装置として利用する。そして、ゲームプログラムをインストールした後に、そのプログラムを実行させると、画像生成装置として機能させることができる。
Further, instead of the
次に、本実施形態に係る画像生成装置200の機能的な概要構成について説明する。図2は、画像生成装置200の概要構成を示す図である。画像生成装置200は、位置形状記憶部201、テクスチャ記憶部202、鏡像計算部203、透明度取得部204、生成部205を備える。
Next, a functional schematic configuration of the
本実施形態の画像生成装置200は、図3に示すように、仮想空間内に配置されるモデルオブジェクト310と、面オブジェクト320と、鏡像オブジェクト330とを含む画像を生成する。
As illustrated in FIG. 3, the
モデルオブジェクト310は、例えば、体操や運動などをしている人型のモデルを表すキャラクタオブジェクトである。面オブジェクト320は、モデルオブジェクト310が乗っている床やステージ、あるいは側面等に設置された鏡、光反射板、ガラス窓などを表すオブジェクトである。鏡像オブジェクト330は、あたかも面オブジェクト320にモデルオブジェクト310が写り込んで見えるかのように配置するキャラクタオブジェクトである。一例として、画像生成装置200は、仮想空間内のスタジオで、フィットネスのインストラクター(モデルオブジェクト310)が、光を反射するステージ(面オブジェクト320)の上でエクササイズし、そのインストラクターのステージへ映り込んでいる姿(鏡像オブジェクト330)とともに、スタジオ内の様子を表す画像を、後述する画像生成処理により生成する。
The
位置形状記憶部201は、仮想空間内に配置されるモデルオブジェクト310の位置と形状、及び、面オブジェクト320の位置と形状を記憶する。これらの初期値は例えばDVD−ROMに予め格納されており、CPU 101がDVD−ROMドライブ107に装着されたDVD−ROMを読み出してRAM 103に一時記憶させる。CPU 101は、一時記憶されるこれらの位置と形状を示すデータを、例えばゲームの進行に応じて、随時更新することができる。CPU 101、RAM 103、DVD−ROMドライブ107が協働して動作することにより、位置形状記憶部201として機能する。
The position
モデルオブジェクト310と面オブジェクト320の形状は、その表面を微小な多角形(典型的には三角形や四角形など)のポリゴン(プリミティブ)に分割して、数値データ化されて表される。
The shapes of the
モデルオブジェクト310と面オブジェクト320の位置は、1個の動径と2個の偏角を用いた極座標系を用いて、各オブジェクト内の代表点の座標(r,θ,φ)で表される。例えば、各オブジェクトの重心点の座標値が、各オブジェクトの代表点の位置を示す座標値となる。ただし、座標系はこれに限られるものではなく、例えば互いに直交する3軸による直交座標系を用いてもよい。また、仮想空間の全体を表現するグローバル座標系(ワールド座標系)と、オブジェクトごとのローカル座標系(ボディ座標系)とを別々に設定して座標計算等を行う構成を採用してもよい。
The positions of the
テクスチャ記憶部202は、モデルオブジェクト310の表面に貼り付けるテクスチャと呼ばれる画像データ(以下「第1のテクスチャ」と呼ぶ)を記憶する。また、テクスチャ記憶部202は、面オブジェクト320の表面に貼り付けるテクスチャ(以下「第2のテクスチャ」と呼ぶ)を記憶する。第1のテクスチャと第2のテクスチャは、例えばDVD−ROMに予め格納されており、CPU 101がDVD−ROMドライブ107に装着されたDVD−ROMを読み出してRAM 103に一時記憶させる。CPU 101、RAM 103、DVD−ROMドライブ107が協働して動作することにより、テクスチャ記憶部202として機能する。なお、後述するように、第1のテクスチャは、鏡像オブジェクト330の表面に貼り付けるためのテクスチャとしても用いられる。
The
鏡像計算部203は、位置形状記憶部201に記憶されたモデルオブジェクト310と面オブジェクト320のそれぞれの位置と形状に基づいて、鏡像オブジェクト330の位置と形状を計算する。CPU 101、画像処理部108、RAM 103が協働して動作することにより、鏡像計算部203として機能する。
The mirror
より詳細には、鏡像計算部203は、モデルオブジェクト310上のある点(例えば各ポリゴンの頂点)について、面オブジェクト320に対して対称の位置になるような座標変換によって変換後の点の位置を計算し、同様に他の点についてもこの計算を繰り返す。そして、座標変換後の各点を結んで鏡像オブジェクト330を構成するポリゴンとし、鏡像オブジェクト330の形状を決定する。簡単に言えば、モデルオブジェクト310を面オブジェクト320に対して反転させて、鏡像オブジェクト330の位置と形状を計算する。
More specifically, the mirror
図4(a)は、モデルオブジェクト310、面オブジェクト320、鏡像オブジェクト330の相互の位置関係を簡略化して表した一例である。ここでは、面オブジェクト320は、図4(b)に示すような平面であるとする。モデルオブジェクト310上のある点401と鏡像オブジェクト330上の対応する点403を結ぶ直線と、面オブジェクト320との交点402は、点401と点403とを結んだ線分の中点と一致する。言い換えれば、距離R1=距離R1’である。このようにモデルオブジェクト310と鏡像オブジェクト330は互いに面対称の関係にあり、鏡像計算部203はこの関係を満たすように鏡像オブジェクト330の位置と形状を計算する。
FIG. 4A is an example in which the positional relationship among the
面オブジェクト320の形状は平面に限られない。
図5(a)は、モデルオブジェクト310、面オブジェクト320、鏡像オブジェクト330の相互の位置関係を簡略化して表した他の例である。ここでは、面オブジェクト320は、図5(b)に示すような、点404を円の中心とする面を含む円柱の一部である。点401、点402、点403、点404は同一直線上にある。この例においても、モデルオブジェクト310と鏡像オブジェクト330は凸面鏡を用いた互いに面対称の関係にあると言える。なお、面オブジェクト320の形状は、平面、円柱(円筒)のほか、球、凹面、凸面、あるいは、これらの一部又は組み合わせでもよい。
The shape of the
FIG. 5A is another example in which the positional relationship among the
透明度取得部204は、面オブジェクト320から鏡像計算部203により計算された鏡像オブジェクト330の表面を構成する各領域(各ポリゴン)までの距離に応じて、各領域に対する第1のテクスチャの透明度をそれぞれ取得する。透明度は、いわゆるα値のことである。CPU 101、画像処理部108、RAM 103が協働して動作することにより、透明度取得部204として機能する。
The
図6は、面オブジェクト320と、鏡像オブジェクト330の表面の一部を拡大して表した図である。鏡像オブジェクト330は、モデルオブジェクト310と同様に、微小な多角形のポリゴンに分割して数値データ化されて表される。透明度取得部204は、面オブジェクト320から各ポリゴンに対応する各領域601(本図中では領域601−1,601−2,601−3と表記)までの距離(本図中ではぞれぞれL1,L2,L3)を計算する。鏡像オブジェクト330の各領域601には、後述する生成部205によって第1のテクスチャの断片(テクスチャの一部分)がそれぞれ割り当てられる。透明度取得部204は、計算された各距離の長さに応じて、割り当てられた第1のテクスチャの断片の透明度をそれぞれ取得する。典型的には、透明度取得部204は、計算された距離の長さに対して透明度が単調増加するように計算して、各領域の透明度を取得する。透明度は全体として単調増加する傾向であればよく、ある任意の距離区間で一定値をとることがあってもよい。例えば、所定の何段階かのグラデーションをつけるように透明度を変えることができる。
FIG. 6 is an enlarged view of a part of the surface of the
結果として、鏡像オブジェクト330の画像は、面オブジェクト320に近いほど透明度が小さくなって第1のテクスチャの元色に近い色になり、鏡像オブジェクト330は面オブジェクト320に近いほどだんだんとはっきり表示されることになる。一方、面オブジェクト320から遠ざかるほど透明度が大きくなって、鏡像オブジェクト330はだんだんと背景に溶け込んで霞んでいくように表示されることになる。このように、α値を変えることによって、背景色とテクスチャの色との混合比率が領域ごとに変わる。
As a result, as the image of the
例えば、透明度取得部204は、図7(a)〜(d)に示すような関係を満たすように、鏡像オブジェクト330を構成する各領域の透明度を変化させる。縦軸は鏡像オブジェクト330を構成する各領域の透明度(α値)、横軸は各領域から面オブジェクト3320までの距離である。透明度は0から1までの値を取りうる。透明度が0であれば完全不透明、透明度が1であれば完全透明になる。
図7(a)は、透明度取得部204が取得する透明度の一例をグラフにして示した図である。本例では、透明度は距離に対して直線的に増加する。そして、閾距離D1に達すると透明度は一定値(ここではα=1)になる。
図7(b)は、透明度と距離の関係の、他の例である。本例では、透明度の増加する比率がだんだんと増加する。あるいは2次関数や指数関数等で表されるように増加してもよい。そして、同様に閾距離D1に達すると透明度は一定値になる。なお、透明度の増加する比率がだんだんと減少していってもよい。
図7(c)は、透明度と距離の関係の、他の例である。本例では、距離が比較的短い範囲では透明度の増加する比率がだんだんと増加していき、距離が比較的長い範囲ではこの比率がだんだんと減少していく。やがて透明度は一定値(ここではα=1)に収束していく。
図7(d)は、透明度と距離の関係の、他の例である。本例では、透明度は階段関数のように非連続的に変化する。段階数を多くすれば、透明度が滑らかに変化していくように見える。
これらは例示に過ぎず、自由に組み合わせたり変形させたりした実施形態を採用できることは言うまでもない。透明度は0≦α≦1の範囲で変化させているが、他の任意の範囲αmin≦α≦αmaxで変化させてもよい。αminはゼロに限定されるわけではないし、αmaxは1に限定されるわけでもない。
For example, the
FIG. 7A is a graph showing an example of the transparency acquired by the
FIG. 7B is another example of the relationship between transparency and distance. In this example, the ratio of increasing transparency gradually increases. Or you may increase so that it may represent with a quadratic function, an exponential function, etc. Similarly, when the threshold distance D1 is reached, the transparency becomes a constant value. It should be noted that the ratio of increasing transparency may gradually decrease.
FIG. 7C shows another example of the relationship between transparency and distance. In this example, the ratio of increasing transparency gradually increases in the range where the distance is relatively short, and this ratio gradually decreases in the range where the distance is relatively long. Eventually the transparency converges to a certain value (here α = 1).
FIG. 7D is another example of the relationship between transparency and distance. In this example, the transparency changes discontinuously like a step function. If the number of steps is increased, the transparency appears to change smoothly.
These are merely examples, and it is needless to say that embodiments freely combined or deformed can be adopted. The transparency is changed in the range of 0 ≦ α ≦ 1, but may be changed in any other range αmin ≦ α ≦ αmax. αmin is not limited to zero, and αmax is not limited to one.
生成部205は、仮想空間内に配置される投影面に対するモデルオブジェクト310と面オブジェクト320と鏡像オブジェクト330の投影先をそれぞれ求める。CPU 101、画像処理部108、RAM 103が協働して動作することにより、生成部205として機能する。
The
図8は、生成部205が各オブジェクトを投影面810に投影する様子を示した模式図である。投影面810は仮想空間内の任意の場所に配置される。生成部205は、同じく仮想空間内に配置された仮想的な視点820から視線方向(本図中の矢印Y1方向)に見た各オブジェクトの画像を投影面810に投影する。投影面810に投影された画像が、画像生成装置200に接続されるモニターに出力される表示画像となる。例えば、モデルオブジェクト310上の点851(本図ではモデルオブジェクト310の“手の先端”部分)の投影先は、投影面810上の点861(本図では鏡像オブジェクト330の同じ“手の先端”部分)に対応する。同様に、面オブジェクト320上の点852(本図では“ステージの先端”部分)の投影先は、投影面810上の点862に、鏡像オブジェクト330上の点853(本図では“頭の先端”部分)の投影先は投影面810上の点863に、それぞれ対応する。同様に、生成部205は、モデルオブジェクト310、面オブジェクト320、鏡像オブジェクト330の他の各点について投影先を計算する。
FIG. 8 is a schematic diagram illustrating how the
そして、生成部205は、各オブジェクトの表面に第1のテクスチャ又は第2のテクスチャを貼り付けて描画して(すなわちテクスチャマッピングして)、表示用の画像データを生成する。より詳細には、生成部205は、
(1)まず、面オブジェクト320の投影先に、第2のテクスチャを貼り付け、
(2)次に、鏡像オブジェクト330の各領域の投影先に、透明度取得部204により取得された透明度で、第1のテクスチャのうち各領域に対応する部分をそれぞれ貼り付け、
(3)さらに、モデルオブジェクト310の投影先に、テクスチャ記憶部202に記憶されている(透明度を変えていない)第1のテクスチャを貼り付けて、
画像データを生成する。
Then, the
(1) First, a second texture is pasted on the projection target of the
(2) Next, a portion corresponding to each region of the first texture is pasted to the projection destination of each region of the
(3) Further, the first texture stored in the texture storage unit 202 (the transparency is not changed) is pasted on the projection destination of the
Generate image data.
例えば、面オブジェクト320の表面が光を反射する(映り込みを作り出す)材質でできている場合、面オブジェクト320、鏡像オブジェクト330、モデルオブジェクト310、の順にテクスチャを貼り付けて描画する。もし、面オブジェクト320の表面が、例えば土の地面などのように光を反射しにくい(映り込みを作り出さない)材質でできているのであれば、鏡像オブジェクト330、面オブジェクト320、モデルオブジェクト310、の順にテクスチャを貼り付ければよい。
For example, when the surface of the
ここで、生成部205は、透明度取得部204によって取得された透明度ではなく、他の処理によって取得された透明度を用いて、テクスチャを貼り付けてもよい。例えば、地面に水たまりがある場合、水たまりの部分に対応する鏡像オブジェクト330の表面には透明度取得部204によって取得された透明度で第1のテクスチャを貼り付け、それ以外の土の部分に対応する鏡像オブジェクト330の表面には完全に不透明にして第1のテクスチャを貼り付けてもよい。
Here, the
なお、視点820から見たときに鏡像オブジェクト330全体が完全に面オブジェクト320あるいは他のオブジェクトに隠れて見えないのであれば、鏡像オブジェクト330の表面にテクスチャを貼り付ける処理を省略することもできる。
If the entire
次に、上述の各部が行う画像生成処理の流れについて、図9のフローチャートを用いて説明する。以下の説明では、画像生成装置200が、コントローラ105を用いたユーザからの指示入力に基づいて、仮想空間内に配置されたオブジェクト(例えばゲームに登場するプレイヤーキャラクタオブジェクトなど)を含む画像を生成する場面を想定して説明する。
Next, the flow of image generation processing performed by each unit described above will be described with reference to the flowchart of FIG. In the following description, the
まず、鏡像計算部203は、モデルオブジェクト310の位置と形状を示すデータ、及び、面オブジェクト320の位置と形状を示すデータを、位置形状記憶部201からそれぞれ取得する(ステップS901)。
First, the mirror
鏡像計算部203は、取得したモデルオブジェクト310の位置と形状、及び、面オブジェクト320の位置と形状から、鏡像オブジェクト330の位置と形状を求める(ステップS902)。求められた位置と形状を示すデータは、RAM 103に一時記憶される。
The mirror
透明度取得部204は、鏡像オブジェクト330を構成する各領域から面オブジェクト320までの距離をそれぞれ求める(ステップS903)。例えば、透明度取得部204は、鏡像オブジェクト330を構成する各ポリゴンに対応する各領域の中心点から面オブジェクトへ垂線を下ろし、中心点から垂線と面オブジェクト320の交点までの距離(垂線の長さ)をそれぞれ計算する。典型的には各領域の中心点は重心である。計算されたそれぞれの距離を示すデータは、RAM 103に一時記憶される。
The
透明度取得部204は、ステップS903で計算した距離に応じて、各領域に貼り付けるテクスチャ部分(第1のテクスチャのうち各領域に割り当てられる部分)の透明度を取得する(ステップS904)。例えば、透明度取得部204は、0≦α≦1の範囲で、計算された距離が長ければ長いほどα値を大きく、短ければ短いほどα値を小さくした透明度を取得する。
The
この鏡像オブジェクト330の表面に貼り付けるテクスチャの透明度は、視点810から鏡像オブジェクト330(を構成する各ポリゴン)までの距離ではなく、面オブジェクト320から鏡像オブジェクト330(を構成する各ポリゴン)までの距離によって変わる。
The transparency of the texture pasted on the surface of the
生成部205は、この仮想空間内に投影面810を配置する(ステップS905)。生成部205は、視点820の位置と、視線ベクトルの向き(視線方向)と、ズーム倍率とに基づいて、投影面810の位置を決定する。ユーザは、コントローラ105を用いて、仮想カメラ(視点810)の位置、仮想カメラの向き(視線方向Y1)、仮想カメラの撮影倍率等を指定するためのパラメータを変更する旨の指示ができ、生成部205はこのユーザからの指示入力に基づいて投影面810の位置と向きを決定する。
The
例えば、生成部205は、視点810を起点とする視線ベクトルと垂直に交わる向きに投影面810を配置し、ズームインの際には投影面810を撮影対象のオブジェクトに近づくように(視点810から遠ざかるように)平行移動させ、ズームアウトの際には撮影対象のオブジェクトから遠ざかるように(視点810に近づくように)平行移動させる。視線ベクトルの向きを変える(すなわち仮想カメラをパンする)ときには、視線方向の向きの変化に従って投影面810の向きも変える。
For example, the
生成部205は、モデルオブジェクト310、面オブジェクト320、鏡像オブジェクト330のそれぞれについて、ステップS905で配置した投影面810への投影先を求める(ステップS906)。例えば、生成部205は、各オブジェクトを投影面810に透視投影する。これにより、3次元仮想空間に配置された各オブジェクトが、2次元仮想スクリーンに投影される。本実施形態では、投影の手法として透視投影を採用するので、視点810から遠くにあるオブジェクトは小さく、近くにあるオブジェクトは大きく投影されることになる。ただし、透視投影の代わりに平行投影を採用することもできる。
The
生成部205は、テクスチャ記憶部202に記憶された、面オブジェクト320用のテクスチャである第2のテクスチャを読み出して、面オブジェクト320の投影先に貼り付けて描画する(ステップS907)。
The
また、生成部205は、鏡像オブジェクト330の投影先の各領域に、第1のテクスチャのうち各領域に対応する部分を、ステップS904で取得した透明度で貼り付けて描画する(ステップS908)。
In addition, the
さらに、生成部205は、テクスチャ記憶部202に記憶された、モデルオブジェクト310用のテクスチャである第1のテクスチャを読み出して、モデルオブジェクト310の投影先に貼り付けて描画する(ステップS909)。ここでは生成部205は透明度を変えずにテクスチャを貼り付ける。
Further, the
このように生成された画像データが、モニターに表示するための画像データとなる。生成された画像データにはモデルオブジェクト310の床面(面オブジェクト320)への映り込み(鏡像オブジェクト330)が含まれるので、より立体感がありリアリティのある画像が得られる。しかも、床面から高い位置にあるものほど、その床面への映り込みが霞んでいくので、高さの違いを把握しやすい画像となる。
The image data generated in this way becomes image data to be displayed on the monitor. Since the generated image data includes the reflection (mirror image object 330) of the
例えば、本発明を用いて、ステージの上にモデルが垂直に立っている画像を生成すると、モデルの足付近(ステージに近い部分)のステージへの映り込みははっきりとするが、視点810がモデルの近くにあったとしても、頭付近(ステージから遠い部分)の映り込みは霧がかかったようにだんだんとぼんやりしていき、代わりにステージの模様等がはっきり映るようになる。つまり、ステージから高い位置にある部分ほど、そのステージへの映り込みは透明度が上がって薄くなっていく。もし頭付近の映り込みの透明度が、足元付近の映り込みの透明度より大きければ、頭付近が足元付近より相対的にステージから高いところにあることが容易に分かる。
For example, when an image in which the model stands vertically on the stage is generated using the present invention, reflection on the stage near the foot of the model (portion close to the stage) is clear, but the
もし、鏡像オブジェクト330を構成する各領域の透明度を、面オブジェクト320からの距離ではなく、視点810からの距離に応じて変化させるとすると、「遠くのものほど霞んで見える」ように透明度を変えることになる。よって、視点810がモデルオブジェクト310に数メートル程度まで接近していれば、透明度はほとんど変化しないことになる。しかし、本実施形態では、透明度取得部204は、鏡像オブジェクト330の各領域の透明度を、視点810からの距離ではなく、面オブジェクト320からの距離に応じて変えている。つまり、面オブジェクト320までの距離(床面からの高さ)に依存して透明度が変わる。したがって、視点810がモデルオブジェクト310に接近していても、鏡像オブジェクト330は面オブジェクト320から離れている部分ほど透明度が大きくなって薄れていき、面オブジェクト320に近いほど透明度が小さくなってはっきり映るようになる。
If the transparency of each area constituting the
もし、単純にZバッファ法やZソート法を用いて、視点810から遠くにあるオブジェクトから順にテクスチャを貼り付けていくと、通常、面オブジェクト320より鏡像オブジェクト330の方が遠くにあるので、鏡像オブジェクト330に面オブジェクト320が上書きされてしまい、鏡像が表示されないことになる。しかし、本実施形態では、面オブジェクト320、鏡像オブジェクト330、モデルオブジェクト310の順にテクスチャを貼り付けているので、鏡像オブジェクト330が面オブジェクト320に隠れて表示されないということはない。
If textures are pasted in order from an object far from the
なお、モデルオブジェクト310、面オブジェクト320、鏡像オブジェクト330以外に、例えば背景用のキャラクタオブジェクトなど他のオブジェクトが存在する場合には、そのオブジェクトの位置と形状も計算して所定のテクスチャを貼り付ければよい。その場合、そのテクスチャを貼り付ける順番を先にするほど、後からテクスチャを貼り付けたオブジェクトの陰になって消される(視点810から見えなくなる)ので、テクスチャを貼り付ける処理は、ステップS907の前、ステップS908の前、ステップS909の前、あるいは、ステップS909の後のうちのいずれかに場面に応じて行えばよい。例えば、モデルオブジェクト310より遠くに固定されている背景のオブジェクトであれば、ステップS907の前であることが望ましい。
In addition to the
本実施形態では、面オブジェクト320に第2のテクスチャを貼り付けているが、面オブジェクト320が全くの透明である場合などには、ステップS907を省略してもよい。また、例えばステップS907を省略して面オブジェクト320の表面に第2のテクスチャを貼り付けず、結果的に面オブジェクト320が表示されない画像を生成したとしても、モデルオブジェクト310と共に鏡像オブジェクト330を表示させれば、モデルオブジェクト310と鏡像オブジェクト330の間に映り込みを作り出すステージがあることをユーザに想起させることができ、しかも描画処理の負荷を軽減できる。
In the present embodiment, the second texture is pasted on the
本発明は、上述した実施形態に限定されず、種々の変形及び応用が可能である。また、上述した実施形態の各構成要素を自由に組み合わせることも可能である。 The present invention is not limited to the above-described embodiments, and various modifications and applications are possible. Moreover, it is also possible to freely combine the constituent elements of the above-described embodiments.
面オブジェクト320は床やステージに限られない。例えば、水面に浮かぶ船を表す画像などを生成することもできる。この場合、船がモデルオブジェクト310であり、水面が面オブジェクト320であり、水面に映った船体像が鏡像オブジェクト330に相当する。水面が穏やかな状態であれば、生成部205は、水面、水面に映る船体像(かげ)、船、の順にテクスチャを貼り付けて画像を生成する。つまり、生成される画像は、水面に船体像が反射して映っているかのような画像になる。水面が荒れている状態であれば、生成部205は、水面に映る船体像、水面、船、の順にテクスチャを貼り付けて画像を生成する。つまり、穏やかであれば水面に映っていたはずの船体像を隠すことができる。
The
面オブジェクト320は、光沢のある床やステージ、水面、海面、逃げ水などのように水平方向に広がるものに限られない。例えば任意の方向に立てかけられた鏡、窓、ガラスで覆われたビルの側面などでもよい。
The
上記実施形態では、透明度取得部204は、鏡像オブジェクト330の透明度を、視点820からの距離ではなく、面オブジェクト320からの距離に応じて変えている。しかし、面オブジェクト320からの距離に応じて変えるとともに、視点820からの距離に応じて透明度を変えるようにしてもよい。つまり、透明度取得部204は、鏡像オブジェクト330を構成する各領域の透明度を、(a)各領域から面オブジェクト320までの距離が長くなるほど大きくし、且つ、(b)各領域から視点820までの距離が長くなるほど大きくする、ようにしてもよい。このようにすれば、遠くのものほど霞んで見えるように表現でき、より現実感のある画像となる。
In the above embodiment, the
画像生成装置200を装置の全部又は一部として動作させるためのプログラムを、メモリカード、CD−ROM、DVD、MO(Magneto Optical disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これを別のコンピュータにインストールし、上述の手段として動作させ、あるいは、上述の工程を実行させてもよい。
A program for operating the
さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。 Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.
以上説明したように、本発明によれば、オブジェクトの位置や形状を認識しやすくしつつそのオブジェクトの映り込みを表現するために好適な画像生成装置、画像生成方法、ならびに、プログラムを提供することができる。 As described above, according to the present invention, it is possible to provide an image generation apparatus, an image generation method, and a program suitable for expressing the reflection of an object while easily recognizing the position and shape of the object. Can do.
100 ゲーム装置
101 CPU
102 ROM
103 RAM
104 インターフェース
105 コントローラ
106 外部メモリ
107 DVD−ROMドライブ
108 画像処理部
109 音声処理部
110 NIC
200 画像生成装置
201 位置形状記憶部
202 テクスチャ記憶部
203 鏡像計算部
204 透明度取得部
205 生成部
310 モデルオブジェクト
320 面オブジェクト
330 鏡像オブジェクト
810 投影面
820 視点
100
102 ROM
103 RAM
104 Interface 105
200
Claims (5)
当該モデルオブジェクトの表面に貼り付ける第1のテクスチャと、当該面オブジェクトの表面に貼り付ける第2のテクスチャと、を記憶するテクスチャ記憶部と、
前記位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する鏡像計算部と、
前記位置形状記憶部に記憶された当該面オブジェクトから前記鏡像計算部により計算された当該鏡像オブジェクトの表面を構成する各領域までの各距離に応じて、当該各領域に対する当該第1のテクスチャの透明度を取得する透明度取得部と、
当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該面オブジェクトの表面に当該第2のテクスチャを貼り付け、次に、当該鏡像オブジェクトの当該各領域の投影先に、前記テクスチャ記憶部に記憶された当該第1のテクスチャのうち当該各領域に対応する部分を、前記透明度取得部により取得された透明度でそれぞれ貼り付け、次に、当該モデルオブジェクトの投影先に前記テクスチャ記憶部に記憶された第1のテクスチャを貼り付けて、画像を生成する生成部と、
を備えることを特徴とする画像生成装置。 A position shape storage unit for storing the position and shape of the model object arranged in the virtual space and the position and shape of the plane object;
A texture storage unit that stores a first texture to be pasted on the surface of the model object and a second texture to be pasted on the surface of the surface object ;
Mirror image calculation that calculates the position and shape of a mirror image object obtained by inverting the model object with respect to the plane object based on the position and shape of the model object and the plane object stored in the position shape storage unit And
Transparency of the first texture for each region according to each distance from the plane object stored in the position shape storage unit to each region constituting the surface of the mirror image object calculated by the mirror image calculation unit A transparency acquisition unit for acquiring
The projection destination of the model object and the mirror image object on the projection plane arranged in the virtual space is obtained, the second texture is pasted on the surface of the plane object, and then each region of the mirror image object A portion corresponding to each region of the first texture stored in the texture storage unit is pasted to the projection destination with the transparency acquired by the transparency acquisition unit, and then the projection of the model object is performed. A generation unit for pasting the first texture stored in the texture storage unit and generating an image;
An image generation apparatus comprising:
前記透明度取得部は、当該面オブジェクトから当該鏡像オブジェクトまでの距離が長いほど当該透明度を大きくする、
ことを特徴とする画像生成装置。 The image generation apparatus according to claim 1,
The transparency acquisition unit increases the transparency as the distance from the surface object to the mirror image object increases.
An image generation apparatus characterized by that.
前記透明度取得部は、当該透明度を、当該面オブジェクトから当該鏡像オブジェクトまでの距離に対して単調増加させる、
ことを特徴とする画像生成装置。 The image generation apparatus according to claim 1,
The transparency acquisition unit monotonously increases the transparency with respect to the distance from the surface object to the mirror image object.
An image generation apparatus characterized by that.
前記位置形状記憶部には、仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状が記憶され、
前記テクスチャ記憶部には、当該モデルオブジェクトの表面に貼り付ける第1のテクスチャと、当該面オブジェクトの表面に貼り付ける第2のテクスチャと、が記憶され、
前記鏡像計算部が、前記位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する鏡像計算ステップと、
前記透明度取得部が、前記位置形状記憶部に記憶された当該面オブジェクトから前記鏡像計算ステップにより計算された当該鏡像オブジェクトの表面を構成する各領域までの各距離に応じて、当該各領域に対する当該テクスチャの透明度を取得する透明度取得ステップと、
前記生成部が、当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該面オブジェクトの表面に当該第2のテクスチャを貼り付け、次に、当該鏡像オブジェクトの当該各領域の投影先に、前記テクスチャ記憶部に記憶された第1のテクスチャのうち当該各領域に対応する部分を、前記透明度取得ステップにより取得された透明度でそれぞれ貼り付け、次に、当該モデルオブジェクトの投影先に前記テクスチャ記憶部に記憶された第1のテクスチャを貼り付けて、画像を生成する生成ステップと、
を備えることを特徴とする画像生成方法。 An image generation method executed by an image generation apparatus having a position shape storage unit, a texture storage unit, a mirror image calculation unit, a transparency acquisition unit, and a generation unit,
In the position shape storage unit, the position and shape of the model object arranged in the virtual space, and the position and shape of the plane object are stored,
The texture storage unit stores a first texture to be pasted on the surface of the model object and a second texture to be pasted on the surface of the plane object .
A position of a mirror image object obtained by inverting the model object with respect to the plane object based on the position and shape of the model object and the plane object stored in the position shape storage unit; A mirror image calculation step for calculating the shape;
In accordance with each distance from the plane object stored in the position shape storage unit to each region constituting the surface of the mirror image object calculated by the mirror image calculation step, the transparency acquisition unit A transparency acquisition step for acquiring the transparency of the texture;
The generation unit obtains a projection destination of the model object and the mirror image object with respect to a projection plane arranged in the virtual space, pastes the second texture on the surface of the plane object, and then the mirror image object the projection destination of each region, a portion corresponding to the respective regions of the first texture stored in the texture storage section, affixed respectively to the transparency acquired by the transparency acquisition step, then, the A step of pasting the first texture stored in the texture storage unit to the projection destination of the model object to generate an image;
An image generation method comprising:
仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状を記憶する位置形状記憶部、
当該モデルオブジェクトの表面に貼り付ける第1のテクスチャと、当該面オブジェクトの表面に貼り付ける第2のテクスチャと、を記憶するテクスチャ記憶部、
前記位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する鏡像計算部、
前記位置形状記憶部に記憶された当該面オブジェクトから前記計算部により計算された当該鏡像オブジェクトの表面を構成する各領域までの各距離に応じて、当該各領域に対する当該テクスチャの透明度を取得する透明度取得部、
当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該面オブジェクトの表面に当該第2のテクスチャを貼り付け、次に、当該鏡像オブジェクトの当該各領域の投影先に、前記テクスチャ記憶部に記憶された第1のテクスチャのうち当該各領域に対応する部分を、前記透明度取得部により取得された透明度でそれぞれ貼り付け、次に、当該モデルオブジェクトの投影先に前記テクスチャ記憶部に記憶された第1のテクスチャを貼り付けて、画像を生成する生成部、
として機能させることを特徴とするプログラム。 Computer
A position shape storage unit for storing the position and shape of the model object arranged in the virtual space, and the position and shape of the plane object;
A texture storage unit for storing a first texture to be pasted on the surface of the model object and a second texture to be pasted on the surface of the surface object ;
Mirror image calculation that calculates the position and shape of a mirror image object obtained by inverting the model object with respect to the plane object based on the position and shape of the model object and the plane object stored in the position shape storage unit Part,
Transparency for acquiring the transparency of the texture for each region according to each distance from the surface object stored in the position shape storage unit to each region constituting the surface of the mirror image object calculated by the calculation unit Acquisition department,
The projection destination of the model object and the mirror image object on the projection plane arranged in the virtual space is obtained, the second texture is pasted on the surface of the plane object, and then each region of the mirror image object A portion corresponding to each region of the first texture stored in the texture storage unit is pasted to the projection destination with the transparency acquired by the transparency acquisition unit, and then the projection destination of the model object A generating unit that pastes the first texture stored in the texture storage unit to generate an image;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007184634A JP4575937B2 (en) | 2007-07-13 | 2007-07-13 | Image generating apparatus, image generating method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007184634A JP4575937B2 (en) | 2007-07-13 | 2007-07-13 | Image generating apparatus, image generating method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009020818A JP2009020818A (en) | 2009-01-29 |
JP4575937B2 true JP4575937B2 (en) | 2010-11-04 |
Family
ID=40360388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007184634A Active JP4575937B2 (en) | 2007-07-13 | 2007-07-13 | Image generating apparatus, image generating method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4575937B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5321385B2 (en) * | 2009-09-18 | 2013-10-23 | 株式会社セガ | Image processing program and computer-readable recording medium |
CN109584300B (en) * | 2018-11-20 | 2022-08-19 | 浙江大华技术股份有限公司 | Method and device for determining heading angle of vehicle head |
CN111563966B (en) * | 2019-01-28 | 2023-08-29 | 广东虚拟现实科技有限公司 | Virtual content display method, device, terminal equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10283499A (en) * | 1997-04-04 | 1998-10-23 | Fujitsu Ltd | Device for generating video and method therefor and record medium |
JP2001143099A (en) * | 1999-11-18 | 2001-05-25 | Namco Ltd | Image-forming system and information storage medium |
JP2002251631A (en) * | 2001-02-21 | 2002-09-06 | Konami Computer Entertainment Japan Inc | Expressing method of image, and program used for it |
JP2006318388A (en) * | 2005-05-16 | 2006-11-24 | Namco Bandai Games Inc | Program, information storage medium, and image forming system |
-
2007
- 2007-07-13 JP JP2007184634A patent/JP4575937B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10283499A (en) * | 1997-04-04 | 1998-10-23 | Fujitsu Ltd | Device for generating video and method therefor and record medium |
JP2001143099A (en) * | 1999-11-18 | 2001-05-25 | Namco Ltd | Image-forming system and information storage medium |
JP2002251631A (en) * | 2001-02-21 | 2002-09-06 | Konami Computer Entertainment Japan Inc | Expressing method of image, and program used for it |
JP2006318388A (en) * | 2005-05-16 | 2006-11-24 | Namco Bandai Games Inc | Program, information storage medium, and image forming system |
Also Published As
Publication number | Publication date |
---|---|
JP2009020818A (en) | 2009-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4226639B1 (en) | Image processing apparatus, image processing method, and program | |
JP4519883B2 (en) | Character display device, character display method, and program | |
US9342918B2 (en) | System and method for using indirect texturing to efficiently simulate and image surface coatings and other effects | |
JP4142073B2 (en) | Display device, display method, and program | |
US6580430B1 (en) | Method and apparatus for providing improved fog effects in a graphics system | |
JP2009237680A (en) | Program, information storage medium, and image generation system | |
CN101317151B (en) | Object selecting device, object selecting method | |
KR101146660B1 (en) | Image processing device, image processing method, and information recording medium | |
JP4267646B2 (en) | Image generating apparatus, image generating method, and program | |
JP4575937B2 (en) | Image generating apparatus, image generating method, and program | |
CN115082607A (en) | Virtual character hair rendering method and device, electronic equipment and storage medium | |
JP3005581B1 (en) | Image creation device, image creation method, readable recording medium on which image creation program is recorded, and video game device | |
JP5307060B2 (en) | Image processing apparatus, image processing method, and program | |
JP2020067960A (en) | Image processing apparatus, image processing method, and program | |
JP4001556B2 (en) | GAME DEVICE AND INFORMATION STORAGE MEDIUM | |
JP4106917B2 (en) | Animation generation program and image processing apparatus using the same | |
Garcia et al. | Modifying a game interface to take advantage of advanced I/O devices | |
JP4717624B2 (en) | Image generation system, program, and information storage medium | |
JP4750085B2 (en) | Image display device, image display method, and program | |
JP4637205B2 (en) | Display device, display method, and program | |
WO2020261454A1 (en) | Graphic game program | |
Gustafsson | Automatic Technical Illustration Based on Cartoon Shading Principles | |
JP2002262178A (en) | Video display device | |
JPWO2020261341A1 (en) | Graphic game program | |
JP2000148986A (en) | Device and method for simulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100817 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4575937 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130827 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130827 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140827 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |