JP4144017B2 - VIDEO GAME DEVICE, IMAGE DISPLAY DEVICE AND METHOD, MOVIE DISPLAY DEVICE AND METHOD, AND RECORDING MEDIUM - Google Patents
VIDEO GAME DEVICE, IMAGE DISPLAY DEVICE AND METHOD, MOVIE DISPLAY DEVICE AND METHOD, AND RECORDING MEDIUM Download PDFInfo
- Publication number
- JP4144017B2 JP4144017B2 JP37711699A JP37711699A JP4144017B2 JP 4144017 B2 JP4144017 B2 JP 4144017B2 JP 37711699 A JP37711699 A JP 37711699A JP 37711699 A JP37711699 A JP 37711699A JP 4144017 B2 JP4144017 B2 JP 4144017B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- setting
- lock
- zoom
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6661—Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
Landscapes
- Processing Or Creating Images (AREA)
Description
【0001】
【発明の属する技術分野】
本発明はコンピュータ・グラフィックスにおける画像処理技術に係わり、特に、仮想空間内におけるカメラワーク技術、動画表示技術、クリッピング処理技術、及び光源処理技術に関する。
【0002】
【従来の技術】
コンピュータ・グラフィックスを利用したビデオゲーム装置においては、複数のポリゴンから構成されるオブジェクト(仮想物体)を仮想3次元空間内に配置し、コントールパッドからの入力信号に対応してプレイヤキャラクタを操作することが可能である。画像処理技術の進歩により、このようなゲーム装置において、遊戯者はコントールパッドのキー入力を組み合わせることで、プレイヤキャラクタに、例えば、物(オブジェクト)を掴む、見る、押す、触る、引く等の具体的動作(アクション)をさせることが可能となった。
【0003】
【発明が解決しようとする課題】
しかし、従来のビデオゲーム装置においては、仮想3次元空間内に設定される仮想視点(カメラ)は、通常、プレイヤキャラクタを第三者の視点(客観視点)から見た映像を表示しており、プレイヤキャラクタがアクションを起こすときにカメラをプレイヤキャラクタ自身の視点(主観視点或いは一人称視点ともいう)に切り替え、注視点を当該オブジェクトに固定する配慮はなされていなかった。これを人間における動作に置き換えると、アクションの対象となる物に注視せずにアクションをするため、人間の動作に対応したアクション操作ができないという不都合が生じていた。
【0004】
また、例えば、プレイヤキャラクタがオブジェクトを掴む等のアクションをする場合、従来のビデオゲーム装置においては、オブジェクトを掴む動作をモーションデータとして予め用意しておき、これに基づいて画像表示していたため、プレイヤキャラクタとオブジェクトの位置、角度、オブジェクトの形状等に適した掴み動作ができず、指がオブジェクトに食い込む等の不自然な事態が生じていた。
【0005】
また、従来のビデオゲーム装置では、オブジェクトを画面に表示する際に、視点座標系に配置される当該オブジェクトの奥行き方向の座標値であるZ値が予め定められた所定値(例えば、描画処理限界点)を超えたときに当該オブジェクトの描画処理を終了する(クリッピング処理)ように構成されているが、このような構成の場合、カメラとオブジェクトとの距離が一定の距離を超えると突然オブジェクトが消えるため、遊戯者に不快感を与えていた。
【0006】
また、ポリゴンデータを用いたコンピュータ・グラフィックスを用いた光源処理(例えば、スポットライト処理)を行う場合、光源からの光線ベクトルとオブジェクトを構成する各ポリゴンの頂点の法線ベクトルとの角度から各頂点の輝度を計算し、これらの計算結果はレンダリング処理部へ供給され、さらに補完法を用いて各頂点を結ぶ稜線上の各ピクセルの輝度を求めることでポリゴン全体の輝度計算を行い、所望のテクスチャマッピング処理がなされて画像表示される。
【0007】
しかし、このような構成では各フレーム毎(例えば1/60秒毎)に光源処理をする必要があり、光源が複数ある場合には演算処理量が膨大になってしまうという問題があった。また、従来では上記の構成の他に、オブジェクトの表面にスポットライトが当たった状態のテクスチャを予め用意しておき、スポットライトが点灯したときに上記のテクスチャをオブジェクトに貼り付けることで光源処理を省略する手法もあるが、このような構成ではそれぞれのオブジェクトと光源の種類、位置、角度等が設定し直される毎に別途テクスチャを用意しなければならないため、テクスチャデータ量が膨大になるという問題がある。
【0008】
そこで、本発明はオブジェクトに対してアクションをする際に自然なカメラ制御を可能とするビデオゲーム装置及び画像表示方法を提供することを第1の課題とする。
【0009】
また、本発明はオブジェクトの動画表示を適切に行う動画表示装置及び動画表示方法を提供することを第2の課題とする。
【0010】
また、本発明はスクリーン座標系におけるオブジェクトのZ値に基づいてクリッピング処理をする際に、徐々にオブジェクトをフェードアウトする画像表示装置及び画像表示方法を提供することを第3の課題とする。
【0011】
また、本発明はテクスチャデータのデータ量を増加することなく光源処理の演算量を低減することのできる画像表示装置及び画像表示方法を提供することを第4の課題とする。
【0012】
【課題を解決するための手段】
上記第1の課題を解決するべく、本発明では複数のオブジェクトの中から遊戯者によって選択されたオブジェクトにカメラの注視点を設定し、当該オブジェクトをズームする。これにより、カメラは遊戯者の選択したオブジェクトに対して確実に注視することができるとともに、オブジェクトをズームすることで当該オブジェクトに対するアクションが容易になる。
【0013】
好ましくは、オブジェクトに注視点を設定する際に、カメラを客観視点から主観視点へと移動させる。これにより、遊戯者はあたかも実際にオブジェクトに対して接しているかのような映像を見ることができる。
【0014】
上記の構成において、カメラが注視しているオブジェクトがズームされるに従い、当該オブジェクトを画面から次第にフェードアウトするように当該オブジェクトを表示するとともに、他のオブジェクトが画面から次第にフェードインするように当該他のオブジェクトを当該オブジェクトに重ねて表示するように構成してもよい。このような構成により、例えば、粗い画像をズームすると、より精細な画像へと変化させることができる。
【0015】
また、注視されたオブジェクトに対応して予め定められたアクションをプレイヤキャラクタが実行するように構成してもよい。
【0016】
上記の第2の課題を解決するべく、本発明では複数の動作部位のそれぞれの動きによってオブジェクト全体の動きを表示する際に、複数の動作部位のモーションデータを予め記憶しておき、各動作部位毎にモーションデータを読み出して、これに基づいて各動作部位のモーションを画面に表示するとともに、動作部位のうち動作過程において予め接触が予想される箇所の接触を判定することで衝突が検出された動作部位のモーションデータの読み取りを終了する。これにより、各動作部位毎に衝突判定が行われ、モーションデータが終了するか或いは動作部位が衝突することで動作部位の動作が終了するため、上記の従来技術のように、動作部位が他のオブジェクトに食い込む等の不都合を解消することができる。
【0017】
上記第3の課題を解決するべく、本発明ではスクリーン座標系におけるオブジェクトとカメラとの距離が描画限界点付近であるときに当該オブジェクトを半透明処理して画面に表示する。これにより、描画限界点付近でいきなりオブジェクトが消える不自然さを解消することができる。
【0018】
上記第4の課題を解決するべく、本発明では光源に対して不動であるオブジェクトの輝度又は色を演算し、この演算結果をメモリに記憶しておき、当該オブジェクトを画面に表示する際に前記メモリに記憶された演算結果を参照してオブジェクトの画像表示を行う。これにより、画像表示装置のオブジェクトの光源処理における演算負荷を低減することができる。
【0019】
また、本発明によれば、上記手順を実行させるプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供することができる。ここで、記録媒体とは、何らかの物理的手段により画像処理プログラム等が記録されているものであって、コンピュータ、特に、専用プロセッサ(例えば、ジオメトリプロセッサ、レンダリングプロセッサ)等に所望の機能を実現させることができるものをいう。従がって、何らかの手段でコンピュータにダウンロードし、所望の機能を実現させるものであればよい。例えば、ROM、フレキシブルディスク、ハードディスク、CD−ROM、CD−R、DVD−ROM、DVD−RAM、DVD−R、PDディスク、MDディスク、MOディスク等の情報記録媒体を含む。有線又は無線の通信回線(公衆回線、データ専用線、インターネット、衛星回線等)を介してホストコンピュータからデータの転送を受ける場合も含むものとする。
【0020】
【発明の実施の形態】
(ビデオゲーム装置の構成)
図1にビデオゲーム装置10の回路構成図を示す。同図において、ゲームを開始すべく電源が投入されると、ブートプログラムローダは、ROM18に記憶されているブートプログラムをCPU11にロードし、CPU11はブートプログラムを実行する。CPU11は、このブートプログラムに従って、CD−ROM27に記憶されているOSの全部または必要な部分をシステムメモリ13にロードし、OSを実行する。
【0021】
CPU11はこのOSの制御の下、CD−ROM27等に記憶されているアプリケーションプログラムの全部または必要な部分をCD−ROMドライブ19を介してシステムメモリ13にロードするとともに、必要に応じてCD−ROM27等に記憶されている描画データや画像データをグラフィックメモリ16にロードする。また同時に、サウンドデータをサウンドメモリ21にロードする。
【0022】
CPU11はOSの制御の下、コントールパッド25からの入力信号に基づいてシステムメモリ13に記憶されたアプリケーションプログラム(ゲームプログラム)を実行する。アプリケーションプログラムの実行に伴うデータは、システムメモリ13やバックアップメモリ26に必要の都度書き込まれ参照される。バックアップメモリ26はゲームの中断等で電源が遮断されてもそれまでの状態を保持するためにデータを記憶する。
【0023】
ジオメトリプロセッサ12はCPU11から供給されるオブジェクトの座標データを所望の変換マトリクスに基づいて、3次元の視点座標系を仮想視点から見た視点座標及びスクリーン座標系(2次元座標系)に座標変換する。また、オブジェクトの輝度又は色も光源とオブジェクト座標から計算する。
【0024】
レンダリングプロセッサ15にはグラフィックスメモリ16が接続されている。グラフィックスメモリ16はテクスチャバッファ、フレームバッファ、Zバッファから構成されている。テクスチャバッファには各オブジェクト毎のテクスチャデータが格納されている。レンダリングプロセッサ15はオブジェクトの輝度又は色データ、テクスチャ座標データ、テクスチャ濃度データ、オブジェクトの座標データ等に基づいて、テクスチャバッファから適宜必要なデータを読み込み、テクスチャマッピング処理、表示優先処理、シェーディング処理等を行って、各画素毎のピクセルデータをフレームバッファに書き込む。そして、画像更新期間に同期してフレームバッファからピクセルデータを読み出し、ビデオエンコーダ17へピクセルデータを転送することでビデオ信号生成処理等を行い、モニタ25にて画像表示を行う。
【0025】
サウンドプロセッサ20はサウンドメモリ21に記憶されるサウンドデータを読み出して、アプリケーションプログラムの実行によるCPU11からの命令やデータに基づき各種音声処理を行う。音声処理として、例えば、エフェクト処理、ミキシング処理等がある。各種音声処理が施されたサウンドデータは、D/Aコンバータ22によってアナログデータに変換され、スピーカ24に出力される。
【0026】
バスアービタ(Bus Arbiter)14はデータ伝送路(バス等)を介して接続される各ユニット間同士の制御を行う。例えば、バスアービタ14はバスを占有すユニットを決定するために、各ユニット間の優先順位を決定したり、占有するユニットのバス占有時間の割当てを行う。
【0027】
バスアービタ14には電話回線等を介して他のビデオゲーム装置やコンピュータと接続するための通信装置23を備えている。
【0028】
次に、図3のフローチャートを参照してビデオゲーム装置の全体的な動作について説明する。同図において、ビデオ信号の垂直同期信号に相当する周期で割り込み信号がCPU11に供給されると、CPU11内のレジスタに割り込みフラグが設定される。割り込みが発生すると(ステップS101;YES)、CPU11はステップS102〜ステップS108の処理を実行する。
【0029】
例えば、NTSC方式ではCPU11は1/60秒毎にゲーム処理を行う(ステップS102)。本ゲーム処理ではCPU11はコントールパッド25からの出力信号を監視し、遊戯者による操作入力をゲームプログラムに記述されたアルゴリズムに従って処理し、ゲームを展開する。このゲームにおいては、後述するように、画面内で特定のオブジェクトを選択する(ロックオン)と、自動的にカメラ移動が行われ、場合によっては当該オブジェクトに対応したアクションをするためのフラグがセットされる。
【0030】
次いで、モニタ22に表示するための画面を生成するため、ワールド座標系にオブジェクト、背景、キャラクタ等の画像を適宜配置する(ステップS103)。これらの画像をカメラから見た視点座標系へ座標変換し(ステップS104)、さらにカメラ位置を原点として、視線の方向をz軸の正方向にとった視点座標系にデータを変換し、投影面であるスクリーン座標系へ、それぞれの座標を透視変換する(ステップS105)。
【0031】
その後、レンダリングプロセッサ15は各ポリゴンについてZソートアルゴリズム等を用いて陰面処理をするとともに(ステップS106)、各ポリゴンにテクスチャを貼り付ける等のレンダリング処理を行う(ステップS107)。レンダリング処理がなされた画像データはグラフィックメモリ16内のフレームバッファに蓄えられた後、ビデオ信号に変換されてモニタ25に表示される。この後、ステップS101に戻り、1/60秒毎にステップS102〜ステップS108の処理を繰り返し実行してゲームが進行する。
(ロックオン処理)
次に、図4〜図26を参照してロックオン処理について説明する。本明細書において、ロックオン処理とは“注目するオブジェクトに注視点を設定(固定)し、当該オブジェクトをズーム(拡大)するようにカメラを制御する処理”として定義する。ロックオン処理の対象となるオブジェクトはゲームプログラムにおいて予め定められているものとする。また、ロックオン処理がなされたオブジェクトには当該オブジェクトに対応したアクションがなされるようにモーションデータが関連付けられて記憶されている。このため、オブジェクトをロックオン処理することで当該オブジェクトに対応したアクションがなされるようにフラグがセットされる(詳細については後述する)。
【0032】
図5はモニタ25に映し出される画面28を示しており、斜線で引いた箇所がロックオン可能エリア30である。ロックオン可能エリア30は、ロックオン処理可能なオブジェクトの存在範囲を示しており、スクリーン座標系(XY座標系)において定義されるオブジェクトのX座標及びY座標が上記ロックオン可能エリア30内に位置し、且つ、当該オブジェクトのZ値(カメラとの距離)が所定の距離(ロックオン可能距離)にあるときに当該オブジェクトに対してロックオン処理が可能である。ロックオン可能エリア30として、例えば、同図に示すように、縦横方向にそれぞれ1:2:1の比に分割する中央のエリアが好適である。
【0033】
例えば、図6に示すように、みかん31〜33、籠34及び湯飲み35が画面28に表示されている。これらのみかん31〜33、籠34及び湯飲み35はロックオン処理可能なオブジェクトとする。同図において、みかん31〜33及び籠34はロックオン可能エリア30内に位置しているため、ロックオン処理が可能である。一方、湯飲み35はロックオン可能エリア30外に位置しているため、ロックオン処理は出来ない。
【0034】
上記ロックオン処理をするために、システムメモリ13には図2に示すように、ワークメモリデータテーブル及びプログラムデータテーブルがCD−ROM21から読み出される。また、システムメモリ13の一部はワークエリアとして使用されている。ワークメモリデータテーブルには画面に表示されるオブジェクトのオブジェクト名、オブジェクト座標、オブジェクト角度、ポリゴンデータが登録されている。オブジェクト名とはオブジェクトの名称をいう。オブジェクト座標とは当該オブジェクトのワールド座標系における座標をいい、(X,Y,Z)で定義される。オブジェクト角度とはワールド座標系に配置されるオブジェクトの向き(角度)をいい、X軸、Y軸及びZ軸とのなす角が登録されている。ポリゴンデータとは当該オブジェクトを構成するポリゴンのデータである。
【0035】
プログラムデータテーブルにはロックオンオブジェクト名、ロックオン座標、ロックオン補正座標、ロックオン可能範囲情報、ロックオン角度及びモーションデータが登録されている。ロックオンオブジェクト名とは、ロックオン処理が可能なオブジェクトの名称をいい、例えば、上述したみかん、籠、湯飲み等が該当する。ロックオン座標とは、ロックオン処理可能なオブジェクトが例えば地図、掛け軸のような平面である場合に、これらはオブジェクトとしてではなくテクスチャとして扱うことができるため、テクスチャマッピングされるポリゴン上の座標を意味する。ロックオン補正座標とは、ロックオン処理可能なオブジェクトが例えば湯飲みである場合に、当該オブジェクトの基準となる面或いは座標からの相対的な座標をいい、当該オブジェクトにアクションをする(例えば掴む)際に参照される。
【0036】
ロックオン可能範囲情報とはオブジェクトに対してロックオン処理が出来る範囲に関する情報をいい、ロックオン角度とはオブジェクトに対してロックオンしたときに当該オブジェクトに対して所定の角度範囲内にカメラ視線がくるようにカメラを強制的に移動させるための角度をいう。モーションデータとはオブジェクトをロックオンしたときに当該オブジェクトに対してアクションをするためのモーションデータである。ワークエリアではプレイヤキャラクタ位置、カメラ位置、注視点位置などが動的変数によって各フレーム毎に逐次更新される。
【0037】
次に、図4を参照してロックオン処理の各処理ステップについて説明する。同図において、ビデオ信号の垂直同期信号に相当する周期で割り込み信号がCPU11に供給されると、CPU11内のレジスタに割り込みフラグが設定される。割り込みが発生すると(ステップS201;YES)、CPU11はステップS202〜ステップS208の処理を実行する。CPU11はロックオンフラグがセットされているか否かを調べる(ステップS202)。ワークメモリデータテーブル及びプログラムデータテーブルを参照して、オブジェクトの座標値(X,Y,Z)がロックオン可能範囲に位置しているときにロックオンフラグがセットされる。
【0038】
ロックオンフラグがセットされている場合には(ステップS202;YES)、ロックオン可能である旨を遊戯者に知らせるために画面28にロックオン可能表示をする(ステップS203)。ロックオン可能表示は例えば図6に示すように、画面28の右下に“A”の文字を表示することで行う。このとき遊戯者はコントールパッド25のAボタンを押下することでロックオン可能エリア30内に存在するロックオン可能オブジェクトをロックオンすることができる。
【0039】
CPU11はコントールパッド25からの出力信号を監視し、遊戯者がAボタンを押下することでロックオン可能オブジェクトをロックオンしたか否かが判定される(ステップS204)。遊戯者の操作によってオブジェクトがロックオンされたときは(ステップS204;YES)、遊戯者はロックオン可能エリア30に位置する複数のオブジェクトのうち任意のオブジェクトを選択することができる(ステップS205)。ロックオン可能エリア30にロックオン可能オブジェクトが一つのみ存在する場合は当該オブジェクトが自動的に選択される。ロックオン可能オブジェクトの選択は十字キーを使用することで行うことができる。
【0040】
ロックオン可能オブジェクトの選択が行われると、当該オブジェクトをズームするためにカメラ移動が行われる(ステップS206)。カメラ移動の詳細について、図7乃至図12を参照して説明する。図7に示すように、ロックオン可能エリア30にみかん32が位置しているとき、遊戯者の操作によってみかん32がロックオンされたとする。すると、カメラ50は客観視点から主観視点へと切り替わり、図8に示すようにみかん32がズームされる。これにより、遊戯者はアクションの対象となるみかん32を確実に注視することができる。図9及び図10は垂直方向のカメラ移動の説明図である。図9ではカメラ50は客観視点として機能し、みかん32を注視している。図10ではカメラ50は主観視点として機能し、みかん32を注視している。主観視点とはプレイヤキャラクタ40から見た視点である。同図において、客観視点としてのカメラ50の視線方向とプレイヤキャラクタの視線方向は垂直方向にθ1の角度差があるが、カメラ移動の際に角度差θ1を0にし、且つ、カメラ50がプレイヤキャラクタ40の頭部に位置するようにカメラ移動が行われる。
【0041】
図11及び図12は水平方向のカメラ移動の説明図である。図11ではカメラ50は客観視点として機能し、みかん32を注視している。図12ではカメラ50は主観視点として機能し、みかん32を注視している。同図において、客観視点としてのカメラ50の視線方向とプレイヤキャラクタの視線方向は水平方向にθ2の角度差があるが、カメラ移動の際に角度差θ2を0にし、且つ、カメラ50がプレイヤキャラクタ40の頭部に位置するようにカメラ移動が行われる。
【0042】
尚、掴みモーションにおいて、カメラ50を客観視点から主観視点へ移動させるときに、プレイヤキャラクタ40とカメラ50との距離(Z値)が所定値よりも小さくなった場合に、プレイヤキャラクタ40を半透明処理するように構成することが好ましい。このように処理することでカメラ50からの視界がプレイヤキャラクタ40によって遮られる不都合を解消することができる。
【0043】
カメラ移動後、ロックオン処理の対象となるオブジェクトに対応したアクションがなされる(ステップS207)。本例ではみかん32に対してロックオン処理をするため、“みかん32を掴む”というアクション、即ち、後述する“掴みモーション”が選択される。これはシステムメモリ13内のプログラムデータテーブルを参照することで行われる。遊戯者の操作によってロックオン状態が解除されると(ステップS208;YES)、CPU11は再びステップS201に戻り、上述した処理ステップを繰り返し実行する。
(掴みモーション)
次に、図13乃至図20を参照してみかん32を掴むための“掴みモーション”について説明する。ステップS207におけるアクションの一態様として、“掴みモーション”が選択されると、CPU11はシステムメモリ13内のワークメモリデータテーブル、プログラムデータテーブル等を参照して、プレイヤキャラクタ40とオブジェクト(みかん32)との位置関係、オブジェクトの大きさ、形状等から最適なモーションデータを選択する。このモーションデータは手を模したポリゴン(以下、リアルハンドという)が何らかのオブジェクトを掴む動作を動作パターンとして記憶したデータであり、具体的には、肘から手首までの手を構成する各ポリゴンについての動作パターンがプログラムデータテーブルに記憶されている。
【0044】
図13を参照してリアルハンドを構成する各ポリゴンについて説明する。同図において、小指PはポリゴンP1〜P3で構成され、ポリゴンP1の先端P0にはオブジェクトとの衝突(コリジョン)を判定するためのコリジョンポイントP0が設定されている。くすり指Q、なか指R、人指し指S及び親指TはそれぞれポリゴンQ1〜Q3、R1〜R3、S1〜S3及びT1、T2から構成され、それぞれのポリゴンQ1、R1、S1及びT1の先端にはコリジョンポイントQ0、R0、S0及びT0が設けられている。これらのコリジョンポイントはオブジェクトを掴んだときに予め接触が予想される点である。また、手のひらはポリゴンU、手の甲はポリゴンV、腕はポリゴンWで構成されている。
【0045】
それぞれの指はオブジェクトの掴み方のパターンに対応して動作パターンが予め定められており、1フレーム毎に各関節が所定角度動くようになっている。また、各指の動作パターンは互いに独立して記憶されており、コリジョン判定もそれぞれの指において独立に判定される。掴みモーションにおいては、それぞれの指についてモーションデータを読み出してこれを画像表示するとともに、画像更新期間毎に割り込みをかけて各指についてコリジョン判定を行っている。
【0046】
従って、ある指がオブジェクトと接触した場合、当該指についてのモーションデータの読み出しは終了するが、他の指についてのモーションデータの読み出しは依然行われ、当該モーションデータに基づく画像表示が行われる。この結果、オブジェクトと指とのコリジョンコリジョン判定が正確に行われ、如何なる形状のオブジェクトであっても正確かつ確実にオブジェクトを掴むことができる。
【0047】
掴みモーションにおけるリアルハンドがオブジェクトを掴む動作手順を図20のフローチャートに従って説明する。ビデオ信号の垂直同期信号に相当する周期で割り込み信号がCPU11に供給されると、CPU11内のレジスタに割り込みフラグが設定される。割り込みが発生すると(ステップS301;YES)、CPU11はステップS302〜ステップS307の処理を実行する。
【0048】
ロックオン可能オブジェクトをロックオンすると、当該オブジェクトに対応したモーションフラグがセットされる。例えば、上述のみかん32であれば、掴みモーションがセットされる。CPU11はモーションフラグがセットされたことを検知すると(ステップS302;YES)、モーションデータを読み込み(ステップS303)、画像表示を行う(ステップS304)。例えば、図14に示すように、リアルハンドの各指がみかん32を掴むように画像表示される。このとき、オブジェクトとしてのみかん32は多角形平面X1,X2,X3,…,から成るポリゴンで構成される。各指についての画像表示はみかん32と接触するか、或いはモーションデータが終了するまで行われる。図15に示すように、親指T、人指し指S、なか指Rについてモーションデータが終了せずに(ステップS305;NO)、みかん32と接触すると(ステップS306;YES)、モーションデータの読み取りを終了する(ステップS307)。一方、図16に示すように、小指P、くすり指Qのように、みかん32と接触せずにモーションが終了した場合には(ステップS305;YES)、モーションデータの読み取りを終了する(ステップS307)。図14乃至図16に図示したリアルハンド及びみかん32を構成する各ポリゴンについて適当なテクスチャマッピングを施すと、これらの図は図17乃至図19に示すように画像表示される。
(フォーカスモーション)
上記の説明においては、みかん32をロックオンし、掴みモーションによってみかん32を掴んだが、今度は地図をロックオンし、フォーカスモーションによって地図を拡大する例を説明する。図21に示すように、ロックオン可能エリア(図示せず)に地図61があり、遊戯者の操作によって地図61がロックオンされたとする。同図において、カメラはプレイヤキャラクタ40の頭上にあり、客観視点の立場から図21に示す画像を表示している。ロックオンオブジェクトとしての地図61にはフォーカスモーションが予め関連付けられて記憶されている。従って、地図61をロックオンすることで、CPU11内のレジスタに自動的にモーションフラグがセットされる。CPU11はフォーカスモーションのフラグがセットされたことを検知すると、カメラ50を客観視点(図23)から主観視点(図24)へと移動させる。
【0049】
このとき、地図61はズームされるが、カメラ50の移動に伴い、粗い画像である地図61から精細な画像である地図62に画面が徐々に切り替わる(図22)。即ち、粗い画像である地図61の画像データの上に精細な画像である地図62の画像データを上書きし、両者の透明度を相補的に変化させることで、地図61が徐々に透明になり、フェードアウトする(溶明)とともに、地図62が徐々に画面上に浮かびあがってきてフェードインする(溶暗)。この結果、遊戯者が地図61をロックオンすることで、プレイヤキャラクタが地図61を覗き込む様子を画面上に表現することができる。
【0050】
フォーカスモーションの手順について、図25を参照して説明する。ビデオ信号の垂直同期信号に相当する周期で割り込み信号がCPU11に供給されると、CPU11内のレジスタに割り込みフラグが設定される。割り込みが発生すると(ステップS401;YES)、CPU11はステップS402〜ステップS411の各処理を実行する。地図61をロックオンすると、フォーカスモーションのフラグがセットされる。CPU11は当該フラグがセットされたことを検知すると(ステップS402;YES)、内蔵のレジスタnの値をカウントアップする(ステップS403)。このレジスタnはフォーカスモーション処理後のフレーム数を計数するものであり、当初nは‘0’の値にある。
【0051】
ここで、地図61から地図62に変化させるのに要するフレーム数をFとする。また、地図61のテクスチャデータをデータM1とし、地図62のテクスチャデータをデータM2とする。さらに、地図61を半透明処理するためにデータM1に乗じる透明度係数をaとし、地図62を半透明処理するためにデータM2に乗じる透明度係数をbとする。このとき、透明度係数は0のときに透明度0%であり、1のときに透明度100%であるものとする。
【0052】
CPU11はレジスタnの値にFを乗じて透明度係数aを得る(ステップS404)。そして、データM1を透明度aで半透明処理をする(ステップS405)。さらに、透明度係数aと相補的に変化する透明度係数bを求め(ステップS406)、データM2を透明度bで半透明処理する(ステップS407)。そして、これら半透明処理されたデータM1及びデータM2を合成する(ステップS408)。図26に示すように、データM1、データM2はテクスチャメモリに登録されており、合成データはフレームバッファに書き込まれる。
【0053】
次いで、カメラ50を1フレーム分移動させる。カメラ50の移動方向は図23、図24に示すように、客観視点から主観視点へ移行する向きであり、Fフレーム分の移動によりカメラ移動が完了する。現在のカメラ位置から見た上記合成データによってレンダリング処理を実行し、画像表示を行う(ステップS410)。ステップS404〜ステップS410の処理をF回繰り返すことで、フォーカスモーションが終了する(ステップS411)。
【0054】
尚、フォーカスモーションにおいて、カメラ50を客観視点から主観視点へ移動させるときに、プレイヤキャラクタ40とカメラ50との距離(Z値)が所定値よりも小さくなった場合に、プレイヤキャラクタ40を半透明処理するように構成することが好ましい。このように処理することでカメラ50からの視界がプレイヤキャラクタ40によって遮られる不都合を解消することができる。
【0055】
また、上記の説明では、ステップS207におけるアクションの例として、掴みモーション、フォーカスモーションについて説明したが、これに限らず、例えば、引き出しを開ける、扉を開ける、ドアをノックする、電話をかける、掛け軸を取る等の動作であってもよい。また、ロックオン処理の対象はオブジェクトに限らず、人物を模したキャラクタであってもよい。例えば、女の子のキャラクタにロックオンすると、その子に話し掛ける等の処理をするように構成してもよい。また、オブジェクト或いはキャラクタが移動している状態でもロックオンできるものとする。
(クリッピング処理)
次に、図27乃至図29を参照して本発明のクリッピング処理について説明する。図27に示すように、ジオメトリプロセッサ12によって、カメラ位置を原点として、視線の方向をz軸の正方向にとった視点座標系にデータを変換し、投影面であるスクリーン座標系へ、それぞれの座標を透視変換したときの描画限界点をZmaxとし、半透明処理開始点をZ0とする。
【0056】
そして、図28に示すように、オブジェクト乃至キャラクタのZ値がZ0以下の場合は透明度α=0(透明度0%)とし、Zmax以上の場合は透明度α=1(透明度100%)とする。さらに、Z値がZ0以上Zmax以下の場合は透明度α=(Z−Z0)/(Zmax−Z0)とする。
【0057】
上記のクリッピング処理について、図29のフローチャートを参照して説明する。ビデオ信号の垂直同期信号に相当する周期で割り込み信号がCPU11に供給されると、CPU11内のレジスタに割り込みフラグが設定される。割り込みが発生すると(ステップS501;YES)、CPU11はステップS502〜ステップS508の各処理を実行する。スクリーン座標系において、オブジェクトのZ値がZ0以上であって(ステップS502;YES)、Zmax以下である場合には(ステップS503;YES)、透明度α=(Z−Z0)/(Zmax−Z0)とし(ステップS504)、レンダリング処理をして(ステップS505)、画像表示を行う(ステップS506)。一方、オブジェクトのZ値がZ0未満である場合は(ステップS502;NO)、透明度α=0とし(ステップS507)、Z値がZmax以上である場合は(ステップS503;NO)、透明度α=1とする(ステップS508)。
【0058】
上記のように処理することで、オブジェクト等が描画限界点付近にきたときでも、いきなりオブジェクト等が消えることはなく、描画限界点付近で徐々に透明処理がなされるため、遊戯者に不快感を与えることがない。
(光源処理)
次に、図1及び図30を参照して本発明の光源処理について説明する。図1において、CPU11はポリゴンを使用した画像を処理するためのプログラムを実行し、ポリゴンの頂点データをジオメトリプロセッサ12へ供給する。ジオメトリプロセッサ12はポリゴンの頂点座標データに基づいて三次元空間へポリゴンを配置したり、三次元空間中のどの領域までを表示するかを決定するビューポートの設定を行う。ポリゴンの各頂点には頂点座標(X,Y,Z)、頂点カラー(赤、緑、青)、テクスチャ座標(Tx,Ty)、頂点透明度及び頂点の法線ベクトルなどの属性が付与されており、ジオメトリプロセッサ12は頂点の法線ベクトルと光源ベクトルのなす角度に応じて各頂点の輝度(色)を計算し、ビューポートの外にある頂点を除去し(クリッピング処理)、3次元座標から2次元座標(スクリーン座標)への変換を行う。
【0059】
上記の処理において、ジオメタライザ12はポリゴンの頂点の輝度(色)を頂点カラーリストとしてシステムメモリ13に保存する。このように頂点カラーリストを保存しておくことで、プリレンダが有効となる。頂点カラーリストはバスアービタ14を介してレンダリングプロセッサ15へ供給される。レンダリングプロセッサ15はポリゴンの頂点を結ぶ稜線上の各点(ピクセル)についての輝度(色)を頂点の輝度(色)を補完処理することによって求める。また、各稜線上のピクセルの輝度(色)からポリゴンの平面を構成する全てのピクセルの輝度(色)を補完処理によって求める。そして、各ピクセルに対応したテクスチャデータをグラフィックメモリ16から読み出し、各ピクセルのカラーを計算する。
【0060】
レンダリングプロセッサ15は必要に応じてグラフィックメモリ16内のフレームバッファに既に書き込まれているピクセルカラーと新たに書き込むポリゴンの各ピクセルカラーとをブレンドし、そのブレンドした値をフレームバッファに書き込む。グラフィックメモリ16内にはデプスバッファが割り当てられており、各ピクセルのZ座標値が記憶されている。デプスバッファから読み込んだZ座標値から判断して、最も手前に不透明なポリゴンがくる場合には上記のブレンドを行うことなく、直ちにそのポリゴンのカラーデータをフレームバッファに書き込む。また、最も手前に完全に透明なポリゴンが位置する場合には、手前のポリゴンのカラーデータを書き込むことなく、フレームバッファに既に書き込まれている背後のポリゴンのカラーデータをそのまま保持すればよい。フレームバッファに書き込まれたピクセルデータはビデオエンコーダ17に供給され、モニタ25で画像表示される。
【0061】
図30を参照して光源処理の各手順について説明する。まず、プリレンダが有効であるか否かが判断される(ステップS601)。頂点カラーリストは光源処理における最初の1フレームで作成され、システムメモリ13に保存されるため、プリレンダが有効であれば(ステップS601;YES)、2フレーム目以降は当該頂点カラーリストを参照することでポリゴンのレンダリングが可能になる。そこで、頂点カラーリストを読み出し(ステップS602)、当該頂点カラーリストに基づいてレンダリングを行い(ステップS603)、画像表示を行う(ステップS604)。一方、光源処理が未処理である等、プリレンダが有効でない場合は(ステップS601;NO)、頂点カラーリストを作成し(ステップS602)、プリレンダを有効にした後(ステップS606)、頂点カラーリストに基づいてレンダリングを行い(ステップS603)、画像表示を行う(ステップS604)。
【0062】
上記の手順によれば、背景画などのように、光源との位置関係が一定であるものは、視点座標の変化に関係なく光源処理を最初の1フレーム目で行っておくことで、2フレーム目も同様の結果を利用できるため、演算負荷が軽くなるとともに、記憶すべきテクスチャデータ量の増加を防ぐことができる。
【0063】
尚、上記の説明においては、頂点カラーリストをシステムメモリ13に保存しておく構成を採用したが、これに限らず、例えば、ポリゴンの頂点の輝度(色)を補完処理することで、ポリゴンの平面を構成する全てのピクセルの輝度(色)を補完処理によって予め求めておき、これをテクスチャバッファ内に登録しておいてもよい。さらには、テクスチャにポリゴンの色をブレンドした時点でこれをテクスチャバッファ内に登録しておいてもよい。これらのピクセルデータはレンダリングする際に必要に応じて読み出され、描画処理に用いられる。
【0064】
【発明の効果】
本発明によれば、カメラは遊戯者の選択したオブジェクトに対して確実に注視することができるとともに、オブジェクトをズームすることで当該オブジェクトに対するアクションが容易になる。また、オブジェクトを注視する際に、カメラは客観視点から主観視点へと切り替わるため、遊戯者はあたかも実際にオブジェクトに対して接しているかのような疑似体験をすることができる。
【0065】
また、本発明によれば、各動作部位毎に衝突判定が行われ、モーションデータが終了するか或いは動作部位が衝突することで動作部位の動作が終了するため、上記の従来技術のように、動作部位が他のオブジェクトに食い込む等の不都合を解消することができる。
【0066】
また、本発明によれば、描画限界点付近でいきなりオブジェクトが消える不自然さを解消することができる。
【0067】
また、本発明によれば、光源処理における演算負荷を大幅に低減することができる。
【図面の簡単な説明】
【図1】ビデオゲーム装置の回路構成図である。
【図2】システムメモリ内にロードされる各テーブルのデータ構造の説明図である。
【図3】ビデオゲーム装置の全体的な動作フローチャートである。
【図4】ロックオン処理のフローチャートである。
【図5】ロックオン可能エリアの説明図である。
【図6】ロックオン処理の説明図である。
【図7】カメラ移動の説明図である。
【図8】カメラ移動の説明図である。
【図9】カメラ移動の説明図である。
【図10】カメラ移動の説明図である。
【図11】カメラ移動の説明図である。
【図12】カメラ移動の説明図である。
【図13】リアルハンドの説明図である。
【図14】掴みモーションの説明図である。
【図15】掴みモーションの説明図である。
【図16】掴みモーションの説明図である。
【図17】掴みモーションの説明図である。
【図18】掴みモーションの説明図である。
【図19】掴みモーションの説明図である。
【図20】掴みモーションの説明図である。
【図21】フォーカスモーションの説明図である。
【図22】フォーカスモーションの説明図である。
【図23】フォーカスモーションの説明図である。
【図24】フォーカスモーションの説明図である。
【図25】フォーカスモーションの説明図である。
【図26】テクスチャデータの半透明処理の説明図である。
【図27】クリッピング処理の説明図である。
【図28】透明度対Z値のグラフである。
【図29】クリッピング処理の説明図である。
【図30】光源処理の説明図である。
【符号の説明】
10…ビデオゲーム装置、11…CPU、12…ジオメトリプロセッサ、13…システムメモリ、14…バスアービタ、15…レンダリングプロセッサ、16…グラフィックメモリ、17…ビデオエンコーダ、18…ROM、19…CD−ROMドライブ、20…サウンドプロセッサ、21…サウンドメモリ、22…D/Aコンバータ、30…ロックオン可能エリア、32…みかん、40…プレイヤキャラクタ、50…カメラ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing technique in computer graphics, and more particularly to a camera work technique, a moving picture display technique, a clipping processing technique, and a light source processing technique in a virtual space.
[0002]
[Prior art]
In a video game device using computer graphics, an object (virtual object) composed of a plurality of polygons is arranged in a virtual three-dimensional space, and a player character is operated in response to an input signal from a control pad. It is possible. Due to the advancement of image processing technology, in such a game device, the player can combine the key input on the control pad with the player character to grasp, see, push, touch, pull, etc. It is now possible to make an action.
[0003]
[Problems to be solved by the invention]
However, in the conventional video game apparatus, the virtual viewpoint (camera) set in the virtual three-dimensional space usually displays an image of the player character viewed from a third party viewpoint (objective viewpoint), When the player character takes an action, no consideration is given to switching the camera to the player character's own viewpoint (also referred to as a subjective viewpoint or a first person viewpoint) and fixing the gazing point to the object. If this is replaced with a human action, the action is performed without paying attention to the object to be acted on, so that an inconvenience that the action operation corresponding to the human action cannot be performed occurs.
[0004]
Further, for example, when a player character performs an action such as grabbing an object, in the conventional video game apparatus, an action of grabbing an object is prepared in advance as motion data, and an image is displayed based on this. A gripping motion suitable for the position and angle of the character and the object, the shape of the object, and the like cannot be performed, and an unnatural situation such as a finger biting into the object has occurred.
[0005]
Further, in the conventional video game apparatus, when an object is displayed on the screen, a Z value that is a coordinate value in the depth direction of the object arranged in the viewpoint coordinate system is set to a predetermined value (for example, a drawing processing limit). If the distance between the camera and the object exceeds a certain distance, the object is suddenly moved. Since it disappeared, the player was discomforted.
[0006]
In addition, when performing light source processing (for example, spotlight processing) using computer graphics using polygon data, each angle is determined from the angle between the light vector from the light source and the normal vector of the vertex of each polygon that constitutes the object. The brightness of the vertices is calculated, and these calculation results are supplied to the rendering processing unit. Further, by calculating the brightness of each pixel on the edge line connecting the vertices using the interpolation method, the brightness of the entire polygon is calculated, and the desired brightness is calculated. Texture mapping processing is performed and an image is displayed.
[0007]
However, in such a configuration, it is necessary to perform light source processing for each frame (for example, every 1/60 seconds), and there is a problem that the amount of calculation processing becomes enormous when there are a plurality of light sources. Conventionally, in addition to the above configuration, a texture with a spotlight hitting the surface of the object is prepared in advance, and the light source processing is performed by pasting the texture onto the object when the spotlight is turned on. Although there is a method to omit, in such a configuration, the texture data amount becomes enormous because a separate texture must be prepared each time the type, position, angle, etc. of each object and light source are reset. There is.
[0008]
Therefore, a first object of the present invention is to provide a video game apparatus and an image display method that enable natural camera control when an action is performed on an object.
[0009]
Moreover, this invention makes it the 2nd subject to provide the moving image display apparatus and moving image display method which display the moving image of an object appropriately.
[0010]
It is a third object of the present invention to provide an image display device and an image display method that gradually fade out an object when performing clipping processing based on the Z value of the object in the screen coordinate system.
[0011]
It is a fourth object of the present invention to provide an image display apparatus and an image display method that can reduce the amount of calculation of light source processing without increasing the amount of texture data.
[0012]
[Means for Solving the Problems]
In order to solve the first problem, in the present invention, a camera gazing point is set on an object selected by a player from a plurality of objects, and the object is zoomed. Thus, the camera can surely watch the object selected by the player, and the action on the object is facilitated by zooming the object.
[0013]
Preferably, when setting the gazing point on the object, the camera is moved from the objective viewpoint to the subjective viewpoint. As a result, the player can view the video as if he / she actually touched the object.
[0014]
In the above configuration, as the object being watched by the camera is zoomed, the object is displayed so as to gradually fade out from the screen, and the other object is gradually faded in from the screen. You may comprise so that an object may be superimposed on the said object and displayed. With such a configuration, for example, when a coarse image is zoomed, it can be changed to a finer image.
[0015]
Further, the player character may be configured to execute a predetermined action corresponding to the watched object.
[0016]
In order to solve the second problem, in the present invention, when displaying the movement of the entire object by the movement of each of the plurality of motion parts, motion data of the plurality of motion parts is stored in advance, Each time the motion data is read out, the motion of each motion part is displayed on the screen based on this, and the collision is detected by determining the contact of the motion part where the contact is expected in advance during the motion process Finish reading the motion data of the moving part. As a result, the collision determination is performed for each movement part, and the motion data is finished or the movement of the movement part is ended when the movement part collides. Inconveniences such as biting into objects can be eliminated.
[0017]
In order to solve the third problem, in the present invention, when the distance between the object and the camera in the screen coordinate system is in the vicinity of the drawing limit point, the object is translucently processed and displayed on the screen. Thereby, it is possible to eliminate the unnaturalness that the object disappears suddenly near the drawing limit point.
[0018]
In order to solve the fourth problem, the present invention calculates the brightness or color of an object that is immobile with respect to the light source, stores the calculation result in a memory, and displays the object on the screen when the object is displayed on the screen. The image of the object is displayed with reference to the calculation result stored in the memory. Thereby, the calculation load in the light source process of the object of an image display apparatus can be reduced.
[0019]
Further, according to the present invention, it is possible to provide a computer-readable recording medium in which a program for executing the above procedure is recorded. Here, the recording medium is a medium in which an image processing program or the like is recorded by some physical means, and a computer, in particular, a dedicated processor (for example, a geometry processor, a rendering processor) or the like realizes a desired function. Say what you can. Therefore, it may be downloaded to a computer by some means to realize a desired function. For example, information recording media such as ROM, flexible disk, hard disk, CD-ROM, CD-R, DVD-ROM, DVD-RAM, DVD-R, PD disk, MD disk, and MO disk are included. This includes cases where data is transferred from a host computer via a wired or wireless communication line (public line, data dedicated line, Internet, satellite line, etc.).
[0020]
DETAILED DESCRIPTION OF THE INVENTION
(Configuration of video game device)
FIG. 1 shows a circuit configuration diagram of the
[0021]
Under the control of the OS, the
[0022]
The
[0023]
The
[0024]
A
[0025]
The
[0026]
A
[0027]
The
[0028]
Next, the overall operation of the video game apparatus will be described with reference to the flowchart of FIG. In the figure, when an interrupt signal is supplied to the
[0029]
For example, in the NTSC system, the
[0030]
Next, in order to generate a screen to be displayed on the
[0031]
Thereafter, the
(Lock-on processing)
Next, the lock-on process will be described with reference to FIGS. In this specification, lock-on processing is defined as “processing for setting (fixing) a gazing point on an object of interest and controlling the camera to zoom (enlarge) the object”. It is assumed that the object to be locked on is predetermined in the game program. Further, motion data is stored in association with the object on which the lock-on process has been performed so that an action corresponding to the object is performed. Therefore, a flag is set so that an action corresponding to the object is performed by performing lock-on processing on the object (details will be described later).
[0032]
FIG. 5 shows a
[0033]
For example, as shown in FIG. 6,
[0034]
In order to perform the lock-on process, a work memory data table and a program data table are read from the CD-
[0035]
A lock-on object name, lock-on coordinates, lock-on correction coordinates, lock-on possible range information, lock-on angle, and motion data are registered in the program data table. The lock-on object name refers to the name of an object that can be subjected to lock-on processing. Lock-on coordinates mean coordinates on polygons that are texture-mapped when objects that can be locked-on are planes such as maps and hanging axes, because they can be handled as textures instead of objects. To do. The lock-on correction coordinates are relative coordinates from the reference plane or coordinates of an object when the object that can be locked on is, for example, a cup of water, and when an action is performed on the object (for example, grasping). To be referenced.
[0036]
Lock-on possible range information refers to information about the range in which lock-on processing can be performed on an object, and the lock-on angle refers to a camera line of sight within a predetermined angle range with respect to the object when the object is locked on This is the angle for forcibly moving the camera. The motion data is motion data for performing an action on the object when the object is locked on. In the work area, the player character position, camera position, gazing point position, and the like are sequentially updated for each frame by dynamic variables.
[0037]
Next, each processing step of the lock-on process will be described with reference to FIG. In the figure, when an interrupt signal is supplied to the
[0038]
If the lock-on flag is set (step S202; YES), a lock-on enabled display is displayed on the
[0039]
The
[0040]
When the lockable object is selected, the camera is moved to zoom the object (step S206). Details of the camera movement will be described with reference to FIGS. As shown in FIG. 7, when the
[0041]
11 and 12 are explanatory diagrams of camera movement in the horizontal direction. In FIG. 11, the
[0042]
In the grabbing motion, when the
[0043]
After moving the camera, an action corresponding to the object to be locked on is performed (step S207). In this example, since the lock-on process is performed on the
(Grabbing motion)
Next, “grabbing motion” for grasping the orange 32 will be described with reference to FIGS. 13 to 20. When “grabbing motion” is selected as one mode of action in step S207, the
[0044]
Each polygon constituting the real hand will be described with reference to FIG. In the figure, the little finger P is composed of polygons P1 to P3, and a collision point P0 for determining a collision (collision) with an object is set at the tip P0 of the polygon P1. The comb finger Q, the middle finger R, the index finger S and the thumb T are composed of polygons Q1 to Q3, R1 to R3, S1 to S3 and T1 and T2, respectively. Points Q0, R0, S0 and T0 are provided. These collision points are points where contact is expected in advance when the object is grasped. The palm is composed of a polygon U, the back of the hand is composed of a polygon V, and the arm is composed of a polygon W.
[0045]
Each finger has a predetermined motion pattern corresponding to the pattern of how to grasp the object, and each joint moves by a predetermined angle every frame. Also, the motion patterns of each finger are stored independently of each other, and collision determination is also determined independently for each finger. In the grabbing motion, the motion data for each finger is read out and displayed as an image, and an interruption is made every image update period to make a collision determination for each finger.
[0046]
Therefore, when a certain finger comes into contact with the object, the reading of the motion data for the finger ends, but the reading of the motion data for the other finger is still performed, and the image display based on the motion data is performed. As a result, the collision determination between the object and the finger is accurately performed, and the object can be grasped accurately and reliably regardless of the shape of the object.
[0047]
An operation procedure in which the real hand in the grasping motion grasps the object will be described with reference to the flowchart of FIG. When an interrupt signal is supplied to the
[0048]
When a lock-on enabled object is locked on, a motion flag corresponding to the object is set. For example, if it is the above-mentioned
(Focus motion)
In the above description, the
[0049]
At this time, the
[0050]
The procedure of focus motion will be described with reference to FIG. When an interrupt signal is supplied to the
[0051]
Here, F is the number of frames required to change from the
[0052]
The
[0053]
Next, the
[0054]
In the focus motion, when the
[0055]
In the above description, the gripping motion and the focus motion have been described as examples of the action in step S207. However, the present invention is not limited to this. For example, the drawer is opened, the door is opened, the door is knocked, the phone is called, the hanging axis It may be an action such as taking. The target of the lock-on process is not limited to an object, and may be a character imitating a person. For example, when a girl character is locked on, processing such as talking to the child may be performed. Further, it is possible to lock on even when the object or character is moving.
(Clipping processing)
Next, the clipping processing of the present invention will be described with reference to FIGS. As shown in FIG. 27, the
[0056]
Then, as shown in FIG. 28, the Z value of the object or character is Z 0 In the following cases, transparency α = 0 (
[0057]
The above clipping process will be described with reference to the flowchart of FIG. When an interrupt signal is supplied to the
[0058]
By processing as described above, even when an object or the like comes near the drawing limit point, the object or the like does not disappear suddenly, and the transparent processing is gradually performed near the drawing limit point. Never give.
(Light source processing)
Next, the light source processing of the present invention will be described with reference to FIGS. In FIG. 1, the
[0059]
In the above processing, the
[0060]
The
[0061]
Each procedure of light source processing will be described with reference to FIG. First, it is determined whether or not the pre-rendering is valid (step S601). Since the vertex color list is created in the first frame in the light source process and stored in the
[0062]
According to the above-described procedure, if the positional relationship with the light source, such as a background image, is constant, the light source processing is performed in the first frame regardless of the change in the viewpoint coordinates. Since the eye can use the same result, the calculation load is reduced and an increase in the amount of texture data to be stored can be prevented.
[0063]
In the above description, the configuration in which the vertex color list is stored in the
[0064]
【The invention's effect】
According to the present invention, the camera can surely watch the object selected by the player, and the action on the object is facilitated by zooming the object. In addition, since the camera switches from an objective viewpoint to a subjective viewpoint when gazing at the object, the player can have a pseudo-experience as if actually touching the object.
[0065]
In addition, according to the present invention, the collision determination is performed for each movement part, and the motion data is finished or the movement of the movement part is ended by the collision of the movement part. Inconveniences such as the movement part biting into other objects can be eliminated.
[0066]
Further, according to the present invention, it is possible to eliminate the unnaturalness that the object disappears suddenly near the drawing limit point.
[0067]
Further, according to the present invention, it is possible to greatly reduce the calculation load in the light source processing.
[Brief description of the drawings]
FIG. 1 is a circuit configuration diagram of a video game apparatus.
FIG. 2 is an explanatory diagram of a data structure of each table loaded in the system memory.
FIG. 3 is an overall operation flowchart of the video game apparatus.
FIG. 4 is a flowchart of lock-on processing.
FIG. 5 is an explanatory diagram of a lock-on possible area.
FIG. 6 is an explanatory diagram of a lock-on process.
FIG. 7 is an explanatory diagram of camera movement.
FIG. 8 is an explanatory diagram of camera movement.
FIG. 9 is an explanatory diagram of camera movement.
FIG. 10 is an explanatory diagram of camera movement.
FIG. 11 is an explanatory diagram of camera movement.
FIG. 12 is an explanatory diagram of camera movement.
FIG. 13 is an explanatory diagram of a real hand.
FIG. 14 is an explanatory diagram of a gripping motion.
FIG. 15 is an explanatory diagram of a gripping motion.
FIG. 16 is an explanatory diagram of a gripping motion.
FIG. 17 is an explanatory diagram of a gripping motion.
FIG. 18 is an explanatory diagram of a gripping motion.
FIG. 19 is an explanatory diagram of a gripping motion.
FIG. 20 is an explanatory diagram of a gripping motion.
FIG. 21 is an explanatory diagram of focus motion.
FIG. 22 is an explanatory diagram of focus motion.
FIG. 23 is an explanatory diagram of focus motion.
FIG. 24 is an explanatory diagram of focus motion.
FIG. 25 is an explanatory diagram of focus motion.
FIG. 26 is an explanatory diagram of translucent processing of texture data.
FIG. 27 is an explanatory diagram of clipping processing;
FIG. 28 is a graph of transparency versus Z value.
FIG. 29 is an explanatory diagram of clipping processing;
FIG. 30 is an explanatory diagram of light source processing.
[Explanation of symbols]
DESCRIPTION OF
Claims (12)
前記仮想三次元空間内にカメラを設定するカメラ設定手段と、
前記複数のオブジェクトの中から、視点座標系において予め定められたロックオン可能範囲内に位置し、かつ入力手段を用いた遊戯者による指示によって選択された第1のオブジェクトに対して前記カメラの注視点を設定する注視点設定手段と、
前記注視点が設定されたことに対応して前記カメラを客観視点から主観視点へと移動させるカメラ移動手段と、
前記第1のオブジェクトをズームするように前記カメラを制御するズーム手段と、
前記注視点設定手段、前記カメラ移動手段及び前記ズーム手段のそれぞれによる処理がなされた前記カメラに対応した画像を生成する画像生成手段と、
を備えた、ビデオゲーム装置。 An object setting means for setting a plurality of objects in the virtual three-dimensional space;
Camera setting means for setting a camera in the virtual three-dimensional space;
From among the plurality of objects located within the lock-on range predetermined in view point coordinate system, and the camera with respect to the first object selected by the instruction by the player using the input means Gaze point setting means for setting a gaze point;
A camera moving means for moving to the subjective-view from objective viewpoint of the camera in response to the gazing point is set,
Zoom means for controlling the camera to zoom the first object;
Image generating means for generating an image corresponding to the camera that has been processed by each of the gazing point setting means, the camera moving means, and the zoom means;
A video game device comprising:
前記仮想三次元空間内にカメラを設定するカメラ設定手段と、
前記複数のオブジェクトの中から、スクリーン座標系において予め定められたロックオン可能範囲内に位置し、かつ入力手段を用いた遊戯者による指示によって選択された第1のオブジェクトに対して前記カメラの注視点を設定する注視点設定手段と、
前記注視点が設定されたことに対応して前記カメラを客観視点から主観視点へと移動させるカメラ移動手段と、
前記第1のオブジェクトをズームするように前記カメラを制御するズーム手段と、
前記注視点設定手段、前記カメラ移動手段及び前記ズーム手段のそれぞれによる処理がなされた前記カメラに対応した画像を生成する画像生成手段と、
を備えた、ビデオゲーム装置。 Object placement means for placing a plurality of objects in a virtual three-dimensional space;
Camera setting means for setting a camera in the virtual three-dimensional space;
From among the plurality of objects, said camera with respect to the first object selected by the instruction by the player to position and location in the lock-on range predetermined in cleans coordinate system, and using the input means Gaze point setting means for setting the gaze point of
A camera moving means for moving to the subjective-view from objective viewpoint of the camera in response to the gazing point is set,
Zoom means for controlling the camera to zoom the first object;
Image generating means for generating an image corresponding to the camera that has been processed by each of the gazing point setting means, the camera moving means, and the zoom means;
A video game device comprising:
請求項1又は2に記載のビデオゲーム装置。 The fixation point setting means further sets the gaze point of the camera for on the first object when a distance between the first object and the camera is in a predetermined lock-on distance,
The video game device according to claim 1 .
請求項1乃至3の何れか1項に記載のビデオゲーム装置。The video game device according to any one of claims 1 to 3.
請求項1乃至請求項4の何れか1項に記載のビデオゲーム装置。 It said image generating means, wherein in accordance with the first object is zoomed, the first object gaff Edoau Tosu Rutotomoni, the first object and the associated second of the image to object gaff Edoin Generate
The video game device according to any one of claims 1 to 4 .
請求項5に記載のビデオゲーム装置。The video game device according to claim 5.
(b)カメラ設定手段が、前記仮想三次元空間内にカメラを設定すること、
(c)注視点設定手段が、視点座標系において予め定められたロックオン可能範囲内に位置し、かつ入力手段を用いた遊戯者による指示によって選択された第1のオブジェクトに対して前記カメラの注視点を設定すること、
(d)カメラ移動手段が、前記注視点が設定されたことに対応して前記カメラを客観視点から主観視点へと移動させること、
(e)ズーム手段が、前記第1のオブジェクトをズームするように前記カメラを制御すること、
(f)画像生成手段が、前記注視点設定手段、前記カメラ移動手段及び前記ズーム手段のそれぞれによる処理がなされた前記カメラに対応した画像を生成すること、
を含む、画像表示方法。 (A) the object setting means sets a plurality of objects in the virtual three-dimensional space;
(B) camera setting means setting a camera in the virtual three-dimensional space;
(C) fixation point setting means, positioned in the lock-on range predetermined in the viewpoint coordinate system, and the camera with respect to the first object selected by the instruction by the player using the input means by setting the gaze point,
(D) a camera moving means, said in response to the gazing point is set to move to the subjective-view the camera from an objective viewpoint,
(E) a zoom means controls the camera to zoom the first object;
(F) an image generation unit generates an image corresponding to the camera that has been processed by each of the gazing point setting unit, the camera moving unit, and the zoom unit;
An image display method including:
(b)カメラ設定手段が、前記仮想三次元空間内にカメラを設定すること、
(c)注視点設定手段が、スクリーン座標系において予め定められたロックオン可能範囲内に位置し、かつ入力手段を用いた遊戯者による指示によって選択された第1のオブジェクトに対して前記カメラの注視点を設定すること、
(d)カメラ移動手段が、前記注視点が設定されたことに対応して前記カメラを客観視点から主観視点へと移動させること、
(e)ズーム手段が、前記第1のオブジェクトをズームするように前記カメラを制御すること、
(f)画像生成手段が、前記注視点設定手段、前記カメラ移動手段及び前記ズーム手段のそれぞれによる処理がなされた前記カメラに対応した画像を生成すること、
を含む、画像表示方法。 (A) the object setting means sets a plurality of objects in the virtual three-dimensional space;
(B) camera setting means setting a camera in the virtual three-dimensional space;
(C) fixation point setting means, positioned in the lock-on range predetermined in the screen coordinate system, and the camera with respect to the first object selected by the instruction by the player using the input means by setting the gaze point,
(D) a camera moving means, said in response to the gazing point is set to move to the subjective-view the camera from an objective viewpoint,
(E) a zoom means controls the camera to zoom the first object;
(F) an image generation unit generates an image corresponding to the camera that has been processed by each of the gazing point setting unit, the camera moving unit, and the zoom unit;
An image display method including:
請求項7又は8に記載の画像表示方法。 In the (c), the fixation point setting means further fixation point of the camera for the first of the first object when the distance of an object and the camera is in a predetermined lock-on distance setting the,
The image display method according to claim 7 or 8 .
請求項7乃至9の何れか1項に記載の画像表示方法。 In the (f), the image generation means, wherein in accordance with the first object is zoomed, the second object canvas associated said first object gaff Edoau toss Rutotomoni, with the first object Generate the image to fade in ,
The image display method according to claim 7 .
請求項10に記載の画像表示方法。The image display method according to claim 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP37711699A JP4144017B2 (en) | 1999-12-23 | 1999-12-23 | VIDEO GAME DEVICE, IMAGE DISPLAY DEVICE AND METHOD, MOVIE DISPLAY DEVICE AND METHOD, AND RECORDING MEDIUM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP37711699A JP4144017B2 (en) | 1999-12-23 | 1999-12-23 | VIDEO GAME DEVICE, IMAGE DISPLAY DEVICE AND METHOD, MOVIE DISPLAY DEVICE AND METHOD, AND RECORDING MEDIUM |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008118065A Division JP2008234681A (en) | 2008-04-30 | 2008-04-30 | Video game device, image display device and method, moving image display device and method, and recording medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2001178963A JP2001178963A (en) | 2001-07-03 |
JP2001178963A5 JP2001178963A5 (en) | 2007-02-22 |
JP4144017B2 true JP4144017B2 (en) | 2008-09-03 |
Family
ID=18508275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP37711699A Expired - Fee Related JP4144017B2 (en) | 1999-12-23 | 1999-12-23 | VIDEO GAME DEVICE, IMAGE DISPLAY DEVICE AND METHOD, MOVIE DISPLAY DEVICE AND METHOD, AND RECORDING MEDIUM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4144017B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2394716A2 (en) | 2010-06-11 | 2011-12-14 | NAMCO BANDAI Games Inc. | Image generation system, program product, and image generation method for video games |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4297804B2 (en) | 2004-02-19 | 2009-07-15 | 任天堂株式会社 | GAME DEVICE AND GAME PROGRAM |
JP4244040B2 (en) | 2005-03-10 | 2009-03-25 | 任天堂株式会社 | Input processing program and input processing apparatus |
JP2007323341A (en) * | 2006-05-31 | 2007-12-13 | Matsushita Electric Works Ltd | Product design support system |
JP2008071046A (en) * | 2006-09-13 | 2008-03-27 | Ricoh Co Ltd | Device for creating three-dimensional model zoomed image |
JP4579964B2 (en) * | 2007-12-13 | 2010-11-10 | 株式会社コナミデジタルエンタテインメント | Image generating apparatus, image generating method, and program |
JP4753442B2 (en) * | 2008-08-07 | 2011-08-24 | 任天堂株式会社 | GAME PROGRAM AND GAME DEVICE |
JP4879952B2 (en) * | 2008-11-04 | 2012-02-22 | 任天堂株式会社 | Input processing program and input processing apparatus |
JP5705671B2 (en) * | 2011-07-14 | 2015-04-22 | 任天堂株式会社 | GAME PROGRAM AND GAME DEVICE |
JP5827671B2 (en) * | 2013-12-10 | 2015-12-02 | 任天堂株式会社 | GAME PROGRAM AND GAME DEVICE |
JP2019075091A (en) * | 2018-08-24 | 2019-05-16 | 株式会社コロプラ | Program for providing virtual experience, computer and method |
CN110045827B (en) | 2019-04-11 | 2021-08-17 | 腾讯科技(深圳)有限公司 | Method and device for observing virtual article in virtual environment and readable storage medium |
JP7316429B1 (en) | 2022-09-28 | 2023-07-27 | 株式会社コロプラ | Program and information processing system |
JP7385719B1 (en) | 2022-09-28 | 2023-11-22 | 株式会社コロプラ | Programs and information processing systems |
JP7316430B1 (en) | 2022-09-28 | 2023-07-27 | 株式会社コロプラ | Program and information processing system |
-
1999
- 1999-12-23 JP JP37711699A patent/JP4144017B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2394716A2 (en) | 2010-06-11 | 2011-12-14 | NAMCO BANDAI Games Inc. | Image generation system, program product, and image generation method for video games |
US9345972B2 (en) | 2010-06-11 | 2016-05-24 | Bandai Namco Entertainment Inc. | Information storage medium, image generation system, and image generation method |
Also Published As
Publication number | Publication date |
---|---|
JP2001178963A (en) | 2001-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4144017B2 (en) | VIDEO GAME DEVICE, IMAGE DISPLAY DEVICE AND METHOD, MOVIE DISPLAY DEVICE AND METHOD, AND RECORDING MEDIUM | |
EP1350545B1 (en) | Game machine and game program | |
EP1033682B1 (en) | Image processing apparatus and image processing method | |
EP1956471B1 (en) | Object selecting device, object selecting method, information recording medium, and program | |
JP3764070B2 (en) | Object display program and object display device | |
JP2009237680A (en) | Program, information storage medium, and image generation system | |
JP4917346B2 (en) | Game image processing program and game image processing apparatus | |
JP2006068138A (en) | Game apparatus and image processing program | |
EP1977801B1 (en) | Game machine, game machine control method, and information storage medium | |
JP2009031948A (en) | Image generation device, method, program, and recording medium | |
JP3338021B2 (en) | Three-dimensional image processing device and readable recording medium storing three-dimensional image processing program | |
EP1355276A2 (en) | System and method for distance adjusted rendering | |
US20020004421A1 (en) | Computer readable recording medium recording a program for causing a light source to be displayed on a game screen and the program, and game screen display method and apparatus | |
JP2001084404A (en) | Method and device for rendering, game machine, and computer readable recording medium for storing program for rendering three-dimensional model | |
JP3502796B2 (en) | 3D model display method and apparatus in video game, game apparatus, and computer-readable recording medium storing 3D model display program for video game | |
EP0992945B1 (en) | Video game apparatus, model display and readable recording medium therefor | |
JP2008234681A (en) | Video game device, image display device and method, moving image display device and method, and recording medium | |
US6680734B2 (en) | Game system, imaging method in the game system, and computer readable storage medium having game program stored therein | |
JP2001351123A (en) | Image processing apparatus and image processing method | |
JP4231684B2 (en) | GAME DEVICE AND GAME PROGRAM | |
JP3839355B2 (en) | GAME DEVICE AND GAME PROGRAM | |
EP1249791B1 (en) | 3-D game image processing method and device for drawing border lines | |
JP2005050070A (en) | Image processing device, method, and program | |
JP2005275795A (en) | Program, information storage medium and image generation system | |
JP4204114B2 (en) | Polygon data processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080229 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080526 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080608 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4144017 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110627 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130627 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130627 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130627 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |