JP4304551B2 - Image processing apparatus and method - Google Patents
Image processing apparatus and method Download PDFInfo
- Publication number
- JP4304551B2 JP4304551B2 JP06904699A JP6904699A JP4304551B2 JP 4304551 B2 JP4304551 B2 JP 4304551B2 JP 06904699 A JP06904699 A JP 06904699A JP 6904699 A JP6904699 A JP 6904699A JP 4304551 B2 JP4304551 B2 JP 4304551B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- displayed
- character
- data
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
- Controls And Circuits For Display Device (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は画像処理装置及びその方法に関し、例えば映像に重ねて表示するための映像タイトルを生成する映像タイトル生成装置に適用して好適なものである。
【0002】
【従来の技術】
従来、映像に重ねて表示するための映像タイトルを生成する映像タイトル生成装置では、当該映像タイトルを3次元表示する場合、生成した2次元の文字に対して影を付けるような画像処理を2次元的に施すことにより、当該2次元の文字を疑似的に3次元表示するしかなかった。そこで3次元の映像タイトルを生成したい場合には、3次元モデリングシステムと呼ばれるアルゴリズムからなるCG(Computer Graphics )制作用アプリケーションを用いて生成するようになされている。
【0003】
【発明が解決しようとする課題】
ところでこのような3次元モデリングシステムにおいては、生成された3次元文字に色を施す際、ユーザの操作に応じて、色を選択するための色選択ウィンドウを表示し、当該色選択ウィンドウに表示されている色の中から所望の色を選択することにより、当該選択した色を3次元文字に施すようになされている。しかしながらこの3次元モデリングシステムでは、表示画面の大きさやデザインの制約から、色選択ウィンドウを十分に大きくディスプレイに表示し得ず、十分な解像度を確保できない。このように従来の3次元モデリングシステムでは、色選択ウィンドウの解像度が十分でないためにユーザが所望する色を色選択ウィンドウに表示し得ない場合があり、この場合、現存する色であっても色選択ウィンドウから選択し得ない色が存在する不都合があった。
【0004】
このような不都合を解決するものとして、色選択ウィンドウを表示する表示領域を大きくし、かつ現存する全ての色を表示するための十分な解像度を確保した3次元モデリングシステムが考えられる。しかしながらこのような3次元モデリングシステムでは、色選択ウィンドウの表示面積が大きくなりすぎて、他のウィンドウを同時に表示できなくなったり、ディスプレイに表示されるグラフィカル・ユーザ・インターフェイスのデザインが損なわれるといった不都合が新たに生じてしまう。
【0005】
本発明は以上の点を考慮してなされたもので、従来に比して一段と使い勝手を向上し得る画像処理装置及びその方法を提案しようとするものである。
【0006】
【課題を解決するための手段】
かかる課題を解決するため本発明の画像処理装置では、表示手段に表示され、色が選択されるべき色選択対象画像を含む画像編集画面におけるメニューボタンが選択されると、0から255で表される各RGBパラメータ値が各頂点において255でなる3角形状の全色でなる色見本を有する色選択画面を画像編集画面に重畳して表示させると共に、当該色選択画面から入力手段の移動に伴って変位する指示子を色選択画面内に表示させる表示制御手段と、入力手段が有するボタンの押圧が解除されたときに指示子が位置する色見本を色選択対象画像の色として選択する色選択手段とを設け、表示制御手段は、ボタンが押圧されている間に亘って指定された色見本の周辺を拡大した拡大画像を色選択画面内に表示させると共に、指示子が位置する色見本のRGBパラメータ値を色選択画面内に表示させるようにする。
【0007】
色選択画面から入力手段を介して所望の色見本が指定されると、当該指定された色見本の周辺を拡大して詳細に表示し、当該表示された色見本の中から所望の色見本を選択することにより、色選択画面の表示領域を大きくすることなくユーザの要求に応じた色見本を提供することができる。
【0008】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0009】
(1)映像タイトル生成装置の構成
図1において、1は全体として映像タイトル生成装置を示し、ユーザの操作に応じて映像タイトルを生成して当該映像タイトルを映像に重ねて表示し得るようになされている。CPU(Central Processing Unit )3は、映像タイトル生成装置1全体の制御及び所定の演算処理を行うためのものであり、ホストバスB1に接続されているシステムコントローラ5を介してメモリ7及びキャッシュ9にアクセスし得るようになされている。
【0010】
CPU3は、システムコントローラ5を介して例えばDRAM(Dynamic Random Memory )でなるメモリ7にアクセスすることにより、当該メモリ7にデータを書き込んで記憶すると共に、当該メモリ7から記憶されているデータを読み出すようになされている。キャッシュ9は、メモリ7に記憶されているデータのうち、CPU3が頻繁にアクセスするデータを記憶するためのものである。従ってCPU3は、メモリ7に記憶されているデータのうち、一度アクセスしたデータをキヤッシュ9に記憶しておき、再び同一のデータが必要な場合には、キャッシュ9にアクセスして当該必要なデータを読み出すようになされている。
【0011】
さらにCPU3は、システムコントローラ5を介してPCI(Peripheral Component Interconnect )バスB2に接続され、当該PCIバスB2に接続されているI/O(Input/Output)コントローラ11、グラフィックスアクセラレータ13及びフレームバッファ15にアクセスし得るようになされている。I/Oコントローラ11は、PCIバスB2及びISA(Industry Standard Architecture)バスB3に接続され、当該PCIバスB2及びISAバスB3を介してデータの送受信の制御を行うようになされている。ハードディスクコントローラ17は、I/Oコントローラ11に接続され、CPU3からI/Oコントローラ11を介して供給されるアクセス要求に基づいて、プログラムデータ記憶手段としてのHDD(Hard Disk Drive )19の所定の領域に対してデータの読み書きを行う。HDD19は、内蔵するハードディスクに、オペレーティングシステム(OS)及び映像タイトルを生成するためのアプリケーションプログラムでなるソフトウェア資源を格納している。
【0012】
グラフィックスアクセラレータ13は、CPU3からシステムコントローラ5を介して供給される描画命令に基づいて、オペレーティングシステムやアプリケーションプログラムなどに応じた画像を表示手段としてのディスプレイ21に描画して表示する。フレームバッファ15は、CPU3からシステムコントローラ5を介して供給される表示命令に基づいて、外部の映像供給手段から供給される映像信号を合成表示手段としてのモニタ23に表示するようになされている。
【0013】
キーボードコントローラ25は、ユーザの入力操作に応じて入力手段としてのキーボード27から入力された入力情報をI/Oコントローラ11及びシステムコントローラ5を介してCPU3に通知すると共に、入力情報をI/Oコントローラ11を介してグラフィックスアクセラレータ13に送出して当該入力情報に応じた画像をディスプレイ21に表示させる。
【0014】
マウスコントローラ29は、ユーザの操作によって入力手段としてのマウス31が動くと、当該マウス31の移動方向や距離でなる動き情報をI/Oコントローラ11及びシステムコントローラ5を介してCPU3に通知し、当該CPU3の制御によってディスプレイ21上のマウスカーソルをマウス31の動きに応じて移動させる。
【0015】
ところで図2に示すように、HDD19に格納されているアプリケーションプログラム40は、オブジェクト指向型のプログラム言語によって作成され、具体的にはGUI(Graphical User Interface)オブジェクト42、レンダリング・オブジェクト44、モデリング・オブジェクト46、ドキュメント・オブジェクト48及びフレーム・バッファ・オブジェクト50の各構成要素から構成されている。
【0016】
GUIオブジェクト42は、ユーザによって行われる全ての操作の定義、各操作で指定された各種パラメータの保存、各操作によるディスプレイ21への表示更新処理を行うものである。またGUIオブジェクト42は、各オブジェクトとのユーザインターフェイスであり、各操作に応じてレンダリング・オブジェクト44を動作させるためのメッセージ情報M1、ドキュメント・オブジェクト48を動作させるためのメッセージ情報M2及びフレーム・バッファ・オブジェクト50を動作させるためのメッセージ情報M3を生成し、これらを対応するオブジェクトに通知する。
【0017】
表示制御手段としてのレンダリング・オブジェクト44は、GUIオブジェクト42からメッセージ情報M1が与えられると、ドキュメント・オブジェクト48から描画に必要なパラメータでなるパラメータ情報を受け取り、当該パラメータ情報に基づいてディスプレイ21に描画処理を実行するようになされている。立体化手段としてのモデリング・オブジェクト46は、キーボード27(図1)から指定された文字データを基に多角形の面(以下、これをポリゴンと呼ぶ)によって構成される3次元文字を生成する。ところでレンダリング・オブジェクト44は、GUIオブジェクト42においてユーザが表示を更新すべき操作を行ったか否か判断し、その結果、表示を更新すべき操作を行ったと判断した場合には、モデリング・オブジェクト46を起動させるためのメッセージ情報M4を生成し、当該メッセージ情報M4をモデリング・オブジェクト46に与えることにより、モデリング・オブジェクト46を起動するようになされている。
【0018】
記憶制御手段としてのドキュメント・オブジェクト48は、GUIオブジェクト42において定義された操作及び各種パラメータを保持している。ディスプレイ21に表示される3次元文字に関する形状データ、位置データ、姿勢データ、色データ、照明データ、移動データ及びスケールデータなどを作成するのに必要なデータは、GUIオブジェクト42からメッセージ情報M2として送られており、レンダリング・オブジェクト44によって行われる描画更新毎に使用されるようになされている。合成表示制御手段としてのフレーム・バッファ・オブジェクト50は、レンダリング・オブジェクト44における描画処理と同様に、GUIオブジェクト42から供給されるメッセージ情報M3によってフレームバッファ15(図1)を駆動してモニタ23(図1)に対して描画処理を行う。
【0019】
ここで図3は、上述のようなアプリケーションプログラム40を実行させるためのGUI画面60を示し、ディスプレイ21(図1)に表示されている。このGUI画面60に対して行われる操作のうち、まず、GUI画面60のシーンウィンドウ62に表示された仮想3次元空間中に対して文字を入力及び配置して表示するための操作について説明する。GUI画面60は、ユーザの入力操作に応じて新規グループ作成ボタン64がクリックされると、複数の文字を1つの集合とみなしたグループを新規に作成する。因みに全ての文字は、いずれか1つのグループに属するようなデータ構造をとっており、1つのグループには0個以上の文字を属させることが可能となっている。
【0020】
ところでGUI画面60は、キーボード27(図1)から文字が入力されると、当該入力された文字に応じた3次元文字を瞬時にシーンウィンドウ62に表示する。なおGUI画面60は、ユーザの入力操作に応じてキーボード27(図1)のバックスペースキーが押圧されると、入力された3次元文字を削除し得るようになされている。
【0021】
またGUI画面60は、ユーザの入力操作に応じてキーボード27のカーソルキーを使用してシーンウィンドウ62上のカーソル位置を移動させた後に、キーボード27(図1)のバックスペースキーが押圧されると、カーソルが示す位置に存在する所望の文字を削除することができるようになされている。同様にGUI画面60は、ユーザの入力操作に応じてカーソルキーを使ってカーソル位置を移動した後にキーボード27から文字が入力されると、カーソルが示す位置に新規に所望の文字を挿入することができるようになされている。このようなシーンウィンドウ62に対する描画及び再描画処理は、レンダリング・オブジェクト44のレンダリング処理に時間をとられず、瞬時に所望の画像をシーンウィンドウ62に表示させることができる。
【0022】
続いてシーンウィンドウ62に入力された文字の表示位置を平行移動させる操作について説明する。まずGUI画面60は、ユーザの入力操作に応じて所望のグループを示す領域がダブルクリックされると、表示位置の変更の対象となる文字が属するグループを選択する。これを受けてGUI画面60は、選択したグループの周囲に選択枠66を表示し、当該選択枠66内に存在する文字が選択状態にあることをユーザに知らせる。
【0023】
続いてGUI画面60は、ユーザの入力操作に応じて選択状態にあるグループ上にマウスカーソルを合わせ、当該マウスカーソルを押しながら移動させるような操作(以下、これをドラッグ操作と呼ぶ)が行われると、文字を仮想3次元空間中で上下方向(Y軸方向)及び左右方向(X軸方向)に平行移動させ得るようになされている。さらにGUI画面60は、ユーザの入力操作に応じてグループの回転中心軸68の位置でドラッグ操作が行われると、仮想3次元空間中で奥行き方向(Z軸方向)に平行移動させることができるようになされている。このような操作は、移動させた結果がレンダリング・オブジェクト44によるレンダリング処理に待たされることなく、リアルタイムにシーンウィンドウ62上に表示させることができることから、迅速にかつ正確に行うことができる。
【0024】
続いてシーンウィンドウ62に入力された文字の表示位置を回転移動によって変更する操作について説明する。GUI画面60は、ユーザの入力操作に応じて所望のグループ上がダブルクリックされると、表示位置の変更の対象としたい文字が属するグループを選択する。これを受けてGUI画面60は、選択されたグループに属する文字全てに選択枠66を表示し、当該選択枠66が表示されたグループが選択状態にあることをユーザに知らせる。この状態において、GUI画面60は、ユーザの入力操作に応じて回転軸スイッチ69がクリックされると、回転移動操作の中心軸としたい座標軸を、X軸、Y軸及びZ軸の中からいずれか1つを選択する。
【0025】
その後GUI画面60は、ユーザの入力操作に応じてドラッグ操作が行われると、仮想3次元空間中で回転移動させることができるようになされている。このような回転移動操作は、上述の平行移動操作と同様に、変更結果がレンダリング処理に待たされることなく、リアルタイムにシーンウィンドウ62に表示されることから、所望の移動操作を迅速にかつ正確に行うことができる。
【0026】
またGUI画面60は、ユーザの入力操作に応じて描画モードスイッチ70が切り換えられると、文字又は図形の描画を切り換えることができるようになされている。またGUI画面60は、ユーザの入力操作に応じてグループプロパティ設定ボタン71が選択されると、所定の画面を表示することによりグループに関する詳細な設定操作を行い得るようにする。
【0027】
次いで、GUI画面60に対して行われる操作のうち、文字の各種属性を変更することによって当該文字に修飾を施すための操作について説明する。まず文字の表示サイズを変更する操作について説明する。GUI画面60は、ユーザの操作に応じて所望のグループがダブルクリックされると、サイズ変更対象の文字が属するグループを選択する。
【0028】
これを受けてGUI画面60は、選択されたグループに属する文字全てに選択枠66が表示され、現在選択状態にあることを表示する。さらにGUI画面60は、ユーザの操作に応じてサイズ変更スイッチ72が押圧されると、サイズ変更操作の対象としたい方向を、X軸、Y軸、Z軸のうちいずれか1つを選択する。
【0029】
次いでGUI画面60は、ユーザの入力操作に応じて、選択したグループ上でドラッグ操作が行われると、文字の大きさを所望のサイズに伸縮させることができるようになされている。サイズ変更の操作は、変更結果がリアルタイムにシーンウィンドウ62に表示されることから、所望の操作を迅速にかつ正確に行うことが可能である。
【0030】
続いて文字の表示フォント(書体)を変更する操作について説明する。GUI画面60は、ユーザの入力操作に応じて所望のグループがダブルクリックされると、フォント変更の対象となる文字が属するグループを選択する。これを受けてGUI画面60は、選択されたグループに属する文字全てに選択枠66が表示され、現在選択状態であるこを表示する。次にGUI画面60は、ユーザの入力操作に応じてフォント設定メニュー73がクリックされると、フォントの設定に関するメニューを表示した後、表示される複数のフォントの中から所望のフォントを選択して表示フォントを変更することができ、その変更結果はシーンウィンドウ62に瞬時に表示される。
【0031】
さらに続いて文字表面の材質や質感に関する属性を示すマテリアル属性を変更する操作について説明する。まずGUI画面60は、ユーザの入力操作に応じて所望のグループがダブルクリックされると、マテリアル変更の対象とする文字が属するグループを選択する。GUI画面60は、選択されたグループに属する文字全てに選択枠66が表示され、現在選択状態にあることを表示する。次にGUI画面60は、ユーザの入力操作に応じてマテリアル設定メニュー74が選択されると、マテリアル設定のためのメニューを表示する。この表示されたメニューにおいて、ユーザの入力操作に応じて例えば環境拡散光反射率、鏡面光反射率、放射光、光沢のようなマテリアル属性の各設定値を入力し、グループに対するマテリアル属性を変更する。このようにマテリアル属性を調整することにより、文字表面の色や光沢の度合い等をユーザの任意に設定することができ、変更されたマテリアル属性はシーンウィンドウ62に瞬時に表示される。
【0032】
さらに続いて文字に縁取りすなわちエッジを付加する操作について説明する。GUI画面60は、ユーザの入力操作に応じて所望のグループ上がダブルクリックされると、エッジを付加する対象とする文字が属するグループを選択する。これを受けてGUI画面60は、選択されたグループに属する文字全てに選択枠66が表示され、現在選択状態であることを表示する。次にGUI画面60は、ユーザの入力操作に応じてエッジ・シャドウ設定メニュー76が選択されると、エッジ設定のためのメニューを表示する。
【0033】
GUI画面60は、この表示されるメニューにおいて、エッジ属性の各設定値、例えばエッジの太さ、エッジカラー、グラデーションスイッチ及びエッジタイプが入力されると、グループに対してエッジ属性を指定する。エッジタイプとしては、文字周辺に平面的なエッジが付加されるノーマルエッジ、文字周辺を面取りした立体的なエッジが付加されるベベルエッジ、エッジが付加されないエッジオフがある。このように指定されたエッジ属性は、シーンウィンドウ62に瞬時に表示される。
【0034】
次いで、GUI画面60に対して行われる操作のうち、ページ及びレイヤを制御するための操作について説明する。まずページに関する操作について説明する。ここでページとは、複数の編集結果を同時に管理するために導入された概念であり、シーンウィンドウ62に表示されている1画面分の編集内容を1つのページとして保持する。GUI画面60では、複数のページを一元管理するためにページセレクタ78及び新規ページ追加ボタン80が設けられている。ページセレクタ78は、プログラムが現在保持しているページの一覧を全て表示し、当該ページの一覧の中から所望のページを選択し得るようになされている。
【0035】
またGUI画面60は、ユーザの入力操作に応じて新規ページ追加ボタン80が選択されると、文字が全く含まれていない初期状態のページを新規に追加作成して、シーンウィンドウ62に新規作成された初期状態のページを表示する。その際、GUI画面60は、新規に作成された、シーンウィンドウ62に表示される画像を縮小表示した見出し画像(以下、これをサムネール画像と呼ぶ)をページセレクタ78に表示する。この追加された新規のページは、上述の文字入力操作によって所望の編集作業を行い得る。
【0036】
ユーザはシーンウィンドウ62に表示されているページ(以下、これをカレントページと呼ぶ)に対してのみ編集操作を行うことができる。GUI画面60は、ユーザの入力操作に応じて、ページセレクタ78に表示されているぺージ一覧の中から所望のページを示すサムネール画像がクリックされると、カレントページを選択してシーンウィンドウ62に表示する。このようなカレントページの変更は、シーンウィンドウ62に瞬時に反映される。
【0037】
次にレイヤに関する操作について説明する。ここでレイヤとは、複数のグループを統括及び分類して処理することにより編集作業の効率化を図ることを目的として導入された概念である。ページの中には複数のレイヤ(層)が存在し、当該各レイヤを重ね合わせることにより1つのページが生成される。GUI画面60では、1つのページ中に5つのレイヤが含まれており、各レイヤには0〜4(整数値)のレイヤ番号が与えられて識別されている。これによりページ中に作成された各グループは、この5つのレイヤのうちいずれか1つに必ず属するようになっている。
【0038】
GUI画面60は、ユーザの入力操作に応じて、5つのレイヤのうち編集操作の対象となる1つのレイヤ(以下、これをカレントレイヤと呼ぶ)を指定する操作を、カレントレイヤセレクタ81によって行うようになされており、所望のレイヤ番号をカレントレイヤセレクタ81に入力することにより、カレントレイヤを指定する。そしてGUI画面60は、指定されたカレントレイヤのみに対して文字入力や配置変更等の編集操作を行うようになされている。因みに、各グループは、グループ作成時に指定されていたレイヤ番号に応じたレイヤに属するように作成される。またGUI画面60は、ユーザの入力操作に応じて、レイヤスイッチ部82に配置された5つのボタンのオンオフ操作によって5つのレイヤの表示又は非表示を個別に指定し得るようになされており、変更結果は、瞬時にシーンウィンドウ62に反映される。
【0039】
さらに続いて照明の設定を変更する操作について説明する。ここで照明とは、現実世界の照明と同様の挙動を示すように設計された物体であり、シーンウィンドウ62に表示される仮想3次元空間中に存在しているが、実際には当該シーンウィンドウ62には表示されない。GUI画面60は、ユーザの入力操作に応じて照明の設定値が調整されると、仮想3次元空間中に配置されている文字の見え方を任意に指定し得るようになされている。
【0040】
GUI画面60は、ユーザの入力操作に応じて照明設定ボタン84がクリックされると、照明ダイアログを表示し、当該照明ダイアログにおいて照明設定を行う。この状態において、GUI画面60は、ユーザの入力操作に応じて照明条件の各設定値、例えば環境光、拡散反射光、鏡面反射光、照明位置が入力されると、ページに対する照明条件を変更する。因みに、GUI画面60は、同一ページ中に存在する全ての文字に同一の照明が設定されるようになされており、個々の文字毎に異なる照明が設定されることはない。
【0041】
最後に、GUI画面60に対して行われる操作のうち、静止画及び動画を送出するための操作について説明する。ここで送出とは、シーンウィンドウ62上で編集されたページデータをフレームバッファ15(図1)に書き込んで当該ページデータに応じた画像をモニタ23に表示させる操作である。まずページデータを静止画として送出する操作について説明する。GUI画面60は、ユーザの入力操作に応じてページセレクタ78から所望のページが選択されると、当該選択したページに応じた画像をシーンウィンドウ62に表示することにより、送出対象のページをカレントページに設定する。この状態において、GUI画面60は、ユーザの入力操作に応じてスチル送出ボタン86が選択されると、カレントページが送出される。
【0042】
次にカレントページの動画を送出する操作について説明する。GUI画面60は、ユーザの入力操作に応じてページセレクタ78から所望のページが選択されると、当該選択したページに応じた画像をシーンウィンドウ62に表示することにより、送出操作の対象とするページをカレントページに設定する。
【0043】
この状態において、GUI画面60は、ユーザの入力操作に応じてアニメーション送出ボタン88が選択されると、カレントページの送出処理が行われる。但し、カレントページに動画に関するデータ(以下、これをキーフレームデータと呼ぶ)が存在しない場合には、アニメーション送出ボタン88は機能しないようになされている。因みにGUI画面60は、ユーザの入力操作に応じてキーフレム追加ボタン90がクリックされると、所定の画面を表示してキーフレームデータを作成するようになされている。
【0044】
ここでCPU3によって複数のポリゴンでなる3次元文字(以下、これをポリゴンモデルと呼ぶ)を生成する手順について図4に示すフローチャートを用いて説明する。ステップSP1から入ったステップSP2において、CPU3は、ユーザの入力操作に応じて、ポリゴンモデルのマテリアルの設定値、光源の設定値、シーンウィンドウ62における画像の見え方を決定するためのパースの設定値をアプリケーションプログラム40のドキュメント・オブジェクト48(図2)に保持する。これらの設定値は、ユーザによって指定された値が用いられるが、ユーザが指定しない場合には、予め用意されているデフォルト値が用いられる。
【0045】
ステップSP3において、CPU3は、キーボード27からユーザによって所望のキーが入力されたか否か判定する。その結果、CPU3は、キーが入力されたと判断した場合には、当該キー入力情報をGUIオブジェクト42(図2)に送出する一方、キーが入力されていないと判断した場合にはキーが入力されるまで待機する。ステップSP4において、CPU3は、GUIオブジェクト42(図2)にキー入力情報を解析させることにより、当該キー入力情報を文字コードに変換させ、当該文字コード情報をドキュメント・オブジェクト48(図2)に格納すると共に、モデリング・オブジェクト46に対してポリゴンモデルの生成を行うための指示を与える。
【0046】
ステップSP5において、CPU3は、モデリング・オブジェクト46を用いてドキュメント・オブジェクト48に保持されている文字コード情報に基づいてポリゴンモデルを生成する。このポリゴンモデルの具体的な生成方法を図5を用いて説明する。モデリング・オブジェクト46は、現在設定されているフォント形式に基づいてドキュメント・オブジェクト48に保持されている文字コード情報に応じたアウトラインデータD1を生成する。
【0047】
次にモデリング・オブジェクト46は、このアウトラインデータD1を基にポリゴンモデルのうちフェイス部分に相当するフェイスポリゴンモデルD3を生成する。続いてモデリング・オブジェクト46は、現在設定されているエッジのパラメータに基づいてポリゴンモデルのうちエッジ部分に相当するエッジポリゴンモデルD5を生成する。さらに続いてモデリング・オブジェクト46は、現在設定されているシャドウのパラメータに基づいてポリゴンモデルのうちシャドウ部分に相当するシャドウモデルD7を生成する。このようにしてモデリング・オブジェクト46は、1つの文字に対して生成される3つのポリゴンモデルを基にポリゴンモデルD9を生成する。
【0048】
図4に戻って、ステップSP6において、CPU3は、GUIオブジェクト42を用いて、ドキュメント・オブジェクト48に保持されているマテリアルに関する各パラメータに基づいて、モデリング・オブジェクト46が保持しているポリゴンモデルD9の各ポリゴンに対してマテリアルの設定を行う。ステップSP7において、CPU3は、GUIオブジェクト42によって、ドキュメント・オブジェクト48に保持されているパースに関する各パラメータに基づいて、レンダリング・オブジェクト44に対してパースの設定を行わせる。
【0049】
パースの設定とは、具体的には図3との対応部分に同一符号を付して示す図6に示すように、視点100及び視野角102に応じた視体積(図中斜線で示した領域)104の形状及び方向を指定することを意味する。この視体積は、ポリゴンモデル106をGUI画面60のシーンウィンドウ62(図3)にどのように投影するか、複数のポリゴンモデル106のうちどのポリゴンモデル106をシーンウィンドウ62に投影するかを決定し、当該視体積内に存在するポリゴンモデル106がシーンウィンドウ62に表示される。
【0050】
図4に戻って、ステップSP8において、CPU3は、GUIオブジェクト42を用いてドキュメント・オブジェクト48に保持されている光源に関するパラメータに基づいてレンダリング・オブジェクト44に対して照明の設定を行う。ステップSP9において、CPU3は、レンダリング・オブジェクト44を用いて、各パラメータに基づいてポリゴンモデルの描画をシーンウィンドウ62に対して行う。
【0051】
このようにしてCPU3は、キーボード27を介して入力されたキーを3次元文字としてディスプレイ21に表示させることができ、さらに複数の3次元文字を表示させる場合には、ステップSP2に戻って同様の処理を繰り返すことにより、ディスプレイ21にユーザの入力操作に応じた映像タイトルを表示することができる。
【0052】
以上の構成において、CPU3は、HDD19に格納されているオペレーティングシステム及びアプリケーションプログラムに基づいて、キーボード27を介して指定された文字を基に当該文字の輪郭を示すアウトラインデータを得、当該アウトラインデータを基に文字の輪郭によって囲まれたフェイスデータ、文字の輪郭を強調するためのエッジデータ及び文字の奥行きを示すシャドウデータを生成し、当該フェイスデータ、エッジデータ及びシャドウデータを合成することにより、外部から供給される編集対象の映像に応じた3次元文字データを生成すると共に、当該生成された3次元文字データに応じた画像を、キーボード27を介して文字が指定されることに連動してディスプレイ21に表示する。
【0053】
以上の構成によれば、ユーザからキーボード27を介して指定される文字のアウトラインデータを基にフェイスデータ、エッジデータ及びシャドウデータを生成し、これらを合成して3次元文字を生成すると共に、当該生成された3次元文字をキーボード27を介して文字が指定されることに連動してディスプレイ21に表示することにより、従来のように汎用のCG制作用アプリケーションプログラムを用いて3次元文字を生成する場合に比して、ユーザがキーボード27を介して文字を指定するだけの簡単な操作で迅速に3次元文字を生成することができ、かくして従来に比して一段と操作性を向上し得る映像タイトル生成装置を実現できる。
【0054】
(2)ポリゴンモデル生成手順
ここでは図4におけるポリゴンモデル生成ステップ(SP5)について具体的に説明する。まず始めにCPU3によって3次元文字を生成する3次元文字生成手順について説明する。まずステップSP15から入ったステップSP16において、CPU3は、ユーザの入力操作に応じた文字コード情報に基づいて、HDD19(図1)に記録されているオペレーティングシステムから直線と曲線の組合せでなるフォントデータを読み出す。因みに、このフォントデータは、閉ループの集合でなり、文字によってそのループ数は異なる。文字を形成するループは、外側のループから内側のループの順に塗りつぶされる空間と空白の空間とが交互に繰り返されている。
【0055】
ステップSP17において、CPU3は、読み出したフォントデータに応じた文字データのうちの曲線部分のデータに曲率を指定し、直線の座標データを算出することにより、文字データを頂点データとして扱う。ここで扱われる曲線は、次式
【0056】
【数1】
【0057】
によって定義され、任意のポイントに分割される。ここでポイントA及びCは曲線上のポイントを示し、ポイントBは曲線を分割するためのコントロールポイントを示す。
【0058】
続いてステップSP18において、CPU3は、上述の各頂点データにおける法線ベクトルを算出し、ステップSP19に移って、これら各頂点データと法線ベクトルとをフォントデータとして一括して保持する。ステップSP20において、CPU3は、算出した頂点データに基づいてスキャンライン用線分配置表と呼ばれるポリゴン生成のたの3角形分割用テーブルを作成する。
【0059】
ここでスキャンライン用線分配置表の作成方法について図8を用いて具体的に説明する。図8(A)は、文字「Z」における全頂点間の線分に線分番号を付加したことを示し、図8(B)は、各頂点が存在するY座標の数値をインデックスとして作成したスキャンライン用線分配置表を示す。このスキャンライン用線分配置表は、任意のY座標を基準として、+Y方向に向かってそのY座標が始点となっている線分データをフロム(From)データとし、+Y方向に向かってそのY座標が終点となっている線分データをトゥ(To)データとし、そのY座標を通過する線分データをスルー(Through )データとしている。このスキャンライン用線分配置表では、例えばY=5の線分データに着目すると、線分データ「3、7、8」がフロムデータとして登録され、線分データ「4、6、8」がトゥデータとして登録され、スルーデータには該当する線分データが存在しない。
【0060】
図7に戻って、ステップSP21において、CPU3は、作成したスキャンライン用線分配置表を用いて、文字データに対してポリゴン生成のための3角形分割処理を施すことにより、フェイス表面ポリゴンを生成する。CPU3は、各頂点間を結ぶ線分のうち所望の線分に着目し、当該着目した線分がポリゴンを分割する分割線になり得るか否か判断する。すなわちCPU3は、着目した線分が他の全ての線分と交差していないか否か判定し、その結果、交差していないと判断された場合には、さらに当該線分がポリゴン内を通る線分か否かを判定し、その結果、ポリゴン内を通ると判定された場合には、当該線分を3角形分割のための分割線と決定する。以下、CPU3は、全ての線分について同様の処理を行うことにより、3角形分割のための分割線のリストを生成する。
【0061】
例えば図9を用いて頂点P2から頂点P4に向かう線分L1が分割線になるか否かを判定する場合について説明する。まずCPU3は、Y=5の線分データに着目し、座標Xの値が小さい順にフロムデータに該当する線分データ「3、8」を並べる。その際、トゥデータ及びフロムデータ両方に登録されている線分データは除く。そしてCPU3は、頂点P4のX座標値が線分データ「3」のX座標値以上であってかつ線分データ「8」のX座標値以下であるか否か判定し、その結果、頂点P4のX座標値が上述の範囲内に存在すると判断し、次にY=26の線分データに着目する。CPU3は、座標Xの値が小さい順にトゥデータに該当する線分データ「3、8」を並べる。その際、トゥデータ及びフロムデータ両方に登録されている線分データは除く。そしてCPU3は、頂点P2のX座標値が線分データ「3」のX座標値以上であってかつ線分データ「8」のX座標値以下であるか否か判定し、その結果、頂点P2のX座標値が上述の範囲内に存在しないと判断し、当該線分L1がポリゴン内を通る線分ではないと判断する。
【0062】
図7に戻って、ステップSP22において、CPU3は、スキャンライン用線分配置表を用いて、着目する閉ループの線分を挟む2つの空間のうちのどちら側をポリゴンとするかを判定して文字のフェイス部分を判断することにより、奥行き方向のポリゴンの法線ベクトルすなわちフェイス奥行きポリゴンの表方向を特定する。次にステップSP23において、CPU3は、全ての頂点データに所望の長さの奥行きのポリゴンを生成すると共に、各頂点にステップSP22で特定した法線ベクトルを付加することによりフェイス奥行きポリゴンを生成する。ステップSP24において、CPU3は、全ての頂点データから奥行きの長さを減算した値を背面ポリゴンのZ座標値とすることにより、−Z方向の法線ベクトルを有するフェイス背面ポリゴンを生成する。
【0063】
続いて、上述の手順に従って生成されたフェイスポリゴンモデルに対して施される文字の輪郭を強調するためのエッジモデルを生成する生成手順を図10に示すフローチャートを用いて説明する。ステップSP30から入ったステップSP31において、立体要素生成手段としてのCPU3は、文字の輪郭を形成する各頂点毎の座標値、法線ベクトルを利用して拡大又は縮小方向の単位ベクトルを生成して保持する。
【0064】
例えば拡大方向の単位ベクトルを生成する手法について図11を用いて説明する。文字Zの全ての頂点は、頂点の座標及び法線ベクトルでなる頂点データと当該頂点の前後に位置する頂点の頂点データとに基づいて2つの拡大方向のベクトルを生成することができる。すなわち文字Zでは、着目した頂点の下方の頂点データを用いて作成されたベクトルをベクトルBaとすると共に、上方の頂点データを用いて作成されたベクトルをベクトルBbとする。これらベクトルBa及びBbは、いずれも文字の輪郭を構成する線分から垂直方向に延びるベクトルである。これら2つのベクトルBa及びBbと垂直に交わる補助線La及びLbをそれぞれ生成すると、これら生成された補助線La及びLbが拡大された輪郭となり、当該補助線La及びLbが交わる交点Paに対して原点から引かれたベクトルを拡大方向のベクトルBcとする。以下、同様にして全頂点について拡大及び縮小方向の単位ベクトルを生成して保持する。
【0065】
ステップSP32において、CPU3は、拡大及び縮小する大きさを示す拡大縮小係数を、予めユーザによって指定された値に基づいて決定して登録することにより、当該登録した値を用いて実際のエッジポリゴンモデルの頂点位置を決定する。ステップSP33において、CPU3は、生成された拡大及び縮小方向の単位ベクトルから拡大縮小係数に応じてエッジポリゴンモデルの頂点位置を決定する際、原点からエッジポリゴンモデルの頂点位置に引かれた拡大縮小方向ベクトルのうち隣接する拡大縮小方向ベクトルが交差するか否か判断する。その結果、CPU3は、隣接する拡大縮小方向ベクトルが交差すると判定された場合にはステップSP34に移行し、交差しないと判定された場合にはステップSP35に移行する。
【0066】
ステップSP34において、CPU3は、隣接する拡大縮小方向ベクトルが交差しないように拡大縮小方向ベクトルの再計算を行い、これにより凹ポリゴンが発生したり、図7に示すような3次元文字生成アルゴリズムが破綻することを回避している。例えば図12に示すように、CPU3は、文字bの頂点Pbにおける拡大方向ベクトルB1のように、複数の拡大方向ベクトルB4及びB5と交差する場合、交差しない拡大方向ベクトルB2を検索する。そしてCPU3は、当該検索された拡大方向ベクトルB2の直交する線分LB2及びLB3の交点を、交差していた拡大方向ベクトルB1、B4及びB5の頂点とすることにより、各拡大方向ベクトルB1、B4及びB5が交差することを回避させる。
【0067】
またCPU3は、文字Oの内部の空白部分のように、エッジの大きさをきめる係数を大きくした際に、完全に空間を閉塞させてしまう場合がある。この場合、CPU3は、拡大方向ベクトルがないものとみなして元のキャラクタの輪郭の頂点をエッジの頂点として扱うこととする。
【0068】
ステップSP36において、CPU3は、エッジ用に作成した頂点及びキャラクタの輪郭データを用いて図8に示すようなスキャンライン用線分配置表を作成する。ステップSP37において、CPU3は、エッジの頂点座標及び法線ベクトルを利用して奥行きポリゴンを生成し、次のステップSP38において、作成したエッジ背面部分に相当するエッジ背面ポリゴンを生成する。因みに、エッジの種類によって表面と背面の拡大及び縮小係数が異なる場合があるので、表面ポリゴンと同様の処理を行う必要がある。
【0069】
以上の構成において、CPU3は、キーボード27を介して指定された文字を基に当該文字の輪郭を示すアウトラインデータD1を得、当該アウトラインデータD1に基づいてフェイスポリゴンモデルD3及びシャドウポリゴンモデルD5でなる3次元の文字データを生成すると共に、当該生成した文字データの輪郭に応じて当該輪郭を強調するためのエッジポリゴンモデルD5でなる3次元のエッジデータを生成する。そしてCPU3は、文字データにエッジデータを付加することによりポリゴンモデルD9でなる3次元文字データを生成し、当該3次元文字データに応じた画像をディスプレイ21に表示する。
【0070】
以上の構成によれば、キーボード27を介して指定された文字を基に3次元の文字データを生成すると共に、当該生成した文字データの輪郭に応じて当該輪郭を強調するための3次元のエッジデータを生成し、その文字データにエッジデータを付加して3次元文字データを生成することにより、当該3次元文字データに応じた3次元文字を当該3次元文字の背景となる編集対象の映像に重ねて表示する際、当該背景の色と3次元文字のエッジ部分の色とを異なる色に指定すれば、3次元文字と背景との間の境界を強調することができ、かくして3次元文字の映像タイトルを編集対象の映像上に確実に表示し得る。
【0071】
(3)アプリケーションプログラムに組み込まれているカラーピッカーによる色選択手順
ここでは図4のマテリアル設定ステップ(SP6)で行われるカラーピッカーによる色選択手順について図13に示すフローチャートについて具体的に説明する。なお、この色選択を行うためのカラーピッカーは、映像タイトルを生成するためのアプリケーションプログラムに組み込まれているものである。まずステップSP44から入ったステップSP45において、CPU3は、図3に示すGUI画面60のようにエッジ・シャドウ設定メニュー76が選択されている場合、ユーザの操作に応じてマテリアル設定メニュー74が選択されると、図14に示すようなカラーピッカー120をGUI画面60に表示する。このカラーピッカー120は、その中央付近に色選択操作部122を表示し、当該色選択操作部122に大まかな色見本を表示している。
【0072】
ステップSP46において、CPU3は、ユーザの操作に応じて、カラーピッカー120の色選択操作部122に表示されている色見本の中から所望の色に最も近い色の部分にマウスポインタ124を移動し、マウスボタン(図示せず)をクリックした状態に保持(以下、これをホールドと呼ぶ)する。ステップSP47において、CPU3は、ユーザの操作に応じて、例えばマウス31の右ボタンに予め設定されている拡大キーを押圧し、当該拡大キーを押圧したままの状態で保持する。
【0073】
そしてステップSP48において、CPU3は、拡大ウィンドウ126を表示し、当該拡大ウィンドウ126にマウスポインタ124によって指定された部分の周辺の色見本を十分な解像度で拡大表示する。ステップSP49において、CPU3は、ユーザの操作に応じて、拡大ウィンドウ126に表示された色見本の中から所望の色の部分にマウスポインタ124を移動してホールド状態を解除することにより色を確定し、当該確定した色を画像編集画面としてのシーンウィンドウ62上の3次元文字に施す。次にステップSP50において、CPU3は、ユーザの操作に応じて、拡大キーの押圧が解除されると、ステップSP51において、拡大ウィンドウ126がGUI画面60から消去される。次にステップSP52に移って処理を終了する。
【0074】
以上の構成において、CPU3は、カラーピッカー120の色選択操作部122の一部を必要に応じて高い解像度で拡大ウィンドウ126に拡大表示することにより、カラーピッカー120の表示面積を大きくすることなく、現存する全ての色を表示する。
【0075】
以上の構成によれば、カラーピッカー120の色選択操作部122の一部を必要に応じて拡大表示することにより、カラーピッカー120の表示面積を大きくすることなく、現存する全ての色を表示することができ、かくして従来の視認性を維持しながら所望の色を選択し得る。
【0076】
(4)グループプロパティダイアログによる色選択手順
ここでは図4のマテリアル設定ステップ(SP6)で行われるグループプロパティダイアログによる色選択手順について図16に示すフローチャートを用いて具体的に説明する。なお、この色を選択するための色選択ダイアログは、オペレーティングシステムに組み込まれているものである。
【0077】
まずステップSP60から入ったステップSP61において、CPU3は、図3に示すGUI画面60を表示している状態で、ユーザの操作入力に応じてグループプロパティ設定ボタン71がクリックされると、ステップSP162に進んで、図17に示すようなグループプロパティダイアログ130を表示する。
【0078】
このグループプロパティダイアログ130は、図5に示すポリゴンモデルD9(図5)のうち、フェイスポリゴンモデルD3の色を設定するための色設定ボタン132及び当該フェイスポリゴンモデルD3のグラデーション(階調)を設定するための色設定ボタン133、シャドウポリゴンモデルD7の色を設定するための色設定ボタン134及び当該シャドウポリゴンモデルD7のグラデーションを設定するための色設定ボタン135、エッジポリゴンモデルD5の色を設定するための色設定ボタン136及び当該エッジポリゴンモデルD5のグラデーションを設定するための色設定ボタン137、シーンウィンドウ62(図3)に表示されるポリゴンモデルD9の影の色を設定するための色設定ボタン138及び当該影のグラデーションを設定するための色設定ボタン139を表示している。これら色設定ボタン132〜139は、それぞれボタン上に現在設定されているRGBの各パラメータ値を表示している。
【0079】
ステップSP63において、CPU3は、ユーザの入力操作に応じて、色設定ボタン132〜139のうち、色を変更する対象のポリゴンモデルの色設定ボタンをクリックすると、ステップSP64に進んで、図18に示すような色選択ダイアログ145を表示する。ステップSP65において、CPU3は、色選択ダイアログ145を表示している状態で、ユーザの入力操作に応じて基本色147の中から所望の色を選択した後、OKボタン149をクリックすることにより指定したポリゴンモデルの色を決定する。
【0080】
ステップSP66に進んで、CPU3は、色選択ダイアログ145を閉じ、グループプロパティダイアログ130を表示すると共に、当該グループプロパティダイアログ130のうち、選択された色設定ボタン132〜139の各パラメータ値を設定されたパラメータ値に変更して表示する。この状態において、CPU3は、ユーザの入力操作に応じてOKボタン151がクリックされると、グループプロパティダイアログ130を閉じ、シーンウィンドウ62(図3)に表示されている3次元文字に色を施す。次にステップSP67に移って処理を終了する。
【0081】
以上の構成において、グループプロパティダイアログ130は、色設定ボタン132〜139上に現在設定されているRGBの各パラメータ値を表示することにより、従来のように色設定ボタンを表示する領域とは別の領域にパラメータ値を表示する場合に比して、限られたグループプロパティダイアログ130の表示領域を有効に利用している。
【0082】
以上の構成によれば、色選択ダイアログ145を表示するための色設定ボタン132〜139上に現在設定されているRGBの各パラメータ値を表示することにより、従来のように色設定ボタンを表示する領域とは別の領域にパラメータ値を表示する場合に比して、限られたグループプロパティダイアログ130の表示領域を有効に利用することができ、かくして従来に比して一段と効率的な表示画面を生成し得る。
【0083】
(5)透視投影変換
ここでは図4のパース設定ステップ(SP7)で行われる透視投影変換手順について図19に示すフローチャートを用いて具体的に説明する。まずステップSP75から入ったステップSP76において、CPU3は、ユーザの入力情報に応じて、ポリゴンモデルD9(図5)からなる文字列に対して個別に透視投影変換を行う(以下、これをマルチパースと呼ぶ)指定があったか否かを判定し、その結果、マルチパース指定があったと判断した場合にはステップSP77に移行し、マルチパース指定がなかったと判断した場合にはステップSP78に移行する。
【0084】
ステップSP77において、CPU3は、マルチパース指定があった文字列に対してパース設定を行うことにより透視投影変換を施し、その際、当該透視投影変換された文字列を枠無しウィンドウと呼ばれる表示領域内に表示する。ステップSP78に進んで、CPU3は、シーンウィンドウ62全体に対してパース設定を行うことにより、マルチパース指定を受けなかった文字列に対してパース設定を行って透視投影変換を施す。
【0085】
図20は、マルチパース指定対象外の文字列160〜162を表示することに加えてマルチパース指定対象の文字列163及び164を枠無しウィンドウ163W及び164Wに表示したシーンウィンドウ62を示す。枠無しウィンドウ163W及び164Wの大きさは、文字列が透視投影変換されたときのシーンウィンドウ62の大きさを基に、当該透視投影変換された文字列を包含する最も小さい直方体によって決定される。このシーンウィンドウ62上の大きさは、一度シーンウィンドウ62に描画処理を最後まで実行しないと得られないので、1回目の描画処理によって決定された大きさを基準として、2回目以降の描画処理において必要最小限の大きさを算出していく。
【0086】
図20との対応部分に同一符号を付して示す図21は、マルチパース指定対象外の文字列162及びマルチパース指定対象の文字列164を上方に移動させるアニメーション処理を示す。その際、マルチパース指定対象外の文字列162は、視点に対する文字列の位置を移動している一方、マルチパース指定対象の文字列164は、透視投影変換による変化がない。このようにシーンウィンドウ62では、枠無しウィンドウがない状態で表示されている文字列162のアニメーション処理と枠無しウィンドウ164Wの表示位置の変更という2種類のアニメーション処理を行い得る。
【0087】
以上の構成において、CPU3は、仮想3次元空間中に生成した3次元文字でなる映像タイトルを文字列毎に個別に透視投影変換を行ってシーンウィンドウ62に表示することにより、映像タイトルを構成する複数種類の3次元文字列をそれぞれ独立した空間に存在するように表示する要求がある場合、従来のように複数種類の3次元文字列をそれぞれ個別に透視投影変換した画面を合成するような手間が必要ない。またCPU3は、複数の異なる種類の透視投影変換が施された3次元文字列を同一のシーンウィンドウ62上に表示し、ユーザの要求に応じて3次元文字列が存在する空間内で当該3次元文字列を移動させたり、3次元文字列が存在する空間を当該3次元文字列と共に移動させることにより、ユーザの要求に応じたアニメーションが作成される。
【0088】
以上の構成によれば、仮想3次元空間中に生成した3次元文字でなる映像タイトルを文字列毎に個別に透視投影変換を行ってシーンウィンドウ62に表示することにより、ユーザの要求に応じてそれぞれ独立した空間内に存在する3次元文字列でなる映像タイトルを容易に生成することができ、かくして従来に比して一段とユーザの使い勝手を向上し得る。
【0089】
(6)3次元文字の回転動作
ここでは図4に示すフローチャートの描画ステップ(SP9)が終了した後に必要に応じて行われる3次元文字の回転動作手順について図22に示すフローチャートを用いて説明する。まずステップSP85から入ったステップSP86において、CPU3は、ユーザの操作入力に応じて、シーンウィンドウ62に表示されている映像タイトルのうち所望の3次元文字上でマウス31の左ボタン(図示せず)がダブルクリックされると、当該3次元文字を選択状態にする。
【0090】
ステップSP87において、CPU3は、ユーザの操作入力に応じて、回転軸スイッチ69に表示されている回転軸すなわちX軸、Y軸及びZ軸のうちの所望のものがマウス31によってクリックされると、当該クリックされた回転軸を選択する。次にステップSP88において、CPU3は、ユーザの操作入力に応じて、選択状態にある3次元文字に対してマウス31の左ボタンが押圧されると、当該3次元文字の回転を開始させ、ステップSP89に進んで、マウス31の左ボタンを押した状態で移動(以下、これをドラッグと呼ぶ)させることにより、現在選択されている回転軸における3次元文字の回転角度を調整する。
【0091】
ステップSP90において、CPU3は、ユーザの入力操作に応じてマウス31の左ボタンが解放されたか否か判断し、その結果、解放されたと判断した場合にはステップSP91に移って、選択された3次元文字の表示状態を決定して処理を終了し、解放されていないと判断した場合にはステップSP92に移る。
【0092】
ステップSP92において、CPU3は、ユーザの入力操作に応じて、マウス31の右ボタンが押圧されたか否か判断し、その結果、右ボタンが押圧されていないと判断した場合にはステップSP89に戻って動作を繰り返す。ステップSP93において、CPU3は、回転軸をX軸、Y軸、Z軸、X軸、……という順序で順次切り替えた後、ステップSP89に戻って当該切り替えられた回転軸の回転角度を調整する。
【0093】
以上の構成において、CPU3は、マウス31の左ボタンを押圧してドラッグさせながら所望の回転軸における3次元文字の回転角度を調整している状態において、当該回転軸における回転角度の調整が終了した場合にはマウス31の右ボタンを押圧することにより、予め決められている順序に従って回転角度を調整するための回転軸を切り替える。これにより従来のように回転軸スイッチ69の中から所望の回転軸を選択するような操作を行わずに回転軸が切り替えられる。
【0094】
以上の構成によれば、マウス31の右ボタンを押圧する毎に予め決められた順序に従って回転軸を順次切り替えることにより、従来のように回転軸スイッチ69の中から所望の回転軸を選択する場合に比して簡単に回転軸を選択することができ、かくして従来に比して一段と容易に3次元文字の回転動作を行うことができる。
【0095】
(7)アニメーションデータの作成及び管理
ここでは図4に示すフローチャートの描画処理ステップ(SP9)が終了した後に必要に応じて行われる3次元文字のアニメーションデータ作成及びその管理方法について説明する。映像タイトル生成装置1は、生成した映像タイトルに滑らかな動きを付加するアニメーション手法として、まず複数の基準となるフレーム(以下、これをキーフレームと呼ぶ)を用意し、当該キーフレーム間に各キーフレームにおける3次元文字の位置を直線又は曲線で補間してなる画像を複数挿入することによりアニメーションデータを生成するようなキーフレームアニメーションと呼ばれる手法を採用している。
【0096】
以下、このキーフレームアニメーション作成手順について図23に示すフローチャートを用いて説明する。ステップSP100から入ったステップSP101において、CPU3は、図4に示すポリゴンモデル生成手順を順次繰り返すことにより3次元文字を作成する。ステップSP102において、CPU3は、ユーザの入力操作に応じて上述の3次元文字に対して移動、拡大縮小及び回転などの画像処理を施すことにより動画像を作成する。
【0097】
次にステップSP103において、CPU3は、ユーザの入力操作に応じて図3に示すGUI画面60においてキーフレーム追加ボタン90がクリックされると、図2に示すGUIオブジェクト42からドキュメント・オブジェクト48に対して現在の3次元文字の表示状態をメッセージ情報M2として送出させ、ステップSP104に進んで、CPU3は、ドキュメント・オブジェクト48において採用されている図24に示すようなシーングラフと呼ばれる階層データ構造の各ノードにアニメーションデータを追加するようになされている。その際、CPU3は、アニメーション動作するノードに対してのみデータを追加し、アニメーション動作しないノードに対してはデータを追加しないようになっている。
【0098】
具体的には図24に示すように、シーングラフ170は、ページノード171、レイヤノード172、グループノード173、マテリアルノード174、トランスレートノード175、スケールノード176、ローテートノード177及びモデルノード178によって構成されている。
【0099】
ページノード171は、動画像全体に関する情報を保持し、レイヤノード172は、レイヤに関する情報を保持し、グループノード173は、グループに関する情報を保持する。マテリアルノード174は、ポリゴンモデルの色や質感に関する情報を保持し、トランスレートノード175は、ポリゴンモデルの仮想3次元空間内での位置に関する情報を保持する。スケールノード176は、ポリゴンモデルの拡大縮小率に関する情報を保持し、ローテートノード177は、ポリゴンモデルの回転状態に関する情報を保持し、モデルノード178は、フォントや文字データ等の表示モデル自身の特性に関する情報を保持する。
【0100】
以上の構成において、CPU3は、キーフレームに対してアニメーション動作する3次元文字のデータのみを記憶させていくことにより、従来のように映像タイトル全体を動画像として各フレームの3次元文字データを全て記憶する場合に比して記憶対象のデータ量を削減している。またCPU3では、静止画像と動画像とを同一のデータ構造で管理していることから、従来のように静止画像と動画像とを別々に管理する場合に比して映像タイトルの管理が単純化される。
【0101】
以上の構成によれば、基準となる静止画像に対してアニメーション動作する領域の画像データのみを順次記憶していくことにより、各フレームの全ての画像データを記憶する場合に比して記憶対象のデータのデータを削減することができ、かくして従来に比して一段と効率的に画像データを管理し得る。
【0102】
(8)映像タイトル送出手順
ここでは映像タイトルの生成、編集及び送出にかかわる一連の作業について説明する。以下、図25に示すフローチャートを用いて映像タイトルの送出手順について具体的に説明する。ステップSP110から入ったステップSP111において、CPU3は、ユーザの入力操作に応じてキーボード27から所望の文字が指定されると、当該文字に応じた3次元文字をグラフィックスアクセラレータ13(図1)を介してディスプレイ21(図1)に瞬時に表示する。
【0103】
ステップSP112において、CPU3は、ユーザの入力操作に応じて、位置、大きさ及びマテリアル等の各種属性値が設定されると、当該設定された属性値に応じた3次元文字をグラフィックスアクセラレータ13(図1)を介してディスプレイ21(図1)に瞬時に表示する。このように映像タイトル生成装置1では、キーボード27(図1)からユーザによって入力情報が入力されると、当該入力情報に応じた3次元文字を即座にディスプレイ21に表示することができることから、ユーザはインタラクティブ(対話的)に入力結果を確認しながら編集作業を行うことができる。
【0104】
ステップSP113において、CPU3は、ユーザの操作入力に基づいて編集作業を終了するか否か判断し、その結果、ディスプレイ21に表示されている3次元文字にさらに修正を加える必要があると判断した場合にはステップSP111に戻って編集作業を継続し、編集作業を終了すると判断した場合にはステップSP114に移行する。
【0105】
ステップSP114において、CPU3は、グラフィックスアクセラレータ13から映像タイトルをフレームバッファに供給し、当該映像タイトルと外部から供給された映像とを合成してモニタ23に出力して表示する。次にステップSP115に移って処理を終了する。
【0106】
以上の構成において、CPU3は、ユーザの入力操作に応じて生成された3次元文字をグラフィックスアクセラレータ13を介して当該3次元文字に応じた映像合成用の画像に変換してディスプレイ21に即座に表示することにより、ユーザは入力結果をインタラクティブに確認しながら編集作業を行う。またCPU3は、ユーザの操作入力に応じてグラフィックスアクセラレータ13からフレームバッファ15に映像タイトルを転送して当該フレームバッファ15によって映像タイトルと編集対象の映像とを合成してモニタ23に出力して表示することにより、送出作業にかかる手間や時間が削減される。
【0107】
以上の構成によれば、ユーザの操作入力に応じた3次元文字でなる映像タイトル用の画像を即座にディスプレイ21に表示すると共に、送出の際にはグラフィックスアクセラレータ13からフレームバッファ15に映像タイトルデータを転送して当該フレームバッファ15によって映像タイトルと外部から供給される映像とを合成してモニタ23に表示することにより、従来のように3次元文字の生成、編集及び送出にかかわる作業を削減することができ、かくして従来に比して一段と使い勝手を向上し得る。
【0108】
(9)他の実施の形態
なお上述の実施の形態においては、マウス31の右ボタンを拡大キーとした場合について述べたが、本発明はこれに限らず、キーボード27上の任意のキーを拡大キーとしても良い。
【0109】
また上述の実施の形態においては、基本色147の中から所望の色を選択するようにした場合について述べたが、本発明はこれに限らず、図18に示すように、基本色147に比して詳細な色見本を表示している色表示領域153の中から所望の色見本を選択するか、又は色パラメータ設定領域155において数値を設定することによって色を設定するようにしても良い。
【0110】
また上述の実施の形態においては、色設定ボタン132〜139上にRGBのパラメータ値を表示するようにした場合について述べたが、本発明はこれに限らず、例えばH(Hue )L(Luminance )S(Saturation)のように、他の種々のパラメータ値を表示するようにしても良い。
【0111】
さらに上述の実施の形態においては、指定された文字に応じた3次元文字を生成した場合について述べたが、本発明はこれに限らず、例えば図形のような他の種々の表示要素を立体化する表示要素立体化装置に本発明を広く適用し得る。
【0112】
【発明の効果】
上述のように本発明によれば、表示手段に表示され、色が選択されるべき色選択対象画像を含む画像編集画面におけるメニューボタンが選択されると、0から255で表される各RGBパラメータ値が各頂点において255でなる3角形状の全色でなる色見本を有する色選択画面を画像編集画面に重畳して表示させると共に、当該色選択画面から入力手段の移動に伴って変位する指示子を色選択画面内に表示させる表示制御手段と、入力手段が有するボタンの押圧が解除されたときに指示子が位置する色見本を色選択対象画像の色として選択する色選択手段とを設け、表示制御手段は、ボタンが押圧されている間に亘って指定された色見本の周辺を拡大した拡大画像を色選択画面内に表示させると共に、指示子が位置する色見本のRGBパラメータ値を色選択画面内に表示させることにより、色選択画面の表示領域全体を大きくすることなくユーザの要求に応じた色見本を提供することができ、かくして従来に比して一段と使い勝手を向上し得る。
【図面の簡単な説明】
【図1】本発明による映像タイトル生成装置の一実施の形態を示すブロック図である。
【図2】アプリケーションプログラムの構成の説明に供する略線図である。
【図3】GUI画面の説明に供する略線図である。
【図4】CPUによるポリゴンモデル生成手順を示すフローチャートである。
【図5】ポリゴンモデル生成の説明に供する略線図である。
【図6】パースの設定の説明に供する略線図である。
【図7】3次元文字生成手順を示すフローチャートである。
【図8】スキャンライン用線分配置表の作成の説明に供する略線図である。
【図9】ポリゴン生成のための3角形分割処理の説明に供する略線図である。
【図10】エッジ生成手順を示すフローチャートである。
【図11】拡大方向の単位ベクトルの生成の説明に供する略線図である。
【図12】拡大方向ベクトルの再計算の説明に供する略線図である。
【図13】カラーピッカーによる色選択手順を示すフローチャートである。
【図14】カラーピッカーの表示画面の説明に供する略線図である。
【図15】カラーピッカーの表示画面の説明に供する略線図である。
【図16】グループプロパティダイアログによる色選択手順を示すフローチャートである。
【図17】グループプロパティダイアログの表示画面の説明に供する略線図である。
【図18】色選択ダイアログの表示画面の説明に供する略線図である。
【図19】透視投影変換手順を示すフローチャートである。
【図20】マルチパース指定されたときのシーンウィンドウの説明に供する略線図である。
【図21】マルチパース指定されたときのシーンウィンドウの説明に供する略線図である。
【図22】3次元文字の回転動作手順を示すフローチャートである。
【図23】キーフレームアニメーション作成手順を示すフローチャートである。
【図24】シーングラフの説明に供する略線図である。
【図25】映像タイトル送出手順を示すフローチャートである。
【符号の説明】
1……映像タイトル生成装置、3……CPU、5……システムコントローラ、7……メモリ、9……キャッシュ、11……I/Oコントローラ、13……グラフィックスアクセラレータ、15……フレームバッファ、17……ハードディスクコントローラ、19……HDD、21……ディスプレイ、23……モニタ、25……キーボードコントローラ、27……キーボード、29……マウスコントーラ、31……マウス。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method, and is suitably applied to, for example, a video title generation apparatus that generates a video title for display on a video.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in a video title generation apparatus that generates a video title to be displayed overlaid on a video, when the video title is displayed in 3D, image processing that adds a shadow to the generated 2D characters is performed in 2D. Therefore, the two-dimensional characters can only be displayed in a pseudo three-dimensional manner. Therefore, when it is desired to generate a three-dimensional video title, it is generated using a CG (Computer Graphics) production application comprising an algorithm called a three-dimensional modeling system.
[0003]
[Problems to be solved by the invention]
By the way, in such a three-dimensional modeling system, when a color is generated on a generated three-dimensional character, a color selection window for selecting a color is displayed according to a user operation, and the color selection window is displayed. By selecting a desired color from among the existing colors, the selected color is applied to the three-dimensional character. However, in this three-dimensional modeling system, the color selection window cannot be displayed on a display sufficiently large due to the size of the display screen and design restrictions, and sufficient resolution cannot be ensured. As described above, in the conventional 3D modeling system, the color selection window may not be able to display the color selection window because the resolution of the color selection window is not sufficient. In this case, even if the existing color is a color, There is a disadvantage that there are colors that cannot be selected from the selection window.
[0004]
As a solution to such an inconvenience, a three-dimensional modeling system in which a display area for displaying a color selection window is enlarged and sufficient resolution for displaying all existing colors can be considered. However, in such a 3D modeling system, the display area of the color selection window becomes too large, and other windows cannot be displayed at the same time, and the design of the graphical user interface displayed on the display is impaired. It will occur anew.
[0005]
The present invention has been made in consideration of the above points, and an object of the present invention is to propose an image processing apparatus and method that can further improve the usability as compared with the prior art.
[0006]
[Means for Solving the Problems]
In order to solve such a problem, in the image processing apparatus of the present invention, when a menu button on the image editing screen that is displayed on the display unit and includes the color selection target image to be selected is selected, 0 to 255 are displayed. A color selection screen having a color sample composed of all triangular colors of which each RGB parameter value is 255 at each vertex is displayed superimposed on the image editing screen, and the input means moves from the color selection screen. Display control means for displaying an indicator that displaces in a color selection screen; Input means has Color selection means for selecting the color sample where the indicator is located when the button is released as the color of the color selection target image, and the display control means , Bo While the button is pressed, an enlarged image that enlarges the periphery of the specified color sample is displayed in the color selection screen, and the RGB parameter value of the color sample in which the indicator is located is displayed in the color selection screen. I will let you.
[0007]
When a desired color sample is specified from the color selection screen via the input means, the periphery of the specified color sample is enlarged and displayed in detail, and the desired color sample is selected from the displayed color samples. By making the selection, it is possible to provide a color sample according to the user's request without increasing the display area of the color selection screen.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0009]
(1) Configuration of video title generation device
In FIG. 1, reference numeral 1 denotes a video title generation apparatus as a whole, which is configured to generate a video title in accordance with a user operation and display the video title superimposed on the video. A CPU (Central Processing Unit) 3 is for performing control of the entire video title generation device 1 and predetermined arithmetic processing, and is stored in the
[0010]
The
[0011]
Further, the
[0012]
The
[0013]
The
[0014]
When the
[0015]
As shown in FIG. 2, the
[0016]
The
[0017]
When the message information M1 is given from the
[0018]
A document object 48 serving as a storage control means holds operations and various parameters defined in the
[0019]
FIG. 3 shows a
[0020]
By the way, when a character is input from the keyboard 27 (FIG. 1), the
[0021]
Further, the
[0022]
Next, an operation for translating the display position of the character input to the
[0023]
Subsequently, on the
[0024]
Next, an operation for changing the display position of the character input to the
[0025]
After that, the
[0026]
Further, the
[0027]
Next, among the operations performed on the
[0028]
In response to this, the
[0029]
Next, when a drag operation is performed on the selected group in accordance with a user input operation, the
[0030]
Next, an operation for changing a character display font (typeface) will be described. When a desired group is double-clicked according to a user's input operation, the
[0031]
Next, an operation for changing a material attribute indicating an attribute related to the material and texture of the character surface will be described. First, when a desired group is double-clicked according to a user's input operation, the
[0032]
Next, a description will be given of an operation for adding a border, that is, an edge to a character. The
[0033]
The
[0034]
Next, operations for controlling pages and layers among operations performed on the
[0035]
In addition, when a new
[0036]
The user can perform an editing operation only on the page displayed in the scene window 62 (hereinafter referred to as the current page). When a thumbnail image indicating a desired page is clicked from the page list displayed on the page selector 78 in response to a user input operation, the
[0037]
Next, operations related to layers will be described. Here, the layer is a concept introduced for the purpose of improving the efficiency of editing work by supervising, classifying, and processing a plurality of groups. A plurality of layers (layers) exist in the page, and one page is generated by superimposing the layers. In the
[0038]
In the
[0039]
Next, an operation for changing the illumination setting will be described. Here, the illumination is an object designed to exhibit a behavior similar to that in the real world, and exists in the virtual three-dimensional space displayed in the
[0040]
When the
[0041]
Finally, of the operations performed on the
[0042]
Next, an operation for sending a moving image of the current page will be described. When a desired page is selected from the page selector 78 in response to a user input operation, the
[0043]
In this state, when the
[0044]
Here, a procedure for generating a three-dimensional character composed of a plurality of polygons (hereinafter referred to as a polygon model) by the
[0045]
In step SP3, the
[0046]
In step SP5, the
[0047]
Next, the
[0048]
Returning to FIG. 4, in step SP <b> 6, the
[0049]
Specifically, as shown in FIG. 6 in which the same reference numerals are assigned to the corresponding parts in FIG. 3, the perspective setting is a viewing volume corresponding to the
[0050]
Returning to FIG. 4, in step SP <b> 8, the
[0051]
In this way, the
[0052]
In the above configuration, the
[0053]
According to the above configuration, the face data, the edge data, and the shadow data are generated based on the outline data of the character specified by the user via the
[0054]
(2) Polygon model generation procedure
Here, the polygon model generation step (SP5) in FIG. 4 will be specifically described. First, a three-dimensional character generation procedure for generating a three-dimensional character by the
[0055]
In step SP17, the
[0056]
[Expression 1]
[0057]
And is divided into arbitrary points. Here, points A and C indicate points on the curve, and point B indicates a control point for dividing the curve.
[0058]
Subsequently, in step SP18, the
[0059]
Here, a method of creating the scan line segment arrangement table will be specifically described with reference to FIG. FIG. 8 (A) shows that line segment numbers are added to the line segments between all vertices in the letter “Z”, and FIG. 8 (B) is created using the numerical value of the Y coordinate where each vertex exists as an index. A line segment arrangement table for scan lines is shown. In this scan line segment arrangement table, with any Y coordinate as a reference, the line segment data starting from the Y coordinate in the + Y direction is defined as From data, and the Y data in the + Y direction is displayed in the Y direction. The line segment data whose coordinate is the end point is To data, and the line data passing through the Y coordinate is Through data. In this scan line segment arrangement table, for example, focusing on Y = 5 segment data, segment data “3, 7, 8” is registered as from data, and segment data “4, 6, 8” is registered. It is registered as toe data, and the corresponding line segment data does not exist in the through data.
[0060]
Returning to FIG. 7, in step SP21, the
[0061]
For example, a case where it is determined whether or not the line segment L1 from the vertex P2 to the vertex P4 is a dividing line will be described with reference to FIG. First, the
[0062]
Returning to FIG. 7, in step SP22, the
[0063]
Next, a generation procedure for generating an edge model for emphasizing the outline of a character applied to the face polygon model generated according to the above-described procedure will be described with reference to the flowchart shown in FIG. In step SP31 entered from step SP30, the
[0064]
For example, a method for generating a unit vector in the enlargement direction will be described with reference to FIG. For all vertices of the letter Z, two vectors in the expansion direction can be generated based on vertex data consisting of vertex coordinates and normal vectors and vertex data of vertices located before and after the vertex. That is, in the letter Z, a vector created using the vertex data below the focused vertex is set as a vector Ba, and a vector created using the top vertex data is set as a vector Bb. Each of these vectors Ba and Bb is a vector extending in the vertical direction from the line segment constituting the outline of the character. When the auxiliary lines La and Lb that intersect perpendicularly with these two vectors Ba and Bb are generated, respectively, the generated auxiliary lines La and Lb become enlarged contours, and with respect to the intersection Pa where the auxiliary lines La and Lb intersect A vector drawn from the origin is set as a vector Bc in the enlargement direction. In the same manner, unit vectors in the enlargement and reduction directions are generated and held for all vertices.
[0065]
In step SP32, the
[0066]
In step SP34, the
[0067]
Further, the
[0068]
In step SP36, the
[0069]
In the above configuration, the
[0070]
According to the above configuration, the three-dimensional edge for generating the three-dimensional character data based on the character designated via the
[0071]
(3) Color selection procedure using the color picker built into the application program
Here, the color selection procedure by the color picker performed in the material setting step (SP6) of FIG. 4 will be specifically described with reference to the flowchart shown in FIG. The color picker for performing this color selection is incorporated in an application program for generating a video title. First, in step SP45 entered from step SP44, when the edge /
[0072]
In step SP46, the
[0073]
In step SP48, the
[0074]
In the above configuration, the
[0075]
According to the above configuration, a part of the color
[0076]
(4) Color selection procedure using group property dialog
Here, the color selection procedure by the group property dialog performed in the material setting step (SP6) of FIG. 4 will be specifically described with reference to the flowchart shown in FIG. The color selection dialog for selecting this color is incorporated in the operating system.
[0077]
First, in step SP61 entered from step SP60, the
[0078]
The
[0079]
In step SP63, when the
[0080]
Proceeding to step SP66, the
[0081]
In the above configuration, the
[0082]
According to the above configuration, the color setting buttons are displayed as in the conventional case by displaying the currently set RGB parameter values on the
[0083]
(5) Perspective projection transformation
Here, the perspective projection conversion procedure performed in the perspective setting step (SP7) of FIG. 4 will be specifically described with reference to the flowchart shown in FIG. First, in step SP76 entered from step SP75, the
[0084]
In step SP77, the
[0085]
FIG. 20 shows the
[0086]
FIG. 21, in which parts corresponding to those in FIG. 20 are assigned the same reference numerals, shows an animation process for moving a
[0087]
In the above configuration, the
[0088]
According to the above configuration, the video title composed of the three-dimensional characters generated in the virtual three-dimensional space is individually subjected to the perspective projection conversion for each character string and displayed on the
[0089]
(6) Three-dimensional character rotation
Here, the rotation operation procedure of the three-dimensional character performed as necessary after the drawing step (SP9) of the flowchart shown in FIG. 4 is completed will be described with reference to the flowchart shown in FIG. First, in step SP86 entered from step SP85, the
[0090]
In step SP87, when the
[0091]
In step SP90, the
[0092]
In step SP92, the
[0093]
In the above configuration, the
[0094]
According to the above configuration, when a desired rotation axis is selected from the rotation axis switch 69 as in the prior art by sequentially switching the rotation axes in accordance with a predetermined order each time the right button of the
[0095]
(7) Creation and management of animation data
Here, a description will be given of a method for creating and managing three-dimensional character animation data performed as necessary after the drawing process step (SP9) of the flowchart shown in FIG. The video title generation device 1 first prepares a plurality of reference frames (hereinafter referred to as key frames) as an animation method for adding a smooth motion to the generated video title, and each key between the key frames. A technique called key frame animation is adopted in which animation data is generated by inserting a plurality of images formed by interpolating the positions of three-dimensional characters in a frame with straight lines or curves.
[0096]
Hereinafter, the key frame animation creation procedure will be described with reference to the flowchart shown in FIG. In step SP101 entered from step SP100, the
[0097]
Next, in step SP103, when the key frame addition button 90 is clicked on the
[0098]
Specifically, as shown in FIG. 24, the
[0099]
The
[0100]
In the above configuration, the
[0101]
According to the above configuration, only the image data of the area in which the animation operation is performed with respect to the reference still image is sequentially stored, so that all the image data of each frame is stored as compared with the case where all the image data is stored. Data can be reduced, and thus image data can be managed more efficiently than in the past.
[0102]
(8) Video title transmission procedure
Here, a series of operations related to generation, editing, and transmission of a video title will be described. Hereinafter, the video title transmission procedure will be described in detail with reference to the flowchart shown in FIG. In step SP111 entered from step SP110, when a desired character is designated from the
[0103]
In step SP112, when various attribute values such as position, size, and material are set according to the input operation of the user, the
[0104]
In step SP113, the
[0105]
In step SP114, the
[0106]
In the above configuration, the
[0107]
According to the above configuration, an image for a video title composed of three-dimensional characters according to a user's operation input is immediately displayed on the
[0108]
(9) Other embodiments
In the above-described embodiment, the case where the right button of the
[0109]
Further, in the above-described embodiment, the case where a desired color is selected from the
[0110]
In the above-described embodiment, the case where the RGB parameter values are displayed on the
[0111]
Furthermore, in the above-described embodiment, the case where a three-dimensional character corresponding to a designated character is generated has been described. However, the present invention is not limited to this, and other various display elements such as graphics are three-dimensionalized. The present invention can be widely applied to display element three-dimensional devices.
[0112]
【The invention's effect】
As described above, according to the present invention, when the menu button on the image editing screen displayed on the display means and including the color selection target image to be selected is selected, each RGB parameter represented by 0 to 255 is selected. An instruction to display a color selection screen having a color sample consisting of all triangular colors with values of 255 at each vertex superimposed on the image editing screen, and to displace the input means from the color selection screen as the input means moves Display control means for displaying the child in the color selection screen; Input means has Color selection means for selecting the color sample where the indicator is located when the button is released as the color of the color selection target image, and the display control means, Bo While the button is pressed, an enlarged image that enlarges the periphery of the specified color sample is displayed in the color selection screen, and the RGB parameter value of the color sample in which the indicator is located is displayed in the color selection screen. By doing so, it is possible to provide a color sample according to the user's request without enlarging the entire display area of the color selection screen, and thus the usability can be further improved as compared with the conventional case.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of a video title generation device according to the present invention.
FIG. 2 is a schematic diagram for explaining a configuration of an application program.
FIG. 3 is a schematic diagram for explaining a GUI screen;
FIG. 4 is a flowchart showing a polygon model generation procedure by a CPU.
FIG. 5 is a schematic diagram for explaining generation of a polygon model.
FIG. 6 is a schematic diagram for explaining the setting of a perspective.
FIG. 7 is a flowchart showing a three-dimensional character generation procedure.
FIG. 8 is a schematic diagram for explaining creation of a scan line line segment arrangement table;
FIG. 9 is a schematic diagram for explaining a triangle dividing process for generating a polygon;
FIG. 10 is a flowchart showing an edge generation procedure.
FIG. 11 is a schematic diagram for explaining generation of a unit vector in an enlargement direction.
FIG. 12 is a schematic diagram for explaining recalculation of an enlargement direction vector.
FIG. 13 is a flowchart showing a color selection procedure by a color picker.
FIG. 14 is a schematic diagram for explaining a display screen of a color picker.
FIG. 15 is a schematic diagram for explaining a display screen of a color picker.
FIG. 16 is a flowchart showing a color selection procedure using a group property dialog.
FIG. 17 is a schematic diagram for explaining a display screen of a group property dialog.
FIG. 18 is a schematic diagram for explaining a display screen of a color selection dialog.
FIG. 19 is a flowchart showing a perspective projection conversion procedure.
FIG. 20 is a schematic diagram for explaining a scene window when multi-parse is designated.
FIG. 21 is a schematic diagram for explaining a scene window when multi-parse is designated;
FIG. 22 is a flowchart showing a procedure for rotating a three-dimensional character.
FIG. 23 is a flowchart showing a procedure for creating a key frame animation.
FIG. 24 is a schematic diagram for explanation of a scene graph.
FIG. 25 is a flowchart showing a video title transmission procedure.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Video title production | generation apparatus, 3 ... CPU, 5 ... System controller, 7 ... Memory, 9 ... Cache, 11 ... I / O controller, 13 ... Graphics accelerator, 15 ... Frame buffer, 17: Hard disk controller, 19: HDD, 21: Display, 23: Monitor, 25: Keyboard controller, 27: Keyboard, 29: Mouse controller, 31: Mouse
Claims (4)
上記入力手段が有するボタンの押圧が解除されたときに上記指示子が位置する色見本を上記色選択対象画像の色として選択する色選択手段と
を有し、
上記表示制御手段は、
上記ボタンが押圧されている間に亘って指定された色見本の周辺を拡大した拡大画像を上記色選択画面内に表示させると共に、上記指示子が位置する色見本のRGBパラメータ値を上記色選択画面内に表示させる
画像処理装置。When a menu button on an image editing screen that is displayed on the display means and includes a color selection target image to be selected is selected, each RGB parameter value represented by 0 to 255 is a triangle having 255 at each vertex. A color selection screen having a color sample consisting of all colors of the shape is displayed superimposed on the image editing screen, and an indicator that is displaced from the color selection screen as the input means is moved is displayed in the color selection screen. Display control means,
Color selection means for selecting a color sample in which the indicator is located as a color of the color selection target image when the button of the input means is released;
The display control means includes
The enlarged image obtained by enlarging the vicinity of the specified color sample over while the button is pressed together with the display on the color selection screen, the color RGB parameter values of the color sample which the indicator is located An image processing device to be displayed in the selection screen.
立体的な文字デザインでなるポリゴンモデルである
請求項1に記載の画像処理装置。The color selection target image is
The image processing apparatus according to claim 1, wherein the image processing apparatus is a polygon model having a three-dimensional character design.
色選択画面内にH(Hue)、L(Luminance)及びS(Saturation)の値を表示させる
請求項2に記載の画像処理装置。The display control means includes
The image processing apparatus according to claim 2, wherein values of H (Hue), L (Luminance), and S (Saturation) are displayed in the color selection screen.
上記入力手段が有するボタンの押圧が解除されたときに上記指示子が位置する色見本を上記色選択対象画像の色として選択する色選択ステップと
を有し、
上記表示制御ステップでは、
上記ボタンが押圧されている間に亘って指定された色見本の周辺を拡大した拡大画像を表示させると共に、上記指示子が位置する色見本のRGBパラメータ値を上記色選択画面内に表示させる
画像処理方法。When a menu button on the image editing screen including the color selection target image to be displayed and displayed on the display means is selected, each RGB parameter value represented by 0 to 255 is a triangle having 255 at each vertex. A display control step for displaying a color selection screen having a color sample of a shape superimposed on the image editing screen and displaying an indicator that is displaced from the color selection screen as the input means moves in the color selection screen. When,
A color selection step of selecting a color sample in which the indicator is located as a color of the color selection target image when the button of the input means is released,
In the display control step,
Together to display an enlarged image obtained by enlarging the vicinity of the specified color sample over while the button is pressed to display the RGB parameter values of a color swatch which position the indicator to the color selection screen Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06904699A JP4304551B2 (en) | 1999-03-15 | 1999-03-15 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06904699A JP4304551B2 (en) | 1999-03-15 | 1999-03-15 | Image processing apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000268157A JP2000268157A (en) | 2000-09-29 |
JP4304551B2 true JP4304551B2 (en) | 2009-07-29 |
Family
ID=13391260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP06904699A Expired - Fee Related JP4304551B2 (en) | 1999-03-15 | 1999-03-15 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4304551B2 (en) |
-
1999
- 1999-03-15 JP JP06904699A patent/JP4304551B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000268157A (en) | 2000-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4203779B2 (en) | Display element three-dimensional apparatus and method | |
US7728848B2 (en) | Tools for 3D mesh and texture manipulation | |
JP3184327B2 (en) | Three-dimensional graphics processing method and apparatus | |
US8514238B2 (en) | System and method for adding vector textures to vector graphics images | |
JP3592750B2 (en) | Machine operation method | |
EP1008112B1 (en) | Techniques for creating and modifying 3d models and correlating such models with 2d pictures | |
JP5299173B2 (en) | Image processing apparatus, image processing method, and program | |
JPH0816820A (en) | Three-dimensional animation generation device | |
JP2007509420A (en) | Video and scene graph interface | |
JP5419822B2 (en) | Image processing apparatus, image display apparatus, image processing method, and data structure of image file | |
US20080018665A1 (en) | System and method for visualizing drawing style layer combinations | |
JP4274377B2 (en) | 3D graphics data display device | |
JP2010541069A (en) | Appearance change of digital image using shape | |
US9269195B2 (en) | Methods and apparatus for generating curved extrusions | |
US20180365866A1 (en) | Multi-dimensional Color and Opacity Gradation Tools, Systems, Methods and Components | |
JPWO2008059849A1 (en) | Menu display device, information processing device, and menu display method | |
JP2001325615A (en) | Device and method for processing three-dimensional model and program providing medium | |
JP4203780B2 (en) | Display element three-dimensional apparatus and method | |
JP4203778B2 (en) | Image processing apparatus and method | |
JP2000270264A (en) | Picture processor and its method | |
WO2017002483A1 (en) | Program, information processing device, depth definition method, and recording medium | |
JP4304551B2 (en) | Image processing apparatus and method | |
JP2000268200A (en) | Device and method of stereoscopically forming display factor | |
JP2000268198A (en) | Stereoscopic image processor and stereoscopic image processing method | |
US7474928B2 (en) | Hybrid vector/raster based paint |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090402 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090415 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |