JP2000100128A - Editing system and method - Google Patents
Editing system and methodInfo
- Publication number
- JP2000100128A JP2000100128A JP10263693A JP26369398A JP2000100128A JP 2000100128 A JP2000100128 A JP 2000100128A JP 10263693 A JP10263693 A JP 10263693A JP 26369398 A JP26369398 A JP 26369398A JP 2000100128 A JP2000100128 A JP 2000100128A
- Authority
- JP
- Japan
- Prior art keywords
- clip
- layer
- processing
- editing
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像と画像を合成
し、それに特殊効果等を施して編集処理を行う編集シス
テム及び編集方法に関する。[0001] 1. Field of the Invention [0002] The present invention relates to an editing system and an editing method for synthesizing an image and performing an editing process by applying a special effect to the image.
【0002】[0002]
【従来の技術】近年、ビデオカメラから得られたビデオ
データを編集するポストプロダクションの分野において
は、素材のデータを記録する記録媒体としてディスクを
使用したノンリニア編集システムがある。このノンリニ
ア編集システムにおいて行われる編集処理としては、さ
まざまな種類の編集処理がある。例えば、複数の素材を
つなぎ合わせて所望のビデオプログラムを作成するため
のビデオ編集処理や、キー信号によって複数の素材を合
成するための合成処理や、素材に対して特殊効果処理を
施す特殊効果処理等が存在する。一般に、このビデオ編
集処理は編集装置で行われ、合成処理はビデオスイッチ
ャで行われ、特殊効果処理は特殊効果装置において行わ
れる。2. Description of the Related Art In recent years, in the field of post-production for editing video data obtained from a video camera, there is a non-linear editing system using a disk as a recording medium for recording material data. Various types of editing processing are performed as editing processing performed in the non-linear editing system. For example, video editing processing to create a desired video program by connecting multiple materials, combining processing to combine multiple materials using key signals, and special effect processing to apply special effect processing to materials Etc. exist. Generally, the video editing process is performed by an editing device, the synthesizing process is performed by a video switcher, and the special effect process is performed by a special effect device.
【0003】今日、ディスク状記録媒体のランダムアク
セス性の向上によって、複数チャンネルのビデオデータ
に対して同時にアクセスできるようになり、この結果、
複数チャンネルのビデオデータをリアルタイムで処理す
る編集システムが要望されるようになってきた。例え
ば、テレビジョン放送のコマーシャル作成用の編集業界
や映画プログラム作成用の編集業界等では、数十から数
百の素材を使用して編集処理を行うと共に、異なる種類
の編集処理を組み合わせて使用することが要望されてい
る。さらに、これらの複数種類の編集処理を何度も繰り
返し行うことによって高度でかつ複雑な編集結果データ
を生成することが要求されてきた。[0003] Today, with the improvement of random accessibility of disk-shaped recording media, it is possible to simultaneously access video data of a plurality of channels.
An editing system for processing video data of a plurality of channels in real time has been demanded. For example, in the editing industry for creating commercials for television broadcasting, the editing industry for creating movie programs, etc., editing processing is performed using tens to hundreds of materials, and different types of editing processing are used in combination. It is desired. Further, it has been required to generate sophisticated and complicated editing result data by repeatedly performing these plural kinds of editing processes many times.
【0004】かかる編集処理を実現するために、編集処
理の内容を多層からなるレイヤ構造で示すタイムライン
を使った編集システムが提案されている。In order to realize such editing processing, there has been proposed an editing system using a timeline showing the contents of the editing processing in a multilayered layer structure.
【0005】かかる編集システムは、モニタに上記タイ
ムラインを表示することによって編集処理の内容をユー
ザに対して視覚的に分かりやすいように示すと共に、マ
ウス等のポインティングデバイスを使って編集処理も容
易に行うことができるようにしている。In such an editing system, the contents of the editing process are displayed on a monitor so as to be easily understood by the user, and the editing process is easily performed by using a pointing device such as a mouse. So that you can do it.
【0006】[0006]
【発明が解決しようとする課題】ところが、従来からの
編集システムでは、レイヤの下層から上層の順に又は上
層から下層の順に行われていたため、レイヤの構成によ
って処理の内容が限定されていた。そこで、レイヤの上
層や下層であるかを問わずに自由に編集処理を行うこと
ができる編集システムが考えられている。However, in the conventional editing system, since the editing is performed in the order from the lower layer to the upper layer or in the order from the upper layer to the lower layer, the content of the processing is limited by the layer configuration. Therefore, an editing system that can freely perform editing processing regardless of whether the layer is an upper layer or a lower layer has been considered.
【0007】しかし、かかる編集システムでは、各レイ
ヤの単位ステップ当たりの切り替えを簡単に行うことが
できず、その切り替えを行うときには切り替えの操作が
非常に煩雑で、非常に時間がかかってしまうことがあっ
た。例えば、マウス等のポインティングデバイスを用い
て単位ステップの切り替え用のスライダーをスライドさ
せる場合には、所望の単位ステップにするときにその操
作に非常に手間がかかっていた。[0007] However, in such an editing system, switching of each layer per unit step cannot be performed easily, and when performing the switching, the switching operation is very complicated and takes a very long time. there were. For example, when a slider for switching unit steps is slid using a pointing device such as a mouse or the like, it takes a lot of time and effort to perform a desired unit step.
【0008】本発明は、このような実情に鑑みて提案さ
れたものであり、編集処理を行うときの単位ステップの
切り替えを容易かつ簡単にすることができる編集システ
ム及び編集方法を提供することを目的とする。The present invention has been proposed in view of such circumstances, and provides an editing system and an editing method capable of easily and easily switching unit steps when performing an editing process. Aim.
【0009】[0009]
【課題を解決するための手段】上述の課題を解決するた
めに、本発明に係る編集システムは、複数の編集単位と
なるクリップを編集して編集処理済みの結果クリップを
生成する編集システムにおいて、時間を管理しながらク
リップに所定処理を施すクリップ処理層を複数有するク
リップ処理手段と、各クリップ処理層にそれぞれ対応す
る複数のオブジェクトを有し、各オブジェクトをそれぞ
れ接続して1つの階層構造を形成することで各クリップ
処理層の階層を決定する階層決定手段と、クリップ処理
手段による処理内容をタイムラインとして表示し、階層
決定手段による階層構造をオブジェクト間で結線するこ
とによって表示する表示手段とを備え、クリップ処理手
段は、各クリップ処理層の時間管理を行うとともに、一
のクリップ処理層による所定処理済みのクリップを当該
一のクリップ層よりも上位の階層にあるクリップ処理層
に所定処理を行わせ、最上位の階層のクリップ処理層か
ら出力される所定処理済みのクリップを結果クリップと
して出力し、表示手段は、各クリップ処理層の単位ステ
ップに対応するそれぞれのボタンを表示することを特徴
とする。In order to solve the above-mentioned problems, an editing system according to the present invention edits a plurality of clips serving as editing units to generate an edited processed result clip. A clip processing unit having a plurality of clip processing layers for performing predetermined processing on a clip while managing time, and a plurality of objects corresponding to the respective clip processing layers, each of which is connected to each other to form one hierarchical structure And a display means for displaying the processing contents of the clip processing means as a timeline, and displaying the hierarchical structure of the clip processing layers by connecting the hierarchical structure between the objects. The clip processing means manages the time of each clip processing layer and includes one clip processing layer. The clip that has been subjected to the predetermined processing is subjected to predetermined processing by a clip processing layer in a higher layer than the one clip layer, and the predetermined processed clip output from the clip processing layer in the highest layer is set as a result clip. The output means displays the respective buttons corresponding to the unit steps of each clip processing layer.
【0010】本発明に係る編集方法は、複数の編集単位
となるクリップを編集して編集処理済みの結果クリップ
を生成する編集方法において、複数のクリップ処理層が
時間を管理しながらクリップに所定処理を施し、各クリ
ップ処理層にそれぞれ対応する複数のオブジェクトを有
し、各オブジェクトをそれぞれ接続して1つの階層構造
を形成することで各クリップ処理層の階層を決定し、各
クリップ処理層による処理内容をタイムラインとして表
示すると共に、形成された階層構造をオブジェクト間で
結線することによって表示し、各クリップ処理層の時間
管理を行うとともに、一のクリップ処理層による所定処
理済みのクリップを当該一のクリップ層よりも上位の階
層にあるクリップ処理層に所定処理を行わせ、最上位の
階層のクリップ処理層から出力される所定処理済みのク
リップを結果クリップとして出力し、各クリップ処理層
の単位ステップに対応するそれぞれのボタンを表示する
ことを特徴とする。According to the editing method of the present invention, in the editing method of editing a plurality of clips serving as an editing unit and generating a result-processed clip, a plurality of clip processing layers perform predetermined processing on the clips while managing time. And a plurality of objects respectively corresponding to the respective clip processing layers. Each of the objects is connected to each other to form one hierarchical structure, so that the hierarchy of each clip processing layer is determined. The contents are displayed as a timeline, the formed hierarchical structure is displayed by connecting the objects, and time management of each clip processing layer is performed. The clip processing layer on the upper layer than the clip layer of Outputs a predetermined processed clip output from the layer results as a clip, and displaying the respective buttons corresponding to the unit step of the clipping layer.
【0011】[0011]
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しながら説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0012】1.編集システムの全体構成 本発明は、例えば図1に示す構成の編集システム1に適
用される。編集システム1は、当該システム全体をコン
トロールするワークステーション2を備えている。ワー
クステーション2は、CPU(中央処理ユニット)や各
種処理回路、或いはフロッピーディスクドライブやハー
ドディスクドライブ等を備える本体2Aと、当該本体2
Aに接続されるディスプレイ2B、キーボード2C、マ
ウス2D及びペン・タブレット2Eとを有している。こ
のようなワークステーション2は、編集のためのアプリ
ケーション・ソフトウェアがハードディスクドライブに
予めインストールされており、オペレーティングシステ
ムの基で当該アプリケーション・ソフトウェアを動作さ
せることにより編集用のコンピュータとして起動する。1. Overall Configuration of Editing System The present invention is applied to, for example, an editing system 1 having a configuration shown in FIG. The editing system 1 includes a workstation 2 that controls the entire system. The workstation 2 includes a main body 2A including a CPU (central processing unit) and various processing circuits, a floppy disk drive, a hard disk drive, and the like.
A has a display 2B, a keyboard 2C, a mouse 2D, and a pen / tablet 2E connected to A. In such a workstation 2, application software for editing is installed in a hard disk drive in advance, and the workstation 2 is activated as an editing computer by operating the application software based on an operating system.
【0013】このアプリケーション・ソフトウェアを動
作させたときには、ディスプレイ2B上にGUI(グラ
フィカル・ユーザ・インターフェイス)のためのグラフ
ィック表示が表示されるようになされており、上述した
ペン・タブレット2Eやマウス2Dを使用して、当該デ
ィスプレイ2Bに表示される所望のグラフィック表示を
選択すれば、所望の編集コマンドをこのワークステーシ
ョン2に対して入力し得る。また編集に係わる各種数値
データ等も、キーボード2Cを介してこのワークステー
ション2に対して入力し得る。When this application software is operated, a graphic display for a GUI (graphical user interface) is displayed on the display 2B, and the above-described pen tablet 2E and mouse 2D are connected to the display 2B. When the user selects a desired graphic display to be displayed on the display 2B, a desired editing command can be input to the workstation 2. In addition, various numerical data related to editing and the like can be input to the workstation 2 via the keyboard 2C.
【0014】なお、このワークステーション2は、編集
コマンドや各種数値データがユーザの操作により入力さ
れると、その編集コマンドや各種数値データに応じた制
御データを後述するデバイスコントローラ3に出力する
ようになされており、これによりデバイスコントローラ
3を介してこの編集システム1を構成する各機器を制御
し得る。但し、ビデオディスクレコーダ5に関しては、
デバイスコントローラ3を介さずとも、一部の機能を直
接制御することができる。When an editing command or various numerical data is input by a user operation, the workstation 2 outputs control data corresponding to the editing command or various numerical data to a device controller 3 described later. Thus, each device constituting the editing system 1 can be controlled via the device controller 3. However, regarding the video disc recorder 5,
Some functions can be directly controlled without using the device controller 3.
【0015】またこのワークステーション2には、その
デバイスコントローラ3を介してビデオデータが入力さ
れ、編集素材の画像や編集後の画像等をディスプレイ2
Bに表示し得る。Video data is input to the workstation 2 via the device controller 3, and an image of an editing material, an image after editing, and the like are displayed on the display 2.
B.
【0016】デバイスコントローラ3は、ワークステー
ション2からの制御データを受けて、実際に各機器を制
御する制御装置である。このデバイスコントローラ3に
対しては、ダイアル操作子やスライド操作子等を有した
専用コントローラ4が接続されており、これによりこの
編集システム1ではワークステーション2のキーボード
2Cやマウス2D或いはペン・タブレット2Eでは入力
し得ないような漸次変化する制御データも入力し得る。The device controller 3 is a control device that receives control data from the workstation 2 and actually controls each device. A dedicated controller 4 having a dial operator, a slide operator, and the like is connected to the device controller 3, so that in the editing system 1, the keyboard 2 C, the mouse 2 D, or the pen / tablet 2 E of the workstation 2 is provided. Then, gradually changing control data that cannot be input can be input.
【0017】デバイスコントローラ3は、ワークステー
ション2や専用コントローラ4からの制御データを受
け、その制御データに対応する機器を制御する。例えば
ビデオディスクレコーダ5に対しては、デバイスコント
ローラ3は、素材の再生や編集後の素材の記録を指示す
る。この指示を受けたビデオディスクレコーダ5は、そ
の指示に応じて、内部のディスク状記録媒体に記録され
ている所望素材のビデオデータやオーディオデータを再
生して出力したり、或いは編集されたビデオデータやオ
ーディオデータを当該ディスク状記録媒体に記録する。The device controller 3 receives control data from the workstation 2 and the dedicated controller 4, and controls a device corresponding to the control data. For example, for the video disk recorder 5, the device controller 3 instructs reproduction of the material and recording of the edited material. Upon receiving the instruction, the video disk recorder 5 reproduces and outputs video data or audio data of a desired material recorded on the internal disk-shaped recording medium, or edits the edited video data. And audio data are recorded on the disk-shaped recording medium.
【0018】同様に、ビデオテープレコーダ(VTR)
6に対しても、デバイスコントローラ3は、素材の再生
を指示する。この指示を受けたビデオテープレコーダ6
は、その指示に応じて、内部のビデオテープに記録され
ている所望素材のビデオデータやオーディオデータを再
生して出力する。なお、この編集システム1の場合に
は、ビデオテープレコーダ6に記録されているビデオデ
ータは一旦ビデオディスクレコーダ5にダウンロードさ
れてから素材のビデオデータとして扱われる。Similarly, a video tape recorder (VTR)
6, the device controller 3 instructs reproduction of the material. Video tape recorder 6 receiving this instruction
Reproduces and outputs video data and audio data of a desired material recorded on an internal video tape in response to the instruction. In the case of the editing system 1, the video data recorded on the video tape recorder 6 is temporarily downloaded to the video disc recorder 5, and then treated as video data of the material.
【0019】デバイスコントローラ3は、スイッチャ7
に対しては、ビデオディスクレコーダ5、ビデオテープ
レコーダ6又はビデオカメラ8から出力されるビデオデ
ータの選択を指示する。この指示を受けたスイッチャ7
は、その指示に応じて、入力される所望素材のビデオデ
ータを選択してディジタルマルチエフェクタ9に出力し
たり、デバイスコントローラ3を介してワークステーシ
ョン2に出力したり、或いは入力される所望素材のビデ
オデータを順次選択してつなぎ合わせたり、編集したビ
デオデータをモニタ10に出力して表示させたり、その
編集したビデオデータをビデオディスクレコーダ5に戻
して記録させたりする。The device controller 3 includes a switcher 7
Is instructed to select video data output from the video disk recorder 5, the video tape recorder 6, or the video camera 8. Switcher 7 receiving this instruction
According to the instruction, video data of a desired material to be input is selected and output to the digital multi-effector 9, output to the workstation 2 via the device controller 3, or The video data is sequentially selected and connected, the edited video data is output to the monitor 10 for display, and the edited video data is returned to the video disk recorder 5 for recording.
【0020】デバイスコントローラ3は、ディジタルマ
ルチエフェクタ9に対しては、各種エフェクト処理を指
示する。この指示を受けたディジタルマルチエフェクタ
9は、その指示に応じて、入力される所望素材のビデオ
データに対して、モザイク処理や3次元的な画像変換処
理等の特殊効果処理やトランジションエフェクト等のエ
フェクト処理、或いは画像合成処理等を施し、その結果
得られるビデオデータを再びスイッチャ7に戻してワー
クステーション2やモニタ10或いはビデオディスクレ
コーダ5等に出力する。The device controller 3 instructs the digital multi-effector 9 to perform various effect processes. In response to the instruction, the digital multi-effector 9 applies special effect processing such as mosaic processing and three-dimensional image conversion processing to the input desired video data, and effects such as transition effects. Processing or image synthesizing processing is performed, and the video data obtained as a result is returned to the switcher 7 again and output to the workstation 2, the monitor 10, the video disk recorder 5, and the like.
【0021】デバイスコントローラ3は、オーディオミ
キサ11に対しては、ビデオディスクレコーダ5やビデ
オテープレコーダ6から出力されるオーディオデータの
編集を指示する。オーディオミキサ11は、その指示に
応じて、所望のオーディオ素材を合成処理(ミキシン
グ)し、その合成処理されたオーディオデータを再びビ
デオディスクレコーダ5に戻して記録させる。The device controller 3 instructs the audio mixer 11 to edit audio data output from the video disk recorder 5 or the video tape recorder 6. The audio mixer 11 synthesizes (mixes) a desired audio material in accordance with the instruction, and returns the synthesized audio data to the video disk recorder 5 for recording.
【0022】かくしてこのような構成を有する編集シス
テム1では、ワークステーション2を介して所望の編集
コマンドを入力することにより、ビデオディスクレコー
ダ5やビデオテープレコーダ6に記録されている多種多
様な複数の素材のビデオデータを使用して、高度でかつ
複雑な所望のビデオデータを容易に作成することができ
る。これにより従来のようにユーザが編集システムを構
成する各機器を直接操作しなくても、ワークステーショ
ン2を操作するだけで各種編集を行うことができる。Thus, in the editing system 1 having such a configuration, by inputting a desired editing command via the work station 2, various kinds of plural plural data recorded on the video disk recorder 5 and the video tape recorder 6 are obtained. Using the video data of the material, it is possible to easily create sophisticated and complicated desired video data. Thus, various edits can be performed only by operating the workstation 2 without the user directly operating each device constituting the editing system as in the related art.
【0023】2.ワークステーションの構成 この項では、編集システム1の中心的存在であるワーク
ステーション2の構成について説明する。図2に示すよ
うに、ワークステーション2は、コマンドデータやビデ
オデータを伝送するためのシステムバス20、ワークス
テーション2の全体を制御するCPU21、デバイスコ
ントローラ3より供給されるビデオデータS1に対して
画像処理等を行うビデオプロセッサ22、ディスプレイ
2Bに表示されるビデオデータやGUIのためのグラフ
ィック表示を管理する表示コントローラ23、ローカル
ハードディスクドライブ(ローカルHDD)24Aを制
御するためのHDDインターフェイス24、フロッピー
ディスクドライブ(FDD)25Aを制御するためのF
DDインターフェイス25、キーボード2C、マウス2
D及びペン。タブレット2E等のポインティングデバイ
スからのコマンドに基づいて制御コマンドを生成するポ
インティングデバイスインターフェイス26、デバイス
コントローラ3に対して制御データS2を送出するため
のソフトウェアドライバを備えた外部インターフェイス
27を有している。2. Configuration of Workstation In this section, the configuration of the workstation 2, which is the main entity of the editing system 1, will be described. As shown in FIG. 2, the workstation 2 includes a system bus 20 for transmitting command data and video data, a CPU 21 for controlling the entire workstation 2, and video data S 1 supplied from the device controller 3. A video processor 22 for performing processing and the like, a display controller 23 for managing video data displayed on the display 2B and a graphic display for a GUI, an HDD interface 24 for controlling a local hard disk drive (local HDD) 24A, a floppy disk drive (FDD) F for controlling 25A
DD interface 25, keyboard 2C, mouse 2
D and pen. It has a pointing device interface 26 for generating a control command based on a command from a pointing device such as the tablet 2E, and an external interface 27 provided with a software driver for sending control data S2 to the device controller 3.
【0024】システムバス20は、ワークステーション
2内部でビデオデータやコマンドデータ、或いはアドレ
スデータ等の伝送を行うためのバスであり、ビデオデー
タを伝送するための画像データバス20Aと、コマンド
データやアドレスデータを伝送するためのコマンドデー
タバス20Bとからなる。The system bus 20 is a bus for transmitting video data, command data, address data, and the like inside the workstation 2, and includes an image data bus 20A for transmitting video data, a command data and an address. A command data bus 20B for transmitting data.
【0025】画像データバス20Aには、CPU21、
ビデオプロセッサ22、表示コントローラ23、HDD
インターフェイス24及びFDDインターフェイス25
がそれぞれ接続されている。当該CPU21、ビデオプ
ロセッサ22、表示コントローラ23、HDDインター
フェイス24及びFDDインターフェイス25はこの画
像データバス20Aを介してビデオデータの伝送を行
う。The image data bus 20A has a CPU 21,
Video processor 22, display controller 23, HDD
Interface 24 and FDD interface 25
Are connected respectively. The CPU 21, the video processor 22, the display controller 23, the HDD interface 24, and the FDD interface 25 transmit video data via the image data bus 20A.
【0026】一方、コマンドデータバス20Bには、C
PU21、ビデオプロセッサ22、表示コントローラ2
3、HDDインターフェイス24、FDDインターフェ
イス25、ポインティングデバイスインターフェイス2
6及び外部インターフェイス27がそれぞれ接続されて
おり(すなわちワークステーション2内部の全てのブロ
ックが接続されている)、当該コマンドデータバス20
Bを介してコマンドデータやアドレスデータの伝送を行
う。On the other hand, the command data bus 20B has C
PU 21, video processor 22, display controller 2
3. HDD interface 24, FDD interface 25, pointing device interface 2
6 and the external interface 27 (ie, all blocks inside the workstation 2 are connected), and the command data bus 20
Command data and address data are transmitted via B.
【0027】CPU21は、ワークステーション2全体
の制御を行うブロックであり、ワークステーション2の
オペレーティングシステムが格納されているROM21
Aと、アップロードされたアプリケーション・ソフトウ
ェアやデータベース等が格納されるRAM21Bとを有
している。ワークステーション2を起動する場合には、
CPU21はROM21Aに記憶されているオペレーテ
ィングシステムに基づいて動作することにより起動す
る。またアプリケーション・ソフトウェアをこの起動中
のオペレーティングシステムの下で起動する場合には、
CPU21はまずハードディスクドライブ24Aのハー
ドディスクに記録されているアプリケーション・ソフト
ウェアを読み出してRAM21Bにアップロードし、そ
の後、当該アプリケーション・ソフトウェアを実行して
起動する。The CPU 21 is a block for controlling the entire work station 2, and a ROM 21 storing an operating system of the work station 2.
A and a RAM 21B for storing uploaded application software, a database, and the like. When starting workstation 2,
The CPU 21 is activated by operating based on the operating system stored in the ROM 21A. If you launch the application software under this running operating system,
The CPU 21 first reads out the application software recorded on the hard disk of the hard disk drive 24A, uploads it to the RAM 21B, and then executes and starts up the application software.
【0028】なお、アプリケーション・ソフトウェアは
機能毎に分割されてモジュール化されており、後述する
ように大きく分けて、素材のつなぎ合わせ等を行うため
の編集モジュールと、素材の重ね合わせ等といった合成
処理を行うための合成モジュールと、素材の3次元的な
画像変換等といった特殊効果処理を行うための特殊効果
モジュールと、これらモジュールの起動やモジュール間
のデータの受け渡し等を管理する制御モジュールとによ
って構成されている。すなわちこのシステムの場合に
は、アプリケーション・ソフトウェアを起動したときに
は、まず制御モジュールが起動し、ユーザより編集指示
が入力されると、その制御モジュールの管理の下で対応
するモジュール(編集モジュール、合成モジュール又は
特殊効果モジュール)を適宜起動して、ユーザより指示
された編集を行う。The application software is divided into modules for each function and is modularized. As will be described later, the application software is roughly divided into an editing module for connecting materials and the like, and a synthesizing process for overlapping materials and the like. A special effect module for performing special effect processing such as three-dimensional image conversion of materials, and a control module for managing activation of these modules and transfer of data between modules, etc. Have been. That is, in this system, when the application software is started, the control module starts first, and when an editing instruction is input by the user, the corresponding module (editing module, synthesizing module, Or a special effect module) as appropriate, and performs editing instructed by the user.
【0029】ビデオプロセッサ22は、ワークステーシ
ョン2に入力されるSDI(SerialDigital Interfac
e)規格のビデオデータS1を受け取り、当該ビデオデ
ータS1に対してデータ変換を施すと共に、その変換さ
れたビデオデータを一時的にバッファリングするための
ブロックである。具体的には、ビデオプロセッサ22
は、当該ビデオプロセッサ22の全体を制御するプロセ
ッサコントローラ22Aと、受け取ったビデオデータS
1のペイロード部からコンポジットビデオ信号を抽出
し、かつ当該コンポジットビデオ信号をディジタルのコ
ンポーネントビデオデータに変換するデータ変換部22
Bと、データ変換部22Bから送出される数フレーム分
のビデオデータを一時的に記憶するフレームメモリ22
Cとによって構成される。The video processor 22 receives an SDI (Serial Digital Interface) input to the workstation 2.
e) A block for receiving the standard video data S1, performing data conversion on the video data S1, and temporarily buffering the converted video data. Specifically, the video processor 22
Is a processor controller 22A that controls the entire video processor 22, and the received video data S
A data converter 22 for extracting a composite video signal from the payload section 1 and converting the composite video signal into digital component video data.
B and a frame memory 22 for temporarily storing video data of several frames transmitted from the data conversion unit 22B.
C.
【0030】プロセッサコントローラ22Aは、データ
変換部22Bに対して制御信号を送出することにより当
該データ変換蔀22Bのデータ変換動作を制御すると共
に、当該データ変換部22BにビデオデータSlからタ
イムコードを抽出させる。またプロセッサコントローラ
22Aは、フレームメモリ22Cに対して制御信号を送
出することにより当該フレームメモリ22Cのリード/
ライトタイミング及びリード/ライトアドレスを制御す
る。なお、リードタイミングに関しては、プロセッサコ
ントローラ22Aは、表示コントローラ23に送出する
タイムコードとビデオデータ(フレームデータ)とが対
応するようにフレームメモリ22Cのリードタイミング
を制御する。The processor controller 22A controls the data conversion operation of the data conversion unit 22B by sending a control signal to the data conversion unit 22B, and extracts the time code from the video data S1 to the data conversion unit 22B. Let it. The processor controller 22A sends a control signal to the frame memory 22C to read / read the frame memory 22C.
Controls write timing and read / write address. Regarding the read timing, the processor controller 22A controls the read timing of the frame memory 22C so that the time code transmitted to the display controller 23 corresponds to the video data (frame data).
【0031】データ変換部22Bは、プロセッサコント
ローラ22Aからの制御信号に基づいてコンポジットビ
デオ信号をディジタルのコンポーネントビデオデータに
変換する。なお、タイムコードはこの変換過程において
抽出される。この変換により得られたビデオデータは上
述したようにフレームメモリ22Cに送出され、また抽
出されたタイムコードはプロセッサコントローラ22A
に送出される。The data converter 22B converts a composite video signal into digital component video data based on a control signal from the processor controller 22A. The time code is extracted in this conversion process. The video data obtained by this conversion is sent to the frame memory 22C as described above, and the extracted time code is sent to the processor controller 22A.
Sent to
【0032】フレームメモリ22Cは、データ変換部2
2Bから供給されるビデオデータを一時的に記憶する。
このフレームメモリ22Cのリード/ライトタイミング
は、上述したようにプロセッサコントローラ22Aによ
って制御される。このフレームメモリ22Cは少なくと
も2個のフレームメモリから構成され、少なくとも2フ
レーム分のビデオデータを記憶し得る。The frame memory 22C stores the data conversion unit 2
The video data supplied from 2B is temporarily stored.
The read / write timing of the frame memory 22C is controlled by the processor controller 22A as described above. The frame memory 22C includes at least two frame memories, and can store video data of at least two frames.
【0033】このフレームメモリ22Cに記憶されたビ
デオデータは、プロセッサコントローラ22Aの読み出
し制御に基づいて読み出される。その際、フレームメモ
リ22Cに記憶されたビデオデータの全画素を読み出す
のではなく、所定の間隔で間引いて読み出すことにより
画像サイズを原画像よりも小さくする。このようにして
画像サイズが小さく変換されたビデオデータは、素材又
は編集結果の確認用としてディスプレイ2Bの所定表示
エリアに表示されるため、画像データバス20Aを介し
て表示コントローラ23に送出される。The video data stored in the frame memory 22C is read based on read control of the processor controller 22A. At this time, the image size is made smaller than the original image by reading out all pixels of the video data stored in the frame memory 22C instead of reading them out at predetermined intervals. The video data whose image size has been converted in this way is displayed in a predetermined display area of the display 2B for checking the material or the editing result, and is thus sent to the display controller 23 via the image data bus 20A.
【0034】表示コントローラ23は、ディスプレイ2
Bに表示されるデータを制御するための制御ブロックで
ある。表示コントローラ23はメモリコントローラ23
AとVRAM(ビデオ・ランダム・アクセス・メモリ)
23Bとを有している。メモリコントローラ23Aはワ
ークステーション2の内部同期に従ってVRAM23B
のリード/ライトタイミングを制御する。このVRAM
23Bには、ビデオプロセッサ22のフレームメモリ2
2Cから送出されたビデオデータ及びCPU21によっ
て生成されるイメージデータが、メモリコントローラ2
3Aからのタイミング制御信号に基づいて記憶される。
このVRAM23Bに記憶されたビデオデータやイメー
ジデータは、ワークステーション2の内部同期に基づい
たメモリコントローラ23Aからのタイミング制御信号
に基づいて読み出され、ディスプレイ2Bに表示され
る。The display controller 23 is connected to the display 2
6 is a control block for controlling data displayed on B. The display controller 23 is a memory controller 23
A and VRAM (Video Random Access Memory)
23B. The memory controller 23A operates according to the internal synchronization of the
Read / write timing is controlled. This VRAM
23B includes a frame memory 2 of the video processor 22.
2C and the image data generated by the CPU 21 are stored in the memory controller 2
It is stored based on the timing control signal from 3A.
The video data and image data stored in the VRAM 23B are read out based on a timing control signal from the memory controller 23A based on the internal synchronization of the workstation 2, and displayed on the display 2B.
【0035】この場合、イメージデータによるグラフィ
ック表示がGUIのためのグラフィック表示となる。な
お、CPU21からVRAM23Bに送出さるイメージ
データは、例えばウィンドウやカーソル、或いはスクロ
ールバーやデバイスを示すアイコン等のイメージデータ
である。In this case, the graphic display based on the image data is a graphic display for the GUI. The image data sent from the CPU 21 to the VRAM 23B is, for example, image data such as a window, a cursor, a scroll bar, or an icon indicating a device.
【0036】かくしてこのワークステーション2におい
ては、これらのイメージデータやビデオデータをディス
プレイ2Bに表示することにより、当該ディスプレイ2
Bにユーザ操作のためのGUIや素材又は編集結果の画
像を表示する。HDDインターフェイス24は、ワーク
ステーション2内部に設けられたローカルハードディス
クドライブ24Aと通信するためのインターフェイスブ
ロックである。このHDDインターフェイス24とハー
ドディスクドライブ24Aとは、SCSl( Small Com
puter System Interface)の伝送フォーマットに基づい
て通信を行う。Thus, the workstation 2 displays the image data and the video data on the display 2B so that the display 2
B displays a GUI or material for user operation or an image of an edited result. The HDD interface 24 is an interface block for communicating with a local hard disk drive 24A provided inside the workstation 2. The HDD interface 24 and the hard disk drive 24A are connected to an SCSl (Small Com
Communication is performed based on the transmission format of the puter system interface).
【0037】ハードディスクドライブ24Aには、この
ワークステーション2で起動するアプリケーション・ソ
フトウェアがインストールされており、当該アプリケー
ション・ソフトウェアを実行する場合には、このハード
ディスクドライブ24Aから読み出されてCPU21の
RAM21Bにアップロードされる。またこのアプリケ
ーション・ソフトウェアを終了する際には、RAM21
Bに記憶されている編集オペレーションによって生成さ
れた各種情報(例えば編集素材に関するデータベースの
情報等)は、このハードディスクドライブ24Aを介し
てハードディスクにダウンロードされる。In the hard disk drive 24A, application software to be started on the workstation 2 is installed. When the application software is executed, the application software is read from the hard disk drive 24A and uploaded to the RAM 21B of the CPU 21. Is done. When terminating the application software, the RAM 21
Various information (for example, information of a database relating to the editing material) generated by the editing operation stored in B is downloaded to the hard disk via the hard disk drive 24A.
【0038】FDDインターフェイス25は、ワークス
テーション2内部に設けられたフロッピーディスクドラ
イブ25Aと通信するためのインターフェイスブロック
である。このFDDインターフェイス25とフロッピー
ディスクドライブ25Aとは、SCSIの伝送フォーマ
ットに基づいて通信を行う。The FDD interface 25 is an interface block for communicating with a floppy disk drive 25A provided inside the workstation 2. The FDD interface 25 and the floppy disk drive 25A perform communication based on the SCSI transmission format.
【0039】ポインティングデバイスインターフェイス
26は、ワークステーション2に接続されたキーボード
2C、マウス2D及びペン・タブレット2Eからの情報
を受信するインターフェイスブロックである。ポインテ
ィングデバイスインターフェイス26はキーボード2C
に設けられたボタンからの入力情報を受け取り、受け取
った入力情報をデコードしてCPU21に送出する。同
様に、ポインティングデバイスインターフェイス26
は、マウス2Dに設けられた2次元ロータリーエンコー
ダの検出情報と、マウス2Dに設けられた左右のボタン
のクリック情報(すなわちボタン押下による選択指定情
報)とを当該マウス2Dから受け取り、受け取ったそれ
らの情報をデコードしてCIPU21に送出する。同様
に、ポインティングデバイスインターフェイス26は、
ペン・タブレット2Eからの2次元の位置データを受け
取り、受け取ったその位置データをデコードしてCPU
21に送出する。このようなポインティングデバイスイ
ンターフェイス26からの情報に基づいて、CPU21
は、ディスプレイ2Bに表示されるGUIのうちいずれ
のコマンドボタンが指示されたか認識し得ると共に、キ
ーボード2Cより入力された各種データを認識し得、そ
れらに対応する制御を行うことができる。The pointing device interface 26 is an interface block for receiving information from the keyboard 2C, the mouse 2D, and the pen / tablet 2E connected to the workstation 2. The pointing device interface 26 is a keyboard 2C
The input information received from the button provided in the CPU 21 is decoded, and the received input information is decoded and transmitted to the CPU 21. Similarly, the pointing device interface 26
Receives, from the mouse 2D, detection information of a two-dimensional rotary encoder provided on the mouse 2D, and click information of left and right buttons provided on the mouse 2D (that is, selection designation information by pressing a button) from the mouse 2D. The information is decoded and transmitted to the CIPU 21. Similarly, the pointing device interface 26
CPU receives two-dimensional position data from pen / tablet 2E, decodes the received position data,
21. Based on such information from the pointing device interface 26, the CPU 21
Can recognize which command button of the GUI displayed on the display 2B has been instructed, can recognize various data input from the keyboard 2C, and can perform control corresponding thereto.
【0040】外部インターフェイス27は、ワークステ
ーション2の外部に接続されたデバイスコントローラ3
と通信するためのブロックである。外部インターフェイ
ス27はCPU21で生成された再生コマンドや記録コ
マンド等の各種制御コマンドを所定の通信プロトコルの
データに変換するドライバを有しており、当該ドライバ
を介して制御コマンドデータS2をデバイスコントロー
ラ3に送出する。The external interface 27 is connected to the device controller 3 connected to the outside of the workstation 2.
It is a block for communicating with. The external interface 27 has a driver for converting various control commands such as a reproduction command and a recording command generated by the CPU 21 into data of a predetermined communication protocol, and transmits control command data S2 to the device controller 3 via the driver. Send out.
【0041】3.編集システムにおける編集の原理 この項では、編集システム1における編集の原理につい
て以下に順を追って説明する。3. Principle of Editing in Editing System In this section, the principle of editing in editing system 1 will be described step by step.
【0042】(3−1)編集用のアプリケーション・ソ
フトウェアの基本構成 まず始めにこの項では、ワークステーション2において
用意されている編集用のアプリケーション・ソフトウェ
アの基本構成について説明する。図3に示すように、こ
の編集システム1においては、機能毎にモジュール化さ
れた編集用のアプリケーション・ソフトウェアがワーク
ステーション2に用意されている。このモジュール化さ
れたアプリケーション・ソフトウェアは、大きく分け
て、素材のつなぎ合わせ処理等の編集処理を行う編集モ
ジュールEMと、素材の重ね合わせ処理等の合成処理を
行う合成モジュールCMと、素材に対する特殊効果処理
を行う特殊効果モジュールSMと、これら機能毎にモジ
ュール化された編集モジュールEM、合成モジュールC
M及び特殊効果モジュールSMの起動等を管理する制御
モジュールCNTMとによって構成される。このような
構成を有するアプリケーション・ソフトウェアは、ハー
ドディスクドライブ24AからRAM21Bにアップロ
ードされると、まず制御モジュールCNTMが起動し、
その制御モジュールCNTMの管理の下で、各モジュー
ルEM、CM及びSMがそれぞれユーザからの指示に応
じて適宜起動する。(3-1) Basic Configuration of Application Software for Editing First, in this section, a basic configuration of application software for editing prepared in the workstation 2 will be described. As shown in FIG. 3, in the editing system 1, editing application software modularized for each function is prepared in a workstation 2. The modularized application software is roughly divided into an editing module EM for performing editing processing such as material joining processing, a combining module CM for performing combining processing such as material overlapping processing, and a special effect for the material. Special effect module SM for processing, editing module EM and compositing module C modularized for each of these functions
M and a control module CNTM that manages activation of the special effect module SM and the like. When the application software having such a configuration is uploaded from the hard disk drive 24A to the RAM 21B, the control module CNTM first starts up,
Under the control of the control module CNTM, each of the modules EM, CM, and SM is appropriately activated according to an instruction from the user.
【0043】クリップデータベースCDBは、ビデオデ
ィスクレコーダ5及びRAM21Bによって構成され、
素材のビデオデータや編集に関する各種データを記憶し
ている。各モジュールEM、CM及びSMは、ユーザよ
り指定された素材をクリップデータベースCDBから読
み出し、上述したスイッチャ7やディジタルマルチエフ
ェクタ9等のハードウェアを使用しながら、その素材に
対してユーザの指示に応じた編集を行い、その結果得ら
れる編集された後の素材をクリップデータベースCDB
に登録する。また各モジュールEM、CM及びSMは、
編集に使用した各種パラメータ等の編集に関するデータ
もクリップデータベースCDBに登録する。なお、クリ
ップデータベースCDBとしては、主に素材のビデオデ
ータをビデオディスクレコーダ5に記憶し、編集に関す
る各種データをRAM21Bに記憶する。The clip database CDB comprises the video disk recorder 5 and the RAM 21B.
It stores video data of materials and various data related to editing. Each of the modules EM, CM, and SM reads a material specified by the user from the clip database CDB, and uses hardware such as the above-described switcher 7 and digital multi-effector 9 to respond to the user's instruction for the material. And edits the resulting edited material into the clip database CDB.
Register with. Each module EM, CM and SM are
Data relating to editing such as various parameters used for editing is also registered in the clip database CDB. As the clip database CDB, mainly video data of the material is stored in the video disk recorder 5, and various data related to editing is stored in the RAM 21B.
【0044】(3−2)クリップの定義 本発明による編集システム1では各素材はクリップと呼
ばれる単位で扱われる。この項では、このクリップにつ
いて定義する。本発明による編集システム1では、ビデ
オ動画データの1シーケンスをクリップビデオデータと
定義し、そのクリップビデオデータがどのようにして生
成されたものであるか管理するデータをクリップ管理デ
ータと定義し、さらにこれらのクリップビデオデータと
クリップ管理データからなるデータをクリップと定義す
る。また本発明による編集システム1では、ソースビデ
オデータから単に切り出すことにより生成された素材を
素材クリップ(MC:Material Clip)と呼び、その素
材クリップを編集することにより生成された素材を結果
クリップ(FC:Fat Clip)と呼ぶ。(3-2) Definition of Clip In the editing system 1 according to the present invention, each material is handled in a unit called a clip. This section defines this clip. In the editing system 1 according to the present invention, one sequence of video moving image data is defined as clip video data, and data for managing how the clip video data is generated is defined as clip management data. Data consisting of clip video data and clip management data is defined as a clip. In the editing system 1 according to the present invention, a material generated by simply cutting out the source video data is referred to as a material clip (MC), and a material generated by editing the material clip is referred to as a result clip (FC). : Fat Clip).
【0045】本発明による編集システム1では、素材ク
リップMCや結果クリップFCからなる複数のクリップ
を、クリップ間の関係に基づいた階層構造によって管理
する。この様子を図4に示す例を参照しながら、以下に
説明する。In the editing system 1 according to the present invention, a plurality of clips including the material clips MC and the result clips FC are managed in a hierarchical structure based on the relationship between the clips. This will be described below with reference to the example shown in FIG.
【0046】図4に示す例では、結果クリップFC−0
08は、素材クリップMC−001、素材クリップMC
−002及び素材クリップMC−003の3つの素材ク
リップを合成することによって生成されたクリップであ
る。すなわち、結果クリップFC−008と、素材クリ
ップMC−001、素材クリップMC−002及び素材
クリップMC−003との関係は、上下関係になってい
る。このような上下関係にある場合、素材クリップMC
−001、素材クリップMC−002及び素材クリップ
MC−003は結果クリップFC−008の配下にある
ことからそれぞれ下位クリップと呼ばれ、逆に結果クリ
ップFC−008はこれら下位クリップを統括して生成
されたものであることから上位クリップと呼ばれる。In the example shown in FIG. 4, the result clip FC-0
08 is material clip MC-001, material clip MC
-002 and material clip MC-003 are generated by combining the three material clips. That is, the relationship between the result clip FC-008, the material clip MC-001, the material clip MC-002, and the material clip MC-003 is a vertical relationship. In such a vertical relationship, the material clip MC
−001, the material clip MC-002, and the material clip MC-003 are respectively called lower clips because they are subordinate to the result clip FC-008. Conversely, the result clip FC-008 is generated by integrating these lower clips. It is called an upper clip because it is a video clip.
【0047】同様に、結果クリップFC−009は、素
材クリップMC−004に対して特殊効果を施すことに
よって生成されたクリップである。このため素材クリッ
プMC−004は結果クリップFC−009の下位クリ
ップとなり、逆に結果クリップFC−009は素材クリ
ップMC−004の上位クリップとなる。Similarly, the result clip FC-009 is a clip generated by applying a special effect to the material clip MC-004. Therefore, the material clip MC-004 is a lower clip of the result clip FC-009, and conversely, the result clip FC-009 is a higher clip of the material clip MC-004.
【0048】結果クリップFC−010は、結果クリッ
プFC−008と結果クリップFC−009とを編集す
る(この場合、例えばワイプ等によってつなぎ合わせ
る)ことによって生成された結果クリップである。この
ため結果クリップFC−008及び結果クリップFC−
009はそれぞれ結果クリップFC−010の下位クリ
ップとなり、結果クリップFC−010は結果クリップ
FC−008及び結果クリップFC−009の上位クリ
ップとなる。The result clip FC-010 is a result clip generated by editing the result clip FC-008 and the result clip FC-009 (in this case, joining them by, for example, a wipe). For this reason, the result clip FC-008 and the result clip FC-
009 is a lower clip of the result clip FC-010, and the result clip FC-010 is a higher clip of the result clip FC-008 and the result clip FC-009.
【0049】このように各クリップ間には上下関係があ
り、この編集システム1では、クリップデータベースC
DBにおいてこのクリップ間の上下関係を基に当該クリ
ップを階層構造で管理する。なお、何ら編集処理に使用
されない素材クリップは他のクリップと関係し合ってい
ないが、そのような素材クリップはリンク先がないもの
として管理される。またここで示した例は、あくまで一
例であってクリップ間の上下関係としてはその他の組み
合わせも当然存在する。As described above, each clip has a vertical relationship. In this editing system 1, the clip database C
The DB manages the clips in a hierarchical structure based on the hierarchical relationship between the clips. Note that material clips that are not used for any editing processing are not related to other clips, but such material clips are managed as having no link destination. Further, the example shown here is merely an example, and there are naturally other combinations as the vertical relationship between clips.
【0050】(3−3)合成処理の概念 続いてこの項では、合成モジュールCMで行う合成処理
の概念について説明する。図4に示した結果クリップF
C−008のビデオイメージは、素材クリップMC−0
01、素材クリップMC−002及び素材クリップMC
−003のビデオイメージを合成処理(すなわちコンポ
ジット処理)することによって生成される。この合成処
理の概念を図5及び図6に示す。図5は、3つの素材ク
リップMC−001、MC−002及びMC−003の
ビデオイメージを合成する様子を示しており、図6は、
合成処理によって生成される結果クリップFC−008
のビデオイメージを表している。(3-3) Concept of Combining Process Next, in this section, the concept of the combining process performed by the combining module CM will be described. Result clip F shown in FIG.
The video image of C-008 is a material clip MC-0.
01, material clip MC-002 and material clip MC
-003 is generated by synthesizing the video image (that is, composite processing). FIGS. 5 and 6 show the concept of the combining process. FIG. 5 shows how video images of three material clips MC-001, MC-002, and MC-003 are synthesized, and FIG.
Result clip FC-008 generated by synthesis processing
Represents a video image.
【0051】本発明による編集システム1においては、
複数のクリップの合成を行う場合、各クリップを1つの
レイヤ(層)とみなし、そのレイヤを重ねることにより
合成処理を行う。図5に示す例では、第1のレイヤL1
として素材クリップMC−003を指定し、第2のレイ
ヤL2として素材クリップMC−002を指定し、第3
のレイヤL3として素材クリップMC−001を指定し
ている。各レイヤL1、L2及びL3に割り当てられた
素材クリップを合成する場合には、レイヤL1を最下層
としてその上に順次各レイヤL2、L3を重ねて行くこ
とにより行われる。すなわち第1のレイヤL1として指
定された素材クリップMC−003のビデオイメージ
(例えば背景を表すイメージ)の上に、第2のレイヤL
2として指定された素材クリップMC−002のビデオ
イメージ(例えば人物を表すイメージ)を重ね合わせて
合成し、さらにその合成したビデオイメージの上に第3
のレイヤL3として指定された素材クリップMC−00
1のビデオイメージ(例えばキャラクタを表すイメー
ジ)を重ね合わせて合成する。このような合成処理によ
り、図6に示すような3つの素材が重なり合ったような
ビデオイメージの結果クリップFC−008を生成する
ことができる。In the editing system 1 according to the present invention,
When combining a plurality of clips, each clip is regarded as one layer (layer), and the combining process is performed by overlapping the layers. In the example shown in FIG. 5, the first layer L1
And the material clip MC-002 as the second layer L2.
The material clip MC-001 is designated as the layer L3 of the. When synthesizing the material clips assigned to the layers L1, L2, and L3, the layers L1 and L3 are sequentially stacked on the layer L1 as the lowest layer. That is, the second layer L is placed on the video image (for example, an image representing the background) of the material clip MC-003 designated as the first layer L1.
The video image of the material clip MC-002 designated as No. 2 (for example, an image representing a person) is superimposed and synthesized, and a third image is placed on the synthesized video image.
Material clip MC-00 specified as the layer L3 of the
One video image (for example, an image representing a character) is superimposed and synthesized. By such a combining process, it is possible to generate a result clip FC-008 of a video image in which three materials overlap as shown in FIG.
【0052】なお、この図5に示す例では、3つのレイ
ヤL1〜L3にそれぞれ割り当てられた素材クリツブM
C−003、MC−002及びMC−001を合成する
例を示したが、本発明による編集システム1では、レイ
ヤの数は特に限定されるものではない。In the example shown in FIG. 5, the material clips M assigned to the three layers L1 to L3, respectively.
Although an example in which C-003, MC-002, and MC-001 are combined has been described, in the editing system 1 according to the present invention, the number of layers is not particularly limited.
【0053】4.GUI表示 各モジュールを起動したときにワークステーション2の
ディスプレイ2Bに表示されるGUI画面について説明
する。4. GUI Display A GUI screen displayed on the display 2B of the workstation 2 when each module is activated will be described.
【0054】(4−1)メインウィンドウの構成 ディスプレイ2Bには、図7に示すように、メインウィ
ンドウ30が表示される。上記メインウィンドウ30
は、編集に必要な機能をメニュー表示したメニュー(Me
nu)ウィンドウ31と、使用頻度の高い機能のメニュー
のみを表示したツールバー(Tool Bar)ウィンドウ32
と、ビンツリー(Bin Tree)ウィンドウ33を有し、さ
らに、必要に応じて、ビン(Bin)ウィンドウ34,ラ
ンコントロール(Run Control)ウィンドウ35,素材
クリップMC等の画像を編集前にプレビューして確認す
るためのプレビュー(Preview)ウィンドウ36,結果
クリップFCを作成するためのエディッタ(Editor)ウ
ィンドウ40とを有する。(4-1) Configuration of Main Window As shown in FIG. 7, a main window 30 is displayed on the display 2B. The main window 30
Is a menu (Me
nu) A window 31 and a toolbar (Tool Bar) window 32 displaying only menus of frequently used functions
And a Bin Tree window 33. Further, if necessary, preview images of a Bin window 34, a Run Control window 35, a material clip MC, and the like before editing to check them. And an editor window 40 for creating a result clip FC.
【0055】メニューウィンドウ31は、画像の編集処
理に必要な全ての機能のメニューを有し、例えば新規に
結果クリップFCを作成するためのニュー(New)メニ
ュー、作成終了した結果クリップFCに名前を付けて保
存するためのセイブ(Save)メニュー、中間結果を生成
するためのインターリム・メイク(Interim Make)メニ
ュー等を有する。The menu window 31 has a menu of all functions necessary for the image editing process. For example, a new menu for creating a new result clip FC, and a name for the created result clip FC. It has a Save menu for attaching and saving, an Interim Make menu for generating intermediate results, and the like.
【0056】ビンツリーウィンドウ33は、ビンウィン
ドウ34の中に入っている素材クリップMC,結果クリ
ップFC等がどのような場所に入っているかをツリー構
造によって示すものである。The bin tree window 33 shows, by a tree structure, the locations of the material clips MC, the result clips FC, and the like in the bin window 34.
【0057】ビンウィンドウ34の中には、カット編集
等に使用される様々な画像の素材クリップMC、既にあ
る程度編集された結果クリップFC、画像を加工処理等
するためのオブジェクトが入っている。The bin window 34 includes material clips MC of various images used for cut editing and the like, clips FC that have already been edited to some extent, and objects for processing the images.
【0058】ランコントロールウィンドウ35は、現在
の再生時刻であるカレントタイムを示す後述するカレン
トバーの位置を移動させるものである。なお、この詳細
な説明については後述する。The run control window 35 is for moving the position of a current bar, which will be described later, indicating the current time, which is the current reproduction time. This detailed description will be described later.
【0059】プレビューウィンドウ36は、図示しない
プレビューボタン、ビューボタン、オールプレビューボ
タン又はオールビューボタンを操作したときに、素材ク
リップMC又は結果クリップFCのビデオデータによる
画像を表示するエリアである。このような表示エリアを
設けたことにより、編集作業をしながら素材クリップM
C又は編集の結果生成された結果クリップFCのビデオ
イメージを確認することができる。The preview window 36 is an area for displaying an image of video data of the material clip MC or the result clip FC when a preview button, a view button, an all preview button, or an all view button (not shown) is operated. By providing such a display area, the material clip M
C or the video image of the result clip FC generated as a result of editing can be confirmed.
【0060】(4−2)エディッタウィンドウの構成 エディッタウィンドウ40は、結果クリップFCを取り
扱う、換言すると結果クリップを生成するものである。
エディッタウィンドウ40は、図8に示すように、現在
の時刻等を表示するカレントタイム(Current Time)エ
リア41、編集開始点や編集終了点の時刻を表示するイ
ンアウトタイム(In Out Time)エリア42、スケール
セレクト(Scale Select)エリア43、コ・タイムライ
ン(Co Timeline)44、タイムスケール(Time Scal
e)エリア45、各オブジェクトの時間的位置を表示編
集するタイムライン(Time Line)46、データの流れ
を示すオブジェクトが表示されるオブジェクト(Objec
t)エリア47とを有する。(4-2) Configuration of the Editor Window The editor window 40 handles the result clip FC, in other words, generates the result clip.
As shown in FIG. 8, the editor window 40 includes a current time (Current Time) area 41 for displaying the current time and the like, and an in-out time (In Out Time) area 42 for displaying the times of the editing start point and the editing end point. , Scale Select area 43, Co Timeline 44, Time Scal
e) an area 45, a time line 46 for displaying and editing the temporal position of each object, and an object (Objec) displaying an object indicating a data flow.
t) an area 47 is provided.
【0061】カレントタイムエリア41には、現在の時
刻であるカレントタイム(例えば「00:00:01:02」:0
時間0分1秒2フレーム)が表示される。なお、このカ
レントタイムは、タイムライン46上でカレントタイム
バー51が位置する時刻である。カレントタイムバー5
1の位置は、上述したランコントロールウィンドウ35
を用いて変更することができる。In the current time area 41, the current time (for example, “00: 00: 01: 02”: 0)
(Time 0 minutes 1 second 2 frames) is displayed. The current time is the time at which the current time bar 51 is located on the time line 46. Current time bar 5
The position of 1 is the run control window 35 described above.
Can be changed using.
【0062】ランコントロールウィンドウ35は、図9
に示すように、10個のGUI表示されたボタンによっ
て構成される。各ボタンは、それぞれクリックされるこ
とによって以下のようにカレントバーの位置を移動させ
る機能を有する。The run control window 35 is shown in FIG.
As shown in FIG. 7, the button is composed of ten GUI-displayed buttons. Each button has a function of moving the position of the current bar by clicking each button as follows.
【0063】トップ(Top)ボタン201は、先頭の結
果クリップFCにカレントタイムバー51を移動させ
る。プレビアス・キーフレーム(Previous KF)ボタン
202は、現在のカレントタイムバー51が示す時刻の
直前のキーフレームKFに、カレントタイムバー51を
移動させる。プレビアス・フレーム(Previous Frame)
ボタン203は、現在のカレントタイムバー51が示す
時刻の直前のフレームにカレントタイムバー51を移動
させる。ストップボタン204は、即時にカレントタイ
ムバー51の動きを停止させる。ラン(Run)ボタン2
05は、1倍速でカレントタイムバー51を動かす。ネ
クストフレーム(Next Frame)ボタン206は、現在の
カレントタイムバー51が示す時刻の直後のフレームに
カレントタイムバー51を移動させる。ネクストキーフ
レーム(Next KF)ボタン207は、現在のカレントタ
イムバー51が示す時刻の直後のキーフレームにカレン
トタイムバー51を移動させる。ゴーツー(Goto)ボタ
ン208は、指定されるキーフレーム番号のキーフレー
ムKF、又は指定される時刻にカレントタイムバー51
を移動させる。エンド(End)ボタン209は、最後の
結果クリップFCの終わりの部分にカレントタイムバー
51を移動させる。クリエイト・キーフレーム(Create
KF)ボタン210は、現在のカレントタイムバー51
が示す位置(時刻)に新しいキーフレームKFを作成す
る。これにより、クリップの制御とキーフレームKFに
関連する制御を行うことができる。A Top button 201 moves the current time bar 51 to the top result clip FC. A previous key frame (Previous KF) button 202 moves the current time bar 51 to a key frame KF immediately before the time indicated by the current current time bar 51. Previous Frame
The button 203 moves the current time bar 51 to the frame immediately before the time indicated by the current current time bar 51. The stop button 204 immediately stops the movement of the current time bar 51. Run button 2
05 moves the current time bar 51 at 1x speed. A next frame (Next Frame) button 206 moves the current time bar 51 to a frame immediately after the time indicated by the current current time bar 51. A next key frame (Next KF) button 207 moves the current time bar 51 to a key frame immediately after the time indicated by the current current time bar 51. The Goto button 208 is used to activate the key frame KF of the designated key frame number or the current time bar 51 at the designated time.
To move. An End button 209 moves the current time bar 51 to the end of the last result clip FC. Create Keyframe (Create
The KF) button 210 displays the current current time bar 51
A new key frame KF is created at the position (time) indicated by. As a result, control of the clip and control relating to the key frame KF can be performed.
【0064】インアウトタイムエリア42は、編集開始
点たるイン点の時刻(例えば「00:00:01:02」)と、編
集終了点たるアウト点の時刻(例えば「00:00:01:2
2」)が表示される。イン点とアウト点は、選択状態す
なわち編集処理の対象となっている素材クリップMC又
は結果クリップFCの先頭と終点を示す。なお、タイム
ライン46上の各レイヤLにおいて、イン点からアウト
点までの範囲を「セル」という。The in-out time area 42 includes an in-point time (eg, “00: 00: 01: 02”) as an editing start point and an out-point time (eg, “00: 00: 01: 2”) as an editing end point.
2) is displayed. The in point and the out point indicate the selected state, that is, the start and end points of the material clip MC or the result clip FC that is the target of the editing process. In each layer L on the timeline 46, the range from the in point to the out point is called a "cell".
【0065】スケールセレクトエリア43は、タイムラ
イン46の時間方向の大きさ(スケール)を設定するも
のであり、図8に示すように、タイムライン46上の1
フレームの大きさを設定する「Frame」、1秒間の大き
さを設定する「Second」、1分間の大きさを設定する
「Min」とがある。「Frame」は、4つのチェックボック
スを有し、左から順に、単位時間1フレーム,2フレー
ム,5フレーム,10フレームを意味する。「Second」
は、5つのチェックボックスを有し、左から順に、単位
時間1秒,2秒,5秒,10秒,20秒を意味する。
「Min」は、4つのチェックボックスを有し、左から順
に、単位時間1分,2分,5分,10分を意味する。The scale select area 43 is for setting the size (scale) of the time line 46 in the time direction. As shown in FIG.
There are “Frame” for setting the size of the frame, “Second” for setting the size for one second, and “Min” for setting the size for one minute. “Frame” has four check boxes, and means 1 frame, 2 frames, 5 frames, and 10 frames in unit time from the left. "Second"
Has five check boxes and means unit time 1 second, 2 seconds, 5 seconds, 10 seconds, and 20 seconds in order from the left.
“Min” has four check boxes, and means unit times of 1 minute, 2 minutes, 5 minutes, and 10 minutes in order from the left.
【0066】ここで、図10に示すタイムスケールの表
を用いて、単位時間当たりの表示ステップについて説明
する。例えば図8に示すように、「Frame」の単位時間
1フレームのチェックボックスがチェックされると、ビ
デオデータのレイヤLにはサムネイルピクチャ(Thumbn
ail Picture)が1フレーム毎に表示され、表示される
単位ステップ(Show Time Step)は5フレームになる。
サムネイルピクチャとは、画像の素材クリップMCがあ
るレイヤLに設定されている場合において当該レイヤに
表示される簡易画像をいう。例えば図8に示すレイヤL
3に表示されている画像が該当する。なお、サムネイル
ピクチャの横対縦の比は4対3であり、例えばタイムラ
イン46の各レイヤの幅が30ピクセルの場合には、サ
ムネイルピクチャは40×30ピクセルの縮小画像とな
る。このとき、タイムスケールエリア45では、「00:0
0:01:00」の次に「00:00:01:05」が表示されていること
から、5フレーム単位で表示されている。同様に図10
によると、例えば「Second」の単位時間2秒のチェック
ボックスがチェックされると、ビデオデータのレイヤL
にはサムネイルピクチャが60フレーム毎に表示され、
表示される単位ステップは10秒になる。Here, the display steps per unit time will be described using the time scale table shown in FIG. For example, as shown in FIG. 8, when the check box of one frame of unit time of “Frame” is checked, a thumbnail picture (Thumbn
ail Picture) is displayed for each frame, and the displayed unit step (Show Time Step) is 5 frames.
A thumbnail picture is a simple image displayed on a layer L when a material clip MC of the image is set on a certain layer L. For example, the layer L shown in FIG.
The image displayed in 3 corresponds to this. Note that the width-to-length ratio of the thumbnail picture is 4: 3. For example, when the width of each layer on the timeline 46 is 30 pixels, the thumbnail picture is a reduced image of 40 × 30 pixels. At this time, in the time scale area 45, “00: 0
Since "00: 00: 01: 05" is displayed after "0:01:00", it is displayed in units of five frames. Similarly, FIG.
According to this, for example, when the check box of the unit time of 2 seconds of “Second” is checked, the layer L of the video data is
Displays thumbnail pictures every 60 frames,
The displayed unit step is 10 seconds.
【0067】コ・タイムライン44は、タイムライン4
6によって指定した編集内容を表示したものである。こ
の場合、タイムライン46においては、画面の制約上、
全ての編集内容を一度に全部表示することができないの
で、このコ・タイムライン44においてその編集内容を
縮小したグラフィックイメージを表示することにより、
全体としてどのような編集内容を指定しているのかを容
易に把握し得るようになされている。例えばタイムライ
ン46においていくつかの素材クリップMCを合成する
ような編集内容を指定した場合には、その編集内容に合
わせて、各レイヤに指定されたクリップを示す棒状グラ
フィックイメージがそれぞれ重なったようなグラフィッ
クイメージがコ・タイムラインに表示される。The co-timeline 44 corresponds to the timeline 4
6 shows the edited content specified. In this case, in the timeline 46, due to screen restrictions,
Since all the edited contents cannot be displayed at once, by displaying a graphic image of the edited contents on the co-timeline 44,
As a whole, it is possible to easily understand what editing content is specified. For example, in the case where editing contents such as combining several material clips MC are specified in the timeline 46, a bar-shaped graphic image indicating a clip specified in each layer is overlapped with the editing contents. The graphic image is displayed on the co-timeline.
【0068】これによりユーザはこの表示を見て、指定
されている編集内容の全貌を把握し得ると共に、その内
容がいくつかのクリップの合成処理であることを容易に
把握し得る。Thus, the user can see the display to grasp the whole picture of the specified editing contents and easily grasp that the contents are the synthesis processing of several clips.
【0069】タイムスケールエリア45には、プレビュ
ーエリア45aとインアウトエリア45bとがあり、上
述した単位ステップ当たりの時間が表示される。プレビ
ューエリア45aには、図示しないプレビューボタンを
操作したとき、プレビューの対象画像のビデオデータの
範囲を示す青色のバーが表示される。インアウトエリア
45bには、編集開始点から編集終了点までの範囲を示
す黄色のバーが表示される。The time scale area 45 has a preview area 45a and an in-out area 45b, and the time per unit step is displayed. When a preview button (not shown) is operated, a blue bar indicating the range of video data of the preview target image is displayed in the preview area 45a. A yellow bar indicating the range from the editing start point to the editing end point is displayed in the in-out area 45b.
【0070】タイムライン46は、合成処理を行う編集
対象のクリップを各レイヤに対して指定するためのエリ
アである。この編集システム1においては、その1つ1
つに合成処理の素材となるクリップを指定することがで
きる。なお、このタイムライン46としては表示範囲が
限られており、一度に全てのレイヤLを表示することが
できない。しかしながらこのタイムライン46の右端に
表示されているスクロールボタンを操作することによ
り、タイムライン46を上下方向にスクロールさせるこ
とができるので、これによって所望のレイヤを表示させ
ることができるようになっている。このタイムライン4
6においては、各レイヤの1つ1つに合成処理の素材と
なるクリップが対応する。The time line 46 is an area for designating a clip to be edited to be subjected to the composition processing for each layer. In this editing system 1, each one
Finally, it is possible to specify a clip to be a material for the composition processing. The display range of the timeline 46 is limited, and it is not possible to display all the layers L at one time. However, by operating the scroll buttons displayed at the right end of the timeline 46, the timeline 46 can be scrolled up and down, so that a desired layer can be displayed. . This timeline 4
In 6, each of the layers corresponds to a clip serving as a material of the composition processing.
【0071】オブジェクトエリア47には、タイムライ
ン46を構成する各レイヤの接続状態を示すオブジェク
ト52が表示される。各オブジェクト52は、各レイヤ
に対応して1つずつ存在する。In the object area 47, an object 52 indicating the connection state of each layer constituting the timeline 46 is displayed. Each object 52 exists one by one corresponding to each layer.
【0072】このオブジェクト52は、ビンウィンドウ
34からドラッグ・アンド・ドロップによりオブジェク
トエリア47に貼り付けられる。オブジェクト52は、
垂直方向においてはタイムライン46の行単位(各レイ
ヤ単位)に位置し、水平方向においては自由に位置する
ことができる。The object 52 is pasted from the bin window 34 to the object area 47 by drag and drop. Object 52 is
In the vertical direction, it can be located in units of rows (each layer) of the timeline 46, and can be located freely in the horizontal direction.
【0073】5.操作方法 (5−1)エディッタウィンドウの起動 図7に示すビンウィンドウ34には、上述したように、
複数の素材クリップMCや結果クリップFCが入ってい
る。ユーザが結果クリップFCをダブルクリックする
と、当該結果クリップFCを編集するためのエディッタ
ウィンドウ40が表示される。また、タイムライン46
の各レイヤ上のいずれかのセル(クリップ)をダブルク
リックしても、当該クリップを編集するためのエディッ
タウィンドウ40が表示される。5. Operation method (5-1) Starting the editor window The bin window 34 shown in FIG.
A plurality of material clips MC and result clips FC are included. When the user double-clicks on the result clip FC, an editor window 40 for editing the result clip FC is displayed. Also, the timeline 46
Double-clicking on any cell (clip) on each layer of the above also displays an editor window 40 for editing the clip.
【0074】なお、新たに結果クリップFCを生成する
場合は、ビンウィンドウ34に空の結果クリップFCを
予め作成しておく必要がある。以下の説明では、空の結
果クリップFCのエディッタウィンドウ40を用いて、
結果クリップFCの実体を作成する場合について説明す
る。When a new result clip FC is to be generated, it is necessary to create an empty result clip FC in the bin window 34 in advance. In the following description, using the empty result clip FC editor window 40,
A case where the entity of the result clip FC is created will be described.
【0075】(5−2)タイムラインの作成 上記エディッタウィンドウ40が起動すると、上述の図
7に示すように、空のタイムライン46及びオブジェク
トエリア47が表示される。(5-2) Creation of Timeline When the above-mentioned editor window 40 is activated, an empty timeline 46 and an object area 47 are displayed as shown in FIG.
【0076】ユーザは、ビンウィンドウ34の中から所
望の素材クリップMC(又は結果クリップFCやオブジ
ェクト等)をクリックすることにより、当該素材クリッ
プMCを選択する。このような処理を行うと、素材クリ
ップMCのセルが表示される。そして、これをドラッグ
・アンド・ドロップにより所望の位置に置けば、その位
置にレイヤが形成され、当該レイヤに対して素材クリッ
プMCが設定される。なお、素材クリップMCは、垂直
方向ではレイヤ単位で、水平方向ではフレーム単位で設
定される。The user selects a desired material clip MC by clicking on a desired material clip MC (or a result clip FC or an object or the like) from the bin window 34. By performing such processing, the cell of the material clip MC is displayed. Then, when this is placed at a desired position by drag and drop, a layer is formed at that position, and a material clip MC is set for the layer. The material clips MC are set in layers in the vertical direction and in frames in the horizontal direction.
【0077】また、タイムライン46にセルを設定した
後、当該セルをドラッグして水平方向のみに移動させる
こともできる。さらに、セルのイン点やアウト点をドラ
ッグ・アンド・ドロップして、その設定位置を変更する
こともできる。After setting a cell on the time line 46, the cell can be dragged and moved only in the horizontal direction. Further, the setting position can be changed by dragging and dropping the in point and the out point of the cell.
【0078】なお、クリップを示すセルの長さは、その
クリップのデュレーション(クリップの始まりから終わ
りまでの時間)に対応した長さになっている。また、各
セルの中には、クリップ名又はキー処理名を示す文字が
表示されるようになされており、これによりどのクリッ
プ又はキー処理が設定された一目で分かるようになって
いる。The length of a cell indicating a clip is a length corresponding to the duration of the clip (the time from the start to the end of the clip). In each cell, a character indicating a clip name or a key processing name is displayed, so that the user can know at a glance which clip or key processing is set.
【0079】(5−3)オブジェクトの作成 ユーザは、ビンウィンドウ34の中から所望のオブジェ
クトをクリックすることにより、当該オブジェクトを選
択する。そして、これをドラッグ・アンド・ドロップに
よりオブジェクトエリア47の所望の位置に置けば、オ
ブジェクトが設定される。このとき、オブジェクトは、
垂直方向においてはレイヤ単位で設定される。すなわ
ち、オブジェクトは、各レイヤの水平線上に設定され
る。(5-3) Creation of Object The user clicks a desired object in the bin window 34 to select the object. Then, by placing the object at a desired position in the object area 47 by drag and drop, an object is set. At this time, the object is
In the vertical direction, it is set for each layer. That is, the object is set on the horizontal line of each layer.
【0080】なお、オブジェクトは、オブジェクトエリ
ア47に設定された後であっても、ドラッグすることに
よって移動することができる。かくして、オブジェクト
エリア47に、複数のオブジェクトを設定することがで
きる。The object can be moved by dragging even after it has been set in the object area 47. Thus, a plurality of objects can be set in the object area 47.
【0081】オブジェクトエリア47に複数のオブジェ
クトを設定すると、次に、各オブジェクトを結線する必
要がある。When a plurality of objects are set in the object area 47, it is necessary to connect the objects next.
【0082】ここで、図11に示すように、オブジェク
ト52は、オブジェクトボディ53に入力用コネクタ5
4(54a,54b)、ビュースイッチ55(55a,
55b)、出力用コネクタ56を備え、入力用コネクタ
54にビデオデータ又はパラメータが入力する入力ライ
ン57(57a,57b)が接続され、出力用コネクタ
56に出力用ライン58が接続されて構成される。な
お、オブジェクト52は、各入力用コネクタ54のうち
主要なものを、詳しくは後述するように、主要入力用コ
ネクタとして取り扱っている。Here, as shown in FIG. 11, the object 52 is
4 (54a, 54b), view switch 55 (55a,
55b), an output connector 56 is provided, an input connector 54 is connected to input lines 57 (57a, 57b) for inputting video data or parameters, and an output connector 56 is connected to an output line 58. . Note that the object 52 handles a main one of the input connectors 54 as a main input connector as described later in detail.
【0083】出力用コネクタ56をクリックすると、当
該出力用コネクタ56を起点とする配線モードに移行す
る。そして、他のオブジェクト52の入力用コネクタ5
4をクリックすると、これらのコネクタ間で結線され、
配線モードが終了する。なお、ここでは、出力用コネク
タ56を起点として結線する場合について説明したが、
入力用コネクタ54を起点とする場合も同様にして結線
することができる。When the output connector 56 is clicked, a transition is made to the wiring mode starting from the output connector 56. Then, the input connector 5 of another object 52
4 Click to connect between these connectors,
The wiring mode ends. Here, the case where the connection is made with the output connector 56 as a starting point has been described,
When the input connector 54 is used as a starting point, the connection can be made in the same manner.
【0084】このようにして結線されたオブジェクト5
2には、ビデオデータやパラメータ等がオブジェクトボ
ディ53の下方から入力される。そして、オブジェクト
52は、上記ビデオデータやパラメータ等をオブジェク
トボディ53の右方から出力する。なお、入力用ライン
57及び出力用ライン58の色は、信号の種類によって
異なっている。例えば、ビデオデータ入出力ラインは青
色、キーの入出力ラインは赤色、ビデオデータとキーの
入出力ラインマゼンダ色、パラメータの入出力ラインは
緑色である。The object 5 thus connected
2, video data, parameters, and the like are input from below the object body 53. Then, the object 52 outputs the video data, parameters, and the like from the right side of the object body 53. The colors of the input line 57 and the output line 58 differ depending on the type of signal. For example, video data input / output lines are blue, key input / output lines are red, video data and key input / output lines are magenta, and parameter input / output lines are green.
【0085】また、例えばビュースイッチ55bをクリ
ックすると、図12に示すように、入力用コネクタ54
b及びこれに接続している入力用ライン57bが消え
る。但し、単に、入力用ライン57bが表示されなくな
るだけで、入力用ライン57bを介して接続されている
他のオブジェクトとの関係がなくなるわけではない。こ
れにより、多くのオブジェクト52があるときは、ビュ
ースイッチ55をクリックすることによって、オブジェ
クト構成を簡易に表示することができる。When the view switch 55b is clicked, for example, as shown in FIG.
b and the input line 57b connected thereto disappear. However, simply the input line 57b is not displayed, but this does not mean that the relationship with other objects connected via the input line 57b is not lost. Thus, when there are many objects 52, the object configuration can be easily displayed by clicking the view switch 55.
【0086】図13は、オブジェクトボディ53に多く
の入力用ライン57及び出力用ライン58が接続されて
いるときのオブジェクト52を示す図である。上記オブ
ジェクト52は、図示しない他のオブジェクトと入力用
ライン57a〜57c,57eを介して接続されてい
る。なお、ビュースイッチ55dがクリックされている
ことから、入力用コネクタ54dと接続している入力用
ラインは存在しているものの、その入力用ラインは表示
されていない。さらに、上記オブジェクト52は、4つ
の出力用コネクタ56a,56b,56c,56dを有
し、これらのそれぞれに出力用ライン58a,58b,
58c,58dが接続されている。FIG. 13 is a diagram showing the object 52 when many input lines 57 and output lines 58 are connected to the object body 53. The object 52 is connected to other objects (not shown) via input lines 57a to 57c and 57e. Since the view switch 55d is clicked, there is an input line connected to the input connector 54d, but the input line is not displayed. Further, the object 52 has four output connectors 56a, 56b, 56c, 56d, each of which has an output line 58a, 58b,
58c and 58d are connected.
【0087】(5−4)信号のプロパティ また、入力用コネクタ54がダブルクリックされると、
当該入力用コネクタ54に接続される入力用ライン57
の信号のダイアログボックスが表示される。例えば図1
1に示すオブジェクト52において、入力用コネクタ5
4aがダブルクリックされると、図14に示すように、
入力用コネクタ54aに入力される信号のダイアログボ
ックス60が表示される。(5-4) Signal Properties When the input connector 54 is double-clicked,
An input line 57 connected to the input connector 54
Is displayed. For example, FIG.
In the object 52 shown in FIG.
When 4a is double-clicked, as shown in FIG.
A dialog box 60 for a signal input to the input connector 54a is displayed.
【0088】上記ダイアログボックス60は、入力用コ
ネクタ54aに入力される信号がビデオデータであるこ
とを示すビデオ(Video)チェックボックス61と、そ
れがキーであることを示すキー(Key)ボックス62
と、ビデオ信号及びキーであることを示すビデオ・アン
ド・キー(Video and Key)チェックボックス63とを
有する。上記ダイアログボックス60は、3つのチェッ
クボックスのうちいずれか1つにチェック印を付すこと
によって、入力用コネクタ54aに入力される信号の種
類を明示し、図14の場合、上記入力用ライン57の信
号はビデオデータであることを示している。The dialog box 60 includes a video (Video) check box 61 indicating that a signal input to the input connector 54a is video data, and a key (Key) box 62 indicating that the signal is a key.
And a video and key (Video and Key) check box 63 indicating that the key is a video signal and a key. The dialog box 60 specifies the type of signal input to the input connector 54a by checking one of the three check boxes, and in the case of FIG. The signal indicates video data.
【0089】但し、上記ダイアログボックス60が開い
ているときに、他のチェックボックス、例えばキーチェ
ックボックスにクリックしてチェック印を付してもよ
い。これにより、入力用ライン57の信号はキー信号に
変更される。However, when the dialog box 60 is open, another check box, for example, a key check box may be clicked to add a check mark. As a result, the signal on the input line 57 is changed to a key signal.
【0090】また、ダイアログボックス60は、入力用
コネクタ54aに入力される信号がパラメータの時はそ
のパラメータの内容を示すことがあり、例えば図15に
示すように、3次元パラメータである「3D Transform」
を表示することもある。When the signal input to the input connector 54a is a parameter, the dialog box 60 may indicate the content of the parameter. For example, as shown in FIG. 15, the three-dimensional parameter "3D Transform""
May be displayed.
【0091】また、オブジェクト52のオブジェクトボ
ディ53がダブルクリックされると、図16に示すよう
に、当該オブジェクト52のプロパティを示すオブジェ
クト・ダイアログボックス70が表示される。When the object body 53 of the object 52 is double-clicked, an object dialog box 70 showing the properties of the object 52 is displayed as shown in FIG.
【0092】オブジェクト・ダイアログボックス70
は、当該オブジェクト52の名前、入力用コネクタ54
及び出力用コネクタ56の一覧、キーフレームに入らな
いパラメータの表示及び設定を行うためのものである。
上記オブジェクト・ダイアログボックス70は、具体的
には図16に示すように、入力用コネクタ54に入力さ
れる信号として「Layer1」,「BackGround」,「3D」,
「Parameter」のスイッチボックスを示し、出力用コネ
クタ56から出力される信号として「Layered」,「Par
ameter」のスイッチボックスを表示している。スイッチ
ボックスをクリックしてチェック印を取ると、そのスイ
ッチボックスに対応する入力用コネクタ54に信号が入
力されないようになる。なお、再び上記スイッチボック
スをクリックしてチェック印を付けると、上記入力用コ
ネクタ54に信号が入力されるようになる。Object dialog box 70
Is the name of the object 52, the input connector 54
And a list of output connectors 56, and display and setting of parameters not included in the key frame.
Specifically, as shown in FIG. 16, the object dialog box 70 displays “Layer1”, “BackGround”, “3D”,
The switch box of "Parameter" is shown, and "Layered" and "Par" are output as signals output from the output connector 56.
ameter "switch box. When the switch box is clicked to take a check mark, no signal is input to the input connector 54 corresponding to the switch box. When the switch box is clicked again to place a check mark, a signal is input to the input connector 54.
【0093】また、オブジェクト・ダイアログボックス
70は、バイパス(Bypass)スイッチボックス71を有
する。バイパススイッチボックス71は、上記オブジェ
クト51の上述した主要入力用コネクタ54から入力さ
れる信号をそのまま出力(バイパス)するか否かの切り
替えを行うものである。すなわち、オブジェクト52
は、バイパススイッチボックス71がチェックされる
と、上記主要入力用コネクタ54に入力される信号をそ
のまま外部に出力するようになっている。The object dialog box 70 has a bypass switch box 71. The bypass switch box 71 switches whether to output (bypass) a signal input from the main input connector 54 of the object 51 as it is. That is, the object 52
When the bypass switch box 71 is checked, the signal input to the main input connector 54 is output to the outside as it is.
【0094】6.結果クリップFCの生成 (6−1)文字の映像化 つぎに、図17に示す簡単な構成のタイムライン46及
びオブジェクトを用いて、文字を映像化する結果クリッ
プFCを生成する場合について説明する。上記タイムラ
イン46は、レイヤL1とレイヤL2とによって構成さ
れる。レイヤL1は、文字データからその文字の画像を
生成するレイヤである。レイヤL2は、所定の文字デー
タを所定の時刻に出力するレイヤであり、ここでは3つ
のキーフレームKFを有する。ここでは、キーフレーム
KF1は「今日は」、キーフレームKF2は「天気
が」、キーフレームKF3は「よい。」の文字データで
ある。6. Generation of Result Clip FC (6-1) Visualization of Character Next, a case where a result clip FC for visualizing a character is generated using the timeline 46 and the object having a simple configuration shown in FIG. 17 will be described. The time line 46 includes a layer L1 and a layer L2. The layer L1 is a layer that generates an image of the character from the character data. The layer L2 is a layer that outputs predetermined character data at a predetermined time, and has three key frames KF here. Here, the key frame KF1 is character data of “Today”, the key frame KF2 is character data of “weather”, and the key frame KF3 is character data of “good”.
【0095】また、各レイヤL1,L2に対応して、オ
ブジェクトが設けられている。第1のオブジェクト71
は、レイヤL2に対応し、キーフレームKF1〜KF3
による所定の時刻になると「今日は」,「天気が」「よ
い。」の文字データを、それぞれ出力用コネクタを介し
て第2のオブジェクト72に供給する。第2のオブジェ
クト72は、レイヤL1に対応し、上記文字データに基
づいて、順次その文字の画像を生成して出力する。これ
により、「今日は天気がよい。」という画像(テロッ
プ)が生成される。Further, an object is provided for each of the layers L1 and L2. First object 71
Corresponds to the layer L2, and corresponds to the key frames KF1 to KF3.
When the predetermined time is reached, the character data of "today", "weather" and "good" are supplied to the second object 72 via the output connectors. The second object 72 corresponds to the layer L1, and sequentially generates and outputs an image of the character based on the character data. As a result, an image (telop) of “the weather is fine today” is generated.
【0096】以上のように、タイムラインと当該タイム
ラインの各レイヤに対応するオブジェクトとを用いるこ
とによって、タイムラインに従って画像の時間管理を行
うことができ、オブジェクトの接続関係によって各レイ
ヤの接続関係を容易に認識することができ、ユーザは容
易に編集作業を行うことができる。As described above, by using the timeline and the object corresponding to each layer of the timeline, the time management of the image can be performed in accordance with the timeline, and the connection relation of each layer is determined by the connection relation of the object. Can be easily recognized, and the user can easily perform the editing operation.
【0097】(6−2)中間結果の生成 上述したエディッタウィンドウ40は、タイムラインや
オブジェクトを用いて編集処理を行って、最終のオブジ
ェクトから出力される編集結果を結果クリップFCとし
て出力する。タイムライン46がレイヤの多層構造とな
り、それに伴ってオブジェクトの数が非常に大きくなる
と、オブジェクトの途中の段階でどのような画像が生成
されているのか確認する必要が生じる。そこで、途中の
オブジェクトであっても、その中間結果を生成して画像
を確認することができるようになっている。(6-2) Generation of Intermediate Result The above-described editor window 40 performs an editing process using a timeline or an object, and outputs an editing result output from a final object as a result clip FC. When the timeline 46 has a multi-layer structure of layers, and the number of objects becomes extremely large with this, it is necessary to confirm what kind of image is being generated in the middle of the object. Therefore, even in the case of an intermediate object, an intermediate result can be generated and the image can be confirmed.
【0098】ここで、図18に示すように、タイムライ
ン46及びオブジェクトが構成されている場合を例に挙
げて説明する。タイムライン46において、レイヤL5
は、”Take12”という名前のカット画像のレイヤであ
る。レイヤL4は、画像の動きから3次元パラメータを
生成するレイヤである。なお、ここでは、オブジェクト
82の中間結果の生成について説明するため、他のレイ
ヤについては記載を省略する。一方、オブジェクト81
は、レイヤL5に対応するものであり、”Take12”の画
像をオブジェクト82に供給する。オブジェクト82
は、供給される画像に基づいてその画像の動きを示す3
次元パラメータを生成して出力する。Here, a case where a time line 46 and an object are configured as shown in FIG. 18 will be described as an example. In the timeline 46, the layer L5
Is a layer of a cut image named “Take12”. The layer L4 is a layer that generates three-dimensional parameters from the motion of the image. Here, the generation of the intermediate result of the object 82 will be described, and the description of the other layers will be omitted. On the other hand, object 81
Corresponds to the layer L5, and supplies the image of “Take12” to the object 82. Object 82
Indicates the motion of the supplied image based on the supplied image.
Generate and output dimensional parameters.
【0099】ここで、中間結果を生成すべく、オブジェ
クト82をクリックし、さらに、図7に示すメニューウ
ィンドウ31の中からインターリム・メイク・メニュー
を選択すると、オブジェクト82がアイコン化される。
オブジェクト82がアイコン化されると、図19に示す
ように、レイヤL4,L5のクリップが真っ黒になり、
オブジェクト82は編集することができなくなる。な
お、中間結果によって生成されたものが画像である場合
は、アイコン化されたオブジェクト82の内容をプレビ
ュー等することにより、オブジェクト82の出力内容を
確認することができる。Here, when an object 82 is clicked to generate an intermediate result and an interlim make menu is selected from the menu window 31 shown in FIG. 7, the object 82 is iconified.
When the object 82 is iconified, the clips of the layers L4 and L5 become black as shown in FIG.
The object 82 cannot be edited. If the intermediate result is an image, the output contents of the object 82 can be confirmed by previewing the contents of the iconized object 82 or the like.
【0100】さらに、オブジェクト82を選択(クリッ
ク)した状態でメニューウィンドウ31の中から”Save
As(名前を付けて保存)”を選択すると、上記オブジ
ェクト82の内容が保存され、オブジェクト82の出力
内容の結果クリップFCが生成される。Further, with the object 82 selected (clicked), "Save" is selected from the menu window 31.
When "As (save as name)" is selected, the contents of the object 82 are saved, and a clip FC is generated as a result of the output contents of the object 82.
【0101】そして、中間結果を破棄して再度編集作業
を行うときは、上記オブジェクト82を選択し、さら
に、メニューウィンドウの中からアン・メイク(UnMak
e)メニューを選択すればよい。このとき、中間結果が
破棄され、オブジェクト82以降のオブジェクトについ
ての編集処理が可能になる。When the intermediate result is discarded and the editing operation is performed again, the object 82 is selected, and the unmake (UnMak) is selected from the menu window.
e) Select a menu. At this time, the intermediate result is discarded, and editing processing of objects subsequent to the object 82 becomes possible.
【0102】(6−3)ユーザ定義による結果クリップ
FCの生成 また、単に中間結果を生成するのではなく、途中のオブ
ジェクトの出力を結果クリップFCとして生成すること
もできる。(6-3) Generation of User-Defined Result Clip FC Instead of simply generating an intermediate result, an output of an intermediate object can be generated as a result clip FC.
【0103】ここで、図20に示すように、タイムライ
ン46及びオブジェクトが構成されている場合を例に挙
げて説明する。タイムライン46において、レイヤL6
は、”Take12”という名前のカット画像のレイヤであ
る。レイヤL5は、キーフレームKF1,KF2,KF
3のタイミングで画像の色に変化を与えるレイヤであ
る。なお、他のレイヤについては記載を省略する。一
方、オブジェクト83は、レイヤL6に対応するもので
あり、”Take12”の画像をオブジェクト84に供給す
る。オブジェクト84は、供給される画像に対して、上
記各キーフレームKFのタイミングに従って、色に変化
を与えて出力する。Here, a case where a time line 46 and an object are configured as shown in FIG. 20 will be described as an example. In the timeline 46, the layer L6
Is a layer of a cut image named “Take12”. Layer L5 includes key frames KF1, KF2, and KF.
This is a layer that changes the color of the image at the timing 3. Note that description of other layers is omitted. On the other hand, the object 83 corresponds to the layer L6, and supplies the image of “Take12” to the object 84. The object 84 changes the color of the supplied image in accordance with the timing of each key frame KF and outputs the image.
【0104】そして、オブジェクト84又はレイヤL5
のクリップを選択した状態でメニューウィンドウ31の
中から”Save As”を選択すると、タイムラインを持っ
たイフェクトとして結果クリップFCを生成することが
できる。このようにして生成された結果クリップFC
は、ビンウィンドウ34のなかに現れ、他の結果クリッ
プFCを生成するために再利用することができるように
なる。Then, the object 84 or the layer L5
When "Save As" is selected from the menu window 31 in a state where the clip is selected, the resulting clip FC can be generated as an effect having a timeline. The resulting clip FC generated in this manner
Appear in the bin window 34 and can be reused to generate other resulting clips FC.
【0105】(6−4)その他の例 以下、タイムライン46及びオブジェクトエリア47に
配置されるオブジェクトの構成の一例を示し、その内容
について説明する。(6-4) Other Examples Hereinafter, an example of the configuration of the objects arranged in the time line 46 and the object area 47 will be shown, and the contents thereof will be described.
【0106】図21に、メイン画像にタイトル画像を乗
せる場合における、タイムライン46及びオブジェクト
エリア47に配置されたオブジェクトの一例要の部構成
図を示す。タイムライン46は、レイヤL1からレイヤ
L4までの4つのレイヤによって構成される。レイヤL
4は、画像”XXX”のビデオデータのレイヤである。
レイヤL3は、上記画像”XXX”に表示されるタイト
ル画像”ZZZ”の文字データを示すレイヤである。レ
イヤL2は、合成処理を行うレイヤであり、ここでは、
画像”XXX”にタイトル画像”ZZZ”を合成する。
レイヤL1は、出力を示すレイヤである。FIG. 21 is a block diagram showing an example of an object arranged in the time line 46 and the object area 47 when a title image is placed on the main image. The time line 46 includes four layers from a layer L1 to a layer L4. Layer L
Reference numeral 4 denotes a layer of video data of the image “XXX”.
The layer L3 is a layer that indicates character data of the title image “ZZZ” displayed on the image “XXX”. The layer L2 is a layer for performing a combining process.
The title image “ZZZ” is combined with the image “XXX”.
The layer L1 is a layer indicating an output.
【0107】オブジェクトエリア47には、各レイヤに
対応したオブジェクト101〜104が設けられてい
る。オブジェクト101は、レイヤL4の真横に設けら
れ、当該レイヤL4に対応している。オブジェクト10
2は、レイヤL3の真横に設けられ、当該レイヤL3に
対応している。オブジェクト103は、レイヤL2の水
平線上に設けられ当該レイヤL2に対応していると共
に、オブジェクト101,102からのラインと接続し
ている。オブジェクト104は、レイヤL4の水平線上
に設けられ当該レイヤL4に対応していると共に、オブ
ジェクト103からのラインと接続している。In the object area 47, objects 101 to 104 corresponding to each layer are provided. The object 101 is provided right beside the layer L4, and corresponds to the layer L4. Object 10
2 is provided right beside the layer L3 and corresponds to the layer L3. The object 103 is provided on the horizontal line of the layer L2, corresponds to the layer L2, and is connected to the lines from the objects 101 and 102. The object 104 is provided on the horizontal line of the layer L4, corresponds to the layer L4, and is connected to a line from the object 103.
【0108】そして、オブジェクト101は、時刻「0
0:01:00」になると、画像”XXX”のビデオデータを
出力する。オブジェクト102は、時刻「00:01:10」に
なると、タイトル画像”ZZZ”の文字データを出力す
る。オブジェクト103は、オブジェクト101からの
ビデオデータを出力すると共に、キーフレームKF1
(時刻「00:01:40」),KF2(時刻「00:02:50」),
KF3(時刻「00:03:15」)のタイミングで”ZZZ”
の文字データを合成して出力する。オブジェクト104
は、オブジェクト103からのビデオデータを外部に出
力する。Then, the object 101 sets the time "0
[0:01:00], video data of the image “XXX” is output. The object 102 outputs the character data of the title image “ZZZ” at the time “00:01:10”. The object 103 outputs the video data from the object 101 and outputs the key frame KF1.
(Time "00:01:40"), KF2 (time "00:02:50"),
“ZZZ” at the timing of KF3 (time “00:03:15”)
And outputs the character data. Object 104
Outputs the video data from the object 103 to the outside.
【0109】このように、タイムライン46は各レイヤ
Lの時間を管理し、各オブジェクトは各レイヤLの接続
関係を構成することによって、レイヤLの順番に関係な
く、柔軟にデータの加工処理を行うことができる。As described above, the time line 46 manages the time of each layer L, and each object forms the connection relationship of each layer L, so that data processing can be flexibly performed regardless of the order of the layers L. It can be carried out.
【0110】図22に、メイン画像にタイトル画像を乗
せてそのタイトル画像をモーションキャプチャーで動か
す場合における、タイムライン46及び各オブジェクト
の要部構成図を示す。FIG. 22 shows a timeline 46 and a main part configuration diagram of each object when a title image is placed on a main image and the title image is moved by motion capture.
【0111】タイムライン46は、レイヤL1〜レイヤ
L6までの6つのレイヤLによって構成される。レイヤ
L6は、物体の動きを検出してその動きのパラメータを
出力するモーション・キャプチャー(Motion Capture)
のレイヤである。レイヤL3は、入力される3次元のパ
ラメータに基づいて入力画像を移動する3Dトランスフ
ォーム(3D Transform )のレイヤである。なお、レイ
ヤL1,L2は、上述した図21に示すレイヤL1,L
2と同じである。レイヤL4,L5は、それぞれ図21
に示すレイヤL3,L4と同じである。The time line 46 is composed of six layers L from layer L1 to layer L6. The layer L6 detects a motion of an object and outputs a parameter of the motion.
Layer. The layer L3 is a layer of a 3D transform (3D Transform) for moving an input image based on an input three-dimensional parameter. The layers L1 and L2 correspond to the layers L1 and L2 shown in FIG.
Same as 2. Layers L4 and L5 are respectively shown in FIG.
Are the same as the layers L3 and L4 shown in FIG.
【0112】オブジェクトエリア47には、各レイヤL
6〜L1にそれぞれ対応したオブジェクト105〜11
0が設けられている。オブジェクト105は、ある画像
の動きをとらえてその動きを示す3次元パラメータを出
力するものである。オブジェクト106は、メイン画
像”XXX”のビデオデータを出力する。オブジェクト
107は、タイトル画像”ZZZ”の文字データを出力
する。オブジェクト108は、オブジェクト105及び
オブジェクト107の出力ラインに接続されている。オ
ブジェクト109は、オブジェクト106及びオブジェ
クト108の出力ラインに接続されている。オブジェク
ト110は、オブジェクト109の出力ラインに接続さ
れ、このラインからの画像を外部に出力する。In the object area 47, each layer L
Objects 105 to 11 corresponding to 6 to L1, respectively
0 is provided. The object 105 captures a movement of a certain image and outputs a three-dimensional parameter indicating the movement. The object 106 outputs video data of the main image “XXX”. The object 107 outputs the character data of the title image “ZZZ”. The object 108 is connected to the output lines of the object 105 and the object 107. The object 109 is connected to the output lines of the object 106 and the object 108. The object 110 is connected to an output line of the object 109, and outputs an image from this line to the outside.
【0113】そして、オブジェクト108は、オブジェ
クト105からの3次元パラメータに基づいて、オブジ
ェクト107からのタイトル画像”ZZZ”を動かし
て、この動きのあるタイトル画像をオブジェクト109
に供給する。オブジェクト109は、オブジェクト10
6から供給される画像”XXX”を出力すると共に、キ
ーフレームKF1,KF2,KF3のタイミングになる
と、オブジェクト108からのタイトル画像を合成して
オブジェクト110に供給する。オブジェクト110
は、オブジェクト109からの画像を外部に出力する。The object 108 moves the title image “ZZZ” from the object 107 based on the three-dimensional parameters from the object 105, and
To supply. The object 109 is the object 10
At the timing of the key frames KF1, KF2, and KF3, a title image from the object 108 is synthesized and supplied to the object 110. Object 110
Outputs the image from the object 109 to the outside.
【0114】このように、メイン画像に単なるタイトル
画像を合成するだけでなく、動きのあるタイトル画像を
容易に合成することができる。As described above, not only a simple title image is synthesized with a main image, but also a moving title image can be easily synthesized.
【0115】図23に、メイン画像にタイトル画像を乗
せて当該タイトル画像をモーションキャプチャーと3D
で動かす場合における、タイムライン46及び各オブジ
ェクトの要部構成図を示す。In FIG. 23, a title image is placed on the main image, and the title image is subjected to motion capture and 3D.
FIG. 3 shows a configuration diagram of a main part of the timeline 46 and each object when moving with.
【0116】タイムライン46は、レイヤL1〜レイヤ
L7までの7つのレイヤLによって構成される。レイヤ
L7は、任意の物体が動いていることを示すレイヤであ
る。なお、レイヤL1〜L6は、図22に示すレイヤL
1〜L6と同じである。The time line 46 is composed of seven layers L from layer L1 to layer L7. The layer L7 is a layer indicating that an arbitrary object is moving. The layers L1 to L6 are the layers L shown in FIG.
Same as 1 to L6.
【0117】オブジェクトエリア47には、各レイヤL
7〜L1にそれぞれ対応したオブジェクト111〜11
7が設けられている。オブジェクト111は、3次元パ
ラメータを出力する。オブジェクト112は、オブジェ
クト111の出力ラインに接続されている。オブジェク
ト113は、メイン画像”XXX”のビデオデータを出
力する。オブジェクト114は、タイトル画像”ZZ
Z”の文字データを出力する。オブジェクト115は、
オブジェクト112及びオブジェクト114の出力ライ
ンに接続されている。オブジェクト116は、オブジェ
クト112及びオブジェクト115の出力ラインに接続
されている。オブジェクト117は、オブジェクト11
6の出力ラインに接続され、このラインからの画像を外
部に出力する。In the object area 47, each layer L
Objects 111 to 11 respectively corresponding to 7 to L1
7 are provided. The object 111 outputs three-dimensional parameters. The object 112 is connected to the output line of the object 111. The object 113 outputs video data of the main image “XXX”. The object 114 has the title image “ZZ”.
The character data of Z ″ is output.
The output lines of the object 112 and the object 114 are connected. The object 116 is connected to the output lines of the object 112 and the object 115. The object 117 is the object 11
6 is connected to an output line, and an image from this line is output to the outside.
【0118】そして、オブジェクト112は、オブジェ
クト111からの任意の物体の動きに基づいて、3次元
パラメータを出力する。オブジェクト115は、オブジ
ェクト112からの3次元パラメータに基づいてオブジ
ェクト114からのタイトル画像”ZZZ”を動かし
て、この動きのあるタイトル画像をオブジェクト116
に供給する。オブジェクト116は、オブジェクト11
3から供給される画像”XXX”を出力すると共に、キ
ーフレームKF1,KF2,KF3のタイミングになる
と、オブジェクト115からのタイトル画像を合成して
オブジェクト117に供給する。オブジェクト117
は、オブジェクト116からの画像を外部に出力する。The object 112 outputs three-dimensional parameters based on the movement of an arbitrary object from the object 111. The object 115 moves the title image “ZZZ” from the object 114 based on the three-dimensional parameters from the object 112, and
To supply. The object 116 is the object 11
At the timing of the key frames KF1, KF2, KF3, the title image from the object 115 is synthesized and supplied to the object 117. Object 117
Outputs the image from the object 116 to the outside.
【0119】このように、ある任意の物体の動きと共に
メイン画像に合成されるタイトル画像を動かすことがで
きる。As described above, the title image synthesized with the main image can be moved together with the movement of an arbitrary object.
【0120】図24に、図23と同様の機能を有するタ
イムライン46及び各オブジェクトの要部構成図を示
す。具体的には図23において、オブジェクト115の
ビュースイッチ115aをクリックすることによってオ
ブジェクト114及びレイヤL4を消去し、さらに、オ
ブジェクト116のビュースイッチ116aをクリック
することによってオブジェクト113及びレイヤL5を
消去している。FIG. 24 shows a time line 46 having the same functions as in FIG. 23 and a main part configuration diagram of each object. Specifically, in FIG. 23, the object 114 and the layer L4 are deleted by clicking the view switch 115a of the object 115, and the object 113 and the layer L5 are deleted by clicking the view switch 116a of the object 116. I have.
【0121】したがって、タイムライン46は、レイヤ
L1〜L5の5つのレイヤLによって構成されている。Therefore, the time line 46 is composed of five layers L, that is, layers L1 to L5.
【0122】このように、所定のビュースイッチをクリ
ックすることによって、当該ビュースイッチに対応する
入力用コネクタに、入力されるライン以下のオブジェク
ト及びレイヤLを消去して、簡易な表示を行っている。As described above, when a predetermined view switch is clicked, the object below the line to be input and the layer L are erased on the input connector corresponding to the view switch, and a simple display is performed. .
【0123】図25に、6面体を表示する場合におけ
る、タイムライン46及び各オブジェクトの要部構成図
を示す。FIG. 25 shows a configuration diagram of a main part of the time line 46 and each object when a hexahedron is displayed.
【0124】タイムライン46は、レイヤL1〜L18
までも18個のレイヤLによって構成されている。レイ
ヤL18は、立方体の全体の動きを示すグローブ・ムー
ブ(Global Move)のレイヤである。レイヤL15〜L
17は、立方体の各面のパラメータを示すキューブ(Cu
be)のレイヤである。レイヤL14は、立方体の一面で
ある画像”Video Side-1”を示すビデオデータのレイヤ
である。レイヤL13は、3次元パラメータに基づいて
画像を動かす3Dトランスフォーム(3D Transform)の
レイヤである。また、レイヤL12,L11、レイヤL
10,レイヤL9、レイヤL8,L7、レイヤL6,L
5、レイヤL4,L3は、上述したレイヤL14,L1
3と同様である。レイヤL2は、画像の合成を示すコン
バイン(Combine)のレイヤである。レイヤL1は、出
力処理を行うアウトプット(Output)のレイヤである。The time line 46 includes layers L1 to L18.
Up to 18 layers L. The layer L18 is a layer of globe move (Global Move) indicating the entire movement of the cube. Layers L15 to L
Reference numeral 17 denotes a cube (Cu) indicating parameters of each face of the cube.
be) layer. The layer L14 is a layer of video data indicating an image "Video Side-1" which is one side of the cube. The layer L13 is a layer of a 3D transform (3D Transform) for moving an image based on three-dimensional parameters. Layers L12 and L11, layer L
10, layer L9, layers L8, L7, layers L6, L
5, layers L4 and L3 are the layers L14 and L1 described above.
Same as 3. The layer L2 is a combine (Combine) layer indicating synthesis of images. The layer L1 is an output layer for performing output processing.
【0125】オブジェクトエリア47には、図25に示
すように、各レイヤL18〜L1にそれぞれ対応したオ
ブジェクト118〜133が設けられている。なお、レ
イヤL115〜L17には、オブジェクト119が対応
している。In the object area 47, as shown in FIG. 25, objects 118 to 133 corresponding to the respective layers L18 to L1 are provided. Note that the objects 119 correspond to the layers L115 to L17.
【0126】オブジェクト118は、レイヤL18に対
応し、延滞の動きを示すパラメータを出力する。オブジ
ェクト119は、レイヤL15,L16,L17に対応
し、オブジェクト118からのパラメータに基づいて、
立方体の6面のそれぞれについてのパラメータを出力す
る。オブジェクト120は、レイヤL14に対応し、6
面体の1面のビデオデータを出力する。オブジェクト1
21は、オブジェクト120からのビデオデータ及びオ
ブジェクト119からの2つのパラメータに基づいて、
上記6面体の1面を動かして、このビデオデータを出力
する。また、オブジェクト122,123、オブジェク
ト124,125、オブジェクト126,127,オブ
ジェクト128,129、オブジェクト130,131
は、それぞれ上述したオブジェクト120,121と同
様の処理をする。オブジェクト132は、レイヤL2に
対応し、オブジェクト121,123,125,12
7,129,131からの各6面体のビデオデータを合
成して出力する。オブジェクト133は、レイヤL1に
対応し、オブジェクト132からの動く立方体の画像を
外部に出力する。The object 118, corresponding to the layer L18, outputs a parameter indicating the motion of the arrears. The object 119 corresponds to the layers L15, L16, and L17, and based on parameters from the object 118,
Output the parameters for each of the six faces of the cube. The object 120 corresponds to the layer L14,
Outputs video data of one face of the facepiece. Object 1
21 is based on the video data from object 120 and the two parameters from object 119,
The video data is output by moving one surface of the hexahedron. Also, objects 122 and 123, objects 124 and 125, objects 126 and 127, objects 128 and 129, and objects 130 and 131
Performs the same processing as the objects 120 and 121 described above, respectively. The object 132 corresponds to the layer L2, and the objects 121, 123, 125, and 12
The video data of each hexahedron from 7, 129, 131 is synthesized and output. The object 133 corresponds to the layer L1 and outputs an image of a moving cube from the object 132 to the outside.
【0127】このように、タイトル画像のみならず、各
画像に動きを与えてこれらを合成して出力することがで
きる。As described above, not only the title image but also each image can be given a motion and synthesized and output.
【0128】図26に、画面の全部又は一部を所定の色
に付するペイント機能を有する場合における、タイムラ
イン46及び各オブジェクトの要部構成図を示す。FIG. 26 is a diagram showing the configuration of the main part of the time line 46 and each object in the case where a paint function for coloring all or a part of the screen with a predetermined color is provided.
【0129】タイムライン46は、レイヤL1〜L4ま
での4つのレイヤLによって構成されている。レイヤL
4は、上述したモーション・キャプチャーのレイヤであ
る。レイヤL3は、背景の画像であるバックグランドビ
デオ(Background Video)のレイヤである。レイヤL2
は、画像に所定の色を付するペイント(Paint)のレイ
ヤである。レイヤL1は、アウトプットのレイヤであ
る。[0129] The time line 46 is composed of four layers L from layers L1 to L4. Layer L
Reference numeral 4 denotes the above-described motion capture layer. The layer L3 is a background video (Background Video) layer that is a background image. Layer L2
Is a paint layer for giving a predetermined color to an image. The layer L1 is an output layer.
【0130】オブジェクトエリア47には、レイヤL4
〜L1にそれそれ対応したオブジェクト134〜137
が設けられている。オブジェクト134は、レイヤL4
に対応し、物体の動きを示すパラメータを出力する。オ
ブジェクト135は、レイヤL3に対応し、背景となる
画像のビデオデータを出力する。オブジェクト136
は、レイヤL2に対応し、オブジェクト135からの背
景画像に対して、オブジェクト134からのパラメータ
に基づいて色の変化が動くようにする処理をする。オブ
ジェクト137は、レイヤL1に対応し、オブジェクト
136からの色が変化する背景画像を外部に出力する。In the object area 47, the layer L4
Objects 134 to 137 corresponding to L1
Is provided. The object 134 is a layer L4
And outputs a parameter indicating the motion of the object. The object 135 corresponds to the layer L3 and outputs video data of a background image. Object 136
Corresponds to the layer L2, and performs processing for changing the color of the background image from the object 135 based on the parameter from the object 134. The object 137 corresponds to the layer L1 and outputs a background image from the object 136 that changes color to the outside.
【0131】このように、物体だけでなく、色の変化等
を与えることができる。As described above, not only an object but also a color change or the like can be given.
【0132】図27に、3次元データを生成する場合に
おけるタイムライン46及び各オブジェクトの要部構成
図を示す。FIG. 27 shows a configuration diagram of the main part of the time line 46 and each object when three-dimensional data is generated.
【0133】タイムライン46は、レイヤL1〜L3ま
での3つのレイヤLによって構成されている。レイヤL
3は、生成すべき3次元パラメータの元となる、移動物
体のビデオデータを示すソースビデオ(Source Video)
のレイヤである。レイヤL2は、移動物体のビデオデー
タから3次元パラメータを生成するモーション・キャッ
プチャ・パラメータ(Motion Capture Parameter)のレ
イヤである。レイヤL1は、アウトプットのレイヤであ
る。The time line 46 is composed of three layers L1 to L3. Layer L
3 is a source video indicating the video data of the moving object, which is the source of the three-dimensional parameter to be generated (Source Video)
Layer. The layer L2 is a layer of a motion capture parameter for generating a three-dimensional parameter from video data of a moving object. The layer L1 is an output layer.
【0134】オブジェクトエリア47には、レイヤL3
〜L1にそれそれ対応したオブジェクト138〜140
が設けられている。オブジェクト138は、移動物体の
ビデオデータを出力する。オブジェクト139は、オブ
ジェクト138からのビデオデータに基づいて移動物体
の3次元パラメータを生成して出力する。オブジェクト
140は、オブジェクト139からの3次元パラメータ
を外部に出力する。In the object area 47, the layer L3
Objects 138 to 140 corresponding to L1
Is provided. The object 138 outputs video data of the moving object. The object 139 generates and outputs three-dimensional parameters of the moving object based on the video data from the object 138. The object 140 outputs the three-dimensional parameters from the object 139 to the outside.
【0135】このように、タイムライン46及びオブジ
ェクト138〜140の構成によって、3次元パラメー
タを生成することができる。As described above, three-dimensional parameters can be generated by the configuration of the timeline 46 and the objects 138 to 140.
【0136】以上詳細に説明したように、本発明を適用
した編集システム1は、タイムラインによってデータや
パラメータの時間管理を行い、オブジェクトによってタ
イムラインを構成する各レイヤの接続関係を示すことに
よって、複雑で手間のかかる編集作業を容易に行うこと
ができる。As described in detail above, the editing system 1 to which the present invention is applied performs time management of data and parameters by using a timeline, and shows the connection relationship of each layer constituting the timeline by using an object. Complicated and troublesome editing work can be easily performed.
【0137】このとき、途中のオブジェクトが出力する
中間結果を生成したり、ユーザ定義による結果クリップ
FCを生成することができ、従来より容易に編集作業を
行うことができる。At this time, an intermediate result output by an intermediate object can be generated, or a result clip FC defined by the user can be generated, and editing can be performed more easily than in the past.
【0138】また、一部のオブジェクトを消去すること
によって視覚的に編集処理の内容を容易に把握すること
ができ、また、オブジェクトのプロパティを表示するよ
うにして、オブジェクトに対して入出力する信号の設定
も容易に行うことができる。Further, by erasing a part of the objects, the contents of the editing process can be easily grasped visually, and the properties of the objects are displayed so that the signals input / output to / from the objects are displayed. Can be easily set.
【0139】なお、本発明は、上述した実施の形態に限
定されるものではなく、特許請求の範囲に記載された範
囲内で設計の変更等をすることができ、例えばメインウ
ィンドウ30やエディッタウィンドウ40の構成は図7
及び図8の構成に限定されるものではないのは勿論であ
る。It should be noted that the present invention is not limited to the above-described embodiment, and that changes in design and the like can be made within the scope described in the claims. The configuration of 40 is shown in FIG.
Of course, it is not limited to the configuration of FIG.
【0140】[0140]
【発明の効果】本発明に係る編集システム及び編集方法
によれば、各クリップ処理層の時間管理を行うととも
に、一のクリップ処理層による所定処理済みのクリップ
を当該一のクリップ層よりも上位の階層にあるクリップ
処理層に所定処理を行わせ、最上位の階層のクリップ処
理層から出力される所定処理済みのクリップを結果クリ
ップとして出力し、各クリップ処理層の単位ステップに
対応するそれぞれのボタンを表示することにより、上記
単位ステップを容易に把握することができる。According to the editing system and the editing method of the present invention, the time of each clip processing layer is managed, and a clip which has been subjected to a predetermined processing by one clip processing layer is placed higher than the one clip layer. A predetermined processing is performed on the clip processing layer in the hierarchy, a predetermined processed clip output from the clip processing layer in the highest hierarchy is output as a result clip, and each button corresponding to a unit step of each clip processing layer is output. Is displayed, the unit step can be easily grasped.
【図1】本発明を適用した編集システムの構成を示すブ
ロック図である。FIG. 1 is a block diagram illustrating a configuration of an editing system to which the present invention has been applied.
【図2】上記編集システムの主要構成であるワークステ
ーションの内部構成を示すブロック図である。FIG. 2 is a block diagram showing an internal configuration of a workstation which is a main configuration of the editing system.
【図3】上記編集システムが有する各モジュール及びク
リップデータベースの構成図である。FIG. 3 is a configuration diagram of each module and a clip database included in the editing system.
【図4】クリップの階層的管理を説明するための図であ
る。FIG. 4 is a diagram for explaining hierarchical management of clips.
【図5】合成処理の内容を説明するための図である。FIG. 5 is a diagram for explaining the contents of a combining process.
【図6】合成処理によって生成されるビデオイメージを
説明するための図である。FIG. 6 is a diagram for explaining a video image generated by the combining process.
【図7】上記ワークステーションのディスプレイに表示
されるメニューウィンドウを説明するための図である。FIG. 7 is a diagram illustrating a menu window displayed on a display of the workstation.
【図8】上記メニューウィンドウ内のエディッタウィン
ドウを説明するための図である。FIG. 8 is a diagram for explaining an editor window in the menu window.
【図9】エディッタウィンドウに表示されるカレントタ
イムバーを調整する機能を有するランコントロールウィ
ンドウを説明する図である。FIG. 9 is a diagram illustrating a run control window having a function of adjusting a current time bar displayed in an editor window.
【図10】単位時間当たりの表示ステップについて説明
するためのタイムスケールの図である。FIG. 10 is a time scale diagram for explaining a display step per unit time.
【図11】エディッタウィンドウ内のオブジェクトエリ
アに設けられるオブジェクトの構成を説明するための図
である。FIG. 11 is a diagram for explaining a configuration of an object provided in an object area in an editor window.
【図12】上記オブジェクトの構成を説明するための図
である。FIG. 12 is a diagram for explaining a configuration of the object.
【図13】上記オブジェクトの構成を説明するための図
である。FIG. 13 is a diagram for explaining the configuration of the object.
【図14】入力用コネクタに入力される信号のダイアロ
グボックスを説明するための図である。FIG. 14 is a diagram illustrating a dialog box of a signal input to the input connector.
【図15】入力用コネクタに入力される信号がパラメー
タである場合のダイアログボックスを説明するための図
である。FIG. 15 is a diagram for explaining a dialog box when a signal input to the input connector is a parameter;
【図16】オブジェクトのプロパティを示すオブジェク
ト・ダイアログボックスを説明するための図である。FIG. 16 is a diagram for explaining an object dialog box showing properties of an object.
【図17】タイムラインとオブジェクトの構成の一例を
示す図である。FIG. 17 is a diagram illustrating an example of a configuration of a timeline and an object.
【図18】オブジェクトの中間結果の生成を説明するた
めに用いられるタイムラインとオブジェクトの構成を示
す図である。FIG. 18 is a diagram illustrating a configuration of a timeline and an object used for explaining generation of an intermediate result of the object.
【図19】オブジェクトの中間結果の生成を説明するた
めに用いられるタイムラインとオブジェクトの構成を示
す図である。FIG. 19 is a diagram illustrating a configuration of a timeline and an object used for explaining generation of an intermediate result of the object.
【図20】ユーザ定義による結果クリップの生成を説明
するために用いられるタイムラインとオブジェクトの構
成を示す図である。FIG. 20 is a diagram illustrating a configuration of a timeline and an object used for explaining generation of a result clip defined by a user.
【図21】ビデオにタイトルをのせる場合のタイムライ
ン及びオブジェクトの構成を示す図である。FIG. 21 is a diagram illustrating a configuration of a timeline and an object when a title is added to a video.
【図22】メイン画像にタイトル画像を乗せてそのタイ
トル画像をモーションキャプチャーで動かす場合におけ
るタイムライン及び各オブジェクトの要部構成図であ
る。FIG. 22 is a configuration diagram of main parts of a timeline and each object when a title image is placed on a main image and the title image is moved by motion capture.
【図23】メイン画像にタイトル画像を乗せて当該タイ
トル画像をモーションキャプチャーと3Dで動かす場合
におけるタイムライン及び各オブジェクトの要部構成図
である。FIG. 23 is a configuration diagram of a main part of a timeline and each object when a title image is put on a main image and the title image is moved by motion capture and 3D.
【図24】メイン画像にタイトル画像を乗せて当該タイ
トル画像をモーションキャプチャーと3Dで動かす場合
におけるタイムライン及び各オブジェクトの要部構成図
である。FIG. 24 is a configuration diagram of main parts of a timeline and each object when a title image is placed on a main image and the title image is moved in 3D with motion capture.
【図25】6面体を表示する場合におけるタイムライン
及び各オブジェクトの要部構成図である。FIG. 25 is a main part configuration diagram of a timeline and each object when a hexahedron is displayed.
【図26】画面の全部又は一部を所定の色に付するペイ
ント機能を有する場合におけるタイムライン及び各オブ
ジェクトの要部構成図である。FIG. 26 is a configuration diagram of a main part of a timeline and each object in a case where a paint function is provided for giving a predetermined color to all or part of a screen.
【図27】3次元データを生成する場合におけるタイム
ライン及び各オブジェクトの要部構成図である。FIG. 27 is a configuration diagram of a main part of a timeline and each object when three-dimensional data is generated.
1 編集システム、2 ワークステーション、30 メ
ニューウィンドウ、40 エディッタウィンドウ、46
タイムライン、47 オブジェクトエリア1 editing system, 2 workstations, 30 menu windows, 40 editor windows, 46
Timeline, 47 object area
Claims (4)
て編集処理済みの結果クリップを生成する編集システム
において、 時間を管理しながらクリップに所定処理を施すクリップ
処理層を複数有するクリップ処理手段と、 上記各クリップ処理層にそれぞれ対応する複数のオブジ
ェクトを有し、上記各オブジェクトをそれぞれ接続して
1つの階層構造を形成することで上記各クリップ処理層
の階層を決定する階層決定手段と、 上記クリップ処理手段による処理内容をタイムラインと
して表示し、上記階層決定手段による階層構造をオブジ
ェクト間で結線することによって表示する表示手段とを
備え、 上記クリップ処理手段は、各クリップ処理層の時間管理
を行うとともに、一のクリップ処理層による所定処理済
みのクリップを当該一のクリップ層よりも上位の階層に
あるクリップ処理層に所定処理を行わせ、最上位の階層
のクリップ処理層から出力される所定処理済みのクリッ
プを結果クリップとして出力し、 上記表示手段は、上記各クリップ処理層の単位ステップ
に対応するそれぞれのボタンを表示することを特徴とす
る編集システム。1. An editing system for editing a plurality of clips serving as an editing unit to generate a result-processed clip, comprising a plurality of clip processing layers for performing predetermined processing on the clips while managing time. A layer determining means having a plurality of objects respectively corresponding to the respective clip processing layers, and determining the layer of the respective clip processing layers by connecting the respective objects to form a single hierarchical structure; Display means for displaying the processing content of the clip processing means as a timeline, and displaying the hierarchical structure of the hierarchy determining means by connecting the objects between the objects, wherein the clip processing means manages the time of each clip processing layer. At the same time, the clip processed by the one clip processing layer Causing the clip processing layer in a higher layer than the layer to perform predetermined processing, outputting a predetermined processed clip output from the clip processing layer in the uppermost layer as a result clip, An editing system, wherein each button corresponding to a unit step of a processing layer is displayed.
示する指示手段を備え、 上記表示手段は、上記各クリップ処理層の単位ステップ
に対応するそれぞれのボタンのうち、上記指示手段によ
り指示されるボタンに対応する単位ステップになるよう
に上記各クリップ処理層の単位ステップを表示すると共
に、上記単位ステップに対応するように上記クリップ処
理手段による処理内容をタイムラインとして表示するこ
とを特徴とする請求項1記載の編集システム。2. An apparatus according to claim 1, further comprising instruction means for instructing display contents to be displayed on said display means, wherein said display means is instructed by said instruction means among buttons corresponding to unit steps of said clip processing layers. And displaying the unit steps of each of the clip processing layers so as to correspond to the unit steps corresponding to the buttons, and displaying the processing contents of the clip processing means as a timeline so as to correspond to the unit steps. The editing system according to claim 1.
て編集処理済みの結果クリップを生成する編集方法にお
いて、 複数のクリップ処理層が時間を管理しながらクリップに
所定処理を施し、 上記各クリップ処理層にそれぞれ対応する複数のオブジ
ェクトを有し、上記各オブジェクトをそれぞれ接続して
1つの階層構造を形成することで上記各クリップ処理層
の階層を決定し、 上記各クリップ処理層による処理内容をタイムラインと
して表示すると共に、上記形成された階層構造をオブジ
ェクト間で結線することによって表示し、 各クリップ処理層の時間管理を行うとともに、一のクリ
ップ処理層による所定処理済みのクリップを当該一のク
リップ層よりも上位の階層にあるクリップ処理層に所定
処理を行わせ、 最上位の階層のクリップ処理層から出力される所定処理
済みのクリップを結果クリップとして出力し、 上記各クリップ処理層の単位ステップに対応するそれぞ
れのボタンを表示することを特徴とする編集方法。3. An editing method for editing a plurality of clips serving as an editing unit to generate a result-processed clip, wherein a plurality of clip processing layers perform predetermined processing on the clip while managing time, and A plurality of objects respectively corresponding to the processing layers are provided, and the respective objects are connected to each other to form one hierarchical structure, so that the hierarchy of each of the clip processing layers is determined. In addition to displaying as a timeline, the formed hierarchical structure is displayed by connecting the objects, and time management of each clip processing layer is performed. A predetermined process is performed by a clip processing layer in a layer higher than the clip layer, and the clip processing in the highest layer is performed. Editing method and displaying the respective button outputs a predetermined processed clip output from the layer as a result the clip, corresponding to the unit step of the respective clipping layers.
対応するそれぞれのボタンのうち、指示手段により指示
されたボタンに対応する単位ステップになるように上記
各クリップ処理層の単位ステップを表示すると共に、上
記単位ステップに対応するように上記クリップ処理手段
による処理内容をタイムラインとして表示することを特
徴とする請求項3記載の編集方法。4. A unit step of each of the clip processing layers is displayed so as to be a unit step corresponding to a button instructed by an instruction unit among buttons corresponding to the unit steps of each of the clip processing layers. 4. The editing method according to claim 3, wherein the contents of processing by said clip processing means are displayed as a timeline so as to correspond to said unit steps.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26369398A JP4103197B2 (en) | 1998-09-17 | 1998-09-17 | Editing system and editing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26369398A JP4103197B2 (en) | 1998-09-17 | 1998-09-17 | Editing system and editing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000100128A true JP2000100128A (en) | 2000-04-07 |
JP4103197B2 JP4103197B2 (en) | 2008-06-18 |
Family
ID=17393034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26369398A Expired - Fee Related JP4103197B2 (en) | 1998-09-17 | 1998-09-17 | Editing system and editing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4103197B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002084598A1 (en) * | 2001-04-10 | 2002-10-24 | Artesia Technologies, Inc. | Method and system for streaming media manager |
-
1998
- 1998-09-17 JP JP26369398A patent/JP4103197B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002084598A1 (en) * | 2001-04-10 | 2002-10-24 | Artesia Technologies, Inc. | Method and system for streaming media manager |
Also Published As
Publication number | Publication date |
---|---|
JP4103197B2 (en) | 2008-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4103192B2 (en) | Editing system and editing method | |
US10013154B2 (en) | Broadcast control | |
EP0871177B1 (en) | A non-timeline, non-linear digital multimedia composition method and system | |
US6400378B1 (en) | Home movie maker | |
US6674955B2 (en) | Editing device and editing method | |
KR100551459B1 (en) | Editing system, editing method, clip management device, and clip management method | |
US20040027368A1 (en) | Time sheet for real time video production system and method | |
WO1993008664A1 (en) | On-line video editing system | |
JP2007317353A (en) | Editing device and editing method | |
JP4103197B2 (en) | Editing system and editing method | |
JP4588126B2 (en) | Editing system and editing method | |
JP4103196B2 (en) | Editing system and editing method | |
JP4103195B2 (en) | Editing system and editing method | |
JP4103193B2 (en) | Editing system and editing method | |
JP4103194B2 (en) | Editing system and editing method | |
JPH10149669A (en) | Editing system, editing methoed, device and method for controlling clip | |
JP3906922B2 (en) | Editing system | |
JPH1198412A (en) | Edit system, display device and computer | |
JPH1196734A (en) | Editing system, display device and computer device | |
JP2000122772A (en) | Device and method for editing | |
JPH10149673A (en) | Editing system, editing method and display device | |
JPH10149672A (en) | Editing system, editing method and computer device | |
JPH10149670A (en) | Editing system, editing method and clip control method | |
JPH10149671A (en) | Editing system, editing method and image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080317 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120404 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120404 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |