JP2010252070A - Metadata processing apparatus, apparatus and system for processing video - Google Patents
Metadata processing apparatus, apparatus and system for processing video Download PDFInfo
- Publication number
- JP2010252070A JP2010252070A JP2009099810A JP2009099810A JP2010252070A JP 2010252070 A JP2010252070 A JP 2010252070A JP 2009099810 A JP2009099810 A JP 2009099810A JP 2009099810 A JP2009099810 A JP 2009099810A JP 2010252070 A JP2010252070 A JP 2010252070A
- Authority
- JP
- Japan
- Prior art keywords
- metadata
- video
- processing
- processing target
- recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、撮影映像等の映像データに関連付けられて記録するメタデータに対して記録及び変更処理を行うメタデータ処理装置、映像処理装置及び映像処理システムに関する。 The present invention relates to a metadata processing device, a video processing device, and a video processing system that perform recording and change processing on metadata to be recorded in association with video data such as a captured video.
近年、光ディスクや、半導体メモリなどのランダムアクセス可能な記録媒体に、映像や音声データをファイル化して記録する装置が一般的になり、例えば、放送局や映像制作会社などにおいても、このような記録媒体を備えた編集装置を利用して映像編集作業などが行なわれている。このような映像編集作業を行なうため、映像や音声データなどのコンテンツデータは、これらコンテンツの付加情報であるメタデータとともに記録媒体に記録され、メタデータを利用して編集作業等の効率化が図られている。 In recent years, devices for recording video and audio data as files on a randomly accessible recording medium such as an optical disk or a semiconductor memory have become common. For example, such a recording is also used in broadcasting stations and video production companies. Video editing work or the like is performed using an editing device equipped with a medium. In order to perform such video editing work, content data such as video and audio data is recorded on a recording medium together with metadata that is additional information of the content, and the editing work is made more efficient using the metadata. It has been.
このような状況を背景として、記録媒体に記録された映像や音声データ(素材)に関する付加情報としてのメタデータを記録する手法が提案されている(例えば、特許文献1を参照)。 Against this background, a method for recording metadata as additional information related to video and audio data (material) recorded on a recording medium has been proposed (see, for example, Patent Document 1).
放送局や映像制作会社などにおいては、映像及び音声等(以下、適宜、素材と呼ぶ)を収録し、これらの素材を編集、加工して放送用の番組が制作され、さらに、この番組の映像や音声データが記録媒体に記録された状態で配布又は保管される。このような素材の収録工程、編集工程、保管工程等のそれぞれの処理工程において、素材を詳細に識別するための付加情報も記録媒体に記録され、素材の各処理に利用されている。また、このような付加情報としてメタデータがある。メタデータは、例えば、収録時刻、収録ID(IDentifier、識別情報)、収録題目、撮影者名など、取材や収録によって得られた素材を識別するために必要な情報を記述したデータである。 Broadcasting stations and video production companies record video and audio (hereinafter referred to as materials as appropriate), and edit and process these materials to produce broadcast programs. Or audio data is recorded or recorded on a recording medium. In each processing step such as the material recording step, the editing step, and the storage step, additional information for identifying the material in detail is also recorded on the recording medium and used for each processing of the material. In addition, there is metadata as such additional information. The metadata is data describing information necessary for identifying a material obtained by interviewing or recording, such as a recording time, a recording ID (IDentifier, identification information), a recording title, and a photographer name.
上述したように、メタデータは、素材となる各データ(以下、素材データと呼ぶ)を記録媒体に記録する収録工程において、素材データとともに記録媒体に記録される。また、素材に付加するメタデータとしては、次に示すような二種類のメタデータがある。その一つの種類として、企画工程であらかじめ決定されているメタデータがあり、このメタデータには、撮影開始、終了時間、撮影場所(地名)、撮影者などの情報が含まれる。他の種類としては、撮影と同時に生成されて記録媒体に記録されるメタデータがあり、このメタデータには、GPS(Global Positioning System)で検出される位置情報(緯度、経度、高度)や時刻情報、収録場所の地名などの情報が含まれる。以上のように、収録工程で素材データとともに記録媒体に記録されたメタデータは、素材と関連づけられて後工程で利用され、特に、検索における操作性や利便性の向上に有効な手段である。 As described above, the metadata is recorded on the recording medium together with the material data in the recording process of recording each data as the material (hereinafter referred to as material data) on the recording medium. Further, there are the following two types of metadata added to the material. As one type, there is metadata determined in advance in the planning process, and this metadata includes information such as shooting start time, end time, shooting location (place name), and photographer. As another type, there is metadata generated at the same time as shooting and recorded on a recording medium. This metadata includes position information (latitude, longitude, altitude) and time detected by GPS (Global Positioning System). Information, such as the place name of the recording location, is included. As described above, the metadata recorded on the recording medium together with the material data in the recording process is associated with the material and used in the subsequent process, and is particularly effective means for improving the operability and convenience in the search.
一方、これらのメタデータは、検索における操作性や利便性の向上に有効である。しかしながら、これらのメタデータを詳細に記録すれば、データ量が膨大になり、それにともない、記録されたメタデータを検索する処理負荷も増大する。また、利用者においても、例えば、大量のメタデータが表示され所望の映像データの検索が困難である等、所望のメタデータや映像データの検索性が劣化することになる。この課題に対して、例えば、特許文献2ではメタデータ要約情報(プロファイル)に基づいて、検索するメタデータを制限することにより検索負荷の低減を図る技術を開示している。
On the other hand, these metadata are effective in improving operability and convenience in search. However, if these metadata are recorded in detail, the amount of data becomes enormous, and the processing load for searching the recorded metadata increases accordingly. In addition, even in the case of a user, for example, a large amount of metadata is displayed and it is difficult to search for desired video data, so that searchability of desired metadata and video data is deteriorated. In response to this problem, for example,
しかしながら、特許文献1や特許文献2に開示された従来の構成は、例えば企画工程、収録工程や編集工程にてメタデータを記録する場合、メタデータがどの工程にて記録されたものか不明であるため、例えば、利用者がどのメタデータを参照してよいかを特定するのに時間がかかる課題がある。また、編集工程等において、メタデータの候補が複数ある場合には、複数の候補を同時に記録できず、メタデータの操作が困難である課題がある。
However, in the conventional configuration disclosed in
上記課題に鑑みて本発明の映像処理装置及び映像処理システムは、メタデータによる検索の処理時間を軽減するとともに、利用者が所望の映像データを検索しやすくする等、メタデータ操作を利用した編集を容易にすることを目的とする。 In view of the above problems, the video processing apparatus and video processing system according to the present invention reduce the processing time of searching by metadata, and edit using metadata operations, such as making it easier for a user to search for desired video data. The purpose is to make it easier.
上述した課題を解決するために、本実施の形態の映像処理システムは、メタデータの処理対象を指定するための処理対象指定メタデータを記録するための領域と、映像データの属性を表すメタデータであり、前記処理対象指定メタデータと関連付けられた映像記述メタデータを記録する領域とを備えたメタデータ記録形式を記録するメタデータ記録手段を備える。 In order to solve the above-described problem, the video processing system according to the present embodiment includes an area for recording processing target designation metadata for designating a processing target of metadata, and metadata representing attributes of the video data. And metadata recording means for recording a metadata recording format including an area for recording video description metadata associated with the processing target designating metadata.
さらに、前記映像記述メタデータを入力するため映像記述メタデータ入力手段と、前記映像記述メタデータの処理対象を指定する処理対象指定メタデータを入力するための処理対象指定メタデータ入力手段と、前記映像記述メタデータと前記処理対象指定メタデータとを関連付ける処理対象指定メタ生成手段とを備える。 Furthermore, video description metadata input means for inputting the video description metadata, processing target designation metadata input means for inputting processing target designation metadata for designating a processing target of the video description metadata, Processing target designation meta generating means for associating the video description metadata with the processing target designation metadata.
さらに、記録媒体に記録されたメタデータを再生処理するためのメタデータ再生手段と、記録媒体に記録された前記処理対象指定メタデータに関連付けられた前記映像記述メタデータに処理を限定するための処理対象指定メタ処理手段とを備える。 Furthermore, metadata reproducing means for reproducing the metadata recorded on the recording medium, and for limiting the processing to the video description metadata associated with the processing target designation metadata recorded on the recording medium And a processing target designation meta processing means.
さらに、前記映像記述メタデータ及び前記処理対象指定メタデータを表示するためのメタデータ表示手段を備え、メタデータ表示手段は、前記処理対象指定メタ処理手段により処理された前記映像記述メタデータと前記処理対象指定メタデータとを表示する。 Furthermore, it comprises metadata display means for displaying the video description metadata and the processing target designation metadata, and the metadata display means includes the video description metadata processed by the processing target designation metadata processing means and the metadata. Display processing target specification metadata.
さらに、前記処理対象指定メタデータを入力するための処理対象指定メタ選択手段を備え、前記処理対象指定メタ処理手段は、前記処理対象指定メタ処理手段は、前記処理対象指定メタデータを前記処理対象指定メタ選択手段により入力されたデータに変更する手段を備え、メタデータ記録手段は、前記処理対象指定メタ処理手段による変更後の処理対象指定メタデータを記録する。 Furthermore, it comprises a processing target designation meta selection means for inputting the processing target designation metadata, wherein the processing target designation meta processing means is configured to input the processing target designation metadata into the processing target designation metadata. Means for changing to data input by the designated meta selection means is provided, and the metadata recording means records the processing target designation metadata after the change by the processing target designation meta processing means.
さらに、記録媒体に記録された映像データを再生するための映像再生手段を備える。 Furthermore, a video reproduction means for reproducing the video data recorded on the recording medium is provided.
さらに、映像データを入力するための映像入力手段と、前記映像入力手段により入力した映像データを記録媒体に記録するための映像記録手段とを備える。 Further, the image processing apparatus includes a video input unit for inputting video data, and a video recording unit for recording the video data input by the video input unit on a recording medium.
さらに、記録媒体に記録されたメタデータを再生するためのメタデータ再生手段と、記録媒体に記録された処理対象指定メタデータに関連付けられた前記映像記述メタデータに処理を限定するための処理対象指定メタ処理手段とを備える。 Furthermore, metadata reproducing means for reproducing the metadata recorded on the recording medium, and a processing target for limiting the processing to the video description metadata associated with the processing target designation metadata recorded on the recording medium Designated meta processing means.
さらに、メタデータ記録手段は、記録媒体に記録されたメタデータを再生し、新たな処理対象指定メタデータと、新たな処理対象指定メタデータに関連付けられた映像記述メタデータを追記して記録媒体に記録する。 Further, the metadata recording means reproduces the metadata recorded on the recording medium, and additionally records new processing target designation metadata and video description metadata associated with the new processing target designation metadata. To record.
さらに、前記映像記述メタデータには、映像データの名称を表すクリップ名と、メタデータを記録した際の日時を表す操作日時のうちいずれか1つ以上を含み、複数の処理対象指定メタデータに対応した前記映像記述メタデータを記録する。 Further, the video description metadata includes one or more of a clip name representing the name of the video data and an operation date / time representing the date / time when the metadata was recorded, and includes a plurality of processing target designation metadata. The corresponding video description metadata is recorded.
さらに、前記映像記述メタデータには、映像データ中の任意の位置に関連付けられたリンクポイントを含む。 Further, the video description metadata includes a link point associated with an arbitrary position in the video data.
さらに、前記処理対象指定メタ処理手段は、記録媒体に記録されたメタデータに対応する映像データと、記録された処理対象指定メタデータに対応した映像記述メタデータの1つであるリンクポイントに基づいて決定する再生開始点及び再生終了点とからプレイリストを作成する。 Further, the processing target designation metadata processing means is based on video data corresponding to the metadata recorded on the recording medium and a link point which is one of video description metadata corresponding to the recorded processing target designation metadata. A play list is created from the playback start point and playback end point determined in this manner.
処理対象指定メタデータに基づいて、メタデータによる検索の処理時間を軽減するとともに、利用者が所望の映像データを検索しやすくする映像処理装置を提供することが可能になる。 Based on the processing target designation metadata, it is possible to provide a video processing apparatus that reduces the search processing time by metadata and makes it easy for a user to search for desired video data.
以下、図面を参照しながら本発明を実施するための最良の形態について説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
図1は、本発明の実施例における映像処理システムの構成を示すブロック図である。本実施例では、映像データを記録媒体に記録するための映像記録装置と、映像及びメタデータを記録するための記録媒体と、メタデータを記録媒体に記録し、変更するためのメタデータ記録装置と、記録媒体に記録された映像データとメタデータを再生するための再生装置とを有する。 FIG. 1 is a block diagram showing a configuration of a video processing system in an embodiment of the present invention. In the present embodiment, a video recording apparatus for recording video data on a recording medium, a recording medium for recording video and metadata, and a metadata recording apparatus for recording and changing metadata on the recording medium And a playback device for playing back video data and metadata recorded on the recording medium.
このような映像処理システムは、映像制作事業者などを対象とした業務用途や編集を行う民生用途を目的とするシステムであり、講演会、結婚式会場、音楽コンサートや演芸会場での行事の撮影、映像編集などに利用されている。例えば、講演会、結婚式会場において、カメラで取得した映像データは、映像記録装置を介して着脱可能な記録媒体に記録される。その後、編集室内において、他の映像データとともに、この記録媒体に記録された映像データを用いて編集作業が行なわれる。 Such a video processing system is a system intended for commercial use for video production companies, etc. and consumer use for editing, and shooting events at lectures, wedding venues, music concerts and performance venues. It is used for video editing. For example, video data acquired by a camera at a lecture or wedding venue is recorded on a removable recording medium via a video recording device. Thereafter, editing work is performed in the editing room using the video data recorded on the recording medium together with other video data.
図1に示すように、本映像処理システムは、映像データを記録媒体に記録するための映像記録装置101と、映像データ及びメタデータを記録するための記録媒体100と、メタデータを記録媒体に記録あるいは変更するためのメタデータ記録装置102と、記録媒体に記録された映像データとメタデータとを再生するための再生装置103とから構成される。本実施例における大きな記録再生処理の流れとしては、まず、映像記録装置101にて映像データを記録媒体に記録し、メタデータ記録装置102にて記録媒体100にメタデータを記録あるいは、記録媒体100に記録済みのメタデータを変更する。次に、再生装置103にて記録媒体100に記録された映像データとメタデータとを再生する。
As shown in FIG. 1, the present video processing system includes a
本実施例では、映像記録媒体100は、半導体メモリやハードディスクドライブや光ディスク等ランダムアクセス可能な媒体であればよい。本実施例では、映像記録媒体100に半導体メモリを用いた例として説明する。半導体メモリは、ファイルとして記録再生可能なようにFAT等のファイルシステムにて管理されていればよい(一般的な技術であるため具体的な説明は省略する)。
In this embodiment, the
本実施例におけるクリップとは、映像データの記録開始から終了までの1連続の記録区間に対応する映像データとメタデータとの総称を指し、メタデータは、クリップに対応付けされる。また、シーンとは、映像制作の企画段階での映像の区切り(場面)を表し、本実施例では、シーンを決定した後に収録を行い、クリップを収録することを想定している。したがって、例えば、同じシーンを繰り返し記録する場合には、1つのシーンに対して複数のクリップが記録される。 The clip in the present embodiment refers to a generic name of video data and metadata corresponding to one continuous recording section from the start to the end of video data recording, and the metadata is associated with the clip. A scene represents a video segmentation (scene) at the planning stage of video production. In this embodiment, it is assumed that recording is performed after a scene is determined, and clips are recorded. Therefore, for example, when the same scene is repeatedly recorded, a plurality of clips are recorded for one scene.
映像記録装置101は、記録するための映像データを入力する映像入力手段110と、映像入力手段110にて入力された映像データを記録媒体100に記録するための映像記録手段111とを備える。本実施例では、映像記録装置101は、一般的に制作分野等で使用されている映像記録装置及びカメラレコーダであればよい。本実施例での映像記録装置101においては広く一般的に知られている技術で実現可能であるため具体的な説明は省略する。
The
メタデータ記録装置102は、記録する映像記述メタデータを入力/選択するための映像記述メタデータ入力手段120と、映像記述メタデータ入力手段120にて入力された映像記述メタデータを記録媒体100に記録する記録形式に変換するための映像記述メタデータ生成手段121と、処理対象指定メタデータを入力及び選択するための処理対象指定メタ入力手段122と、処理対象指定メタ入力手段122にて入力された処理対象指定メタデータを記録する記録形式に変換するとともに、処理対象指定メタデータを生成/変更するための処理対象指定メタ生成手段122と、映像記述メタデータ生成手段121及び処理対象指定メタ生成手段122にて生成されたメタデータを記録媒体100に記録するためのメタデータ記録手段123とを備える。ここで、映像記述メタデータとは、映像に関する記述的なメタデータであり、例えば、クリップ名、クリップ番号、リンクポイント等の映像データに対する属性情報を指す。また、メタデータは、記述的なメタデータ(記述メターデータ)と、構造的なメタデータ(構造メタデータ)とに分類することができる。構造メタデータは、ビデオフォーマット情報や、コーデック情報等の再生に必要な素材の構造を表すメタデータを指す。本実施例では、あらかじめ決められたビデオフォーマット等を用いる例を説明するため構造メタデータを記録しない例を用いて説明するが、適宜、必要に応じて構造メタデータを記録してもよい。さらに、処理対象指定メタデータとは、すべての映像記述メタデータにおいて、映像記述メタデータに関する処理(例えば、検索、表示)を限定するためのメタデータである。また、映像記述メタデータと処理対象指定メタデータとを総称して単にメタデータと呼ぶことにし、処理対象指定メタデータは、適宜、処理対象指定メタと省略する。
The metadata recording apparatus 102 inputs video description metadata input means 120 for inputting / selecting video description metadata to be recorded, and the video description metadata input by the video description metadata input means 120 to the
本実施例では、メタデータ記録装置102は、例えば、コンピュータ上のプログラムとして開発される。上記プログラムは、コンピュータ上で動作し、記録媒体100に記録されているメタデータを読み出し、新たなメタデータを追記したり、既存のメタデータの内容を変更したりして、記録媒体100に記録する。なお、映像記録装置101とメタデータ記録装置102を1つの装置として実現してもよい。
In this embodiment, the metadata recording apparatus 102 is developed as a program on a computer, for example. The above program runs on a computer, reads metadata recorded on the
再生装置103は、記録媒体100に記録されたメタデータを再生するためのメタデータ再生手段132と、メタデータ再生手段132にて再生されたメタデータの中から処理対象指定メタデータを抽出し、再生処理(例えば、表示)する映像記述メタデータを限定するための処理対象指定メタ処理手段131と、処理対象指定メタ処理手段131にて限定された映像記述メタデータを表示するためのメタデータ表示手段130と、記録媒体100に記録された映像データを再生するための映像再生手段133と、映像再生手段133にて再生された映像データを利用者に提示するために映像を表示する映像表示手段134と、映像記述メタデータの再生処理(例えば、表示)対象とする処理対象指定メタデータを選択する処理対象指定メタ選択手段135とを備える。本実施例では、再生装置103は、一般的に広く使用されている映像再生装置(映像再生手段133及び映像表示手段134)に対してメタデータ再生手段132と、対象指定メタ処理手段131とメタデータ表示手段130と処理対象指定メタ選択手段135とを追加する構成とする。映像再生装置(映像再生手段133及び映像表示手段134)に関しては一般的な技術で実現可能であるため具体的な説明は省略する。
The playback device 103 extracts metadata to be processed from the metadata playback means 132 for playing back the metadata recorded on the
以上のように構成された本映像処理システムにおいて、まず、映像記録装置101における映像データの記録の基本的な処理の流れを説明する。
In the video processing system configured as described above, first, a basic processing flow of video data recording in the
映像記録装置101において、映像入力手段110は、映像データを入力し、入力された映像データを映像記録手段111に提供する。例えば、業務用として一般的に利用されるSMPTE(Society of Motion Picture and Television Engineers)−292Mにて規格化されているHD−SDI(HighDefinition Serial Digitail Interface)を用いて映像データを入力すればよい。
In the
映像記録手段111は、映像入力手段110から提供された映像データに対して映像フィルタ等の映像処理を施した後、映像記録媒体100に映像データを映像データファイルとして記録する。映像記録手段111では、供給された映像データを圧縮符号化することもできる。圧縮符号化方式としては、例えば、広く利用されているMPEG(Moving Picture Experts Group)−2方式や、MPEG−4/AVC(Advanced Video Coding)方式、あるいは業務用のデジタルVTR(Video Tape Recoder)の規格の一つであるSMPTE(Society of Motion Picture and Television Engineers)−314M(DV−Based 25M)規格が挙げられる。なお、本発明は、圧縮符号化方式に依存しないため、どのような圧縮符号化方式でも用いることができる。また、映像記録媒体100に十分な記録容量が確保できる場合には、映像データに対して圧縮符号化を施さなくてもよい。本実施例では、映像データの有効画素の輝度信号と色差信号を順番に並べてファイルとするとする非圧縮ファイル形式にて記録する例として説明する。
The video recording unit 111 performs video processing such as a video filter on the video data provided from the
次に、メタデータ記録装置102におけるメタデータ記録の基本的な処理の流れを説明する。利用者は、メタデータ入力手段120を介して、クリップ名や操作日時やリンクポイント等の映像記述メタデータを入力する。さらに、メタデータ入力手段120は、入力した映像記述メタデータを映像記述メタデータ生成手段121に提供する。映像記述メタデータ生成手段121は、提供された映像記述メタデータを記録媒体100に記録するための形式に変換し、メタデータ記録手段123に提供する。映像記述メタデータ生成手段121における記録形式についての具体的な説明は後述する。
Next, a basic processing flow of metadata recording in the metadata recording apparatus 102 will be described. The user inputs video description metadata such as a clip name, operation date / time, and link point via the metadata input means 120. Further, the
一方、利用者は、処理対象指定メタ入力手段122を介して、利用者が所望する処理対象指定メタデータを入力する。さらに、処理対象指定メタ入力手段122は、入力された処理対象指定メタデータを処理対象指定メタ生成手段122に提供する。処理対象指定メタ生成手段122は、提供された処理対象指定メタデータを記録媒体100に記録するための形式に変換し、記録形式に変換した処理対象指定メタデータをメタデータ記録手段123に提供する。
On the other hand, the user inputs processing target designation metadata desired by the user via the processing target designation meta input means 122. Further, the processing target designation meta input unit 122 provides the input processing target designation metadata to the processing target designation meta generation unit 122. The processing target designation metadata generation unit 122 converts the provided processing target designation metadata into a format for recording on the
メタデータ記録手段123は、メタデータ生成手段121及び処理対象指定メタ生成手段122により記録形式に変換された映像記述メタデータ及び処理対象指定メタデータを記録媒体100に記録する。また、適宜、記録媒体100に記録されるメタデータを読み出し、追加や修正を行う(具体的な説明は後述する)。
The
次に、記録媒体100における記録形式の一例について説明する。図2に記録媒体100におけるディレクトリ構造の一例を示す。本実施例では、記録媒体100に映像データとしての映像データファイルと、メタデータとしてのメタデータファイルを記録する。したがって、記録媒体100におけるディレクトリ構成は、コンテンツディレクトリ200としての「Content」ディレクトリをトップディレクトリとして、映像データファイルを記録するためのビデオ格納用ディレクトリ201としての「Video」ディレクトリと、メタデータファイルを記録するためのメタデータ格納用ディレクトリ202としての「Meta」ディレクトリとから構成される。ビデオ格納用ディレクトリ201には、例えば、CLIP0001.yuv、CLIP0002.yuv、CLIP0002.yuvといった映像データファイルを格納する。メタデータ格納用ディレクトリ202には、CLIP0001.xml、CLIP0002.xml、CLIP0003.xmlといったメタデータファイルを格納する。メタデータファイルは、例えば、XML(eXtensible Markup Language)形式を利用して記録する。例えば、図8に示すように<ClipContent>と</ClipContent>の間に各メタデータ(項目と内容)が記載される。例えば、「<ClipName>“スピーチシーン”</ClipName>」は、クリップ名が「“スピーチシーン”」であることを表す。メタデータファイルの記録形式(XML形式)についての具体的な説明は後述する。
Next, an example of a recording format in the
ここで、ファイル名や拡張子は任意の文字列でよく、コンテンツ管理が容易な方法を用いればよい。本実施例では、上述したようにファイル名に「CLIP」に番号を付与した文字列で、映像データファイルの拡張子を.yuv、メタデータファイルの拡張子を.xmlとして説明する。また、映像データファイルに対応するメタデータファイルのファイル名を同じファイル名(拡張子を除く)とすることで、映像データファイルとメタデータファイルの対応付けを行う。すなわち、例えば、映像データファイルCLIP0001.yuvに対応付けるメタデータのメタデータファイルの名前をCLIP0001.xmlとする。さらに、本実施例では、CLIP0001.yuvとCLIP0001.xmlとして記録されるクリップを「クリップ1」と呼び、同様にCLIP0002.yuvとCLIP0002.xmlとして記録されるクリップを「クリップ2」、CLIP0003.yuvとCLIP0003.xmlとして記録されるクリップを「クリップ3」と呼ぶことにする。
Here, the file name or extension may be an arbitrary character string, and a method that facilitates content management may be used. In this embodiment, as described above, the extension of the video data file is a character string obtained by adding a number to “CLIP” in the file name. yuv, extension of metadata file. It will be described as xml. Further, the video data file and the metadata file are associated by setting the file name of the metadata file corresponding to the video data file to the same file name (excluding the extension). That is, for example, the video data file CLIP0001. The name of the metadata file of the metadata associated with yuv is CLIP0001. xml. Further, in this embodiment, CLIP0001. yuv and CLIP0001. A clip recorded as xml is called “
さらに、「Meta」ディレクトリには、シナリオファイル「ScenarioList.xml」と、プレイリストファイル「PlayList.txt」とを含む。これらの詳細は後述する。 Further, the “Meta” directory includes a scenario file “ScenarioList.xml” and a playlist file “PlayList.txt”. Details of these will be described later.
次に、再生装置103における基本的な再生処理の流れを説明する。記録媒体100には、映像データファイルとメタデータファイルが記録されており、それぞれの再生動作について説明する。
Next, the flow of basic playback processing in the playback device 103 will be described. A video data file and a metadata file are recorded on the
まず、記録媒体100に記録された映像データファイルは映像再生手段133にて読み出される。映像再生手段133は、読み出された映像データに対して映像処理(例えば、フィルタ処理や、あるいは、圧縮符号化されて記録されている場合には復号化等の処理)を施した後、再生表示手段134に映像データとして提供する。映像表示手段134は、映像再生手段133から提供された映像データを、液晶画面等を用いて利用者に提示する。なお、映像表示手段134の代わりに、映像データを出力する手段(図示せず)を備え、外部の表示手段(例えば、映像モニタ)に接続する方法でもよい。また、映像再生手段133や映像表示手段134における映像再生及び表示する方法や、別の1例として示した外部の表示手段に映像を提示する方法は、一般的に広く知られている技術で実現可能であるため具体的な説明を省略する。
First, the video data file recorded on the
次に、記録媒体100に記録されたメタデータファイルは、メタデータ再生手段132により読み出される。メタデータ再生手段132は、記録形式(例えば、XML形式)を解釈し、メタデータのマトリクスを作成する。ここで、メタデータのマトリクスとは、例えば、図6に示すようなメタデータの項目を縦軸にして、各クリップを横軸にしたようなメタデータのデータベースを指す。また、メタデータ再生手段132は、作成されたメタデータのマトリクスを、処理対象指定メタ処理手段131に供給する。処理対象指定メタ処理手段131は、供給されたメタデータのマトリクスと、処理対象指定メタ選択手段135により選択された処理対象指定メタデータとに基づいて、処理(例えば、表示)される映像記述メタデータを決定する。その後、処理対象指定メタデータと、処理対象として決定した映像記述メタデータとをメタデータ表示手段130に提供する。メタデータ表示手段130は、提供されたメタデータ(処理対象として決定した映像記述メタデータと処理対象指定メタデータ)をGUI(Graphical User Interface)画面上に表示する(例えば、図5)。なお、メタデータ表示手段130の代わりに、例えば、GUI画面を多重した映像データとして出力する手段を備え、外部の表示手段(例えば、映像モニタ)に接続する方法でもよい。また、メタデータ表示手段130におけるメタデータの表示方法や、外部の表示手段にメタデータ表示画面(GUI画面)を多重した映像データを提示する方法は、広く一般的に知られている技術で実現できるので具体的な説明を省略する。なお、処理対象指定メタ選択手段135や処理対象指定メタ処理手段131等の具体的な処理内容及び処理対象指定メタデータの具体的な説明は後述する。
Next, the metadata file recorded on the
以上、本実施例における映像データとメタデータの基本的な記録再生動作の流れについて説明した。次に、本発明における処理対象指定メタデータと映像記述メタデータとの関連と、これらのメタデータの役割との概要を説明する。 The basic recording / reproducing operation flow of the video data and metadata in the present embodiment has been described above. Next, an overview of the relationship between the processing target designating metadata and the video description metadata in the present invention and the role of these metadata will be described.
本発明のメタデータ間の関連を示す概念図を図3に示す。図3(1)は、映像記述メタデータをクリップ名としたときのメタデータファイルと、そのメタデータファイルに対応した表示例を示している。例えば、メタデータファイルには、メタデータファイル(1)に示すような構成のメタデータが記録されているとする。すなわち、処理対象指定メタデータを「STEP3」とし、処理対象指定メタデータと映像記述メタデータが関連付けられて記録(例えば、「STEP1」と、クリップ名「“入場シーン1(テイク2)”」)している。ここで、処理対象指定メタデータは、例えば、映像制作工程や制作者等により、あらかじめ文字列と対応付けておく。例えば、図4(1)に示すように映像制作の各工程にしたがって、STEP1、STEP2等に対応付ける。この対応付けの定義と、処理対象指定メタデータと映像記述メタデータを関連付けて記録することとにより、ある工程「STEP1」のときに、メタデータのクリップ名の項目には、「入場シーン1(テイク2)」と記録されたことを示す。なお、処理対象指定メタデータの対応付け(意味づけ)は、適宜制作工程や運用等の用途に合わせて決めればよい。
FIG. 3 is a conceptual diagram showing the relationship between the metadata of the present invention. FIG. 3A shows a metadata file when the video description metadata is a clip name, and a display example corresponding to the metadata file. For example, it is assumed that metadata configured as shown in the metadata file (1) is recorded in the metadata file. That is, the processing target designation metadata is “STEP3”, and the processing target designation metadata and the video description metadata are recorded in association with each other (for example, “STEP1” and clip name ““ entrance scene 1 (take 2) ””). is doing. Here, the processing target designation metadata is associated with a character string in advance by, for example, a video production process or a producer. For example, as shown in FIG. 4 (1),
次に、図3(1)に示すメタデータファイル(1)の場合の再生装置103における表示についての概要を説明する。メタデータファイル(1)に記録されているメタデータは、メタデータ再生手段132を介して読み出され、処理対象指定メタ処理手段131により処理対象指定メタデータと一致するメタデータが表示される。図3(1)の場合には、処理対象指定メタデータが「STEP3」であるクリップ名「“入場シーン1”」が表示される。これは、処理対象指定メタデータが「STEP3」であり、「STEP3」に対応するクリップ名が「“入場シーン1”」であるためである。
Next, an outline of display on the playback device 103 in the case of the metadata file (1) shown in FIG. The metadata recorded in the metadata file (1) is read out via the metadata reproduction means 132, and the metadata that matches the processing target designation metadata is displayed by the processing target designation metadata processing means 131. In the case of FIG. 3 (1), the clip name ““
図3(2)は、他の映像記述メタデータ(リンクポイント)における表示例である。図3(1)と同様に、処理対象指定メタデータ「STEP2」に関連付けられた映像記述メタデータが表示される。ここで、各リンクポイント(LinkPoint)の先頭の項目(例えば、1番目のリンクポイントにおける「100frames」)は、映像データの先頭からのオフセットを表す。リンクポイントは、例えば、再生装置103において映像データにおける上記オフセット値から再生開始する場合等に利用する(具体的な説明は後述する)。 FIG. 3B is a display example of other video description metadata (link point). Similar to FIG. 3A, the video description metadata associated with the processing target designation metadata “STEP2” is displayed. Here, the head item (for example, “100 frames” at the first link point) of each link point (LinkPoint) represents an offset from the head of the video data. The link point is used, for example, when the playback apparatus 103 starts playback from the offset value in the video data (specific description will be described later).
以上のように構成された本映像処理システムにおいて、映像制作工程を映像データの記録から編集、オーサリングまでの処理の流れを各工程に分けて説明する。 In the video processing system configured as described above, the video production process from video data recording to editing and authoring will be described separately for each process.
本実施例では、映像記述メタデータの1例として、クリップ名、リンクポイント(LinkPoint)、操作日時の例を説明する。クリップ名は、クリップの名称を表すメタデータであり、リンクポイント(LinkPoint)は、名称と映像データ中の位置を指し示すデータを一組にしたメタデータである。位置を指し示すとは、例えば、映像データファイルの先頭からのフレーム数や、映像データに埋め込まれるタイムコードにより特定のフレーム(映像データ中の特定の時刻)に関連付けられていることである。これは、映像データの1点(通常は1フレーム)を指し示し、利用者の再生指示により任意のリンクポイントに関連付けられた映像データにジャンプして再生する役割がある。また、操作日時は、クリップの記録又はメタデータを記録や変更したときの日付と時刻を表すメタデータである。 In the present embodiment, an example of a clip name, a link point (LinkPoint), and an operation date will be described as an example of video description metadata. The clip name is metadata representing the name of the clip, and the link point (LinkPoint) is metadata in which the name and data indicating the position in the video data are combined. Pointing to a position means, for example, being associated with a specific frame (a specific time in the video data) by the number of frames from the top of the video data file or a time code embedded in the video data. This indicates one point (usually one frame) of the video data, and plays a role of jumping to the video data associated with an arbitrary link point and reproducing it according to a user's reproduction instruction. The operation date / time is metadata representing the date and time when recording or changing the recording or metadata of the clip.
なお、映像記述メタデータは、本実施例以外でも同様の効果を発揮する。また、映像制作工程の分類方法も処理対象指定メタデータとして区別できればどのような工程にて分類してもよい。好ましくは、本実施例のように時間軸に基づいて分類する。ここで、例えば、各工程(時間軸)にて作業担当者が別れている場合には、作業担当者毎に処理対象指定メタデータを定義すればよい。 Note that the video description metadata exhibits the same effect other than in the present embodiment. Further, the classification method of the video production process may be classified by any process as long as it can be distinguished as the processing target designation metadata. Preferably, classification is performed based on a time axis as in the present embodiment. Here, for example, when the person in charge of work is separated in each process (time axis), processing target designation metadata may be defined for each person in charge of work.
図4に本実施例において1具体例として説明する映像制作工程の流れを示す。本実施例では、映像制作工程は、図4(1)に示すように企画工程、収録工程、仮編集工程、本編集工程、オーサリング工程の順に構成されるものとする。企画工程は、シーン割り等の編集に必要な映像の吟味や収録や編集の計画を立案する工程であり、シナリオ(スケジュール)情報(以下、シナリオデータと呼ぶ)を決定するものとする。ここで、シナリオデータとは、撮影するシーン名や撮影者等のメタデータの入力パターンが記述されたメタデータ郡である。なお、本実施例では、企画工程にてシナリオデータとしてのシーン名を決定する例を説明する。シナリオデータはシナリオファイルとして記録媒体100に記録する。収録工程は、実際に映像データの収録や撮影を行う工程であり、企画工程で決定された計画通りにシーンを収録する。仮編集工程は、収録工程にて収録した映像データや映像ライブラリ等の以前に収録された映像データに対して不要部を削除する等の仮編集(いわいる粗編集)を施す工程である。本編集工程は、仮編集工程にて仮編集された映像データに対して詳細な調整をする工程であり、例えば、カット編集においては、例えば、1フレーム精度で映像データの編集点の調整を行う。オーサリング工程は、本編集工程にて本編集された映像データを納品者等に配布するために配布用記録媒体へ記録あるいは書き込む工程である。例えば、各記録媒体に対応した規格(例えば、光ディスク媒体の1つであるDVDであれば、DVD−Video規格等)に準拠するように変換等を施して、配布用記録媒体への記録を行う。
FIG. 4 shows a flow of a video production process described as a specific example in this embodiment. In this embodiment, the video production process is configured in the order of a planning process, a recording process, a temporary editing process, a main editing process, and an authoring process as shown in FIG. The planning process is a process for planning a video examination, recording, and editing necessary for editing scenes and the like, and scenario (schedule) information (hereinafter referred to as scenario data) is determined. Here, the scenario data is a metadata group in which metadata input patterns such as the name of a scene to be photographed and a photographer are described. In this embodiment, an example in which a scene name as scenario data is determined in the planning process will be described. The scenario data is recorded on the
これらの映像制作における各工程は、一般的な映像制作工程を模式化したものであり、これらの工程の中で映像データと、映像データに関連付けられたメタデータとを利用して編集作業が行われる。なお、適宜、仮編集工程と本編集工程とを総称して編集工程と呼ぶ。なお、編集工程では、一般的にはノンリニア編集装置等の編集装置を用いて、映像データに対して編集や加工(例えば、カット編集、映像効果付加等の映像加工)を行うことが一般的である。しかしながら、本実施例では、映像データの編集や加工方式に依存せず、好ましくは、映像データに加工を施さないことである。本実施例では、映像データの加工はしない例として説明するが、編集工程にて、映像データとメタデータの関連付けを保持できる限りにおいて映像データを適宜加工してもよい。編集装置における映像データ加工については、一般的な技術であるため具体的な説明を省略する。なお、映像制作工程では、前工程に戻る作業(いわいる手戻り作業)が発生する場合もある。これは、例えば、本編集工程にて映像データの不具合が発覚した場合には、使用する映像データを変更して仮編集工程から作業をしなおす場合等が挙げられる。このような場合にも、本発明は、処理対象指定メタデータを変更することにより効率的に制作作業を行える利点がある。 Each process in these video productions is a model of a general video production process. In these processes, editing work is performed using video data and metadata associated with the video data. Is called. The temporary editing process and the main editing process are collectively referred to as an editing process as appropriate. In the editing process, it is common to perform editing and processing (for example, video processing such as cut editing and video effect addition) on video data using an editing device such as a non-linear editing device. is there. However, in this embodiment, it does not depend on the editing or processing method of the video data, and preferably the video data is not processed. In the present embodiment, an example in which the video data is not processed will be described. However, the video data may be appropriately processed in the editing process as long as the association between the video data and the metadata can be maintained. Since the video data processing in the editing apparatus is a general technique, a detailed description thereof will be omitted. In the video production process, there is a case where an operation to return to the previous process (so-called manual return operation) occurs. For example, when a malfunction of video data is detected in the editing process, the video data to be used is changed and the work is started again from the temporary editing process. Even in such a case, the present invention has an advantage that the production work can be efficiently performed by changing the processing target designation metadata.
次に、映像制作の各工程における処理をメタデータに着目して具体的に説明する。まず、図4(1)に示すように、企画工程はSTEP1,収録工程はSTEP2、仮編集工程はSTEP3、本編集工程はSTEP4、オーサリング工程はSTEP5といったように映像制作の各工程と処理対象指定メタデータとを対応付ける。なお、映像制作の各工程はより詳細に分けて処理対象指定メタデータと対応付けてもよいし、例えば、映像制作工程により分類するのではなく、担当者等の分類に基づいて処理対象指定メタデータとを対応付けてもよい。図4(2)は、図4(1)の映像制作の各工程における1つのクリップの映像記述メタデータの推移の1例を示す。また、図6に3つのクリップにおけるメタデータ記録構造の1具体例を示す。図6のクリップ1は、図4(2)に示すクリップと対応している。図7は、図6のクリップ1(CLIP0001)のメタデータファイルの1具体例を示す。同様に、図8は、図6のクリップ2(CLIP0002)、図9は、図6のクリップ3(CLIP0003)のメタデータファイルの1具体例を示す。これらの具体例は、オーサリング工程終了後のメタデータファイルの様子を示している。
Next, processing in each process of video production will be specifically described by paying attention to metadata. First, as shown in FIG. 4 (1), the planning process is STEP1, the recording process is STEP2, the temporary editing process is STEP3, the main editing process is STEP4, the authoring process is STEP5, and the video production process and processing target designation. Associate with metadata. Each video production process may be divided in more detail and associated with the processing target designation metadata. For example, the video production process is not classified according to the video production process, but based on the classification of the person in charge or the like. Data may be associated. FIG. 4 (2) shows an example of transition of video description metadata of one clip in each step of video production shown in FIG. 4 (1). FIG. 6 shows a specific example of the metadata recording structure in three clips. The
企画工程におけるシナリオデータとしては、例えば、シーン名と操作日時とが挙げられる。例えば、図4(2)に示す例では、シーン名を「“入場シーン1”」、操作日時(シナリオデータを記録した日時)を2009年2月3日19時12分とする。これは、2009年2月3日19時12分に、シーン名を「“入場シーン1”」とし、シーンデータとして記録したことを表す。このときには、映像データファイルは記録されておらず、メタデータ記録手段124は、シナリオデータのみを作成して、シナリオデータとしてのシナリオファイルを記録媒体100に記録する。ここで、シナリオデータとは、映像記述メタデータの入力を容易にするためのメタデータ郡である。シナリオデータは、各シーンの収録工程以降で必要になる映像記述メタデータを企画工程にて入力し、収録工程以降に、シナリオデータから選択して映像記述メタデータとして記録する目的で利用する。
Examples of scenario data in the planning process include a scene name and an operation date / time. For example, in the example shown in FIG. 4B, the scene name is ““
図10にシナリオファイルの1具体例を示す。本実施例では、シナリオファイルは、例えば、XML形式を利用して記録し、ファイル名をScenarioList.xmlとし、複数のシーンのシナリオデータを1つのシナリオファイルに記録する。図10において<Scenario>と</Scenario>とで囲まれた部分が1つのシーンのシナリオデータに対応する。また、<SceneName>と</SceneName>とに囲まれた部分がシーン名であり、<Date>と</Date>に囲まれた部分が操作日時である。シナリオファイルは、上述の1つのシーンのシナリオデータを複数集めて、<ScenarioList>と</ScenarioList>とで囲む形式とする。なお、シナリオファイルは、1つのシーンのシナリオデータが認識できればXML形式以外でもよく、ファイル名もScenarioList.xml以外でもよい。また、操作日時は、例えば、2009年2月3日19時12分のことを「2009/2/3 19:12」と年、月、日、時(24時間表記)、分の順番に記述する形式とする。 FIG. 10 shows one specific example of the scenario file. In this embodiment, the scenario file is recorded using, for example, the XML format, and the file name is “ScenarioList. The scenario data of a plurality of scenes is recorded in one scenario file. In FIG. 10, a portion surrounded by <Scenario> and </ Scenario> corresponds to scenario data of one scene. Further, a portion surrounded by <SceneName> and </ SceneName> is a scene name, and a portion surrounded by <Date> and </ Date> is an operation date and time. The scenario file has a format in which a plurality of scenario data of one scene described above are collected and surrounded by <ScenarioList> and </ ScenarioList>. Note that the scenario file may be other than the XML format as long as the scenario data of one scene can be recognized, and the file name is “ScenarioList. It may be other than xml. The operation date and time is, for example, “2009/2/3 19:12” on February 3, 2009 in the order of year, month, day, hour (24-hour notation), and minute. Format.
次に、収録工程にて記録されるクリップとシナリオデータのシーンとの対応付けについて説明する。例えば、図10に示す例において、1番目のシーンに対応するシナリオデータ(操作日時:2009/2/319:12、シーン名:“入場シーン1“)は、1番目に記録されたクリップと対応付ける。この対応付けは、どのような方法でもよく、利用者にシナリオデータのシーン名を提示して選択する方法により記録済みクリップとの対応付けを行ってもよい。また、例えば、同じシーンを繰り返して撮影する場合は、シーンを切り替える入力手段(図示せず)と、テイク1、テイク2のようにテイク番号をインクリメントする手段(図示せず)を備えていればよい。
Next, the association between the clip recorded in the recording process and the scenario data scene will be described. For example, in the example shown in FIG. 10, scenario data (operation date / time: 2009/2/319: 12, scene name: “
なお、図4(2)の企画工程におけるLinkPoint欄の「None」は、LinkPointが付与されていないことを表す。 Note that “None” in the LinkPoint column in the planning process of FIG. 4B indicates that no LinkPoint is given.
企画工程におけるメタデータ記録装置102のシナリオデータ記録処理について具体的に説明する。企画工程では、利用者がメタデータを入力し、入力したメタデータをシナリオデータとしてのシナリオファイルを記録媒体100に記録する。
The scenario data recording process of the metadata recording apparatus 102 in the planning process will be specifically described. In the planning process, a user inputs metadata, and a scenario file using the input metadata as scenario data is recorded on the
利用者は、映像記述メタデータ入力手段120に対して、例えば、シーン名(文字列「“入場シーン1”」等)を入力する。映像記述メタデータ入力手段120は、これらの入力された文字列を映像記述メタデータ生成手段121に提供し、例えば、「<ClipName>“入場シーン1”</ClipName>」のようにメタデータ記録形式に変換する。このメタデータ記録形式に変換されたデータは、メタデータ記録手段124にて他の入力されたメタデータとまとめられて図10に示すようなシナリオファイルとして記録媒体100に記録する。
The user inputs, for example, a scene name (such as a character string ““
また、LinkPointは、企画工程では映像シーンが記録されておらず、映像シーンを関連付けができない。そのため、本実施例の企画工程では、シナリオデータとしてLinkPointを記録しない。 In addition, LinkPoint does not record video scenes in the planning process and cannot associate video scenes. For this reason, LinkPoint is not recorded as scenario data in the planning process of this embodiment.
収録工程における映像記述メタデータとしては、例えば、クリップ名と操作日時とリンクポイント(LinkPoint)とが挙げられる。図4(2)に示す例では、クリップ名については、企画工程のシナリオデータとしてのシーン名「“入場シーン1”」に対して、テイク番号を付加した文字列「“入場シーン1(テイク1)”」と名称変更している。ここで、本実施例では、企画工程におけるシーン名は、記録済みクリップと関連付けられた後、記録クリップのクリップ名に対応付けられる。また、操作日時については、メタデータファイルを記録する日時を記録することとする。また、LinkPointについては、「“収録開始”」、「“収録終了”」のような収録における重要なポイントにLinkPointを付与する。これらは、収録を開始又は終了した時刻に記録した映像データに関連付けられる。例えば、LinkPoint「“収録開始”」は、映像記録装置101における映像データの記録開始から数秒程度(例えば、100フレーム)後の映像データの時刻と関連付け、LinkPoint「“収録終了”」は、映像記録装置101における映像データの記録終了から数秒程度(例えば、100フレーム)前の映像データの時刻と関連付けることにする。これは、所望の映像の前後数秒程度、のりしろ部分を含んで映像データを記録するのが一般的であることによる。このLinkPointにおける関連付けにより、映像データ中の開始点及び終了点への検索(映像フレームへの移動)が容易になる。なお、本実施例では、LinkPointと映像データとの関連付けは、映像記述メタデータとしてのLinkPointに映像データファイルの先頭からのフレーム数を含んで記録して関連付けを行うものとする。例えば、図7に示す例における「<LinkPoint frames=100 word=“収録開始”/>」のように記録する。これは、映像データの先頭から100フレームの位置を「“収録開始”」点とすることを表している。なお、LinkPointにおける先頭からのフレーム数をLinkPointのオフセットと呼ぶことにする。
Examples of the video description metadata in the recording process include a clip name, an operation date and time, and a link point (LinkPoint). In the example shown in FIG. 4 (2), for the clip name, the character string ““ entrance scene 1 (take 1) with the take number added to the scene name “
収録工程におけるメタデータ記録装置102のメタデータ記録処理について具体的に説明する。収録工程では、企画工程にて記録されたシナリオファイルに基づきメタデータファイルを作成する第1のステップと、第1のステップにおいて作成されたメタデータファイルに対して収録工程における新たな映像記述メタデータを追記する第2のステップの処理を行う。 The metadata recording process of the metadata recording apparatus 102 in the recording process will be specifically described. In the recording process, a first step of creating a metadata file based on the scenario file recorded in the planning process, and new video description metadata in the recording process for the metadata file created in the first step The process of the 2nd step which adds is added.
第1のステップでは、企画工程にて記録されたシナリオファイルに記録されているシナリオデータを参照し、映像データとシナリオデータとの関連付けを行い、新たにメタデータファイルを作成する。本実施例では、記録済みの映像データに対してシナリオデータと映像データとを関連付ける方法を説明する。なお、映像記録装置101とメタデータ記録装置102とを1つの装置にて実現して、映像データの記録とともに、映像データとシナリオデータとをファイル名等により関連付けて映像データを記録する方法でもよい(広く一般的に知られている技術で実現可能なため具体的な説明は省略する)。映像記述メタデータ入力手段120は、例えば、図13に示すように、シナリオファイルに記録されている各シーンのシーン名(501)と、映像データのファイル名(502)とを表示する。この表示されたシーン名と映像データのファイル名とをそれぞれ選択し、決定釦503を押下することにより、この選択からシナリオデータと関連付けるクリップを決定する。上述した処理にてシナリオデータと映像データとの関連付を行う。
In the first step, the scenario data recorded in the scenario file recorded in the planning process is referenced, the video data and the scenario data are associated, and a new metadata file is created. In this embodiment, a method for associating scenario data and video data with recorded video data will be described. Note that the
図14に図4(2)に示す例の収録工程におけるメタデータファイルについての時間的経過の1部分の例を示す。図14(1)は、収録工程における第1のステップ終了後のメタデータファイルの1例である。<ScopeMeta>と</ScopeMeta>とで囲まれる部分は、処理対象指定メタデータを表し、収録工程に対応する処理対象指定メタデータである「STEP1」という文字列を記録する。<STEP1>と</STEP1>とは、処理対象指定メタデータ「STEP1」に対応する映像記述メタデータであることを表す識別子であり、<STEP1>と</STEP1>とで囲まれた部分が処理対象指定メタデータ「STEP1」に対応した映像記述メタデータの内容である。また、<Date>と</Date>とで囲まれた部分は、操作日時であり、収録工程ではメタデータファイルを作成した日時を記録すればよい。なお、操作日時は、Real Time Clock機能を有する集積回路(RTC)を搭載すれば取得可能である。また、<ClipName>と</ClipName>とに囲まれた部分は、映像記述メタデータの1つであるクリップ名を表す。クリップ名の内容は、収録工程では映像データと関連付けされたシーンに対するシナリオデータのシーン名(すなわち、シナリオファイルにおける<SceneName>と</SceneName>とに囲まれた部分)と同一の文字列を記録する。メタデータファイルのファイル名は、シナリオデータと関連付けられた映像データファイルのファイル名に対して拡張子をxmlに変更して生成する。例えば、映像データファイル名がCLIP0001.yuvであれば、メタデータファイル名をCLIP0001.xmlとする。このファイル名により映像データファイルとメタデータファイルとの関連付けを行う。また、本実施例では、第1のステップではLinkPointは記録しない。 FIG. 14 shows an example of one part of the time course of the metadata file in the recording process of the example shown in FIG. FIG. 14A shows an example of a metadata file after the first step in the recording process. A portion surrounded by <ScopeMeta> and </ ScopeMeta> represents processing target designation metadata, and records a character string “STEP1” which is processing target designation metadata corresponding to a recording process. <STEP1> and </ STEP1> are identifiers indicating video description metadata corresponding to the processing target designation metadata “STEP1”, and a portion surrounded by <STEP1> and </ STEP1> This is the content of the video description metadata corresponding to the processing target designation metadata “STEP1”. Further, the portion surrounded by <Date> and </ Date> is the operation date and time, and the date and time when the metadata file is created may be recorded in the recording process. The operation date and time can be acquired by mounting an integrated circuit (RTC) having a Real Time Clock function. Further, a portion surrounded by <ClipName> and </ ClipName> represents a clip name that is one of video description metadata. The content of the clip name is the same character string as the scene name of the scenario data for the scene associated with the video data in the recording process (that is, the portion surrounded by <SceneName> and </ SceneName> in the scenario file). To do. The file name of the metadata file is generated by changing the extension to xml with respect to the file name of the video data file associated with the scenario data. For example, the video data file name is CLIP0001. If it is yuv, the metadata file name is CLIP0001. xml. This file name is used to associate the video data file with the metadata file. In the present embodiment, LinkPoint is not recorded in the first step.
第2のステップでは、第1のステップで作成されたメタデータファイルに対して、収録工程における新たな映像記述メタデータを追記する。これらの映像記述メタデータは、収録工程を表す処理対象指定メタデータ「STEP2」に関連付ける。図14(2)は収録工程における第2のステップ終了後のメタデータファイルの1例である。第2のステップでは、<STEP2>と</STEP2>とに囲われた部分を新たに追記する。なお、追記前(すなわち、映像制作における前工程)の映像記述メタデータは、例えば、履歴あるいは次候補として、処理対象指定メタデータと関連付けられて保持される。これは、映像制作工程において手戻りが発生した等、クリップにおけるメタデータの操作履歴として映像制作工程を遡りたい場合や、名称や編集点等の映像記述メタデータの候補が複数ある場合に、処理対象指定メタデータを変更するのみで任意の工程の映像記述メタデータが取得できるため有効である。
In the second step, new video description metadata in the recording process is added to the metadata file created in the first step. These video description metadata are associated with processing target designation metadata “
第2のステップにおける映像記述メタデータの追記方法を説明する。まず、利用者は、処理対象指定メタ入力手段122を介して、新たな処理対象指定メタデータの入力を行う。処理対象指定メタ入力手段122は、例えば、図5(1)に示すように処理対象指定メタ表示/選択部300を備える構成とする。処理対象指定メタ表示/選択部300は、例えば、図12に示すようにプルダウンメニュー形式にて、該当する処理対象指定メタデータ(例えば、収録工程では「STEP2」)を選択する構成とする。処理対象指定メタ入力手段122は、プルダウン釦401を表示し、利用者の入力よりプルダウン釦401が利用者により押下されると、プルダウンメニュー402を表示して、利用者は、表示された選択肢から処理対象指定メタを入力する。表示される選択肢は、すべての処理対象指定メタデータ(例えば、「STEP1」から「STEP5」まで)を表示すればよい。また、処理対象指定メタデータ入力手段122は、入力した処理対象指定メタデータを処理対象指定メタデータ生成手段123に提供する。処理対象指定メタデータ生成手段123は、処理対象指定メタデータを処理対象指定メタデータ入力手段122にて入力されたデータ(文字列)に変更する。すなわち、例えば、収録工程における第2のステップでは、図14(2)に示す例における<ScopeMeta>と</ScopeMeta>とで囲まれる部分を「STEP1」から「STEP2」に変更する。
A method for adding video description metadata in the second step will be described. First, the user inputs new process target designation metadata via the process target designation meta input unit 122. For example, the processing target designation meta input unit 122 includes a processing target designation meta display /
映像記述メタデータ入力手段120は、例えば、図5(1)に示すようなメタデータ表示部302を表示する構成とし、利用者は、表示される映像記述メタデータの各項目に対して映像記述メタデータとしての文字列等の入力を行う。映像記述メタデータ生成手段121は、映像記述メタデータ入力手段120により入力された映像記述メタデータを、例えば、各映像記述メタデータに対応した識別子(例えば、クリップ名の例では、<ClipName>と</ClipName>)で囲む等のメタデータ記録形式に変換する。
The video description metadata input means 120 is configured to display, for example, a
メタデータ記録手段124は、処理対象指定メタデータ生成手段123にて生成された処理対象指定メタデータ(メタデータ記録形式)と、映像記述メタデータ生成手段121にて生成された映像記述メタデータ郡(メタデータ記録形式)とをまとめて記録媒体100に記録する。これらの映像記述メタデータは、処理対象指定メタデータと関連付けられて記録する。すなわち、図14(2)に示すように、例えば、<STEP2>と</STEP2>とで囲み、映像記述メタデータ郡と処理対象指定メタデータ「STEP2」とを関連付ける。また、本実施例のメタデータ記録手段124は、前工程に対応する映像記述メタデータ(現工程が収録工程「STEP2」であれば、「STEP1」に関連付けられた映像記述メタデータ)に追記する形式とする。すなわち、メタデータ記録手段124は、記録済みのメタデータファイルを読み出し、このメタデータファイルに対して、新たに処理対象指定メタデータに対応する新たな映像記述メタデータを追記する。本実施例では、処理対象指定メタデータとの関連付けを、<STEP2>と</STEP2>とで囲む形式で行っているので、新たなメタデータを容易に追記可能である。
The
次に、収録工程の第2のステップにおける映像記述メタデータとしてのクリップ名と操作日時とLinkPointとについての処理例を具体的に説明する。収録工程におけるクリップ名については、図14(2)に示すように企画工程のシナリオデータのシーン名としてのクリップ名「“入場シーン1”」とは別に、例えば、テイク番号を付加した文字列「“入場シーン1(テイク1)”」とする。このクリップ名「“入場シーン1(テイク1)”」は、映像記述メタデータ入力手段120を介して利用者が入力する。メタデータ記録手段124は、この映像記述メタデータの1つとしてのクリップ名を処理対象指定メタデータ「STEP2」と関連付ける。すなわち、メタデータファイルにおいて<STEP2>と</STEP2>とで囲まれた部分に記録する。収録工程の第2のステップにおける操作日時については、RTC機能を用いてメタデータファイルを記録する日時を取得して記録すればよい。また、LinkPointの名称については、上述したように、利用者が映像記述メタデータ入力手段120を介して「“収録開始”」、「“収録終了”」という名称を入力する。次に、映像記述メタデータ生成手段121は、入力したLinkPointの名称とオフセットを関連付けて記録形式のデータを生成する。ここで、LinkPointのオフセットは、例えば、それぞれ、記録開始から100フレーム後(映像データの先頭から100フレーム)、記録終了から100フレーム前(記録区間を1100フレームとすると、LinkPointのオフセットは映像データの先頭から1000フレームとなる)とする。なお、メタデータ記録手段124は、収録工程における新たな映像記述メタデータと、処理対象指定メタデータ「STEP2」とを上述してきたように関連付けて記録する。
Next, a specific example of processing for the clip name, operation date and time, and LinkPoint as video description metadata in the second step of the recording process will be described. Regarding the clip name in the recording process, for example, as shown in FIG. 14 (2), in addition to the clip name “
以上の収録工程の第1のステップ、第2のステップにて収録工程におけるメタデータファイルが完成する。 The metadata file in the recording process is completed in the first step and the second step of the recording process.
仮編集工程における映像記述メタデータとしては、例えば、クリップ名と操作日時とLinkPointとが挙げられる。図4(2)に示す例では、クリップ名は、収録工程におけるクリップ名「“入場シーン1(テイク1)”」に対して、候補クリップであることを表す「候補1」を付与して、「“入場シーン1(候補1)”」と名称変更する。これは、例えば、仮編集工程における映像データの確認や不要な区間のカット等により、本クリップが本編集に使用される候補となった場合に上述したような名称変更を行う。また、LinkPointの名称については、編集開始点の候補を「“編集開始(候補1)”」、編集終了点の候補を「“編集終了(候補1)”」という名称として記録することにする。LinkPointのオフセットは、収録工程におけるLinkPointに基づいて、不要な部分を開始点と終了点とで囲まれる範囲外になるようにして映像データに関連付ける位置(オフセット値)を変更する。例えば、映像データにおける必要な区間の先頭フレームのフレーム数をFst_preedit、最終のフレームをFend_preeditとすると、映像データにおける必要な区間(仮編集区間)PreEditは下記の式で表される。
Examples of the video description metadata in the temporary editing process include a clip name, an operation date and time, and a LinkPoint. In the example shown in FIG. 4 (2), the clip name is “
Fst_preedit≦PreEdit ≦Fend_preedit
また、このとき、LinkPoint「“編集開始(候補1)”」のオフセットをFst_preedit、LinkPoint「“編集終了(候補1)”」のオフセットをFend_preeditとすればよい。
Fst_preedit ≦ PreEdit ≦ Fend_preedit
At this time, the offset of LinkPoint ““ edit start (candidate 1) ”” may be Fst_predit, and the offset of LinkPoint ““ end of edit (candidate 1) ”may be Fend_preedit.
また、本クリップが本編集に使用されないことが決まった場合、クリップ名やLinkPoint等の映像記述メタデータを追記しない。このことにより、本工程以降では、不要のクリップであることが判断できる。この場合、図6に示すクリップ2のように本工程以降の工程では、本工程以降に対応する処理対象指定メタデータに関連付けて、映像記述メタデータを記録しなければよい(図6では、Noneと記載している)。
If it is determined that the clip is not used for the main editing, video description metadata such as the clip name and LinkPoint is not added. This makes it possible to determine that the clip is unnecessary after this step. In this case, like the
仮編集工程におけるメタデータ記録装置102のメタデータ記録処理について具体的に説明する。仮編集工程では、収録工程にて記録されたメタデータファイルに対して、処理対象指定メタデータ「STEP3」に対応する新たな映像記述メタデータを追記する。利用者は、処理対象指定メタデータ入力手段122に対して工程の変更、すなわち、処理対象指定メタデータの入力と、映像記述メタデータ入力手段120に対して仮編集工程における新たな映像記述メタデータの入力を指示する。処理対象指定メタデータ入力手段122や、処理対象指定メタデータ生成手段123や、映像記述メタデータ入力手段120や、映像記述メタデータ生成手段121や、メタデータ記録手段124の処理は、収録工程における第2のステップと基本的には同様な処理である。処理の違いは、処理対象指定メタデータが「STEP3」になることである。
The metadata recording process of the metadata recording apparatus 102 in the temporary editing process will be specifically described. In the temporary editing step, new video description metadata corresponding to the processing target designation metadata “
仮編集工程における映像記述メタデータとしてのクリップ名と操作日時とLinkPointとの処理例を具体的に説明する。クリップ名と操作日時は、処理対象指定メタデータ「STEP3」に関連付けること以外、収録工程の第2のステップにおけるクリップ名と操作日時の処理方法と同じである。また、LinkPointの処理についても基本的な記録処理の流れは同じであるが、オフセットの決定方法やLinkPointの新規追加方法が異なる。 A processing example of the clip name, operation date and time, and LinkPoint as video description metadata in the temporary editing process will be specifically described. The clip name and operation date / time are the same as the clip name / operation date / time processing method in the second step of the recording process, except that the clip name and the operation date / time are associated with the processing target designation metadata “STEP3”. Also, the basic recording process flow is the same for the LinkPoint process, but the offset determination method and the new LinkPoint addition method are different.
LinkPointの名称は、例えば、「“編集開始(候補1)”」、「“編集終了(候補1)”」という名称に変更する。LinkPointのオフセットは、例えば、記録した映像データの全区間を編集するための素材として利用する(編集素材として採用される)場合には、処理対象指定メタデータ「STEP2」と同じLinkPointのオフセット値にすればよい(例えば、図7に示す例のようにオフセット(frame数の値)を同じ値とする)。ここで、「“編集開始(候補1)”」、「“編集終了(候補1)”」は、それぞれ、処理対象指定メタデータ「STEP2」における「“収録開始”」、「“収録終了”」という名称のLinkPointと対応する。この対応付けは、LinkPointのリストの番号や名称等で関連付けを行えばよい。本実施例では、LinkPointにおいて1番目に記録されている「“収録開始”」と「“編集開始(候補1)”」とを、2番目に記録されている「“収録終了”」と「“編集終了(候補1)”」とを、LinkPointの記録順番と名称に基づいて関連付ける。
The name of LinkPoint is changed to, for example, ““ Start of editing (candidate 1) ”and“ End of editing (candidate 1) ”. For example, when the link point offset is used as a material for editing all sections of recorded video data (adopted as an editing material), the offset value of the link point is the same as the offset value of the link point as the processing target designation metadata “
また、例えば、記録済みの映像データの全区間を編集素材として利用せずに不要な区間がある場合、映像記述メタデータ生成手段121は、LinkPointのオフセットを、処理対象指定メタデータ「STEP2」と同じLinkPointのオフセット(フレーム値)から変更すればよい。例えば、図9の「“編集開始(候補1)”」の例のようにLinkPointのオフセットを120フレームから125フレームに変更する。メタデータ記録装置102は、好ましくは、該当するLinkPointのオフセット近辺の映像データを再生しながら確認できる構成がよい。また、仮編集工程において複数の編集点の候補がある場合(例えば、図9における「“編集終了(候補2)”」のLinkPointのように)、利用者は、映像記述メタデータ入力手段120にて新規のLinkPointの名称とそのオフセット値を入力し、映像記述メタデータ生成手段121は、上述したような方法で新規作成したLinkPointを追記すればよい。
Further, for example, when there is an unnecessary section without using all sections of the recorded video data as editing material, the video description metadata generation unit 121 sets the offset of LinkPoint as the processing target designation metadata “STEP2”. What is necessary is just to change from the offset (frame value) of the same LinkPoint. For example, the LinkPoint offset is changed from 120 frames to 125 frames as in the example of ““ Start of editing (candidate 1) ”in FIG. The metadata recording device 102 is preferably configured to be able to check while reproducing video data in the vicinity of the offset of the corresponding LinkPoint. In addition, when there are a plurality of editing point candidates in the temporary editing process (for example, “Point of editing (candidate 2)” in FIG. 9), the user enters the video description
本編集工程における映像記述メタデータとしては、例えば、クリップ名と操作日時とLinkPointとが挙げられる。図4(2)に示す例では、クリップ名は、例えば、仮編集工程におけるクリップ名「“入場シーン1(候補1)”」に対して、配布する映像データとして決定したクリップであることを表す「決定」を付与して、「“入場シーン1(決定)”」と変更する。これは、例えば、本編集工程における編集作業や映像データの確認において本クリップを配布するための映像データとして決定した場合等に行われる。また、LinkPointの名称は、本編集工程として決定した編集点(編集開始点及び終了点)をそれぞれ「“編集開始(決定)”」、「編集終了(決定)」とする。さらに、LinkPointのオフセットは、仮編集工程におけるLinkPointに基づいて、映像データに関連付ける位置(オフセット値)の調整や変更を行う。ここで、例えば、区間長等を考慮して、配布するための映像データの区間と、「“編集開始(決定)”」と「編集終了(決定)」とで囲まれた区間が一致するようにしておく。 Examples of the video description metadata in the editing process include a clip name, operation date and time, and LinkPoint. In the example shown in FIG. 4B, the clip name represents, for example, a clip determined as video data to be distributed with respect to the clip name ““ entrance scene 1 (candidate 1) ”” in the temporary editing process. “Determination” is given and changed to ““ entrance scene 1 (decision) ””. This is performed, for example, when it is determined as video data for distributing the main clip in the editing work or video data confirmation in the main editing process. In addition, the names of LinkPoints are “edit start (decision)” and “edit end (decision)”, respectively. Further, the offset of LinkPoint adjusts or changes the position (offset value) associated with the video data based on LinkPoint in the temporary editing process. Here, for example, in consideration of the section length, the section of the video data to be distributed matches the section surrounded by ““ edit start (decision) ”and“ edit end (decision) ”. Keep it.
本編集工程におけるメタデータ記録装置102のメタデータ記録処理については、仮編集工程における処理と基本的に同じである。処理の違いは、処理対象指定メタデータが「STEP4」になることである。 The metadata recording process of the metadata recording apparatus 102 in this editing process is basically the same as the process in the temporary editing process. The difference in processing is that the processing target designation metadata becomes “STEP 4”.
オーサリング工程における映像記述メタデータとしては、例えば、クリップ名と操作日時とLinkPointとが挙げられる。図4(2)に示す例では、クリップ名は、例えば、オーサリング工程におけるDVD等の配布用記録媒体に記録する全クリップの順番等により、「“チャプター23/入場“」という名称に変更する。また、LinkPointの名称は、本編集工程において配布用映像データとして決定した編集開始点「“編集開始(決定)”」を「“チャプター23”」と名称変更する。また、LinkPointのオフセットは、例えば、名称と同様に「“編集開始(決定)”」におけるオフセット値と同じ値とする。これは、通常、シーンの終了点と、次のシーンの開始点は連続したフレーム(近傍フレーム)であるため、オーサリング工程におけるLinkPointとしてシーン(クリップ)の開始点のみが適切であることによる。 Examples of the video description metadata in the authoring process include a clip name, operation date and time, and LinkPoint. In the example shown in FIG. 4B, the name of the clip is changed to ““ Chapter 23 / Admission ””, for example, depending on the order of all clips recorded on a distribution recording medium such as a DVD in the authoring process. Also, the name of LinkPoint is changed from “editing start (decision)”, which is determined as distribution video data in the editing process, to “chapter 23”. Further, the offset of LinkPoint is set to the same value as the offset value in ““ edit start (decision) ””, for example, like the name. This is because, usually, the end point of the scene and the start point of the next scene are continuous frames (neighboring frames), so that only the start point of the scene (clip) is appropriate as the LinkPoint in the authoring process.
また、オーサリング工程における別のメタデータ記録方法として、プレイリストを作成する方法が挙げられる。プレイリストとは、映像データの再生順番と、各映像データにおける再生区間を指定するリストである。図11は、プレイリストファイルの1具体例を示している。本実施例では、プレイリストファイルは、カンマを区切り文字とするComma Separated Values(CSV)形式のテキストファイルとし、ファイル名を例えば、PlayList.txtをとする。本実施例のプレイリストファイルは、行で映像データの再生順番を表し、1番目の行に記載される映像データファイルから再生を開始するものとする。各行の1番目は、映像データファイル名を表し、2番目は再生開始点、3番目は再生終了点を表す。再生開始点、再生終了点は、例えば、映像データの先頭フレームからのフレーム数を用いて表し、プレイリストにおける各映像データの先頭フレームからのフレーム数を再生オフセットと呼ぶことにする。 Another metadata recording method in the authoring process is a method of creating a playlist. A play list is a list that specifies the playback order of video data and the playback section of each video data. FIG. 11 shows a specific example of a playlist file. In the present embodiment, the playlist file is a text file in Comma Separated Values (CSV) format with a comma as a delimiter, and the file name is, for example, PlayList. Let txt be. In the playlist file of this embodiment, the reproduction order of video data is represented by lines, and reproduction is started from the video data file described in the first line. The first of each row represents the video data file name, the second represents the playback start point, and the third represents the playback end point. The reproduction start point and the reproduction end point are represented by using, for example, the number of frames from the first frame of the video data, and the number of frames from the first frame of each video data in the playlist is referred to as a reproduction offset.
なお、本実施例では、配布用記録媒体を記録媒体100として説明するが、別の記録媒体に記録してもよい。その場合は、映像データやディレクトリ構成等の記録形式を記録媒体100と同じにしてもよいし、例えば、DVD−Video等の規格に従って変換してもよい。
In the present embodiment, the distribution recording medium is described as the
オーサリング工程におけるメタデータ記録装置102のメタデータ記録処理について具体的に説明する。オーサリング工程では、本編集工程で記録されたメタデータファイルに対して配布用の映像記述メタデータを追記し、メタデータファイルと映像データとを配布用記録媒体に書き込む処理を行う。また、オーサリング工程においては、オーサリングの具体例として、プレイリストを記録しない第1のオーサリング方法と、プレイリストをプレイリストファイルとして記録する第2のオーサリング方法の2つのオーサリング方法の例を説明する。 The metadata recording process of the metadata recording apparatus 102 in the authoring process will be specifically described. In the authoring process, distribution video description metadata is added to the metadata file recorded in the editing process, and the metadata file and the video data are written to the distribution recording medium. In the authoring process, as a specific example of authoring, two examples of authoring methods are described: a first authoring method that does not record a playlist and a second authoring method that records a playlist as a playlist file.
まず、第1のオーサリング方法について説明する。処理対象指定メタデータ入力手段122は、上述した工程における処理と同様に処理対象指定メタデータを「STEP5」に変更する。映像記述メタデータ入力手段120は、例えば、オーサリング対象となる映像データが23番目のチャプターであるとすると、処理対象指定メタデータ「STEP5」と関連付けて「“チャプター23/入場”」というクリップ名を入力する。ここで、チャプターとは、映像の章立ての区切りあり、本実施例では、企画工程におけるシーンと対応する。なお、処理対象指定メタデータ生成手段123と、映像記述メタデータ生成手段121と、メタデータ記録手段124とにおける具体的な処理は仮編集工程等にて説明した処理内容と同様である。また、第1のオーサリング方法においては、映像データから不要な区間を削除することが望ましい。これは、本編集工程(STEP4)におけるLinkPointで囲まれる区間以外の映像データを削除すればよい。これは、本編集工程(処理対象指定メタデータ「STEP4」)におけるLinkPoint「“編集開始(決定)”」と「“編集終了(決定)”」とで囲まれる区間以外の映像データを削除する。映像データの不要な区間の削除は、カット編集等で映像編集装置にて広く一般的に実現されている技術であるので具体的な説明は省略する。
First, the first authoring method will be described. The processing target designation metadata input unit 122 changes the processing target designation metadata to “STEP 5” in the same manner as the processing in the above-described process. For example, when the video data to be authored is the 23rd chapter, the video description
次に、第2のオーサリング方法について説明する。プレイリストファイルは、メタデータ記録手段124において、記録媒体100に記録されているメタデータファイルの本編集工程(処理対象指定メタデータ「STEP4」)におけるLinkPointと、メタデータファイルのファイル名とから作成される。オーサリング工程では、このメタデータファイルには、本編集工程(STEP4)までの映像記述メタデータが記録されている。
Next, the second authoring method will be described. The playlist file is created by the
メタデータ記録手段124は、読み出したメタデータファイルのファイル名から対応付けられている映像データファイル名を取得する。この映像データファイル名を、プレイリストにおける映像データファイル名としてプレイリストファイルに記録する。この処理を複数のメタデータファイルに対して行い、適宜、ファイル名順や利用者の入力により映像データの再生順番(すなわち、プレイリストの映像データの順番)を決定する。
The
さらに、メタデータ記録手段124は、上記で読み出したメタデータファイルから、本編集工程(処理対象指定メタデータ「STEP4」)に対応した映像記述メタデータを抽出する。例えば、本実施例では、<STEP4>と</STEP4>とで囲まれた部分の映像記述メタデータを抽出する。次に、この本編集工程(処理対象指定メタデータ「STEP4」)に対応した映像記述メタデータからLinkPointを抽出する。抽出したLinkPointのオフセットを用いて、処理対象の映像データに対するプレイリストにおける再生開始点及び再生終了点の再生オフセットを決定する。例えば、再生開始点の再生オフセットをLinkPoint名称「“編集開始(決定)”」に対応するLinkPointオフセットに、再生終了点の再生オフセットをLinkPoint名称「“編集終了(決定)”」に対応するLinkPointオフセットにする。なお、LinkPointの名称は、第1のオーサリング方法と同様に「“チャプター23”」等に変更してもよい。
Further, the
メタデータ記録手段124は、以上の処理によりプレイリストを作成し、プレイリストをプレイリストファイルとして記録媒体100に記録する。なお、第2のオーサリング方法では、映像データに対する不要な区間の削除等の編集処理を施す必要がないため、編集処理負荷(すなわち、プレイリストを作成する負荷)が低く、映像制作工程全体に対する編集処理時間も短くなる利点がある。なお、プレイリストファイルは、CSV形式にて記録する例を説明したが、映像データと、それらの再生順番と、再生開始点と、再生終了点とが規定されれば、XML形式等の他の形式でもよい。さらに、プレイリストファイル名は、任意のファイル名でもよい。また、プレイリストを用いた再生動作の詳細は後述する。
The
次に、再生装置103におけるメタデータの再生処理について、メタデータ再生手段132、処理対象指定メタ処理手段131、メタデータ表示手段130、処理対象指定メタ選択手段135における処理の詳細を具体的に説明する。 Next, with regard to the metadata playback processing in the playback device 103, details of processing in the metadata playback means 132, processing target designation meta processing means 131, metadata display means 130, and processing target designation meta selection means 135 will be specifically described. To do.
まず、メタデータ再生手段132は、記録媒体100に記録されているメタデータファイルを読み出し、例えば、図6に示すような構造であるメタデータのマトリクスを作成する。これは、XML形式のメタデータファイルから、識別子とその識別子に囲まれた部分の文字列を抽出してマトリクス化する。メタデータファイルに記録されている映像記述メタデータは、処理対象指定メタデータにより関連付けられているため、メタデータのマトリクスは、図6に示すように、処理対象指定メタデータ毎に分類される。なお、メタデータマトリクスは、処理対象指定メタ処理手段131に提供され、処理対象指定メタ処理手段131にて保持される。メタデータマトリクスの保持形式は、処理対象指定メタデータに基づいて検索する際に効率的な形式であればよい。
First, the
処理対象指定メタ選択手段135は、例えば、図12に示すようなプルダウンメニュー形式を用いて処理対象指定メタデータを選択/入力する。これは、例えば、メタデータ記録装置102における処理対象指定メタ入力手段122と同じ方法とする。なお、処理対象指定メタ選択手段135は、上述した構成により、新たな処理対象指定メタデータを入力するだけでなく、処理対象指定メタデータを変更ことも可能である。これは、利用者が、処理対象指定メタ選択手段135を介して異なる処理対象指定メタデータを入力することで実現する。
The processing target designation
処理対象指定メタ処理手段131は、メタデータ再生手段132にて作成されたメタデータのマトリクスの各項目(クリップ名等)と、処理対象指定メタ選択手段135により入力された処理対象指定メタデータとから表示用映像記述メタデータ(すなわち、メタデータ表示手段130に提供して表示するメタデータ)を決定する。これは、図6に示すような処理対象指定メタデータにより分類されたメタデータマトリクスから、処理対象指定メタ選択手段135により入力された処理対象指定メタデータと一致する処理対象指定メタデータに関連付けされた映像記述メタデータを抽出することで実現する。この抽出処理は、メタデータマトリクスが、処理対象指定メタデータと各映像記述メタデータとが関連付けられているため容易に抽出可能である。また、処理対象指定メタ処理手段131は、表示用映像記述メタデータと、処理対象指定メタ選択手段135にて入力された処理対象指定メタデータとをメタデータ表示手段130に提供する。
The processing target designation metadata processing unit 131 includes each item (clip name, etc.) of the metadata matrix created by the
メタデータ表示手段130は、処理対象指定メタ処理手段131から供給される表示用映像記述メタデータと処理対象指定メタデータとを利用者に対して表示する。これらを、例えば、図5に示すような構成のGUI画面を用いて表示する。図5(1)に示すように、GUI画面は、処理対象指定メタ表示/選択部300と、サムネイル画表示部301、303と、メタデータ表示部302、304とを含む構成とする。処理対象指定メタ表示/選択部300に関する処理対象指定メタデータの表示/選択処理等は、上述しており、ここでの説明は省略する。サムネイル画表示部301、303は、例えば、各クリップにおける映像データの先頭フレームの画像を表示すればよい。また、メタデータ表示部302、304には、処理対象指定メタ処理手段131から供給される表示用映像記述メタデータを表示する。以上の構成により、メタデータ表示部302、304には、処理対象指定メタ表示/選択部300にて選択/表示される処理対象指定メタデータに対応した映像記述メタデータ(すなわち、表示用映像記述メタデータ)が表示される。なお、図5(1)に示す例では、2つのクリップに対して、同じ処理対象メタデータに対応する映像記述メタデータが表示されている例を示している。また、図5(2)は、処理対象指定メタ表示/選択部300にて処理対象指定メタデータを「STEP3」から「STEP4」に変更した場合の表示結果を示している。メタデータ表示部302、304に表示される内容が、処理対象指定メタデータ「STEP4」に対応した表示用映像記述メタデータに変更されていることがわかる。
The metadata display unit 130 displays the display video description metadata and the processing target designation metadata supplied from the processing target designation meta processing unit 131 to the user. These are displayed using, for example, a GUI screen configured as shown in FIG. As shown in FIG. 5A, the GUI screen includes a processing target designation meta display /
次に、再生装置103におけるプレイリストファイルに基づく映像再生動作について説明する。記録媒体100に記録されたプレイリストファイルは、映像再生手段133により読み出され、プレイリストファイルに記録されている再生対象の映像データファイルや、その再生順番、各映像データにおける再生区間(再生開始点及び再生終了点)に基づいて、プレイリストに記録された順番に再生される。映像再生手段133は、プレイリストに基づき、プレイリストの記載された区間に対応する映像データを、プレイリストの記載された順番に映像表示手段134に対してフレーム毎に提供する。例えば、記録媒体100に図11に示すプレイリストファイルが記録されていた場合には、1番目に映像データファイル「CLIP0001.yuv」の再生オフセットが100フレームであるフレームから、再生オフセットが1000フレームであるフレームまでの区間に対応する映像データを映像表示手段134に提供する。また、1番目に映像データファイルの再生が終了した後には、プレイリストの2行目に記録されている映像データファイル「CLIP0003.yuv」において、再生オフセットが128フレームであるフレームから、再生オフセットが1028フレームであるフレームまでの区間に対応する映像データを、映像表示手段134に提供する。映像表示手段134は、供給された映像データを利用者に提示する。本実施例では、映像データを非圧縮データとしており、各映像フレームのサイズが固定であるため、再生オフセットから、映像データ中の再生オフセットに対応する映像フレームを容易に特定することができる。これにより、プレイリストに記録される任意の映像データの区間が再生可能である。
Next, the video playback operation based on the playlist file in the playback device 103 will be described. The playlist file recorded on the
なお、プレイリストの別の形式として、映像データにおける再生終了点に対応する映像フレームを再生(表示)しない形式もある。この場合には、再生終了点にける再生オフセットは、再生終了点に対応するLinkPointのオフセットから、再生終了点が再生されるように(例えば、1フレーム分の)値を加えればよい。例えば、上述の例では、再生終了点を1029フレームとすれば、1028フレームまで再生されることになる。また、この場合、再生終了点に対応するLinkPointのオフセットに対して、あらかじめ1フレーム分の値を加えておき、プレイリストの終了点を算出する場合に値を加算しない方法をとってもよい。例えば、映像データにおける必要な区間の先頭フレームのフレーム数をFst_edit、最終のフレームをFend_editとすると、映像データにおける必要な区間(例えば、編集区間)Editは下記の式で表される。 As another format of the playlist, there is a format in which the video frame corresponding to the playback end point in the video data is not played (displayed). In this case, the playback offset at the playback end point may be added with a value (for example, for one frame) so that the playback end point is played back from the LinkPoint offset corresponding to the playback end point. For example, in the above example, if the playback end point is 1029 frames, up to 1028 frames are played back. In this case, a method may be used in which a value for one frame is added in advance to the LinkPoint offset corresponding to the playback end point, and the value is not added when calculating the end point of the playlist. For example, if the number of frames of the first frame of the necessary section in the video data is Fst_edit and the last frame is Fend_edit, the necessary section (for example, editing section) Edit in the video data is represented by the following equation.
Fst_edit≦Edit <(Fend_edit+1)
また、このとき、プレイリストの開始点に対応するLinkPointのオフセットをFst_edit、終了点に対応するLinkPointのオフセットを(Fend_edit+1)とすればよい。
Fst_edit ≦ Edit <(Fend_edit + 1)
At this time, the offset of LinkPoint corresponding to the start point of the playlist may be Fst_edit, and the offset of LinkPoint corresponding to the end point may be (Fend_edit + 1).
以上のように、本実施例の映像処理システムによれば、メタデータによる映像データの検索効率や編集効率を飛躍的に向上させることができ、利用者にとって利便性の高い映像処理システムを実現することができる。 As described above, according to the video processing system of this embodiment, it is possible to dramatically improve the search efficiency and editing efficiency of video data based on metadata, and realize a video processing system that is highly convenient for the user. be able to.
なお、メタデータファイルやシナリオファイルを記録する際に、XML形式にて記録する方法を説明したが、例えば、テキスト形式(CSV形式)にて記録する方法や、テキスト形式をバイナリデータ化した形式等で記述しても同様の効果を発揮する。 The method of recording in the XML format when recording the metadata file and the scenario file has been described. For example, the method of recording in the text format (CSV format), the format in which the text format is converted into binary data, etc. The same effect is demonstrated even if described in.
なお、映像記録装置101、記録媒体100、メタデータ編集装置102、映像再生装置103は、それぞれの装置が1つである例を説明したが、どのような装置構成でもよい。例えば、映像記録装置101とメタデータ編集装置102とを1つの装置としてもよいし、メタデータ記録装置102と映像再生装置103とを1つの装置としてもよいし、すべてを1つの装置として実現してもよい。メタデータ記録装置102と映像再生装置103とを1つの装置とする場合には、メタデータ記録装置102における映像メタデータ入力手段120及び処理対象指定メタ入力手段122と、再生装置103におけるメタデータ表示手段130及び処理対象指定メタ選択手段135とにおける実装を共通化できる利点がある。
In addition, although the
なお、記録媒体100は、1つの記録媒体である構成として説明したが、映像データファイルとメタデータファイル等を別々の記録媒体に記録してもよい。
Although the
なお、メタデータファイルにおいて、各処理対象指定メタデータ(映像制作の各工程)にて映像記述メタデータを追記する方式を説明したが、適宜、映像記述メタデータを削除してもよい。この場合、メタデータ記録手段124は、削除したい処理対象指定メタデータに対応する映像記述メタデータの所望の項目を削除する。削除処理としては、削除対象とする処理対象指定メタデータに対応した映像記述メタデータを削除すればよい。この場合には、例えば、処理対象指定メタデータ「STEP3」に対応する映像記述メタデータを削除する場合には、<STEP3>と</STEP3>とに囲まれた部分を削除すればよい(識別子も含めて削除する)。また、削除したい処理対象指定メタデータに対応する映像記述メタデータの所望の1つの項目を削除することも可能である。
In the metadata file, the method of adding the video description metadata in each processing target designation metadata (each step of video production) has been described. However, the video description metadata may be deleted as appropriate. In this case, the
なお、本実施例では、映像制作の各工程における映像記述メタデータの1例として同一項目(例えば、クリップ名はどの工程においても存在する)を用いて説明したが、映像制作の各工程において新規の項目を追記してもよい。この場合は、新規の項目に対応する識別子を用いればよい。 In this embodiment, the same item (for example, the clip name exists in any process) has been described as an example of the video description metadata in each process of video production. This item may be added. In this case, an identifier corresponding to the new item may be used.
本発明にかかるメタデータ処理装置、映像処理装置及び映像処理システムは、利用者のメタデータを用いた映像データの検索や編集における利便性を飛躍的に向上させるもので、半導体メモリや光ディスク等を応用した映像編集システムや映像編集装置や映像記録再生装置等に広く適用可能である。 The metadata processing apparatus, video processing apparatus, and video processing system according to the present invention drastically improve the convenience in searching and editing video data using the user's metadata. The present invention is widely applicable to applied video editing systems, video editing devices, video recording / playback devices, and the like.
100 記録媒体
101 映像記録装置
102 メタデータ記録装置
103 再生装置
110 映像入力手段
111 映像記録手段
120 映像記述メタデータ入力手段
121 映像記述メタデータ生成手段
122 処理対象指定メタデータ入力手段
123 処理対象指定メタデータ生成手段
124 メタデータ記録手段
130 メタデータ表示手段
131 処理対象指定メタ処理手段
132 メタデータ再生手段
133 映像再生手段
134 映像表示手段
135 処理対象指定メタ選択手段
200 コンテンツディレクトリ
201 ビデオ格納用ディレクトリ
202 メタデータ格納用ディレクトリ
300 処理対象指定メタ表示/選択部
301 サムネイル画表示部
302 メタデータ表示部
303 サムネイル画表示部
304 メタデータ表示部
401 プルダウン釦
402 プルダウンメニュー
500 シナリオデータ関連付け画面
501 シーン名表示
502 映像データファイル名表示
503 決定釦
DESCRIPTION OF
Claims (14)
処理対象指定メタ選択手段により入力した処理対象指定メタデータに対応した映像記述メタデータをメタデータ表示手段に表示する請求項5記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 The video description metadata includes one or more of a clip name representing the name of the video data and an operation date and time representing the date and time when the metadata was recorded, and corresponds to a plurality of processing target designation metadata. From the video description metadata,
6. The metadata processing apparatus, the video processing apparatus, and the video processing system according to claim 5, wherein video description metadata corresponding to the processing target designation metadata input by the processing target designation meta selection means is displayed on the metadata display means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009099810A JP5375298B2 (en) | 2009-04-16 | 2009-04-16 | Video processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009099810A JP5375298B2 (en) | 2009-04-16 | 2009-04-16 | Video processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010252070A true JP2010252070A (en) | 2010-11-04 |
JP5375298B2 JP5375298B2 (en) | 2013-12-25 |
Family
ID=43313901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009099810A Active JP5375298B2 (en) | 2009-04-16 | 2009-04-16 | Video processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5375298B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012063393A1 (en) | 2010-11-10 | 2012-05-18 | 本田技研工業株式会社 | Automobile floor structure |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005006203A (en) * | 2003-06-13 | 2005-01-06 | Sony Corp | Information accessing method, information providing device, meta information providing device, information receiver and information accessing method |
JP2008053763A (en) * | 2004-11-16 | 2008-03-06 | Matsushita Electric Ind Co Ltd | Av data recording device and method, av data reproducing device and method, and recording medium recorded by the av data recording device or the method |
JP2009510801A (en) * | 2005-09-27 | 2009-03-12 | エルジー エレクトロニクス インコーポレーテッド | Recording medium, method for searching content data from the recording medium, and method and apparatus for reproducing data from the recording medium |
-
2009
- 2009-04-16 JP JP2009099810A patent/JP5375298B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005006203A (en) * | 2003-06-13 | 2005-01-06 | Sony Corp | Information accessing method, information providing device, meta information providing device, information receiver and information accessing method |
JP2008053763A (en) * | 2004-11-16 | 2008-03-06 | Matsushita Electric Ind Co Ltd | Av data recording device and method, av data reproducing device and method, and recording medium recorded by the av data recording device or the method |
JP2009510801A (en) * | 2005-09-27 | 2009-03-12 | エルジー エレクトロニクス インコーポレーテッド | Recording medium, method for searching content data from the recording medium, and method and apparatus for reproducing data from the recording medium |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012063393A1 (en) | 2010-11-10 | 2012-05-18 | 本田技研工業株式会社 | Automobile floor structure |
Also Published As
Publication number | Publication date |
---|---|
JP5375298B2 (en) | 2013-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4893841B2 (en) | recoding media | |
CN100394791C (en) | Information processing method and apparatus, program and recording medium | |
JP4224095B2 (en) | Information processing apparatus, information processing program, and information processing system | |
US7796856B2 (en) | Information processing apparatus and method, and program therefor | |
JP2003529990A (en) | Method of identifying and processing audio and / or video material | |
CN101094364B (en) | Apparatus and method for processing information | |
CN101132508A (en) | Method and apparatus for recording and reproducing, method and device for acquiring and recording image | |
CN101154427B (en) | Recording-and-reproducing apparatus and recording-and-reproducing method | |
JP2004310881A (en) | Information processing device and method, program and recording medium | |
JP3285029B2 (en) | recoding media | |
JP3835801B2 (en) | Information processing apparatus and method, program recording medium, and program | |
JP4048561B2 (en) | Information processing apparatus and method, program, and recording medium | |
CN100562938C (en) | Messaging device and method | |
JP5375298B2 (en) | Video processing device | |
JP4297141B2 (en) | Information processing apparatus and method, and program | |
JP4418183B2 (en) | Information processing apparatus and method, program, and recording medium | |
US20090060449A1 (en) | Shooting apparatus and shooting method, information processing apparatus and information processing method, and program | |
JP2010252128A (en) | Metadata processing apparatus, apparatus and system for processing video | |
JP2009010839A (en) | Image data reproduction apparatus and image data reproduction method | |
KR101025088B1 (en) | Data recording method | |
TW201334533A (en) | Information processing apparatus, information processing method, and program | |
CN103137162A (en) | Information processor, information processing method, and program | |
JP3894444B2 (en) | Information processing apparatus and method, program recording medium, and program | |
US20090016703A1 (en) | Information processing device, information processing method, and computer program | |
JP4507515B2 (en) | Information processing apparatus and method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120312 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20121214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130226 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130604 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130909 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5375298 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |