Nothing Special   »   [go: up one dir, main page]

JP2010252070A - Metadata processing apparatus, apparatus and system for processing video - Google Patents

Metadata processing apparatus, apparatus and system for processing video Download PDF

Info

Publication number
JP2010252070A
JP2010252070A JP2009099810A JP2009099810A JP2010252070A JP 2010252070 A JP2010252070 A JP 2010252070A JP 2009099810 A JP2009099810 A JP 2009099810A JP 2009099810 A JP2009099810 A JP 2009099810A JP 2010252070 A JP2010252070 A JP 2010252070A
Authority
JP
Japan
Prior art keywords
metadata
video
processing
processing target
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009099810A
Other languages
Japanese (ja)
Other versions
JP5375298B2 (en
Inventor
Tadataka Ueda
恭敬 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009099810A priority Critical patent/JP5375298B2/en
Publication of JP2010252070A publication Critical patent/JP2010252070A/en
Application granted granted Critical
Publication of JP5375298B2 publication Critical patent/JP5375298B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To shorten a processing time of retrieval using metadata, and to facilitate editing by a user using the metadata. <P>SOLUTION: A video processing system includes a metadata recording means of recording a metadata recording format including an area where processing target specification metadata for specifying a processing target of metadata is recorded and an area where video description metadata representing properties of video data and related to the processing target specification metadata is recorded. Further, the video processing system includes a video processing apparatus which relates metadata and video data and performs recording/reproduction processing on the video data, and includes a video description metadata input means of inputting the metadata and the processing target specification metadata for specifying the processing target of the metadata, and a processing target metadata generating means of relating the video description metadata and processing target specification metadata. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮影映像等の映像データに関連付けられて記録するメタデータに対して記録及び変更処理を行うメタデータ処理装置、映像処理装置及び映像処理システムに関する。   The present invention relates to a metadata processing device, a video processing device, and a video processing system that perform recording and change processing on metadata to be recorded in association with video data such as a captured video.

近年、光ディスクや、半導体メモリなどのランダムアクセス可能な記録媒体に、映像や音声データをファイル化して記録する装置が一般的になり、例えば、放送局や映像制作会社などにおいても、このような記録媒体を備えた編集装置を利用して映像編集作業などが行なわれている。このような映像編集作業を行なうため、映像や音声データなどのコンテンツデータは、これらコンテンツの付加情報であるメタデータとともに記録媒体に記録され、メタデータを利用して編集作業等の効率化が図られている。   In recent years, devices for recording video and audio data as files on a randomly accessible recording medium such as an optical disk or a semiconductor memory have become common. For example, such a recording is also used in broadcasting stations and video production companies. Video editing work or the like is performed using an editing device equipped with a medium. In order to perform such video editing work, content data such as video and audio data is recorded on a recording medium together with metadata that is additional information of the content, and the editing work is made more efficient using the metadata. It has been.

このような状況を背景として、記録媒体に記録された映像や音声データ(素材)に関する付加情報としてのメタデータを記録する手法が提案されている(例えば、特許文献1を参照)。   Against this background, a method for recording metadata as additional information related to video and audio data (material) recorded on a recording medium has been proposed (see, for example, Patent Document 1).

放送局や映像制作会社などにおいては、映像及び音声等(以下、適宜、素材と呼ぶ)を収録し、これらの素材を編集、加工して放送用の番組が制作され、さらに、この番組の映像や音声データが記録媒体に記録された状態で配布又は保管される。このような素材の収録工程、編集工程、保管工程等のそれぞれの処理工程において、素材を詳細に識別するための付加情報も記録媒体に記録され、素材の各処理に利用されている。また、このような付加情報としてメタデータがある。メタデータは、例えば、収録時刻、収録ID(IDentifier、識別情報)、収録題目、撮影者名など、取材や収録によって得られた素材を識別するために必要な情報を記述したデータである。   Broadcasting stations and video production companies record video and audio (hereinafter referred to as materials as appropriate), and edit and process these materials to produce broadcast programs. Or audio data is recorded or recorded on a recording medium. In each processing step such as the material recording step, the editing step, and the storage step, additional information for identifying the material in detail is also recorded on the recording medium and used for each processing of the material. In addition, there is metadata as such additional information. The metadata is data describing information necessary for identifying a material obtained by interviewing or recording, such as a recording time, a recording ID (IDentifier, identification information), a recording title, and a photographer name.

上述したように、メタデータは、素材となる各データ(以下、素材データと呼ぶ)を記録媒体に記録する収録工程において、素材データとともに記録媒体に記録される。また、素材に付加するメタデータとしては、次に示すような二種類のメタデータがある。その一つの種類として、企画工程であらかじめ決定されているメタデータがあり、このメタデータには、撮影開始、終了時間、撮影場所(地名)、撮影者などの情報が含まれる。他の種類としては、撮影と同時に生成されて記録媒体に記録されるメタデータがあり、このメタデータには、GPS(Global Positioning System)で検出される位置情報(緯度、経度、高度)や時刻情報、収録場所の地名などの情報が含まれる。以上のように、収録工程で素材データとともに記録媒体に記録されたメタデータは、素材と関連づけられて後工程で利用され、特に、検索における操作性や利便性の向上に有効な手段である。   As described above, the metadata is recorded on the recording medium together with the material data in the recording process of recording each data as the material (hereinafter referred to as material data) on the recording medium. Further, there are the following two types of metadata added to the material. As one type, there is metadata determined in advance in the planning process, and this metadata includes information such as shooting start time, end time, shooting location (place name), and photographer. As another type, there is metadata generated at the same time as shooting and recorded on a recording medium. This metadata includes position information (latitude, longitude, altitude) and time detected by GPS (Global Positioning System). Information, such as the place name of the recording location, is included. As described above, the metadata recorded on the recording medium together with the material data in the recording process is associated with the material and used in the subsequent process, and is particularly effective means for improving the operability and convenience in the search.

一方、これらのメタデータは、検索における操作性や利便性の向上に有効である。しかしながら、これらのメタデータを詳細に記録すれば、データ量が膨大になり、それにともない、記録されたメタデータを検索する処理負荷も増大する。また、利用者においても、例えば、大量のメタデータが表示され所望の映像データの検索が困難である等、所望のメタデータや映像データの検索性が劣化することになる。この課題に対して、例えば、特許文献2ではメタデータ要約情報(プロファイル)に基づいて、検索するメタデータを制限することにより検索負荷の低減を図る技術を開示している。   On the other hand, these metadata are effective in improving operability and convenience in search. However, if these metadata are recorded in detail, the amount of data becomes enormous, and the processing load for searching the recorded metadata increases accordingly. In addition, even in the case of a user, for example, a large amount of metadata is displayed and it is difficult to search for desired video data, so that searchability of desired metadata and video data is deteriorated. In response to this problem, for example, Patent Document 2 discloses a technique for reducing the search load by limiting the metadata to be searched based on the metadata summary information (profile).

特開2001−292411号公報JP 2001-292411 A 特開2004−247844号公報JP 2004-247844 A

しかしながら、特許文献1や特許文献2に開示された従来の構成は、例えば企画工程、収録工程や編集工程にてメタデータを記録する場合、メタデータがどの工程にて記録されたものか不明であるため、例えば、利用者がどのメタデータを参照してよいかを特定するのに時間がかかる課題がある。また、編集工程等において、メタデータの候補が複数ある場合には、複数の候補を同時に記録できず、メタデータの操作が困難である課題がある。   However, in the conventional configuration disclosed in Patent Document 1 and Patent Document 2, when metadata is recorded in, for example, a planning process, a recording process, and an editing process, it is unclear in which process the metadata was recorded. Therefore, for example, there is a problem that it takes time to specify which metadata the user can refer to. In addition, when there are a plurality of metadata candidates in an editing process or the like, there is a problem that a plurality of candidates cannot be recorded at the same time and it is difficult to operate the metadata.

上記課題に鑑みて本発明の映像処理装置及び映像処理システムは、メタデータによる検索の処理時間を軽減するとともに、利用者が所望の映像データを検索しやすくする等、メタデータ操作を利用した編集を容易にすることを目的とする。   In view of the above problems, the video processing apparatus and video processing system according to the present invention reduce the processing time of searching by metadata, and edit using metadata operations, such as making it easier for a user to search for desired video data. The purpose is to make it easier.

上述した課題を解決するために、本実施の形態の映像処理システムは、メタデータの処理対象を指定するための処理対象指定メタデータを記録するための領域と、映像データの属性を表すメタデータであり、前記処理対象指定メタデータと関連付けられた映像記述メタデータを記録する領域とを備えたメタデータ記録形式を記録するメタデータ記録手段を備える。   In order to solve the above-described problem, the video processing system according to the present embodiment includes an area for recording processing target designation metadata for designating a processing target of metadata, and metadata representing attributes of the video data. And metadata recording means for recording a metadata recording format including an area for recording video description metadata associated with the processing target designating metadata.

さらに、前記映像記述メタデータを入力するため映像記述メタデータ入力手段と、前記映像記述メタデータの処理対象を指定する処理対象指定メタデータを入力するための処理対象指定メタデータ入力手段と、前記映像記述メタデータと前記処理対象指定メタデータとを関連付ける処理対象指定メタ生成手段とを備える。   Furthermore, video description metadata input means for inputting the video description metadata, processing target designation metadata input means for inputting processing target designation metadata for designating a processing target of the video description metadata, Processing target designation meta generating means for associating the video description metadata with the processing target designation metadata.

さらに、記録媒体に記録されたメタデータを再生処理するためのメタデータ再生手段と、記録媒体に記録された前記処理対象指定メタデータに関連付けられた前記映像記述メタデータに処理を限定するための処理対象指定メタ処理手段とを備える。   Furthermore, metadata reproducing means for reproducing the metadata recorded on the recording medium, and for limiting the processing to the video description metadata associated with the processing target designation metadata recorded on the recording medium And a processing target designation meta processing means.

さらに、前記映像記述メタデータ及び前記処理対象指定メタデータを表示するためのメタデータ表示手段を備え、メタデータ表示手段は、前記処理対象指定メタ処理手段により処理された前記映像記述メタデータと前記処理対象指定メタデータとを表示する。   Furthermore, it comprises metadata display means for displaying the video description metadata and the processing target designation metadata, and the metadata display means includes the video description metadata processed by the processing target designation metadata processing means and the metadata. Display processing target specification metadata.

さらに、前記処理対象指定メタデータを入力するための処理対象指定メタ選択手段を備え、前記処理対象指定メタ処理手段は、前記処理対象指定メタ処理手段は、前記処理対象指定メタデータを前記処理対象指定メタ選択手段により入力されたデータに変更する手段を備え、メタデータ記録手段は、前記処理対象指定メタ処理手段による変更後の処理対象指定メタデータを記録する。   Furthermore, it comprises a processing target designation meta selection means for inputting the processing target designation metadata, wherein the processing target designation meta processing means is configured to input the processing target designation metadata into the processing target designation metadata. Means for changing to data input by the designated meta selection means is provided, and the metadata recording means records the processing target designation metadata after the change by the processing target designation meta processing means.

さらに、記録媒体に記録された映像データを再生するための映像再生手段を備える。   Furthermore, a video reproduction means for reproducing the video data recorded on the recording medium is provided.

さらに、映像データを入力するための映像入力手段と、前記映像入力手段により入力した映像データを記録媒体に記録するための映像記録手段とを備える。   Further, the image processing apparatus includes a video input unit for inputting video data, and a video recording unit for recording the video data input by the video input unit on a recording medium.

さらに、記録媒体に記録されたメタデータを再生するためのメタデータ再生手段と、記録媒体に記録された処理対象指定メタデータに関連付けられた前記映像記述メタデータに処理を限定するための処理対象指定メタ処理手段とを備える。   Furthermore, metadata reproducing means for reproducing the metadata recorded on the recording medium, and a processing target for limiting the processing to the video description metadata associated with the processing target designation metadata recorded on the recording medium Designated meta processing means.

さらに、メタデータ記録手段は、記録媒体に記録されたメタデータを再生し、新たな処理対象指定メタデータと、新たな処理対象指定メタデータに関連付けられた映像記述メタデータを追記して記録媒体に記録する。   Further, the metadata recording means reproduces the metadata recorded on the recording medium, and additionally records new processing target designation metadata and video description metadata associated with the new processing target designation metadata. To record.

さらに、前記映像記述メタデータには、映像データの名称を表すクリップ名と、メタデータを記録した際の日時を表す操作日時のうちいずれか1つ以上を含み、複数の処理対象指定メタデータに対応した前記映像記述メタデータを記録する。   Further, the video description metadata includes one or more of a clip name representing the name of the video data and an operation date / time representing the date / time when the metadata was recorded, and includes a plurality of processing target designation metadata. The corresponding video description metadata is recorded.

さらに、前記映像記述メタデータには、映像データ中の任意の位置に関連付けられたリンクポイントを含む。   Further, the video description metadata includes a link point associated with an arbitrary position in the video data.

さらに、前記処理対象指定メタ処理手段は、記録媒体に記録されたメタデータに対応する映像データと、記録された処理対象指定メタデータに対応した映像記述メタデータの1つであるリンクポイントに基づいて決定する再生開始点及び再生終了点とからプレイリストを作成する。   Further, the processing target designation metadata processing means is based on video data corresponding to the metadata recorded on the recording medium and a link point which is one of video description metadata corresponding to the recorded processing target designation metadata. A play list is created from the playback start point and playback end point determined in this manner.

処理対象指定メタデータに基づいて、メタデータによる検索の処理時間を軽減するとともに、利用者が所望の映像データを検索しやすくする映像処理装置を提供することが可能になる。   Based on the processing target designation metadata, it is possible to provide a video processing apparatus that reduces the search processing time by metadata and makes it easy for a user to search for desired video data.

本実施例の映像処理システムの構成を示すブロック図The block diagram which shows the structure of the video processing system of a present Example. 記録媒体におけるディレクトリ構造の1具体例を示す図The figure which shows one specific example of the directory structure in a recording medium 本実施例のメタデータ間の関連性を示す概念図Conceptual diagram showing the relationship between metadata in this embodiment 映像制作工程と映像記述メタデータの時間的変化の1具体例を示す図Diagram showing one specific example of temporal changes in video production process and video description metadata クリップに対するメタデータの表示例を示す図Diagram showing an example of metadata display for a clip メタデータ構造の1具体例を示す図Diagram showing one specific example of metadata structure メタデータファイルの記録形式の1具体例を示す図Diagram showing one specific example of metadata file recording format メタデータファイルの記録形式の1具体例を示す図Diagram showing one specific example of metadata file recording format メタデータファイルの記録形式の1具体例を示す図Diagram showing one specific example of metadata file recording format 企画工程におけるシナリオファイルの記録形式の1具体例を示す図A diagram showing one specific example of the scenario file recording format in the planning process プレイリストファイルの記録形式の1具体例を示す図The figure which shows one specific example of the recording format of a play list file 処理対象指定メタデータの入力方法の1具体例を示す図The figure which shows one specific example of the input method of process target designation | designated metadata シナリオデータと映像データを関連付けするための入力画面の1具体例を示す図The figure which shows one specific example of the input screen for associating scenario data and video data 収録工程におけるメタデータファイルの1具体例を示す図The figure which shows one specific example of the metadata file in the recording process

以下、図面を参照しながら本発明を実施するための最良の形態について説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明の実施例における映像処理システムの構成を示すブロック図である。本実施例では、映像データを記録媒体に記録するための映像記録装置と、映像及びメタデータを記録するための記録媒体と、メタデータを記録媒体に記録し、変更するためのメタデータ記録装置と、記録媒体に記録された映像データとメタデータを再生するための再生装置とを有する。   FIG. 1 is a block diagram showing a configuration of a video processing system in an embodiment of the present invention. In the present embodiment, a video recording apparatus for recording video data on a recording medium, a recording medium for recording video and metadata, and a metadata recording apparatus for recording and changing metadata on the recording medium And a playback device for playing back video data and metadata recorded on the recording medium.

このような映像処理システムは、映像制作事業者などを対象とした業務用途や編集を行う民生用途を目的とするシステムであり、講演会、結婚式会場、音楽コンサートや演芸会場での行事の撮影、映像編集などに利用されている。例えば、講演会、結婚式会場において、カメラで取得した映像データは、映像記録装置を介して着脱可能な記録媒体に記録される。その後、編集室内において、他の映像データとともに、この記録媒体に記録された映像データを用いて編集作業が行なわれる。   Such a video processing system is a system intended for commercial use for video production companies, etc. and consumer use for editing, and shooting events at lectures, wedding venues, music concerts and performance venues. It is used for video editing. For example, video data acquired by a camera at a lecture or wedding venue is recorded on a removable recording medium via a video recording device. Thereafter, editing work is performed in the editing room using the video data recorded on the recording medium together with other video data.

図1に示すように、本映像処理システムは、映像データを記録媒体に記録するための映像記録装置101と、映像データ及びメタデータを記録するための記録媒体100と、メタデータを記録媒体に記録あるいは変更するためのメタデータ記録装置102と、記録媒体に記録された映像データとメタデータとを再生するための再生装置103とから構成される。本実施例における大きな記録再生処理の流れとしては、まず、映像記録装置101にて映像データを記録媒体に記録し、メタデータ記録装置102にて記録媒体100にメタデータを記録あるいは、記録媒体100に記録済みのメタデータを変更する。次に、再生装置103にて記録媒体100に記録された映像データとメタデータとを再生する。   As shown in FIG. 1, the present video processing system includes a video recording apparatus 101 for recording video data on a recording medium, a recording medium 100 for recording video data and metadata, and metadata on the recording medium. It comprises a metadata recording device 102 for recording or changing, and a playback device 103 for playing back video data and metadata recorded on a recording medium. As a flow of a large recording / reproducing process in this embodiment, first, video data is recorded on a recording medium by the video recording apparatus 101, and metadata is recorded on the recording medium 100 by the metadata recording apparatus 102, or the recording medium 100 Change the metadata recorded in. Next, the video data and metadata recorded on the recording medium 100 are played back by the playback device 103.

本実施例では、映像記録媒体100は、半導体メモリやハードディスクドライブや光ディスク等ランダムアクセス可能な媒体であればよい。本実施例では、映像記録媒体100に半導体メモリを用いた例として説明する。半導体メモリは、ファイルとして記録再生可能なようにFAT等のファイルシステムにて管理されていればよい(一般的な技術であるため具体的な説明は省略する)。   In this embodiment, the video recording medium 100 may be a random accessible medium such as a semiconductor memory, a hard disk drive, or an optical disk. In this embodiment, an example in which a semiconductor memory is used for the video recording medium 100 will be described. The semiconductor memory only needs to be managed by a file system such as FAT so that it can be recorded / reproduced as a file (it is a general technique and will not be described in detail).

本実施例におけるクリップとは、映像データの記録開始から終了までの1連続の記録区間に対応する映像データとメタデータとの総称を指し、メタデータは、クリップに対応付けされる。また、シーンとは、映像制作の企画段階での映像の区切り(場面)を表し、本実施例では、シーンを決定した後に収録を行い、クリップを収録することを想定している。したがって、例えば、同じシーンを繰り返し記録する場合には、1つのシーンに対して複数のクリップが記録される。   The clip in the present embodiment refers to a generic name of video data and metadata corresponding to one continuous recording section from the start to the end of video data recording, and the metadata is associated with the clip. A scene represents a video segmentation (scene) at the planning stage of video production. In this embodiment, it is assumed that recording is performed after a scene is determined, and clips are recorded. Therefore, for example, when the same scene is repeatedly recorded, a plurality of clips are recorded for one scene.

映像記録装置101は、記録するための映像データを入力する映像入力手段110と、映像入力手段110にて入力された映像データを記録媒体100に記録するための映像記録手段111とを備える。本実施例では、映像記録装置101は、一般的に制作分野等で使用されている映像記録装置及びカメラレコーダであればよい。本実施例での映像記録装置101においては広く一般的に知られている技術で実現可能であるため具体的な説明は省略する。   The video recording apparatus 101 includes video input means 110 for inputting video data for recording, and video recording means 111 for recording the video data input by the video input means 110 on the recording medium 100. In this embodiment, the video recording apparatus 101 may be a video recording apparatus and a camera recorder that are generally used in the production field. Since the video recording apparatus 101 in this embodiment can be realized by a widely known technique, a detailed description thereof will be omitted.

メタデータ記録装置102は、記録する映像記述メタデータを入力/選択するための映像記述メタデータ入力手段120と、映像記述メタデータ入力手段120にて入力された映像記述メタデータを記録媒体100に記録する記録形式に変換するための映像記述メタデータ生成手段121と、処理対象指定メタデータを入力及び選択するための処理対象指定メタ入力手段122と、処理対象指定メタ入力手段122にて入力された処理対象指定メタデータを記録する記録形式に変換するとともに、処理対象指定メタデータを生成/変更するための処理対象指定メタ生成手段122と、映像記述メタデータ生成手段121及び処理対象指定メタ生成手段122にて生成されたメタデータを記録媒体100に記録するためのメタデータ記録手段123とを備える。ここで、映像記述メタデータとは、映像に関する記述的なメタデータであり、例えば、クリップ名、クリップ番号、リンクポイント等の映像データに対する属性情報を指す。また、メタデータは、記述的なメタデータ(記述メターデータ)と、構造的なメタデータ(構造メタデータ)とに分類することができる。構造メタデータは、ビデオフォーマット情報や、コーデック情報等の再生に必要な素材の構造を表すメタデータを指す。本実施例では、あらかじめ決められたビデオフォーマット等を用いる例を説明するため構造メタデータを記録しない例を用いて説明するが、適宜、必要に応じて構造メタデータを記録してもよい。さらに、処理対象指定メタデータとは、すべての映像記述メタデータにおいて、映像記述メタデータに関する処理(例えば、検索、表示)を限定するためのメタデータである。また、映像記述メタデータと処理対象指定メタデータとを総称して単にメタデータと呼ぶことにし、処理対象指定メタデータは、適宜、処理対象指定メタと省略する。   The metadata recording apparatus 102 inputs video description metadata input means 120 for inputting / selecting video description metadata to be recorded, and the video description metadata input by the video description metadata input means 120 to the recording medium 100. Video description metadata generation means 121 for converting to a recording format to be recorded, processing target designation meta input means 122 for inputting and selecting processing target designation metadata, and processing target designation meta input means 122 are input. The processing target designation metadata is converted into a recording format for recording, and the processing target designation meta generation means 122 for generating / changing the processing target designation metadata, the video description metadata generation means 121, and the processing target designation meta generation Metadata recording means 1 for recording the metadata generated by the means 122 on the recording medium 100 Equipped with a 3 and. Here, the video description metadata is descriptive metadata about video, and refers to attribute information for video data such as a clip name, a clip number, and a link point, for example. The metadata can be classified into descriptive metadata (descriptive metadata) and structural metadata (structural metadata). The structure metadata refers to metadata representing the structure of a material necessary for reproduction such as video format information and codec information. In this embodiment, an example in which the structural metadata is not recorded is described in order to explain an example in which a predetermined video format or the like is used. However, the structural metadata may be recorded as necessary. Furthermore, the processing target designation metadata is metadata for limiting processing (for example, search and display) related to video description metadata in all video description metadata. In addition, the video description metadata and the processing target designation metadata are collectively referred to simply as metadata, and the processing target designation metadata is appropriately abbreviated as processing target designation metadata.

本実施例では、メタデータ記録装置102は、例えば、コンピュータ上のプログラムとして開発される。上記プログラムは、コンピュータ上で動作し、記録媒体100に記録されているメタデータを読み出し、新たなメタデータを追記したり、既存のメタデータの内容を変更したりして、記録媒体100に記録する。なお、映像記録装置101とメタデータ記録装置102を1つの装置として実現してもよい。   In this embodiment, the metadata recording apparatus 102 is developed as a program on a computer, for example. The above program runs on a computer, reads metadata recorded on the recording medium 100, adds new metadata, changes the contents of existing metadata, and records the data on the recording medium 100. To do. Note that the video recording apparatus 101 and the metadata recording apparatus 102 may be realized as one apparatus.

再生装置103は、記録媒体100に記録されたメタデータを再生するためのメタデータ再生手段132と、メタデータ再生手段132にて再生されたメタデータの中から処理対象指定メタデータを抽出し、再生処理(例えば、表示)する映像記述メタデータを限定するための処理対象指定メタ処理手段131と、処理対象指定メタ処理手段131にて限定された映像記述メタデータを表示するためのメタデータ表示手段130と、記録媒体100に記録された映像データを再生するための映像再生手段133と、映像再生手段133にて再生された映像データを利用者に提示するために映像を表示する映像表示手段134と、映像記述メタデータの再生処理(例えば、表示)対象とする処理対象指定メタデータを選択する処理対象指定メタ選択手段135とを備える。本実施例では、再生装置103は、一般的に広く使用されている映像再生装置(映像再生手段133及び映像表示手段134)に対してメタデータ再生手段132と、対象指定メタ処理手段131とメタデータ表示手段130と処理対象指定メタ選択手段135とを追加する構成とする。映像再生装置(映像再生手段133及び映像表示手段134)に関しては一般的な技術で実現可能であるため具体的な説明は省略する。   The playback device 103 extracts metadata to be processed from the metadata playback means 132 for playing back the metadata recorded on the recording medium 100, and the metadata played back by the metadata playback means 132, Processing target designation meta processing means 131 for limiting video description metadata to be reproduced (for example, displayed), and metadata display for displaying video description metadata limited by the processing target designation meta processing means 131 Means 130, video reproducing means 133 for reproducing the video data recorded on the recording medium 100, and video display means for displaying the video for presenting the video data reproduced by the video reproducing means 133 to the user. 134 and processing target designation metadata for selecting processing target designation metadata to be subject to reproduction processing (for example, display) of video description metadata. And a-option means 135. In the present embodiment, the playback apparatus 103 has a metadata playback means 132, a target designation meta processing means 131, and a metadata for a video playback apparatus (video playback means 133 and video display means 134) that are generally widely used. A data display unit 130 and a processing target designation meta selection unit 135 are added. Since the video playback device (video playback unit 133 and video display unit 134) can be realized by a general technique, a detailed description thereof will be omitted.

以上のように構成された本映像処理システムにおいて、まず、映像記録装置101における映像データの記録の基本的な処理の流れを説明する。   In the video processing system configured as described above, first, a basic processing flow of video data recording in the video recording apparatus 101 will be described.

映像記録装置101において、映像入力手段110は、映像データを入力し、入力された映像データを映像記録手段111に提供する。例えば、業務用として一般的に利用されるSMPTE(Society of Motion Picture and Television Engineers)−292Mにて規格化されているHD−SDI(HighDefinition Serial Digitail Interface)を用いて映像データを入力すればよい。   In the video recording apparatus 101, the video input unit 110 inputs video data and provides the input video data to the video recording unit 111. For example, video data may be input using HD-SDI (High Definition Serial Digital Interface) standardized by SMPTE (Society of Motion Picture and Television Engineers) -292M, which is generally used for business.

映像記録手段111は、映像入力手段110から提供された映像データに対して映像フィルタ等の映像処理を施した後、映像記録媒体100に映像データを映像データファイルとして記録する。映像記録手段111では、供給された映像データを圧縮符号化することもできる。圧縮符号化方式としては、例えば、広く利用されているMPEG(Moving Picture Experts Group)−2方式や、MPEG−4/AVC(Advanced Video Coding)方式、あるいは業務用のデジタルVTR(Video Tape Recoder)の規格の一つであるSMPTE(Society of Motion Picture and Television Engineers)−314M(DV−Based 25M)規格が挙げられる。なお、本発明は、圧縮符号化方式に依存しないため、どのような圧縮符号化方式でも用いることができる。また、映像記録媒体100に十分な記録容量が確保できる場合には、映像データに対して圧縮符号化を施さなくてもよい。本実施例では、映像データの有効画素の輝度信号と色差信号を順番に並べてファイルとするとする非圧縮ファイル形式にて記録する例として説明する。   The video recording unit 111 performs video processing such as a video filter on the video data provided from the video input unit 110 and then records the video data as a video data file on the video recording medium 100. The video recording means 111 can also compress and encode the supplied video data. Examples of the compression encoding method include a widely used MPEG (Moving Picture Experts Group) -2 method, an MPEG-4 / AVC (Advanced Video Coding) method, or a business-use digital VTR (Video Tape Recorder). One of the standards is SMPTE (Society of Motion Picture and Television Engineers) -314M (DV-Based 25M) standard. Note that since the present invention does not depend on the compression encoding method, any compression encoding method can be used. If a sufficient recording capacity can be secured in the video recording medium 100, the video data may not be compressed and encoded. This embodiment will be described as an example of recording in an uncompressed file format in which a luminance signal and a color difference signal of effective pixels of video data are arranged in order and used as a file.

次に、メタデータ記録装置102におけるメタデータ記録の基本的な処理の流れを説明する。利用者は、メタデータ入力手段120を介して、クリップ名や操作日時やリンクポイント等の映像記述メタデータを入力する。さらに、メタデータ入力手段120は、入力した映像記述メタデータを映像記述メタデータ生成手段121に提供する。映像記述メタデータ生成手段121は、提供された映像記述メタデータを記録媒体100に記録するための形式に変換し、メタデータ記録手段123に提供する。映像記述メタデータ生成手段121における記録形式についての具体的な説明は後述する。   Next, a basic processing flow of metadata recording in the metadata recording apparatus 102 will be described. The user inputs video description metadata such as a clip name, operation date / time, and link point via the metadata input means 120. Further, the metadata input unit 120 provides the input video description metadata to the video description metadata generation unit 121. The video description metadata generation unit 121 converts the provided video description metadata into a format for recording on the recording medium 100 and provides the metadata to the metadata recording unit 123. A specific description of the recording format in the video description metadata generation means 121 will be described later.

一方、利用者は、処理対象指定メタ入力手段122を介して、利用者が所望する処理対象指定メタデータを入力する。さらに、処理対象指定メタ入力手段122は、入力された処理対象指定メタデータを処理対象指定メタ生成手段122に提供する。処理対象指定メタ生成手段122は、提供された処理対象指定メタデータを記録媒体100に記録するための形式に変換し、記録形式に変換した処理対象指定メタデータをメタデータ記録手段123に提供する。   On the other hand, the user inputs processing target designation metadata desired by the user via the processing target designation meta input means 122. Further, the processing target designation meta input unit 122 provides the input processing target designation metadata to the processing target designation meta generation unit 122. The processing target designation metadata generation unit 122 converts the provided processing target designation metadata into a format for recording on the recording medium 100, and provides the processing target designation metadata converted to the recording format to the metadata recording unit 123. .

メタデータ記録手段123は、メタデータ生成手段121及び処理対象指定メタ生成手段122により記録形式に変換された映像記述メタデータ及び処理対象指定メタデータを記録媒体100に記録する。また、適宜、記録媒体100に記録されるメタデータを読み出し、追加や修正を行う(具体的な説明は後述する)。   The metadata recording unit 123 records the video description metadata and the processing target designation metadata converted into the recording format by the metadata generation unit 121 and the processing target designation meta generation unit 122 on the recording medium 100. Further, the metadata recorded on the recording medium 100 is read out and added or modified as appropriate (specific description will be described later).

次に、記録媒体100における記録形式の一例について説明する。図2に記録媒体100におけるディレクトリ構造の一例を示す。本実施例では、記録媒体100に映像データとしての映像データファイルと、メタデータとしてのメタデータファイルを記録する。したがって、記録媒体100におけるディレクトリ構成は、コンテンツディレクトリ200としての「Content」ディレクトリをトップディレクトリとして、映像データファイルを記録するためのビデオ格納用ディレクトリ201としての「Video」ディレクトリと、メタデータファイルを記録するためのメタデータ格納用ディレクトリ202としての「Meta」ディレクトリとから構成される。ビデオ格納用ディレクトリ201には、例えば、CLIP0001.yuv、CLIP0002.yuv、CLIP0002.yuvといった映像データファイルを格納する。メタデータ格納用ディレクトリ202には、CLIP0001.xml、CLIP0002.xml、CLIP0003.xmlといったメタデータファイルを格納する。メタデータファイルは、例えば、XML(eXtensible Markup Language)形式を利用して記録する。例えば、図8に示すように<ClipContent>と</ClipContent>の間に各メタデータ(項目と内容)が記載される。例えば、「<ClipName>“スピーチシーン”</ClipName>」は、クリップ名が「“スピーチシーン”」であることを表す。メタデータファイルの記録形式(XML形式)についての具体的な説明は後述する。   Next, an example of a recording format in the recording medium 100 will be described. FIG. 2 shows an example of a directory structure in the recording medium 100. In this embodiment, a video data file as video data and a metadata file as metadata are recorded on the recording medium 100. Accordingly, the directory structure in the recording medium 100 is that the “Content” directory as the content directory 200 is the top directory, the “Video” directory as the video storage directory 201 for recording the video data file, and the metadata file are recorded. And a “Meta” directory as a metadata storage directory 202. In the video storage directory 201, for example, CLIP0001. yuv, CLIP0002. yuv, CLIP0002. A video data file such as yuv is stored. In the metadata storage directory 202, CLIP0001. xml, CLIP0002. xml, CLIP0003. A metadata file such as xml is stored. The metadata file is recorded using, for example, an XML (extensible Markup Language) format. For example, as shown in FIG. 8, each metadata (item and content) is described between <ClipContent> and </ ClipContent>. For example, “<ClipName>“ Speech Scene ”</ ClipName>” indicates that the clip name is ““ Speech Scene ””. A specific description of the metadata file recording format (XML format) will be described later.

ここで、ファイル名や拡張子は任意の文字列でよく、コンテンツ管理が容易な方法を用いればよい。本実施例では、上述したようにファイル名に「CLIP」に番号を付与した文字列で、映像データファイルの拡張子を.yuv、メタデータファイルの拡張子を.xmlとして説明する。また、映像データファイルに対応するメタデータファイルのファイル名を同じファイル名(拡張子を除く)とすることで、映像データファイルとメタデータファイルの対応付けを行う。すなわち、例えば、映像データファイルCLIP0001.yuvに対応付けるメタデータのメタデータファイルの名前をCLIP0001.xmlとする。さらに、本実施例では、CLIP0001.yuvとCLIP0001.xmlとして記録されるクリップを「クリップ1」と呼び、同様にCLIP0002.yuvとCLIP0002.xmlとして記録されるクリップを「クリップ2」、CLIP0003.yuvとCLIP0003.xmlとして記録されるクリップを「クリップ3」と呼ぶことにする。   Here, the file name or extension may be an arbitrary character string, and a method that facilitates content management may be used. In this embodiment, as described above, the extension of the video data file is a character string obtained by adding a number to “CLIP” in the file name. yuv, extension of metadata file. It will be described as xml. Further, the video data file and the metadata file are associated by setting the file name of the metadata file corresponding to the video data file to the same file name (excluding the extension). That is, for example, the video data file CLIP0001. The name of the metadata file of the metadata associated with yuv is CLIP0001. xml. Further, in this embodiment, CLIP0001. yuv and CLIP0001. A clip recorded as xml is called “clip 1”, and CLIP0002. yuv and CLIP0002. The clip recorded as xml is “Clip 2”, CLIP0003. yuv and CLIP0003. A clip recorded as xml is called “clip 3”.

さらに、「Meta」ディレクトリには、シナリオファイル「ScenarioList.xml」と、プレイリストファイル「PlayList.txt」とを含む。これらの詳細は後述する。   Further, the “Meta” directory includes a scenario file “ScenarioList.xml” and a playlist file “PlayList.txt”. Details of these will be described later.

次に、再生装置103における基本的な再生処理の流れを説明する。記録媒体100には、映像データファイルとメタデータファイルが記録されており、それぞれの再生動作について説明する。   Next, the flow of basic playback processing in the playback device 103 will be described. A video data file and a metadata file are recorded on the recording medium 100, and each reproduction operation will be described.

まず、記録媒体100に記録された映像データファイルは映像再生手段133にて読み出される。映像再生手段133は、読み出された映像データに対して映像処理(例えば、フィルタ処理や、あるいは、圧縮符号化されて記録されている場合には復号化等の処理)を施した後、再生表示手段134に映像データとして提供する。映像表示手段134は、映像再生手段133から提供された映像データを、液晶画面等を用いて利用者に提示する。なお、映像表示手段134の代わりに、映像データを出力する手段(図示せず)を備え、外部の表示手段(例えば、映像モニタ)に接続する方法でもよい。また、映像再生手段133や映像表示手段134における映像再生及び表示する方法や、別の1例として示した外部の表示手段に映像を提示する方法は、一般的に広く知られている技術で実現可能であるため具体的な説明を省略する。   First, the video data file recorded on the recording medium 100 is read by the video playback means 133. The video reproduction means 133 performs video processing (for example, filtering processing or decoding when the data is compressed and recorded) on the read video data, and then reproduces it. It is provided as video data to the display means 134. The video display means 134 presents the video data provided from the video playback means 133 to the user using a liquid crystal screen or the like. Instead of the video display means 134, a method of providing video data output means (not shown) and connecting to an external display means (for example, a video monitor) may be used. In addition, a method for reproducing and displaying video on the video reproducing means 133 and the video display means 134 and a method for presenting video on an external display means shown as another example are realized by a generally well-known technique. Since it is possible, detailed description is omitted.

次に、記録媒体100に記録されたメタデータファイルは、メタデータ再生手段132により読み出される。メタデータ再生手段132は、記録形式(例えば、XML形式)を解釈し、メタデータのマトリクスを作成する。ここで、メタデータのマトリクスとは、例えば、図6に示すようなメタデータの項目を縦軸にして、各クリップを横軸にしたようなメタデータのデータベースを指す。また、メタデータ再生手段132は、作成されたメタデータのマトリクスを、処理対象指定メタ処理手段131に供給する。処理対象指定メタ処理手段131は、供給されたメタデータのマトリクスと、処理対象指定メタ選択手段135により選択された処理対象指定メタデータとに基づいて、処理(例えば、表示)される映像記述メタデータを決定する。その後、処理対象指定メタデータと、処理対象として決定した映像記述メタデータとをメタデータ表示手段130に提供する。メタデータ表示手段130は、提供されたメタデータ(処理対象として決定した映像記述メタデータと処理対象指定メタデータ)をGUI(Graphical User Interface)画面上に表示する(例えば、図5)。なお、メタデータ表示手段130の代わりに、例えば、GUI画面を多重した映像データとして出力する手段を備え、外部の表示手段(例えば、映像モニタ)に接続する方法でもよい。また、メタデータ表示手段130におけるメタデータの表示方法や、外部の表示手段にメタデータ表示画面(GUI画面)を多重した映像データを提示する方法は、広く一般的に知られている技術で実現できるので具体的な説明を省略する。なお、処理対象指定メタ選択手段135や処理対象指定メタ処理手段131等の具体的な処理内容及び処理対象指定メタデータの具体的な説明は後述する。   Next, the metadata file recorded on the recording medium 100 is read by the metadata reproducing means 132. The metadata reproduction means 132 interprets the recording format (for example, XML format) and creates a metadata matrix. Here, the metadata matrix refers to a metadata database in which, for example, metadata items as shown in FIG. 6 are set on the vertical axis and each clip is set on the horizontal axis. Further, the metadata reproducing unit 132 supplies the created metadata matrix to the processing target designation meta processing unit 131. The processing target designation meta processing means 131 is a video description meta to be processed (for example, displayed) based on the supplied matrix of metadata and the processing target designation metadata selected by the processing target designation meta selection means 135. Determine the data. Thereafter, the processing target designation metadata and the video description metadata determined as the processing target are provided to the metadata display unit 130. The metadata display unit 130 displays the provided metadata (video description metadata determined as a processing target and processing target designation metadata) on a GUI (Graphical User Interface) screen (for example, FIG. 5). Instead of the metadata display unit 130, for example, a method of outputting a GUI screen as multiplexed video data and connecting to an external display unit (for example, a video monitor) may be used. In addition, a method for displaying metadata in the metadata display unit 130 and a method for presenting video data in which a metadata display screen (GUI screen) is multiplexed on an external display unit are realized by a widely known technique. Since this is possible, a detailed description is omitted. It should be noted that specific processing contents such as the processing target designation meta selection unit 135 and the processing target designation meta processing unit 131 and a specific description of the processing target designation metadata will be described later.

以上、本実施例における映像データとメタデータの基本的な記録再生動作の流れについて説明した。次に、本発明における処理対象指定メタデータと映像記述メタデータとの関連と、これらのメタデータの役割との概要を説明する。   The basic recording / reproducing operation flow of the video data and metadata in the present embodiment has been described above. Next, an overview of the relationship between the processing target designating metadata and the video description metadata in the present invention and the role of these metadata will be described.

本発明のメタデータ間の関連を示す概念図を図3に示す。図3(1)は、映像記述メタデータをクリップ名としたときのメタデータファイルと、そのメタデータファイルに対応した表示例を示している。例えば、メタデータファイルには、メタデータファイル(1)に示すような構成のメタデータが記録されているとする。すなわち、処理対象指定メタデータを「STEP3」とし、処理対象指定メタデータと映像記述メタデータが関連付けられて記録(例えば、「STEP1」と、クリップ名「“入場シーン1(テイク2)”」)している。ここで、処理対象指定メタデータは、例えば、映像制作工程や制作者等により、あらかじめ文字列と対応付けておく。例えば、図4(1)に示すように映像制作の各工程にしたがって、STEP1、STEP2等に対応付ける。この対応付けの定義と、処理対象指定メタデータと映像記述メタデータを関連付けて記録することとにより、ある工程「STEP1」のときに、メタデータのクリップ名の項目には、「入場シーン1(テイク2)」と記録されたことを示す。なお、処理対象指定メタデータの対応付け(意味づけ)は、適宜制作工程や運用等の用途に合わせて決めればよい。   FIG. 3 is a conceptual diagram showing the relationship between the metadata of the present invention. FIG. 3A shows a metadata file when the video description metadata is a clip name, and a display example corresponding to the metadata file. For example, it is assumed that metadata configured as shown in the metadata file (1) is recorded in the metadata file. That is, the processing target designation metadata is “STEP3”, and the processing target designation metadata and the video description metadata are recorded in association with each other (for example, “STEP1” and clip name ““ entrance scene 1 (take 2) ””). is doing. Here, the processing target designation metadata is associated with a character string in advance by, for example, a video production process or a producer. For example, as shown in FIG. 4 (1), STEP 1, STEP 2, etc. are associated with each video production process. By defining the association and recording the processing target designation metadata and the video description metadata in association with each other, at the time of a certain step “STEP 1”, the item of the clip name of the metadata includes “entrance scene 1 ( "Take 2)" is recorded. It should be noted that the association (meaning) of the processing target designation metadata may be determined in accordance with the usage such as the production process and operation as appropriate.

次に、図3(1)に示すメタデータファイル(1)の場合の再生装置103における表示についての概要を説明する。メタデータファイル(1)に記録されているメタデータは、メタデータ再生手段132を介して読み出され、処理対象指定メタ処理手段131により処理対象指定メタデータと一致するメタデータが表示される。図3(1)の場合には、処理対象指定メタデータが「STEP3」であるクリップ名「“入場シーン1”」が表示される。これは、処理対象指定メタデータが「STEP3」であり、「STEP3」に対応するクリップ名が「“入場シーン1”」であるためである。   Next, an outline of display on the playback device 103 in the case of the metadata file (1) shown in FIG. The metadata recorded in the metadata file (1) is read out via the metadata reproduction means 132, and the metadata that matches the processing target designation metadata is displayed by the processing target designation metadata processing means 131. In the case of FIG. 3 (1), the clip name ““ entrance scene 1 ”” whose processing target designation metadata is “STEP3” is displayed. This is because the processing target designation metadata is “STEP3” and the clip name corresponding to “STEP3” is ““ entrance scene 1 ””.

図3(2)は、他の映像記述メタデータ(リンクポイント)における表示例である。図3(1)と同様に、処理対象指定メタデータ「STEP2」に関連付けられた映像記述メタデータが表示される。ここで、各リンクポイント(LinkPoint)の先頭の項目(例えば、1番目のリンクポイントにおける「100frames」)は、映像データの先頭からのオフセットを表す。リンクポイントは、例えば、再生装置103において映像データにおける上記オフセット値から再生開始する場合等に利用する(具体的な説明は後述する)。   FIG. 3B is a display example of other video description metadata (link point). Similar to FIG. 3A, the video description metadata associated with the processing target designation metadata “STEP2” is displayed. Here, the head item (for example, “100 frames” at the first link point) of each link point (LinkPoint) represents an offset from the head of the video data. The link point is used, for example, when the playback apparatus 103 starts playback from the offset value in the video data (specific description will be described later).

以上のように構成された本映像処理システムにおいて、映像制作工程を映像データの記録から編集、オーサリングまでの処理の流れを各工程に分けて説明する。   In the video processing system configured as described above, the video production process from video data recording to editing and authoring will be described separately for each process.

本実施例では、映像記述メタデータの1例として、クリップ名、リンクポイント(LinkPoint)、操作日時の例を説明する。クリップ名は、クリップの名称を表すメタデータであり、リンクポイント(LinkPoint)は、名称と映像データ中の位置を指し示すデータを一組にしたメタデータである。位置を指し示すとは、例えば、映像データファイルの先頭からのフレーム数や、映像データに埋め込まれるタイムコードにより特定のフレーム(映像データ中の特定の時刻)に関連付けられていることである。これは、映像データの1点(通常は1フレーム)を指し示し、利用者の再生指示により任意のリンクポイントに関連付けられた映像データにジャンプして再生する役割がある。また、操作日時は、クリップの記録又はメタデータを記録や変更したときの日付と時刻を表すメタデータである。   In the present embodiment, an example of a clip name, a link point (LinkPoint), and an operation date will be described as an example of video description metadata. The clip name is metadata representing the name of the clip, and the link point (LinkPoint) is metadata in which the name and data indicating the position in the video data are combined. Pointing to a position means, for example, being associated with a specific frame (a specific time in the video data) by the number of frames from the top of the video data file or a time code embedded in the video data. This indicates one point (usually one frame) of the video data, and plays a role of jumping to the video data associated with an arbitrary link point and reproducing it according to a user's reproduction instruction. The operation date / time is metadata representing the date and time when recording or changing the recording or metadata of the clip.

なお、映像記述メタデータは、本実施例以外でも同様の効果を発揮する。また、映像制作工程の分類方法も処理対象指定メタデータとして区別できればどのような工程にて分類してもよい。好ましくは、本実施例のように時間軸に基づいて分類する。ここで、例えば、各工程(時間軸)にて作業担当者が別れている場合には、作業担当者毎に処理対象指定メタデータを定義すればよい。   Note that the video description metadata exhibits the same effect other than in the present embodiment. Further, the classification method of the video production process may be classified by any process as long as it can be distinguished as the processing target designation metadata. Preferably, classification is performed based on a time axis as in the present embodiment. Here, for example, when the person in charge of work is separated in each process (time axis), processing target designation metadata may be defined for each person in charge of work.

図4に本実施例において1具体例として説明する映像制作工程の流れを示す。本実施例では、映像制作工程は、図4(1)に示すように企画工程、収録工程、仮編集工程、本編集工程、オーサリング工程の順に構成されるものとする。企画工程は、シーン割り等の編集に必要な映像の吟味や収録や編集の計画を立案する工程であり、シナリオ(スケジュール)情報(以下、シナリオデータと呼ぶ)を決定するものとする。ここで、シナリオデータとは、撮影するシーン名や撮影者等のメタデータの入力パターンが記述されたメタデータ郡である。なお、本実施例では、企画工程にてシナリオデータとしてのシーン名を決定する例を説明する。シナリオデータはシナリオファイルとして記録媒体100に記録する。収録工程は、実際に映像データの収録や撮影を行う工程であり、企画工程で決定された計画通りにシーンを収録する。仮編集工程は、収録工程にて収録した映像データや映像ライブラリ等の以前に収録された映像データに対して不要部を削除する等の仮編集(いわいる粗編集)を施す工程である。本編集工程は、仮編集工程にて仮編集された映像データに対して詳細な調整をする工程であり、例えば、カット編集においては、例えば、1フレーム精度で映像データの編集点の調整を行う。オーサリング工程は、本編集工程にて本編集された映像データを納品者等に配布するために配布用記録媒体へ記録あるいは書き込む工程である。例えば、各記録媒体に対応した規格(例えば、光ディスク媒体の1つであるDVDであれば、DVD−Video規格等)に準拠するように変換等を施して、配布用記録媒体への記録を行う。   FIG. 4 shows a flow of a video production process described as a specific example in this embodiment. In this embodiment, the video production process is configured in the order of a planning process, a recording process, a temporary editing process, a main editing process, and an authoring process as shown in FIG. The planning process is a process for planning a video examination, recording, and editing necessary for editing scenes and the like, and scenario (schedule) information (hereinafter referred to as scenario data) is determined. Here, the scenario data is a metadata group in which metadata input patterns such as the name of a scene to be photographed and a photographer are described. In this embodiment, an example in which a scene name as scenario data is determined in the planning process will be described. The scenario data is recorded on the recording medium 100 as a scenario file. The recording process is a process of actually recording and shooting video data, and records the scene as planned according to the planning process. The temporary editing step is a step of performing temporary editing (so-called rough editing) such as deleting unnecessary parts on the video data recorded in the recording step or previously recorded video data such as a video library. This editing step is a step of making detailed adjustments to the video data temporarily edited in the temporary editing step. For example, in cut editing, the editing point of video data is adjusted with one frame accuracy, for example. . The authoring step is a step of recording or writing the video data that has been edited in the main editing step on a distribution recording medium in order to distribute it to a delivery person or the like. For example, conversion or the like is performed so as to comply with a standard corresponding to each recording medium (for example, DVD-Video standard for DVD which is one of optical disk media), and recording on a distribution recording medium is performed. .

これらの映像制作における各工程は、一般的な映像制作工程を模式化したものであり、これらの工程の中で映像データと、映像データに関連付けられたメタデータとを利用して編集作業が行われる。なお、適宜、仮編集工程と本編集工程とを総称して編集工程と呼ぶ。なお、編集工程では、一般的にはノンリニア編集装置等の編集装置を用いて、映像データに対して編集や加工(例えば、カット編集、映像効果付加等の映像加工)を行うことが一般的である。しかしながら、本実施例では、映像データの編集や加工方式に依存せず、好ましくは、映像データに加工を施さないことである。本実施例では、映像データの加工はしない例として説明するが、編集工程にて、映像データとメタデータの関連付けを保持できる限りにおいて映像データを適宜加工してもよい。編集装置における映像データ加工については、一般的な技術であるため具体的な説明を省略する。なお、映像制作工程では、前工程に戻る作業(いわいる手戻り作業)が発生する場合もある。これは、例えば、本編集工程にて映像データの不具合が発覚した場合には、使用する映像データを変更して仮編集工程から作業をしなおす場合等が挙げられる。このような場合にも、本発明は、処理対象指定メタデータを変更することにより効率的に制作作業を行える利点がある。   Each process in these video productions is a model of a general video production process. In these processes, editing work is performed using video data and metadata associated with the video data. Is called. The temporary editing process and the main editing process are collectively referred to as an editing process as appropriate. In the editing process, it is common to perform editing and processing (for example, video processing such as cut editing and video effect addition) on video data using an editing device such as a non-linear editing device. is there. However, in this embodiment, it does not depend on the editing or processing method of the video data, and preferably the video data is not processed. In the present embodiment, an example in which the video data is not processed will be described. However, the video data may be appropriately processed in the editing process as long as the association between the video data and the metadata can be maintained. Since the video data processing in the editing apparatus is a general technique, a detailed description thereof will be omitted. In the video production process, there is a case where an operation to return to the previous process (so-called manual return operation) occurs. For example, when a malfunction of video data is detected in the editing process, the video data to be used is changed and the work is started again from the temporary editing process. Even in such a case, the present invention has an advantage that the production work can be efficiently performed by changing the processing target designation metadata.

次に、映像制作の各工程における処理をメタデータに着目して具体的に説明する。まず、図4(1)に示すように、企画工程はSTEP1,収録工程はSTEP2、仮編集工程はSTEP3、本編集工程はSTEP4、オーサリング工程はSTEP5といったように映像制作の各工程と処理対象指定メタデータとを対応付ける。なお、映像制作の各工程はより詳細に分けて処理対象指定メタデータと対応付けてもよいし、例えば、映像制作工程により分類するのではなく、担当者等の分類に基づいて処理対象指定メタデータとを対応付けてもよい。図4(2)は、図4(1)の映像制作の各工程における1つのクリップの映像記述メタデータの推移の1例を示す。また、図6に3つのクリップにおけるメタデータ記録構造の1具体例を示す。図6のクリップ1は、図4(2)に示すクリップと対応している。図7は、図6のクリップ1(CLIP0001)のメタデータファイルの1具体例を示す。同様に、図8は、図6のクリップ2(CLIP0002)、図9は、図6のクリップ3(CLIP0003)のメタデータファイルの1具体例を示す。これらの具体例は、オーサリング工程終了後のメタデータファイルの様子を示している。   Next, processing in each process of video production will be specifically described by paying attention to metadata. First, as shown in FIG. 4 (1), the planning process is STEP1, the recording process is STEP2, the temporary editing process is STEP3, the main editing process is STEP4, the authoring process is STEP5, and the video production process and processing target designation. Associate with metadata. Each video production process may be divided in more detail and associated with the processing target designation metadata. For example, the video production process is not classified according to the video production process, but based on the classification of the person in charge or the like. Data may be associated. FIG. 4 (2) shows an example of transition of video description metadata of one clip in each step of video production shown in FIG. 4 (1). FIG. 6 shows a specific example of the metadata recording structure in three clips. The clip 1 in FIG. 6 corresponds to the clip shown in FIG. FIG. 7 shows a specific example of the metadata file of clip 1 (CLIP0001) in FIG. Similarly, FIG. 8 shows one specific example of the metadata file of clip 2 (CLIP0002) in FIG. 6, and FIG. 9 shows the metadata file of clip 3 (CLIP0003) in FIG. These specific examples show the state of the metadata file after the authoring process is completed.

企画工程におけるシナリオデータとしては、例えば、シーン名と操作日時とが挙げられる。例えば、図4(2)に示す例では、シーン名を「“入場シーン1”」、操作日時(シナリオデータを記録した日時)を2009年2月3日19時12分とする。これは、2009年2月3日19時12分に、シーン名を「“入場シーン1”」とし、シーンデータとして記録したことを表す。このときには、映像データファイルは記録されておらず、メタデータ記録手段124は、シナリオデータのみを作成して、シナリオデータとしてのシナリオファイルを記録媒体100に記録する。ここで、シナリオデータとは、映像記述メタデータの入力を容易にするためのメタデータ郡である。シナリオデータは、各シーンの収録工程以降で必要になる映像記述メタデータを企画工程にて入力し、収録工程以降に、シナリオデータから選択して映像記述メタデータとして記録する目的で利用する。   Examples of scenario data in the planning process include a scene name and an operation date / time. For example, in the example shown in FIG. 4B, the scene name is ““ entrance scene 1 ””, and the operation date and time (date and time when the scenario data is recorded) is 19:12 on February 3, 2009. This indicates that at 19:12 on February 3, 2009, the scene name was ““ entrance scene 1 ”” and recorded as scene data. At this time, the video data file is not recorded, and the metadata recording unit 124 creates only the scenario data and records the scenario file as the scenario data on the recording medium 100. Here, the scenario data is a metadata group for facilitating input of video description metadata. The scenario data is used for the purpose of inputting video description metadata required after the recording process of each scene in the planning process, and selecting from the scenario data and recording it as video description metadata after the recording process.

図10にシナリオファイルの1具体例を示す。本実施例では、シナリオファイルは、例えば、XML形式を利用して記録し、ファイル名をScenarioList.xmlとし、複数のシーンのシナリオデータを1つのシナリオファイルに記録する。図10において<Scenario>と</Scenario>とで囲まれた部分が1つのシーンのシナリオデータに対応する。また、<SceneName>と</SceneName>とに囲まれた部分がシーン名であり、<Date>と</Date>に囲まれた部分が操作日時である。シナリオファイルは、上述の1つのシーンのシナリオデータを複数集めて、<ScenarioList>と</ScenarioList>とで囲む形式とする。なお、シナリオファイルは、1つのシーンのシナリオデータが認識できればXML形式以外でもよく、ファイル名もScenarioList.xml以外でもよい。また、操作日時は、例えば、2009年2月3日19時12分のことを「2009/2/3 19:12」と年、月、日、時(24時間表記)、分の順番に記述する形式とする。   FIG. 10 shows one specific example of the scenario file. In this embodiment, the scenario file is recorded using, for example, the XML format, and the file name is “ScenarioList. The scenario data of a plurality of scenes is recorded in one scenario file. In FIG. 10, a portion surrounded by <Scenario> and </ Scenario> corresponds to scenario data of one scene. Further, a portion surrounded by <SceneName> and </ SceneName> is a scene name, and a portion surrounded by <Date> and </ Date> is an operation date and time. The scenario file has a format in which a plurality of scenario data of one scene described above are collected and surrounded by <ScenarioList> and </ ScenarioList>. Note that the scenario file may be other than the XML format as long as the scenario data of one scene can be recognized, and the file name is “ScenarioList. It may be other than xml. The operation date and time is, for example, “2009/2/3 19:12” on February 3, 2009 in the order of year, month, day, hour (24-hour notation), and minute. Format.

次に、収録工程にて記録されるクリップとシナリオデータのシーンとの対応付けについて説明する。例えば、図10に示す例において、1番目のシーンに対応するシナリオデータ(操作日時:2009/2/319:12、シーン名:“入場シーン1“)は、1番目に記録されたクリップと対応付ける。この対応付けは、どのような方法でもよく、利用者にシナリオデータのシーン名を提示して選択する方法により記録済みクリップとの対応付けを行ってもよい。また、例えば、同じシーンを繰り返して撮影する場合は、シーンを切り替える入力手段(図示せず)と、テイク1、テイク2のようにテイク番号をインクリメントする手段(図示せず)を備えていればよい。   Next, the association between the clip recorded in the recording process and the scenario data scene will be described. For example, in the example shown in FIG. 10, scenario data (operation date / time: 2009/2/319: 12, scene name: “entrance scene 1”) corresponding to the first scene is associated with the first recorded clip. . This association may be performed by any method, and the association with the recorded clip may be performed by a method of presenting and selecting the scene name of the scenario data to the user. For example, in the case where the same scene is repeatedly shot, an input unit (not shown) for switching scenes and a unit (not shown) for incrementing a take number such as take 1 and take 2 are provided. Good.

なお、図4(2)の企画工程におけるLinkPoint欄の「None」は、LinkPointが付与されていないことを表す。   Note that “None” in the LinkPoint column in the planning process of FIG. 4B indicates that no LinkPoint is given.

企画工程におけるメタデータ記録装置102のシナリオデータ記録処理について具体的に説明する。企画工程では、利用者がメタデータを入力し、入力したメタデータをシナリオデータとしてのシナリオファイルを記録媒体100に記録する。   The scenario data recording process of the metadata recording apparatus 102 in the planning process will be specifically described. In the planning process, a user inputs metadata, and a scenario file using the input metadata as scenario data is recorded on the recording medium 100.

利用者は、映像記述メタデータ入力手段120に対して、例えば、シーン名(文字列「“入場シーン1”」等)を入力する。映像記述メタデータ入力手段120は、これらの入力された文字列を映像記述メタデータ生成手段121に提供し、例えば、「<ClipName>“入場シーン1”</ClipName>」のようにメタデータ記録形式に変換する。このメタデータ記録形式に変換されたデータは、メタデータ記録手段124にて他の入力されたメタデータとまとめられて図10に示すようなシナリオファイルとして記録媒体100に記録する。   The user inputs, for example, a scene name (such as a character string ““ entrance scene 1 ””) to the video description metadata input unit 120. The video description metadata input means 120 provides these input character strings to the video description metadata generation means 121. For example, metadata recording such as “<ClipName>“ entrance scene 1 ”</ ClipName>”. Convert to format. The data converted into the metadata recording format is combined with other input metadata by the metadata recording means 124 and recorded on the recording medium 100 as a scenario file as shown in FIG.

また、LinkPointは、企画工程では映像シーンが記録されておらず、映像シーンを関連付けができない。そのため、本実施例の企画工程では、シナリオデータとしてLinkPointを記録しない。   In addition, LinkPoint does not record video scenes in the planning process and cannot associate video scenes. For this reason, LinkPoint is not recorded as scenario data in the planning process of this embodiment.

収録工程における映像記述メタデータとしては、例えば、クリップ名と操作日時とリンクポイント(LinkPoint)とが挙げられる。図4(2)に示す例では、クリップ名については、企画工程のシナリオデータとしてのシーン名「“入場シーン1”」に対して、テイク番号を付加した文字列「“入場シーン1(テイク1)”」と名称変更している。ここで、本実施例では、企画工程におけるシーン名は、記録済みクリップと関連付けられた後、記録クリップのクリップ名に対応付けられる。また、操作日時については、メタデータファイルを記録する日時を記録することとする。また、LinkPointについては、「“収録開始”」、「“収録終了”」のような収録における重要なポイントにLinkPointを付与する。これらは、収録を開始又は終了した時刻に記録した映像データに関連付けられる。例えば、LinkPoint「“収録開始”」は、映像記録装置101における映像データの記録開始から数秒程度(例えば、100フレーム)後の映像データの時刻と関連付け、LinkPoint「“収録終了”」は、映像記録装置101における映像データの記録終了から数秒程度(例えば、100フレーム)前の映像データの時刻と関連付けることにする。これは、所望の映像の前後数秒程度、のりしろ部分を含んで映像データを記録するのが一般的であることによる。このLinkPointにおける関連付けにより、映像データ中の開始点及び終了点への検索(映像フレームへの移動)が容易になる。なお、本実施例では、LinkPointと映像データとの関連付けは、映像記述メタデータとしてのLinkPointに映像データファイルの先頭からのフレーム数を含んで記録して関連付けを行うものとする。例えば、図7に示す例における「<LinkPoint frames=100 word=“収録開始”/>」のように記録する。これは、映像データの先頭から100フレームの位置を「“収録開始”」点とすることを表している。なお、LinkPointにおける先頭からのフレーム数をLinkPointのオフセットと呼ぶことにする。   Examples of the video description metadata in the recording process include a clip name, an operation date and time, and a link point (LinkPoint). In the example shown in FIG. 4 (2), for the clip name, the character string ““ entrance scene 1 (take 1) with the take number added to the scene name “entrance scene 1” ”as the scenario data of the planning process. ) ”” Has been renamed. Here, in this embodiment, the scene name in the planning process is associated with the recorded clip and then associated with the clip name of the recorded clip. As for the operation date and time, the date and time when the metadata file is recorded is recorded. For LinkPoint, LinkPoint is given to important points in recording such as ““ recording start ”” and ““ recording end ””. These are associated with video data recorded at the time when recording started or ended. For example, the link point ““ recording start ”” is associated with the time of the video data about several seconds (eg, 100 frames) after the video data recording start in the video recording apparatus 101, and the link point ““ recording end ”” is the video recording. Assume that the time of video data about several seconds (for example, 100 frames) before the end of video data recording in the apparatus 101 is associated. This is because video data is generally recorded including a marginal part for several seconds before and after a desired video. By the association in the LinkPoint, the search to the start point and the end point in the video data (movement to the video frame) is facilitated. In the present embodiment, the association between LinkPoint and video data is performed by recording the LinkPoint as video description metadata including the number of frames from the head of the video data file. For example, it is recorded as “<LinkPoint frames = 100 word =“ recording start ”/>” in the example shown in FIG. This represents that the position of 100 frames from the beginning of the video data is set as the “recording start” point. Note that the number of frames from the beginning in LinkPoint will be referred to as LinkPoint offset.

収録工程におけるメタデータ記録装置102のメタデータ記録処理について具体的に説明する。収録工程では、企画工程にて記録されたシナリオファイルに基づきメタデータファイルを作成する第1のステップと、第1のステップにおいて作成されたメタデータファイルに対して収録工程における新たな映像記述メタデータを追記する第2のステップの処理を行う。   The metadata recording process of the metadata recording apparatus 102 in the recording process will be specifically described. In the recording process, a first step of creating a metadata file based on the scenario file recorded in the planning process, and new video description metadata in the recording process for the metadata file created in the first step The process of the 2nd step which adds is added.

第1のステップでは、企画工程にて記録されたシナリオファイルに記録されているシナリオデータを参照し、映像データとシナリオデータとの関連付けを行い、新たにメタデータファイルを作成する。本実施例では、記録済みの映像データに対してシナリオデータと映像データとを関連付ける方法を説明する。なお、映像記録装置101とメタデータ記録装置102とを1つの装置にて実現して、映像データの記録とともに、映像データとシナリオデータとをファイル名等により関連付けて映像データを記録する方法でもよい(広く一般的に知られている技術で実現可能なため具体的な説明は省略する)。映像記述メタデータ入力手段120は、例えば、図13に示すように、シナリオファイルに記録されている各シーンのシーン名(501)と、映像データのファイル名(502)とを表示する。この表示されたシーン名と映像データのファイル名とをそれぞれ選択し、決定釦503を押下することにより、この選択からシナリオデータと関連付けるクリップを決定する。上述した処理にてシナリオデータと映像データとの関連付を行う。   In the first step, the scenario data recorded in the scenario file recorded in the planning process is referenced, the video data and the scenario data are associated, and a new metadata file is created. In this embodiment, a method for associating scenario data and video data with recorded video data will be described. Note that the video recording device 101 and the metadata recording device 102 may be realized by a single device, and the video data may be recorded by associating the video data and the scenario data with a file name or the like together with the recording of the video data. (Because it can be realized by a widely known technique, a specific description is omitted). For example, as shown in FIG. 13, the video description metadata input unit 120 displays the scene name (501) of each scene recorded in the scenario file and the file name (502) of the video data. The displayed scene name and video data file name are selected, and a decision button 503 is pressed to determine a clip to be associated with the scenario data from this selection. The association between the scenario data and the video data is performed by the processing described above.

図14に図4(2)に示す例の収録工程におけるメタデータファイルについての時間的経過の1部分の例を示す。図14(1)は、収録工程における第1のステップ終了後のメタデータファイルの1例である。<ScopeMeta>と</ScopeMeta>とで囲まれる部分は、処理対象指定メタデータを表し、収録工程に対応する処理対象指定メタデータである「STEP1」という文字列を記録する。<STEP1>と</STEP1>とは、処理対象指定メタデータ「STEP1」に対応する映像記述メタデータであることを表す識別子であり、<STEP1>と</STEP1>とで囲まれた部分が処理対象指定メタデータ「STEP1」に対応した映像記述メタデータの内容である。また、<Date>と</Date>とで囲まれた部分は、操作日時であり、収録工程ではメタデータファイルを作成した日時を記録すればよい。なお、操作日時は、Real Time Clock機能を有する集積回路(RTC)を搭載すれば取得可能である。また、<ClipName>と</ClipName>とに囲まれた部分は、映像記述メタデータの1つであるクリップ名を表す。クリップ名の内容は、収録工程では映像データと関連付けされたシーンに対するシナリオデータのシーン名(すなわち、シナリオファイルにおける<SceneName>と</SceneName>とに囲まれた部分)と同一の文字列を記録する。メタデータファイルのファイル名は、シナリオデータと関連付けられた映像データファイルのファイル名に対して拡張子をxmlに変更して生成する。例えば、映像データファイル名がCLIP0001.yuvであれば、メタデータファイル名をCLIP0001.xmlとする。このファイル名により映像データファイルとメタデータファイルとの関連付けを行う。また、本実施例では、第1のステップではLinkPointは記録しない。   FIG. 14 shows an example of one part of the time course of the metadata file in the recording process of the example shown in FIG. FIG. 14A shows an example of a metadata file after the first step in the recording process. A portion surrounded by <ScopeMeta> and </ ScopeMeta> represents processing target designation metadata, and records a character string “STEP1” which is processing target designation metadata corresponding to a recording process. <STEP1> and </ STEP1> are identifiers indicating video description metadata corresponding to the processing target designation metadata “STEP1”, and a portion surrounded by <STEP1> and </ STEP1> This is the content of the video description metadata corresponding to the processing target designation metadata “STEP1”. Further, the portion surrounded by <Date> and </ Date> is the operation date and time, and the date and time when the metadata file is created may be recorded in the recording process. The operation date and time can be acquired by mounting an integrated circuit (RTC) having a Real Time Clock function. Further, a portion surrounded by <ClipName> and </ ClipName> represents a clip name that is one of video description metadata. The content of the clip name is the same character string as the scene name of the scenario data for the scene associated with the video data in the recording process (that is, the portion surrounded by <SceneName> and </ SceneName> in the scenario file). To do. The file name of the metadata file is generated by changing the extension to xml with respect to the file name of the video data file associated with the scenario data. For example, the video data file name is CLIP0001. If it is yuv, the metadata file name is CLIP0001. xml. This file name is used to associate the video data file with the metadata file. In the present embodiment, LinkPoint is not recorded in the first step.

第2のステップでは、第1のステップで作成されたメタデータファイルに対して、収録工程における新たな映像記述メタデータを追記する。これらの映像記述メタデータは、収録工程を表す処理対象指定メタデータ「STEP2」に関連付ける。図14(2)は収録工程における第2のステップ終了後のメタデータファイルの1例である。第2のステップでは、<STEP2>と</STEP2>とに囲われた部分を新たに追記する。なお、追記前(すなわち、映像制作における前工程)の映像記述メタデータは、例えば、履歴あるいは次候補として、処理対象指定メタデータと関連付けられて保持される。これは、映像制作工程において手戻りが発生した等、クリップにおけるメタデータの操作履歴として映像制作工程を遡りたい場合や、名称や編集点等の映像記述メタデータの候補が複数ある場合に、処理対象指定メタデータを変更するのみで任意の工程の映像記述メタデータが取得できるため有効である。   In the second step, new video description metadata in the recording process is added to the metadata file created in the first step. These video description metadata are associated with processing target designation metadata “STEP 2” representing the recording process. FIG. 14 (2) shows an example of the metadata file after the second step in the recording process. In the second step, a part surrounded by <STEP2> and </ STEP2> is newly added. Note that the video description metadata before additional recording (that is, the previous process in video production) is held in association with the processing target designation metadata, for example, as a history or a next candidate. This is processed when you want to go back to the video production process as a metadata operation history in clips, such as when a rework occurs in the video production process, or when there are multiple candidates for video description metadata such as names and edit points. This is effective because the video description metadata of an arbitrary process can be acquired simply by changing the target designation metadata.

第2のステップにおける映像記述メタデータの追記方法を説明する。まず、利用者は、処理対象指定メタ入力手段122を介して、新たな処理対象指定メタデータの入力を行う。処理対象指定メタ入力手段122は、例えば、図5(1)に示すように処理対象指定メタ表示/選択部300を備える構成とする。処理対象指定メタ表示/選択部300は、例えば、図12に示すようにプルダウンメニュー形式にて、該当する処理対象指定メタデータ(例えば、収録工程では「STEP2」)を選択する構成とする。処理対象指定メタ入力手段122は、プルダウン釦401を表示し、利用者の入力よりプルダウン釦401が利用者により押下されると、プルダウンメニュー402を表示して、利用者は、表示された選択肢から処理対象指定メタを入力する。表示される選択肢は、すべての処理対象指定メタデータ(例えば、「STEP1」から「STEP5」まで)を表示すればよい。また、処理対象指定メタデータ入力手段122は、入力した処理対象指定メタデータを処理対象指定メタデータ生成手段123に提供する。処理対象指定メタデータ生成手段123は、処理対象指定メタデータを処理対象指定メタデータ入力手段122にて入力されたデータ(文字列)に変更する。すなわち、例えば、収録工程における第2のステップでは、図14(2)に示す例における<ScopeMeta>と</ScopeMeta>とで囲まれる部分を「STEP1」から「STEP2」に変更する。   A method for adding video description metadata in the second step will be described. First, the user inputs new process target designation metadata via the process target designation meta input unit 122. For example, the processing target designation meta input unit 122 includes a processing target designation meta display / selection unit 300 as shown in FIG. The processing target designation meta display / selection unit 300 is configured to select corresponding processing target designation metadata (for example, “STEP 2” in the recording process) in a pull-down menu format as shown in FIG. 12, for example. The processing target designation meta input unit 122 displays a pull-down button 401. When the pull-down button 401 is pressed by the user by the user's input, the pull-down menu 402 is displayed, and the user can select from the displayed options. Enter the processing target specification meta. As the displayed options, all processing target designation metadata (for example, “STEP 1” to “STEP 5”) may be displayed. The processing target designation metadata input unit 122 provides the input processing target designation metadata to the processing target designation metadata generation unit 123. The processing target designation metadata generation unit 123 changes the processing target designation metadata to the data (character string) input by the processing target designation metadata input unit 122. That is, for example, in the second step in the recording process, the portion surrounded by <ScopeMeta> and </ ScopeMeta> in the example shown in FIG. 14 (2) is changed from “STEP1” to “STEP2”.

映像記述メタデータ入力手段120は、例えば、図5(1)に示すようなメタデータ表示部302を表示する構成とし、利用者は、表示される映像記述メタデータの各項目に対して映像記述メタデータとしての文字列等の入力を行う。映像記述メタデータ生成手段121は、映像記述メタデータ入力手段120により入力された映像記述メタデータを、例えば、各映像記述メタデータに対応した識別子(例えば、クリップ名の例では、<ClipName>と</ClipName>)で囲む等のメタデータ記録形式に変換する。   The video description metadata input means 120 is configured to display, for example, a metadata display unit 302 as shown in FIG. 5 (1), and the user describes the video description for each item of the video description metadata to be displayed. Inputs character strings as metadata. The video description metadata generating unit 121 converts the video description metadata input by the video description metadata input unit 120 into, for example, an identifier corresponding to each video description metadata (for example, <ClipName> in the clip name example). </ ClipName>) to convert to a metadata recording format.

メタデータ記録手段124は、処理対象指定メタデータ生成手段123にて生成された処理対象指定メタデータ(メタデータ記録形式)と、映像記述メタデータ生成手段121にて生成された映像記述メタデータ郡(メタデータ記録形式)とをまとめて記録媒体100に記録する。これらの映像記述メタデータは、処理対象指定メタデータと関連付けられて記録する。すなわち、図14(2)に示すように、例えば、<STEP2>と</STEP2>とで囲み、映像記述メタデータ郡と処理対象指定メタデータ「STEP2」とを関連付ける。また、本実施例のメタデータ記録手段124は、前工程に対応する映像記述メタデータ(現工程が収録工程「STEP2」であれば、「STEP1」に関連付けられた映像記述メタデータ)に追記する形式とする。すなわち、メタデータ記録手段124は、記録済みのメタデータファイルを読み出し、このメタデータファイルに対して、新たに処理対象指定メタデータに対応する新たな映像記述メタデータを追記する。本実施例では、処理対象指定メタデータとの関連付けを、<STEP2>と</STEP2>とで囲む形式で行っているので、新たなメタデータを容易に追記可能である。   The metadata recording unit 124 includes processing target designation metadata (metadata recording format) generated by the processing target designation metadata generation unit 123, and video description metadata group generated by the video description metadata generation unit 121. (Metadata recording format) are collectively recorded on the recording medium 100. These video description metadata are recorded in association with the processing target designation metadata. That is, as shown in FIG. 14 (2), for example, it is surrounded by <STEP2> and </ STEP2>, and the video description metadata group and the processing target designation metadata “STEP2” are associated with each other. Further, the metadata recording means 124 of this embodiment additionally writes video description metadata corresponding to the previous process (if the current process is the recording process “STEP2”, the video description metadata associated with “STEP1”). Format. That is, the metadata recording unit 124 reads the recorded metadata file and newly adds new video description metadata corresponding to the processing target designation metadata to the metadata file. In this embodiment, since the association with the processing target designation metadata is performed in a format surrounded by <STEP2> and </ STEP2>, new metadata can be added easily.

次に、収録工程の第2のステップにおける映像記述メタデータとしてのクリップ名と操作日時とLinkPointとについての処理例を具体的に説明する。収録工程におけるクリップ名については、図14(2)に示すように企画工程のシナリオデータのシーン名としてのクリップ名「“入場シーン1”」とは別に、例えば、テイク番号を付加した文字列「“入場シーン1(テイク1)”」とする。このクリップ名「“入場シーン1(テイク1)”」は、映像記述メタデータ入力手段120を介して利用者が入力する。メタデータ記録手段124は、この映像記述メタデータの1つとしてのクリップ名を処理対象指定メタデータ「STEP2」と関連付ける。すなわち、メタデータファイルにおいて<STEP2>と</STEP2>とで囲まれた部分に記録する。収録工程の第2のステップにおける操作日時については、RTC機能を用いてメタデータファイルを記録する日時を取得して記録すればよい。また、LinkPointの名称については、上述したように、利用者が映像記述メタデータ入力手段120を介して「“収録開始”」、「“収録終了”」という名称を入力する。次に、映像記述メタデータ生成手段121は、入力したLinkPointの名称とオフセットを関連付けて記録形式のデータを生成する。ここで、LinkPointのオフセットは、例えば、それぞれ、記録開始から100フレーム後(映像データの先頭から100フレーム)、記録終了から100フレーム前(記録区間を1100フレームとすると、LinkPointのオフセットは映像データの先頭から1000フレームとなる)とする。なお、メタデータ記録手段124は、収録工程における新たな映像記述メタデータと、処理対象指定メタデータ「STEP2」とを上述してきたように関連付けて記録する。   Next, a specific example of processing for the clip name, operation date and time, and LinkPoint as video description metadata in the second step of the recording process will be described. Regarding the clip name in the recording process, for example, as shown in FIG. 14 (2), in addition to the clip name “entrance scene 1” as the scene name of the scenario data in the planning process, for example, a character string “ “Entrance scene 1 (take 1)”. The clip name ““ entrance scene 1 (take 1) ”” is input by the user via the video description metadata input means 120. The metadata recording unit 124 associates the clip name as one of the video description metadata with the processing target designation metadata “STEP 2”. That is, the metadata file is recorded in a portion surrounded by <STEP2> and </ STEP2>. The operation date and time in the second step of the recording process may be acquired by recording the date and time when the metadata file is recorded using the RTC function. As for the name of LinkPoint, as described above, the user inputs the names “recording start” and “recording end” via the video description metadata input means 120. Next, the video description metadata generation unit 121 generates data in a recording format by associating the input name of LinkPoint and the offset. Here, the offset of LinkPoint is, for example, 100 frames after the start of recording (100 frames from the beginning of the video data) and 100 frames before the end of recording (if the recording interval is 1100 frames, the LinkPoint offset is the offset of the video data, respectively. 1000 frames from the top). The metadata recording unit 124 records the new video description metadata in the recording process and the processing target designation metadata “STEP2” in association with each other as described above.

以上の収録工程の第1のステップ、第2のステップにて収録工程におけるメタデータファイルが完成する。   The metadata file in the recording process is completed in the first step and the second step of the recording process.

仮編集工程における映像記述メタデータとしては、例えば、クリップ名と操作日時とLinkPointとが挙げられる。図4(2)に示す例では、クリップ名は、収録工程におけるクリップ名「“入場シーン1(テイク1)”」に対して、候補クリップであることを表す「候補1」を付与して、「“入場シーン1(候補1)”」と名称変更する。これは、例えば、仮編集工程における映像データの確認や不要な区間のカット等により、本クリップが本編集に使用される候補となった場合に上述したような名称変更を行う。また、LinkPointの名称については、編集開始点の候補を「“編集開始(候補1)”」、編集終了点の候補を「“編集終了(候補1)”」という名称として記録することにする。LinkPointのオフセットは、収録工程におけるLinkPointに基づいて、不要な部分を開始点と終了点とで囲まれる範囲外になるようにして映像データに関連付ける位置(オフセット値)を変更する。例えば、映像データにおける必要な区間の先頭フレームのフレーム数をFst_preedit、最終のフレームをFend_preeditとすると、映像データにおける必要な区間(仮編集区間)PreEditは下記の式で表される。   Examples of the video description metadata in the temporary editing process include a clip name, an operation date and time, and a LinkPoint. In the example shown in FIG. 4 (2), the clip name is “candidate 1” indicating that it is a candidate clip for the clip name ““ entrance scene 1 (take 1) ”” in the recording process, The name is changed to ““ entrance scene 1 (candidate 1) ”. For example, the name change as described above is performed when the clip becomes a candidate to be used for the main editing due to, for example, confirmation of video data in the temporary editing process or cutting of an unnecessary section. In addition, with regard to the name of LinkPoint, the edit start point candidate is recorded as ““ edit start (candidate 1) ”, and the edit end point candidate is recorded as“ “edit end (candidate 1)”. The LinkPoint offset changes the position (offset value) associated with the video data so that the unnecessary portion is outside the range surrounded by the start point and the end point based on LinkPoint in the recording process. For example, if the number of frames of the first frame in the necessary section in the video data is Fst_preedit and the last frame is Fend_preedit, the necessary section (provisional editing section) PreEdit in the video data is expressed by the following equation.

Fst_preedit≦PreEdit ≦Fend_preedit
また、このとき、LinkPoint「“編集開始(候補1)”」のオフセットをFst_preedit、LinkPoint「“編集終了(候補1)”」のオフセットをFend_preeditとすればよい。
Fst_preedit ≦ PreEdit ≦ Fend_preedit
At this time, the offset of LinkPoint ““ edit start (candidate 1) ”” may be Fst_predit, and the offset of LinkPoint ““ end of edit (candidate 1) ”may be Fend_preedit.

また、本クリップが本編集に使用されないことが決まった場合、クリップ名やLinkPoint等の映像記述メタデータを追記しない。このことにより、本工程以降では、不要のクリップであることが判断できる。この場合、図6に示すクリップ2のように本工程以降の工程では、本工程以降に対応する処理対象指定メタデータに関連付けて、映像記述メタデータを記録しなければよい(図6では、Noneと記載している)。   If it is determined that the clip is not used for the main editing, video description metadata such as the clip name and LinkPoint is not added. This makes it possible to determine that the clip is unnecessary after this step. In this case, like the clip 2 shown in FIG. 6, in the steps after this step, the video description metadata need not be recorded in association with the processing target designation metadata corresponding to the steps after this step (None in FIG. 6). ).

仮編集工程におけるメタデータ記録装置102のメタデータ記録処理について具体的に説明する。仮編集工程では、収録工程にて記録されたメタデータファイルに対して、処理対象指定メタデータ「STEP3」に対応する新たな映像記述メタデータを追記する。利用者は、処理対象指定メタデータ入力手段122に対して工程の変更、すなわち、処理対象指定メタデータの入力と、映像記述メタデータ入力手段120に対して仮編集工程における新たな映像記述メタデータの入力を指示する。処理対象指定メタデータ入力手段122や、処理対象指定メタデータ生成手段123や、映像記述メタデータ入力手段120や、映像記述メタデータ生成手段121や、メタデータ記録手段124の処理は、収録工程における第2のステップと基本的には同様な処理である。処理の違いは、処理対象指定メタデータが「STEP3」になることである。   The metadata recording process of the metadata recording apparatus 102 in the temporary editing process will be specifically described. In the temporary editing step, new video description metadata corresponding to the processing target designation metadata “STEP 3” is added to the metadata file recorded in the recording step. The user changes the process to the processing target designation metadata input unit 122, that is, inputs the processing target designation metadata and the new video description metadata in the temporary editing step to the video description metadata input unit 120. Instruct to input. The processing of the processing target designation metadata input unit 122, the processing target designation metadata generation unit 123, the video description metadata input unit 120, the video description metadata generation unit 121, and the metadata recording unit 124 is performed in the recording process. This is basically the same process as the second step. The difference in processing is that the processing target designation metadata becomes “STEP3”.

仮編集工程における映像記述メタデータとしてのクリップ名と操作日時とLinkPointとの処理例を具体的に説明する。クリップ名と操作日時は、処理対象指定メタデータ「STEP3」に関連付けること以外、収録工程の第2のステップにおけるクリップ名と操作日時の処理方法と同じである。また、LinkPointの処理についても基本的な記録処理の流れは同じであるが、オフセットの決定方法やLinkPointの新規追加方法が異なる。   A processing example of the clip name, operation date and time, and LinkPoint as video description metadata in the temporary editing process will be specifically described. The clip name and operation date / time are the same as the clip name / operation date / time processing method in the second step of the recording process, except that the clip name and the operation date / time are associated with the processing target designation metadata “STEP3”. Also, the basic recording process flow is the same for the LinkPoint process, but the offset determination method and the new LinkPoint addition method are different.

LinkPointの名称は、例えば、「“編集開始(候補1)”」、「“編集終了(候補1)”」という名称に変更する。LinkPointのオフセットは、例えば、記録した映像データの全区間を編集するための素材として利用する(編集素材として採用される)場合には、処理対象指定メタデータ「STEP2」と同じLinkPointのオフセット値にすればよい(例えば、図7に示す例のようにオフセット(frame数の値)を同じ値とする)。ここで、「“編集開始(候補1)”」、「“編集終了(候補1)”」は、それぞれ、処理対象指定メタデータ「STEP2」における「“収録開始”」、「“収録終了”」という名称のLinkPointと対応する。この対応付けは、LinkPointのリストの番号や名称等で関連付けを行えばよい。本実施例では、LinkPointにおいて1番目に記録されている「“収録開始”」と「“編集開始(候補1)”」とを、2番目に記録されている「“収録終了”」と「“編集終了(候補1)”」とを、LinkPointの記録順番と名称に基づいて関連付ける。   The name of LinkPoint is changed to, for example, ““ Start of editing (candidate 1) ”and“ End of editing (candidate 1) ”. For example, when the link point offset is used as a material for editing all sections of recorded video data (adopted as an editing material), the offset value of the link point is the same as the offset value of the link point as the processing target designation metadata “STEP 2”. (For example, as in the example shown in FIG. 7, the offset (the value of the number of frames) is set to the same value). Here, ““ edit start (candidate 1) ”and“ edit end (candidate 1) ”are“ record start ”and“ record end ”in the processing target designation metadata“ STEP 2 ”, respectively. Corresponding to the link point named This association may be performed by using a LinkPoint list number or name. In this embodiment, “Recording start” and “Edit start (candidate 1)” recorded first in the LinkPoint are recorded, and “Recording end” and ““ The editing end (candidate 1) "" is associated with the recording order and name of the LinkPoint.

また、例えば、記録済みの映像データの全区間を編集素材として利用せずに不要な区間がある場合、映像記述メタデータ生成手段121は、LinkPointのオフセットを、処理対象指定メタデータ「STEP2」と同じLinkPointのオフセット(フレーム値)から変更すればよい。例えば、図9の「“編集開始(候補1)”」の例のようにLinkPointのオフセットを120フレームから125フレームに変更する。メタデータ記録装置102は、好ましくは、該当するLinkPointのオフセット近辺の映像データを再生しながら確認できる構成がよい。また、仮編集工程において複数の編集点の候補がある場合(例えば、図9における「“編集終了(候補2)”」のLinkPointのように)、利用者は、映像記述メタデータ入力手段120にて新規のLinkPointの名称とそのオフセット値を入力し、映像記述メタデータ生成手段121は、上述したような方法で新規作成したLinkPointを追記すればよい。   Further, for example, when there is an unnecessary section without using all sections of the recorded video data as editing material, the video description metadata generation unit 121 sets the offset of LinkPoint as the processing target designation metadata “STEP2”. What is necessary is just to change from the offset (frame value) of the same LinkPoint. For example, the LinkPoint offset is changed from 120 frames to 125 frames as in the example of ““ Start of editing (candidate 1) ”in FIG. The metadata recording device 102 is preferably configured to be able to check while reproducing video data in the vicinity of the offset of the corresponding LinkPoint. In addition, when there are a plurality of editing point candidates in the temporary editing process (for example, “Point of editing (candidate 2)” in FIG. 9), the user enters the video description metadata input unit 120. Then, the name of the new LinkPoint and its offset value are input, and the video description metadata generating means 121 may add the newly created LinkPoint by the method described above.

本編集工程における映像記述メタデータとしては、例えば、クリップ名と操作日時とLinkPointとが挙げられる。図4(2)に示す例では、クリップ名は、例えば、仮編集工程におけるクリップ名「“入場シーン1(候補1)”」に対して、配布する映像データとして決定したクリップであることを表す「決定」を付与して、「“入場シーン1(決定)”」と変更する。これは、例えば、本編集工程における編集作業や映像データの確認において本クリップを配布するための映像データとして決定した場合等に行われる。また、LinkPointの名称は、本編集工程として決定した編集点(編集開始点及び終了点)をそれぞれ「“編集開始(決定)”」、「編集終了(決定)」とする。さらに、LinkPointのオフセットは、仮編集工程におけるLinkPointに基づいて、映像データに関連付ける位置(オフセット値)の調整や変更を行う。ここで、例えば、区間長等を考慮して、配布するための映像データの区間と、「“編集開始(決定)”」と「編集終了(決定)」とで囲まれた区間が一致するようにしておく。   Examples of the video description metadata in the editing process include a clip name, operation date and time, and LinkPoint. In the example shown in FIG. 4B, the clip name represents, for example, a clip determined as video data to be distributed with respect to the clip name ““ entrance scene 1 (candidate 1) ”” in the temporary editing process. “Determination” is given and changed to ““ entrance scene 1 (decision) ””. This is performed, for example, when it is determined as video data for distributing the main clip in the editing work or video data confirmation in the main editing process. In addition, the names of LinkPoints are “edit start (decision)” and “edit end (decision)”, respectively. Further, the offset of LinkPoint adjusts or changes the position (offset value) associated with the video data based on LinkPoint in the temporary editing process. Here, for example, in consideration of the section length, the section of the video data to be distributed matches the section surrounded by ““ edit start (decision) ”and“ edit end (decision) ”. Keep it.

本編集工程におけるメタデータ記録装置102のメタデータ記録処理については、仮編集工程における処理と基本的に同じである。処理の違いは、処理対象指定メタデータが「STEP4」になることである。   The metadata recording process of the metadata recording apparatus 102 in this editing process is basically the same as the process in the temporary editing process. The difference in processing is that the processing target designation metadata becomes “STEP 4”.

オーサリング工程における映像記述メタデータとしては、例えば、クリップ名と操作日時とLinkPointとが挙げられる。図4(2)に示す例では、クリップ名は、例えば、オーサリング工程におけるDVD等の配布用記録媒体に記録する全クリップの順番等により、「“チャプター23/入場“」という名称に変更する。また、LinkPointの名称は、本編集工程において配布用映像データとして決定した編集開始点「“編集開始(決定)”」を「“チャプター23”」と名称変更する。また、LinkPointのオフセットは、例えば、名称と同様に「“編集開始(決定)”」におけるオフセット値と同じ値とする。これは、通常、シーンの終了点と、次のシーンの開始点は連続したフレーム(近傍フレーム)であるため、オーサリング工程におけるLinkPointとしてシーン(クリップ)の開始点のみが適切であることによる。   Examples of the video description metadata in the authoring process include a clip name, operation date and time, and LinkPoint. In the example shown in FIG. 4B, the name of the clip is changed to ““ Chapter 23 / Admission ””, for example, depending on the order of all clips recorded on a distribution recording medium such as a DVD in the authoring process. Also, the name of LinkPoint is changed from “editing start (decision)”, which is determined as distribution video data in the editing process, to “chapter 23”. Further, the offset of LinkPoint is set to the same value as the offset value in ““ edit start (decision) ””, for example, like the name. This is because, usually, the end point of the scene and the start point of the next scene are continuous frames (neighboring frames), so that only the start point of the scene (clip) is appropriate as the LinkPoint in the authoring process.

また、オーサリング工程における別のメタデータ記録方法として、プレイリストを作成する方法が挙げられる。プレイリストとは、映像データの再生順番と、各映像データにおける再生区間を指定するリストである。図11は、プレイリストファイルの1具体例を示している。本実施例では、プレイリストファイルは、カンマを区切り文字とするComma Separated Values(CSV)形式のテキストファイルとし、ファイル名を例えば、PlayList.txtをとする。本実施例のプレイリストファイルは、行で映像データの再生順番を表し、1番目の行に記載される映像データファイルから再生を開始するものとする。各行の1番目は、映像データファイル名を表し、2番目は再生開始点、3番目は再生終了点を表す。再生開始点、再生終了点は、例えば、映像データの先頭フレームからのフレーム数を用いて表し、プレイリストにおける各映像データの先頭フレームからのフレーム数を再生オフセットと呼ぶことにする。   Another metadata recording method in the authoring process is a method of creating a playlist. A play list is a list that specifies the playback order of video data and the playback section of each video data. FIG. 11 shows a specific example of a playlist file. In the present embodiment, the playlist file is a text file in Comma Separated Values (CSV) format with a comma as a delimiter, and the file name is, for example, PlayList. Let txt be. In the playlist file of this embodiment, the reproduction order of video data is represented by lines, and reproduction is started from the video data file described in the first line. The first of each row represents the video data file name, the second represents the playback start point, and the third represents the playback end point. The reproduction start point and the reproduction end point are represented by using, for example, the number of frames from the first frame of the video data, and the number of frames from the first frame of each video data in the playlist is referred to as a reproduction offset.

なお、本実施例では、配布用記録媒体を記録媒体100として説明するが、別の記録媒体に記録してもよい。その場合は、映像データやディレクトリ構成等の記録形式を記録媒体100と同じにしてもよいし、例えば、DVD−Video等の規格に従って変換してもよい。   In the present embodiment, the distribution recording medium is described as the recording medium 100, but may be recorded on another recording medium. In that case, the recording format such as video data and directory structure may be the same as that of the recording medium 100, or may be converted in accordance with a standard such as DVD-Video.

オーサリング工程におけるメタデータ記録装置102のメタデータ記録処理について具体的に説明する。オーサリング工程では、本編集工程で記録されたメタデータファイルに対して配布用の映像記述メタデータを追記し、メタデータファイルと映像データとを配布用記録媒体に書き込む処理を行う。また、オーサリング工程においては、オーサリングの具体例として、プレイリストを記録しない第1のオーサリング方法と、プレイリストをプレイリストファイルとして記録する第2のオーサリング方法の2つのオーサリング方法の例を説明する。   The metadata recording process of the metadata recording apparatus 102 in the authoring process will be specifically described. In the authoring process, distribution video description metadata is added to the metadata file recorded in the editing process, and the metadata file and the video data are written to the distribution recording medium. In the authoring process, as a specific example of authoring, two examples of authoring methods are described: a first authoring method that does not record a playlist and a second authoring method that records a playlist as a playlist file.

まず、第1のオーサリング方法について説明する。処理対象指定メタデータ入力手段122は、上述した工程における処理と同様に処理対象指定メタデータを「STEP5」に変更する。映像記述メタデータ入力手段120は、例えば、オーサリング対象となる映像データが23番目のチャプターであるとすると、処理対象指定メタデータ「STEP5」と関連付けて「“チャプター23/入場”」というクリップ名を入力する。ここで、チャプターとは、映像の章立ての区切りあり、本実施例では、企画工程におけるシーンと対応する。なお、処理対象指定メタデータ生成手段123と、映像記述メタデータ生成手段121と、メタデータ記録手段124とにおける具体的な処理は仮編集工程等にて説明した処理内容と同様である。また、第1のオーサリング方法においては、映像データから不要な区間を削除することが望ましい。これは、本編集工程(STEP4)におけるLinkPointで囲まれる区間以外の映像データを削除すればよい。これは、本編集工程(処理対象指定メタデータ「STEP4」)におけるLinkPoint「“編集開始(決定)”」と「“編集終了(決定)”」とで囲まれる区間以外の映像データを削除する。映像データの不要な区間の削除は、カット編集等で映像編集装置にて広く一般的に実現されている技術であるので具体的な説明は省略する。   First, the first authoring method will be described. The processing target designation metadata input unit 122 changes the processing target designation metadata to “STEP 5” in the same manner as the processing in the above-described process. For example, when the video data to be authored is the 23rd chapter, the video description metadata input unit 120 associates the clip name ““ Chapter 23 / Enter ”” with the processing target designation metadata “STEP 5”. input. Here, the chapter is a section of a video chapter and corresponds to a scene in the planning process in this embodiment. Note that the specific processing in the processing target designation metadata generation unit 123, the video description metadata generation unit 121, and the metadata recording unit 124 is the same as the processing content described in the provisional editing step and the like. In the first authoring method, it is desirable to delete unnecessary sections from the video data. This can be done by deleting video data other than the section surrounded by LinkPoint in this editing step (STEP 4). This deletes video data other than the section surrounded by the link points ““ edit start (decision) ”” and ““ edit end (decision) ”” in the present editing step (processing target designation metadata “STEP 4”). Deletion of an unnecessary section of video data is a technique that is widely and generally realized in video editing apparatuses by cut editing or the like, and thus a detailed description thereof will be omitted.

次に、第2のオーサリング方法について説明する。プレイリストファイルは、メタデータ記録手段124において、記録媒体100に記録されているメタデータファイルの本編集工程(処理対象指定メタデータ「STEP4」)におけるLinkPointと、メタデータファイルのファイル名とから作成される。オーサリング工程では、このメタデータファイルには、本編集工程(STEP4)までの映像記述メタデータが記録されている。   Next, the second authoring method will be described. The playlist file is created by the metadata recording unit 124 from the LinkPoint in the main editing process (processing target designation metadata “STEP4”) of the metadata file recorded on the recording medium 100 and the file name of the metadata file. Is done. In the authoring process, video description metadata up to the main editing process (STEP 4) is recorded in this metadata file.

メタデータ記録手段124は、読み出したメタデータファイルのファイル名から対応付けられている映像データファイル名を取得する。この映像データファイル名を、プレイリストにおける映像データファイル名としてプレイリストファイルに記録する。この処理を複数のメタデータファイルに対して行い、適宜、ファイル名順や利用者の入力により映像データの再生順番(すなわち、プレイリストの映像データの順番)を決定する。   The metadata recording unit 124 obtains the associated video data file name from the file name of the read metadata file. This video data file name is recorded in the playlist file as the video data file name in the playlist. This process is performed on a plurality of metadata files, and the reproduction order of video data (that is, the order of video data in a playlist) is determined as appropriate in the order of file names or user input.

さらに、メタデータ記録手段124は、上記で読み出したメタデータファイルから、本編集工程(処理対象指定メタデータ「STEP4」)に対応した映像記述メタデータを抽出する。例えば、本実施例では、<STEP4>と</STEP4>とで囲まれた部分の映像記述メタデータを抽出する。次に、この本編集工程(処理対象指定メタデータ「STEP4」)に対応した映像記述メタデータからLinkPointを抽出する。抽出したLinkPointのオフセットを用いて、処理対象の映像データに対するプレイリストにおける再生開始点及び再生終了点の再生オフセットを決定する。例えば、再生開始点の再生オフセットをLinkPoint名称「“編集開始(決定)”」に対応するLinkPointオフセットに、再生終了点の再生オフセットをLinkPoint名称「“編集終了(決定)”」に対応するLinkPointオフセットにする。なお、LinkPointの名称は、第1のオーサリング方法と同様に「“チャプター23”」等に変更してもよい。   Further, the metadata recording unit 124 extracts video description metadata corresponding to the editing process (processing target designation metadata “STEP 4”) from the metadata file read out above. For example, in this embodiment, video description metadata of a portion surrounded by <STEP4> and </ STEP4> is extracted. Next, LinkPoint is extracted from the video description metadata corresponding to the main editing process (processing target designation metadata “STEP 4”). Using the extracted LinkPoint offset, the playback offset of the playback start point and playback end point in the playlist for the video data to be processed is determined. For example, the playback offset at the playback start point is the LinkPoint offset corresponding to the LinkPoint name ““ edit start (decision) ””, and the playback offset at the playback end point is the LinkPoint offset corresponding to the link point name ““ end editing (decision) ””. To. Note that the name of LinkPoint may be changed to ““ Chapter 23 ”” or the like, as in the first authoring method.

メタデータ記録手段124は、以上の処理によりプレイリストを作成し、プレイリストをプレイリストファイルとして記録媒体100に記録する。なお、第2のオーサリング方法では、映像データに対する不要な区間の削除等の編集処理を施す必要がないため、編集処理負荷(すなわち、プレイリストを作成する負荷)が低く、映像制作工程全体に対する編集処理時間も短くなる利点がある。なお、プレイリストファイルは、CSV形式にて記録する例を説明したが、映像データと、それらの再生順番と、再生開始点と、再生終了点とが規定されれば、XML形式等の他の形式でもよい。さらに、プレイリストファイル名は、任意のファイル名でもよい。また、プレイリストを用いた再生動作の詳細は後述する。   The metadata recording unit 124 creates a playlist by the above processing, and records the playlist as a playlist file on the recording medium 100. In the second authoring method, it is not necessary to perform an editing process such as deleting an unnecessary section on the video data, so the editing processing load (that is, a load for creating a playlist) is low, and editing for the entire video production process is performed. There is an advantage that the processing time is shortened. The example in which the playlist file is recorded in the CSV format has been described. However, if the video data, the playback order thereof, the playback start point, and the playback end point are defined, other playlist formats such as the XML format are used. It may be in the form. Furthermore, the playlist file name may be an arbitrary file name. Details of the playback operation using the playlist will be described later.

次に、再生装置103におけるメタデータの再生処理について、メタデータ再生手段132、処理対象指定メタ処理手段131、メタデータ表示手段130、処理対象指定メタ選択手段135における処理の詳細を具体的に説明する。   Next, with regard to the metadata playback processing in the playback device 103, details of processing in the metadata playback means 132, processing target designation meta processing means 131, metadata display means 130, and processing target designation meta selection means 135 will be specifically described. To do.

まず、メタデータ再生手段132は、記録媒体100に記録されているメタデータファイルを読み出し、例えば、図6に示すような構造であるメタデータのマトリクスを作成する。これは、XML形式のメタデータファイルから、識別子とその識別子に囲まれた部分の文字列を抽出してマトリクス化する。メタデータファイルに記録されている映像記述メタデータは、処理対象指定メタデータにより関連付けられているため、メタデータのマトリクスは、図6に示すように、処理対象指定メタデータ毎に分類される。なお、メタデータマトリクスは、処理対象指定メタ処理手段131に提供され、処理対象指定メタ処理手段131にて保持される。メタデータマトリクスの保持形式は、処理対象指定メタデータに基づいて検索する際に効率的な形式であればよい。   First, the metadata reproducing unit 132 reads a metadata file recorded on the recording medium 100 and creates a metadata matrix having a structure as shown in FIG. 6, for example. In this method, an identifier and a character string surrounded by the identifier are extracted from an XML format metadata file to form a matrix. Since the video description metadata recorded in the metadata file is related by the processing target designation metadata, the metadata matrix is classified for each processing target designation metadata as shown in FIG. The metadata matrix is provided to the processing target designation meta processing unit 131 and is held by the processing target designation meta processing unit 131. The retention format of the metadata matrix may be an efficient format when searching based on the processing target designation metadata.

処理対象指定メタ選択手段135は、例えば、図12に示すようなプルダウンメニュー形式を用いて処理対象指定メタデータを選択/入力する。これは、例えば、メタデータ記録装置102における処理対象指定メタ入力手段122と同じ方法とする。なお、処理対象指定メタ選択手段135は、上述した構成により、新たな処理対象指定メタデータを入力するだけでなく、処理対象指定メタデータを変更ことも可能である。これは、利用者が、処理対象指定メタ選択手段135を介して異なる処理対象指定メタデータを入力することで実現する。   The processing target designation meta selection unit 135 selects / inputs the processing target designation metadata using, for example, a pull-down menu format as shown in FIG. This is, for example, the same method as the processing target designation meta input unit 122 in the metadata recording apparatus 102. Note that the processing target designation metadata selection unit 135 can change not only the new processing target designation metadata but also the processing target designation metadata with the above-described configuration. This is realized by the user inputting different processing target designation metadata via the processing target designation meta selection means 135.

処理対象指定メタ処理手段131は、メタデータ再生手段132にて作成されたメタデータのマトリクスの各項目(クリップ名等)と、処理対象指定メタ選択手段135により入力された処理対象指定メタデータとから表示用映像記述メタデータ(すなわち、メタデータ表示手段130に提供して表示するメタデータ)を決定する。これは、図6に示すような処理対象指定メタデータにより分類されたメタデータマトリクスから、処理対象指定メタ選択手段135により入力された処理対象指定メタデータと一致する処理対象指定メタデータに関連付けされた映像記述メタデータを抽出することで実現する。この抽出処理は、メタデータマトリクスが、処理対象指定メタデータと各映像記述メタデータとが関連付けられているため容易に抽出可能である。また、処理対象指定メタ処理手段131は、表示用映像記述メタデータと、処理対象指定メタ選択手段135にて入力された処理対象指定メタデータとをメタデータ表示手段130に提供する。   The processing target designation metadata processing unit 131 includes each item (clip name, etc.) of the metadata matrix created by the metadata reproduction unit 132, and the processing target designation metadata input by the processing target designation meta selection unit 135. Display video description metadata (that is, metadata to be provided to and displayed on the metadata display means 130) is determined. This is associated with the processing target designation metadata that matches the processing target designation metadata input by the processing target designation meta selection means 135 from the metadata matrix classified by the processing target designation metadata as shown in FIG. This is realized by extracting the video description metadata. This extraction process can be easily extracted because the metadata matrix is associated with the processing target designation metadata and each video description metadata. Further, the processing target designation metadata processing unit 131 provides the metadata display unit 130 with the display video description metadata and the processing target designation metadata input by the processing target designation metadata selection unit 135.

メタデータ表示手段130は、処理対象指定メタ処理手段131から供給される表示用映像記述メタデータと処理対象指定メタデータとを利用者に対して表示する。これらを、例えば、図5に示すような構成のGUI画面を用いて表示する。図5(1)に示すように、GUI画面は、処理対象指定メタ表示/選択部300と、サムネイル画表示部301、303と、メタデータ表示部302、304とを含む構成とする。処理対象指定メタ表示/選択部300に関する処理対象指定メタデータの表示/選択処理等は、上述しており、ここでの説明は省略する。サムネイル画表示部301、303は、例えば、各クリップにおける映像データの先頭フレームの画像を表示すればよい。また、メタデータ表示部302、304には、処理対象指定メタ処理手段131から供給される表示用映像記述メタデータを表示する。以上の構成により、メタデータ表示部302、304には、処理対象指定メタ表示/選択部300にて選択/表示される処理対象指定メタデータに対応した映像記述メタデータ(すなわち、表示用映像記述メタデータ)が表示される。なお、図5(1)に示す例では、2つのクリップに対して、同じ処理対象メタデータに対応する映像記述メタデータが表示されている例を示している。また、図5(2)は、処理対象指定メタ表示/選択部300にて処理対象指定メタデータを「STEP3」から「STEP4」に変更した場合の表示結果を示している。メタデータ表示部302、304に表示される内容が、処理対象指定メタデータ「STEP4」に対応した表示用映像記述メタデータに変更されていることがわかる。   The metadata display unit 130 displays the display video description metadata and the processing target designation metadata supplied from the processing target designation meta processing unit 131 to the user. These are displayed using, for example, a GUI screen configured as shown in FIG. As shown in FIG. 5A, the GUI screen includes a processing target designation meta display / selection unit 300, thumbnail image display units 301 and 303, and metadata display units 302 and 304. The processing target designation metadata display / selection processing related to the processing target designation meta display / selection unit 300 has been described above, and a description thereof will be omitted here. The thumbnail image display units 301 and 303 may display the image of the first frame of the video data in each clip, for example. The metadata display units 302 and 304 display the display video description metadata supplied from the processing target designation meta processing unit 131. With the above configuration, the metadata display units 302 and 304 have video description metadata corresponding to the processing target designation metadata selected / displayed by the processing target designation metadata display / selection unit 300 (that is, display video description). Metadata). In the example shown in FIG. 5A, the video description metadata corresponding to the same processing target metadata is displayed for two clips. FIG. 5B shows a display result when the processing target designation metadata is changed from “STEP 3” to “STEP 4” in the processing target designation meta display / selection unit 300. It can be seen that the contents displayed in the metadata display sections 302 and 304 are changed to display video description metadata corresponding to the processing target designation metadata “STEP 4”.

次に、再生装置103におけるプレイリストファイルに基づく映像再生動作について説明する。記録媒体100に記録されたプレイリストファイルは、映像再生手段133により読み出され、プレイリストファイルに記録されている再生対象の映像データファイルや、その再生順番、各映像データにおける再生区間(再生開始点及び再生終了点)に基づいて、プレイリストに記録された順番に再生される。映像再生手段133は、プレイリストに基づき、プレイリストの記載された区間に対応する映像データを、プレイリストの記載された順番に映像表示手段134に対してフレーム毎に提供する。例えば、記録媒体100に図11に示すプレイリストファイルが記録されていた場合には、1番目に映像データファイル「CLIP0001.yuv」の再生オフセットが100フレームであるフレームから、再生オフセットが1000フレームであるフレームまでの区間に対応する映像データを映像表示手段134に提供する。また、1番目に映像データファイルの再生が終了した後には、プレイリストの2行目に記録されている映像データファイル「CLIP0003.yuv」において、再生オフセットが128フレームであるフレームから、再生オフセットが1028フレームであるフレームまでの区間に対応する映像データを、映像表示手段134に提供する。映像表示手段134は、供給された映像データを利用者に提示する。本実施例では、映像データを非圧縮データとしており、各映像フレームのサイズが固定であるため、再生オフセットから、映像データ中の再生オフセットに対応する映像フレームを容易に特定することができる。これにより、プレイリストに記録される任意の映像データの区間が再生可能である。   Next, the video playback operation based on the playlist file in the playback device 103 will be described. The playlist file recorded on the recording medium 100 is read out by the video playback means 133, and the video data file to be played back recorded in the playlist file, its playback order, and playback section (playback start of each video data). Are played back in the order recorded in the playlist. Based on the playlist, the video playback unit 133 provides video data corresponding to the section described in the playlist to the video display unit 134 in the order in which the playlist is described for each frame. For example, when the play list file shown in FIG. 11 is recorded on the recording medium 100, the playback offset of the video data file “CLIP0001.yuv” is 100 frames from the frame having the playback offset of 100 frames first. Video data corresponding to a section up to a certain frame is provided to the video display means 134. In addition, after the playback of the video data file is finished for the first time, in the video data file “CLIP0003.yuv” recorded in the second line of the playlist, the playback offset is changed from a frame having a playback offset of 128 frames. Video data corresponding to a section up to 1028 frames is provided to the video display means 134. The video display means 134 presents the supplied video data to the user. In this embodiment, since the video data is uncompressed data and the size of each video frame is fixed, the video frame corresponding to the playback offset in the video data can be easily specified from the playback offset. Thereby, a section of arbitrary video data recorded in the playlist can be reproduced.

なお、プレイリストの別の形式として、映像データにおける再生終了点に対応する映像フレームを再生(表示)しない形式もある。この場合には、再生終了点にける再生オフセットは、再生終了点に対応するLinkPointのオフセットから、再生終了点が再生されるように(例えば、1フレーム分の)値を加えればよい。例えば、上述の例では、再生終了点を1029フレームとすれば、1028フレームまで再生されることになる。また、この場合、再生終了点に対応するLinkPointのオフセットに対して、あらかじめ1フレーム分の値を加えておき、プレイリストの終了点を算出する場合に値を加算しない方法をとってもよい。例えば、映像データにおける必要な区間の先頭フレームのフレーム数をFst_edit、最終のフレームをFend_editとすると、映像データにおける必要な区間(例えば、編集区間)Editは下記の式で表される。   As another format of the playlist, there is a format in which the video frame corresponding to the playback end point in the video data is not played (displayed). In this case, the playback offset at the playback end point may be added with a value (for example, for one frame) so that the playback end point is played back from the LinkPoint offset corresponding to the playback end point. For example, in the above example, if the playback end point is 1029 frames, up to 1028 frames are played back. In this case, a method may be used in which a value for one frame is added in advance to the LinkPoint offset corresponding to the playback end point, and the value is not added when calculating the end point of the playlist. For example, if the number of frames of the first frame of the necessary section in the video data is Fst_edit and the last frame is Fend_edit, the necessary section (for example, editing section) Edit in the video data is represented by the following equation.

Fst_edit≦Edit <(Fend_edit+1)
また、このとき、プレイリストの開始点に対応するLinkPointのオフセットをFst_edit、終了点に対応するLinkPointのオフセットを(Fend_edit+1)とすればよい。
Fst_edit ≦ Edit <(Fend_edit + 1)
At this time, the offset of LinkPoint corresponding to the start point of the playlist may be Fst_edit, and the offset of LinkPoint corresponding to the end point may be (Fend_edit + 1).

以上のように、本実施例の映像処理システムによれば、メタデータによる映像データの検索効率や編集効率を飛躍的に向上させることができ、利用者にとって利便性の高い映像処理システムを実現することができる。   As described above, according to the video processing system of this embodiment, it is possible to dramatically improve the search efficiency and editing efficiency of video data based on metadata, and realize a video processing system that is highly convenient for the user. be able to.

なお、メタデータファイルやシナリオファイルを記録する際に、XML形式にて記録する方法を説明したが、例えば、テキスト形式(CSV形式)にて記録する方法や、テキスト形式をバイナリデータ化した形式等で記述しても同様の効果を発揮する。   The method of recording in the XML format when recording the metadata file and the scenario file has been described. For example, the method of recording in the text format (CSV format), the format in which the text format is converted into binary data, etc. The same effect is demonstrated even if described in.

なお、映像記録装置101、記録媒体100、メタデータ編集装置102、映像再生装置103は、それぞれの装置が1つである例を説明したが、どのような装置構成でもよい。例えば、映像記録装置101とメタデータ編集装置102とを1つの装置としてもよいし、メタデータ記録装置102と映像再生装置103とを1つの装置としてもよいし、すべてを1つの装置として実現してもよい。メタデータ記録装置102と映像再生装置103とを1つの装置とする場合には、メタデータ記録装置102における映像メタデータ入力手段120及び処理対象指定メタ入力手段122と、再生装置103におけるメタデータ表示手段130及び処理対象指定メタ選択手段135とにおける実装を共通化できる利点がある。   In addition, although the video recording device 101, the recording medium 100, the metadata editing device 102, and the video reproduction device 103 have been described as having one device, any device configuration may be used. For example, the video recording device 101 and the metadata editing device 102 may be a single device, the metadata recording device 102 and the video playback device 103 may be a single device, or all may be realized as a single device. May be. When the metadata recording apparatus 102 and the video reproduction apparatus 103 are combined into one apparatus, the video metadata input means 120 and the processing target designation meta input means 122 in the metadata recording apparatus 102 and the metadata display in the reproduction apparatus 103 are displayed. There is an advantage that the implementation in the means 130 and the processing target designation meta selection means 135 can be made common.

なお、記録媒体100は、1つの記録媒体である構成として説明したが、映像データファイルとメタデータファイル等を別々の記録媒体に記録してもよい。   Although the recording medium 100 has been described as a single recording medium, the video data file and the metadata file may be recorded on separate recording media.

なお、メタデータファイルにおいて、各処理対象指定メタデータ(映像制作の各工程)にて映像記述メタデータを追記する方式を説明したが、適宜、映像記述メタデータを削除してもよい。この場合、メタデータ記録手段124は、削除したい処理対象指定メタデータに対応する映像記述メタデータの所望の項目を削除する。削除処理としては、削除対象とする処理対象指定メタデータに対応した映像記述メタデータを削除すればよい。この場合には、例えば、処理対象指定メタデータ「STEP3」に対応する映像記述メタデータを削除する場合には、<STEP3>と</STEP3>とに囲まれた部分を削除すればよい(識別子も含めて削除する)。また、削除したい処理対象指定メタデータに対応する映像記述メタデータの所望の1つの項目を削除することも可能である。   In the metadata file, the method of adding the video description metadata in each processing target designation metadata (each step of video production) has been described. However, the video description metadata may be deleted as appropriate. In this case, the metadata recording unit 124 deletes a desired item of video description metadata corresponding to the processing target designation metadata to be deleted. As the deletion process, the video description metadata corresponding to the processing target designation metadata to be deleted may be deleted. In this case, for example, when deleting the video description metadata corresponding to the processing target designating metadata “STEP3”, the part surrounded by <STEP3> and </ STEP3> may be deleted (identifier). And delete them). It is also possible to delete one desired item of video description metadata corresponding to the processing target designation metadata to be deleted.

なお、本実施例では、映像制作の各工程における映像記述メタデータの1例として同一項目(例えば、クリップ名はどの工程においても存在する)を用いて説明したが、映像制作の各工程において新規の項目を追記してもよい。この場合は、新規の項目に対応する識別子を用いればよい。   In this embodiment, the same item (for example, the clip name exists in any process) has been described as an example of the video description metadata in each process of video production. This item may be added. In this case, an identifier corresponding to the new item may be used.

本発明にかかるメタデータ処理装置、映像処理装置及び映像処理システムは、利用者のメタデータを用いた映像データの検索や編集における利便性を飛躍的に向上させるもので、半導体メモリや光ディスク等を応用した映像編集システムや映像編集装置や映像記録再生装置等に広く適用可能である。   The metadata processing apparatus, video processing apparatus, and video processing system according to the present invention drastically improve the convenience in searching and editing video data using the user's metadata. The present invention is widely applicable to applied video editing systems, video editing devices, video recording / playback devices, and the like.

100 記録媒体
101 映像記録装置
102 メタデータ記録装置
103 再生装置
110 映像入力手段
111 映像記録手段
120 映像記述メタデータ入力手段
121 映像記述メタデータ生成手段
122 処理対象指定メタデータ入力手段
123 処理対象指定メタデータ生成手段
124 メタデータ記録手段
130 メタデータ表示手段
131 処理対象指定メタ処理手段
132 メタデータ再生手段
133 映像再生手段
134 映像表示手段
135 処理対象指定メタ選択手段
200 コンテンツディレクトリ
201 ビデオ格納用ディレクトリ
202 メタデータ格納用ディレクトリ
300 処理対象指定メタ表示/選択部
301 サムネイル画表示部
302 メタデータ表示部
303 サムネイル画表示部
304 メタデータ表示部
401 プルダウン釦
402 プルダウンメニュー
500 シナリオデータ関連付け画面
501 シーン名表示
502 映像データファイル名表示
503 決定釦
DESCRIPTION OF SYMBOLS 100 Recording medium 101 Video recording apparatus 102 Metadata recording apparatus 103 Playback apparatus 110 Video input means 111 Video recording means 120 Video description metadata input means 121 Video description metadata generation means 122 Processing target designation metadata input means 123 Processing target designation meta Data generation means 124 Metadata recording means 130 Metadata display means 131 Processing target designation meta processing means 132 Metadata reproduction means 133 Video reproduction means 134 Video display means 135 Processing target designation meta selection means 200 Content directory 201 Video storage directory 202 Meta Data storage directory 300 Processing target designation meta display / selection unit 301 Thumbnail image display unit 302 Metadata display unit 303 Thumbnail image display unit 304 Metadata display unit 40 Pull-down button 402 a pull-down menu 500 scenario data associated screen 501 scene name display 502 the image data file name display 503 set button

Claims (14)

メタデータの処理対象を指定するための処理対象指定メタデータを記録するための領域と、映像データの属性を表すメタデータであり、前記処理対象指定メタデータと関連付けられた映像記述メタデータを記録する領域とを備えたメタデータ記録形式により記録媒体にメタデータを記録するメタデータ記録手段を備えるメタデータ処理装置及び映像処理装置及び映像処理システム。 An area for recording the processing target designation metadata for designating the processing target of the metadata and metadata representing the attribute of the video data, and recording the video description metadata associated with the processing target designation metadata A metadata processing apparatus, a video processing apparatus, and a video processing system, each including metadata recording means for recording metadata on a recording medium in a metadata recording format including an area for recording. さらに、前記映像記述メタデータを入力するための映像記述メタデータ入力手段と、前記映像記述メタデータの処理対象を指定する処理対象指定メタデータを入力するための処理対象指定メタデータ入力手段と、前記映像記述メタデータと前記処理対象指定メタデータとを関連付ける処理対象指定メタ生成手段とを備えた請求項1記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 Furthermore, video description metadata input means for inputting the video description metadata, processing target designation metadata input means for inputting processing target designation metadata for designating a processing target of the video description metadata, The metadata processing device, the video processing device, and the video processing system according to claim 1, further comprising processing target designation meta generation means that associates the video description metadata with the processing target designation metadata. メタデータの処理対象を指定するための処理対象指定メタデータを記録するための領域と、映像データの属性を表すメタデータであり、前記処理対象指定メタデータと関連付けられた映像記述メタデータを記録する領域とを備えたメタデータ記録形式により記録媒体に記録されたメタデータを再生処理するためのメタデータ再生手段と、記録媒体に記録された前記処理対象指定メタデータに関連付けられた前記映像記述メタデータに処理を限定するための処理対象指定メタ処理手段とを備えたメタデータ処理装置及び映像処理装置及び映像処理システム。 An area for recording the processing target designation metadata for designating the processing target of the metadata and metadata representing the attribute of the video data, and recording the video description metadata associated with the processing target designation metadata A metadata reproducing means for reproducing the metadata recorded on the recording medium in a metadata recording format including an area for recording, and the video description associated with the processing target designation metadata recorded on the recording medium A metadata processing apparatus, a video processing apparatus, and a video processing system, each including a processing target designation meta processing means for limiting processing to metadata. さらに、前記映像記述メタデータ及び前記処理対象指定メタデータを表示するためのメタデータ表示手段を備え、メタデータ表示手段は、前記処理対象指定メタ処理手段により処理された前記映像記述メタデータと前記処理対象指定メタデータとを表示する請求項3記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 Furthermore, it comprises metadata display means for displaying the video description metadata and the processing target designation metadata, and the metadata display means includes the video description metadata processed by the processing target designation metadata processing means and the metadata. 4. The metadata processing device, video processing device, and video processing system according to claim 3, wherein the processing target designation metadata is displayed. さらに、前記処理対象指定メタデータを入力するための処理対象指定メタ選択手段を備え、前記処理対象指定メタ処理手段は、前記処理対象指定メタデータを前記処理対象指定メタ選択手段により入力されたデータに変更する手段を備え、メタデータ記録手段は、前記処理対象指定メタ処理手段による変更後の処理対象指定メタデータを記録する請求項4記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 Furthermore, a processing target designation meta selection unit for inputting the processing target designation metadata is provided, and the processing target designation meta processing unit receives the processing target designation metadata from the data inputted by the processing target designation meta selection unit. 5. The metadata processing apparatus, the video processing apparatus, and the video processing system according to claim 4, wherein the metadata recording means records the processing target designation metadata after the change by the processing target designation meta processing means. さらに、記録媒体に記録された映像データを再生するための映像再生手段を備える請求項5記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 6. The metadata processing apparatus, the video processing apparatus, and the video processing system according to claim 5, further comprising a video reproduction means for reproducing the video data recorded on the recording medium. さらに、映像データを入力するための映像入力手段と、前記映像入力手段により入力した映像データを記録媒体に記録するための映像記録手段とを備えた請求項2記載の映像処理装置及び映像処理システム。 3. The video processing apparatus and video processing system according to claim 2, further comprising video input means for inputting video data, and video recording means for recording the video data input by the video input means on a recording medium. . さらに、記録媒体に記録されたメタデータを再生するためのメタデータ再生手段と、記録媒体に記録された処理対象指定メタデータに関連付けられた前記映像記述メタデータに処理を限定するための処理対象指定メタ処理手段とを備えた請求項2記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 Furthermore, metadata reproducing means for reproducing the metadata recorded on the recording medium, and a processing target for limiting the processing to the video description metadata associated with the processing target designation metadata recorded on the recording medium The metadata processing apparatus, video processing apparatus, and video processing system according to claim 2, further comprising designated meta processing means. さらに、メタデータ記録手段は、記録媒体に記録されたメタデータを再生し、新たな処理対象指定メタデータと、新たな処理対象指定メタデータに関連付けられた映像記述メタデータを追記して記録媒体に記録する請求項2記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 Further, the metadata recording means reproduces the metadata recorded on the recording medium, and additionally records new processing target designation metadata and video description metadata associated with the new processing target designation metadata. The metadata processing device, the video processing device, and the video processing system according to claim 2, which are recorded in 前記映像記述メタデータには、映像データの名称を表すクリップ名と、メタデータを記録した際の日時を表す操作日時のうちいずれか1つ以上を含み、複数の処理対象指定メタデータに対応した前記映像記述メタデータを記録する請求項9記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 The video description metadata includes one or more of a clip name representing the name of the video data and an operation date and time representing the date and time when the metadata was recorded, and corresponds to a plurality of processing target designation metadata. The metadata processing device, the video processing device, and the video processing system according to claim 9, wherein the video description metadata is recorded. 前記映像記述メタデータには、映像データの名称を表すクリップ名と、メタデータを記録した際の日時を表す操作日時のうちいずれか1つ以上を含み、複数の処理対象指定メタデータに対応した前記映像記述メタデータから、
処理対象指定メタ選択手段により入力した処理対象指定メタデータに対応した映像記述メタデータをメタデータ表示手段に表示する請求項5記載のメタデータ処理装置及び映像処理装置及び映像処理システム。
The video description metadata includes one or more of a clip name representing the name of the video data and an operation date and time representing the date and time when the metadata was recorded, and corresponds to a plurality of processing target designation metadata. From the video description metadata,
6. The metadata processing apparatus, the video processing apparatus, and the video processing system according to claim 5, wherein video description metadata corresponding to the processing target designation metadata input by the processing target designation meta selection means is displayed on the metadata display means.
前記映像記述メタデータには、映像データ中の任意の位置に関連付けられたリンクポイントを含む請求項9記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 The metadata processing device, the video processing device, and the video processing system according to claim 9, wherein the video description metadata includes a link point associated with an arbitrary position in the video data. 前記映像記述メタデータには、映像データ中の任意の位置に関連付けられたリンクポイントを含み、リンクポイントに基づいて、リンクポイントに関連付けられている位置の映像データを参照する請求項8記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 9. The meta according to claim 8, wherein the video description metadata includes a link point associated with an arbitrary position in the video data, and refers to video data at a position associated with the link point based on the link point. Data processing apparatus, video processing apparatus and video processing system. 前記処理対象指定メタ処理手段は、記録媒体に記録されたメタデータに対応する映像データと、前記処理対象指定メタデータに対応した映像記述メタデータの1つであるリンクポイントに基づいて決定する再生開始点及び再生終了点とからプレイリストを作成する請求項12記載のメタデータ処理装置及び映像処理装置及び映像処理システム。 The processing target designation meta processing means determines reproduction based on video data corresponding to the metadata recorded on the recording medium and a link point which is one of video description metadata corresponding to the processing target designation metadata. 13. The metadata processing apparatus, video processing apparatus, and video processing system according to claim 12, wherein a playlist is created from a start point and a playback end point.
JP2009099810A 2009-04-16 2009-04-16 Video processing device Active JP5375298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009099810A JP5375298B2 (en) 2009-04-16 2009-04-16 Video processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009099810A JP5375298B2 (en) 2009-04-16 2009-04-16 Video processing device

Publications (2)

Publication Number Publication Date
JP2010252070A true JP2010252070A (en) 2010-11-04
JP5375298B2 JP5375298B2 (en) 2013-12-25

Family

ID=43313901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009099810A Active JP5375298B2 (en) 2009-04-16 2009-04-16 Video processing device

Country Status (1)

Country Link
JP (1) JP5375298B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063393A1 (en) 2010-11-10 2012-05-18 本田技研工業株式会社 Automobile floor structure

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006203A (en) * 2003-06-13 2005-01-06 Sony Corp Information accessing method, information providing device, meta information providing device, information receiver and information accessing method
JP2008053763A (en) * 2004-11-16 2008-03-06 Matsushita Electric Ind Co Ltd Av data recording device and method, av data reproducing device and method, and recording medium recorded by the av data recording device or the method
JP2009510801A (en) * 2005-09-27 2009-03-12 エルジー エレクトロニクス インコーポレーテッド Recording medium, method for searching content data from the recording medium, and method and apparatus for reproducing data from the recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006203A (en) * 2003-06-13 2005-01-06 Sony Corp Information accessing method, information providing device, meta information providing device, information receiver and information accessing method
JP2008053763A (en) * 2004-11-16 2008-03-06 Matsushita Electric Ind Co Ltd Av data recording device and method, av data reproducing device and method, and recording medium recorded by the av data recording device or the method
JP2009510801A (en) * 2005-09-27 2009-03-12 エルジー エレクトロニクス インコーポレーテッド Recording medium, method for searching content data from the recording medium, and method and apparatus for reproducing data from the recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063393A1 (en) 2010-11-10 2012-05-18 本田技研工業株式会社 Automobile floor structure

Also Published As

Publication number Publication date
JP5375298B2 (en) 2013-12-25

Similar Documents

Publication Publication Date Title
JP4893841B2 (en) recoding media
CN100394791C (en) Information processing method and apparatus, program and recording medium
JP4224095B2 (en) Information processing apparatus, information processing program, and information processing system
US7796856B2 (en) Information processing apparatus and method, and program therefor
JP2003529990A (en) Method of identifying and processing audio and / or video material
CN101094364B (en) Apparatus and method for processing information
CN101132508A (en) Method and apparatus for recording and reproducing, method and device for acquiring and recording image
CN101154427B (en) Recording-and-reproducing apparatus and recording-and-reproducing method
JP2004310881A (en) Information processing device and method, program and recording medium
JP3285029B2 (en) recoding media
JP3835801B2 (en) Information processing apparatus and method, program recording medium, and program
JP4048561B2 (en) Information processing apparatus and method, program, and recording medium
CN100562938C (en) Messaging device and method
JP5375298B2 (en) Video processing device
JP4297141B2 (en) Information processing apparatus and method, and program
JP4418183B2 (en) Information processing apparatus and method, program, and recording medium
US20090060449A1 (en) Shooting apparatus and shooting method, information processing apparatus and information processing method, and program
JP2010252128A (en) Metadata processing apparatus, apparatus and system for processing video
JP2009010839A (en) Image data reproduction apparatus and image data reproduction method
KR101025088B1 (en) Data recording method
TW201334533A (en) Information processing apparatus, information processing method, and program
CN103137162A (en) Information processor, information processing method, and program
JP3894444B2 (en) Information processing apparatus and method, program recording medium, and program
US20090016703A1 (en) Information processing device, information processing method, and computer program
JP4507515B2 (en) Information processing apparatus and method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120312

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20121214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130909

R151 Written notification of patent or utility model registration

Ref document number: 5375298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151