Nothing Special   »   [go: up one dir, main page]

JP3552945B2 - MPEG2 data insert editing method and system - Google Patents

MPEG2 data insert editing method and system Download PDF

Info

Publication number
JP3552945B2
JP3552945B2 JP9106199A JP9106199A JP3552945B2 JP 3552945 B2 JP3552945 B2 JP 3552945B2 JP 9106199 A JP9106199 A JP 9106199A JP 9106199 A JP9106199 A JP 9106199A JP 3552945 B2 JP3552945 B2 JP 3552945B2
Authority
JP
Japan
Prior art keywords
data
mpeg2
audio
audio data
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP9106199A
Other languages
Japanese (ja)
Other versions
JP2000287178A (en
Inventor
泰之 木次
智之 森田
隆之 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP9106199A priority Critical patent/JP3552945B2/en
Publication of JP2000287178A publication Critical patent/JP2000287178A/en
Application granted granted Critical
Publication of JP3552945B2 publication Critical patent/JP3552945B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、MPEG2データのインサート編集方法及びシステムに関し、特に、MPEG2データにおける音声データをリアルタイムに編集することができるインサート編集方法及びシステムに関する。
【0002】
【従来の技術】
動画を高度に圧縮して、ディジタル動画データとして扱うためには、MPEG(motion photographic coding experts groupe)規格のデータフォーマットが用いられる。このようなMPEGデータフォーマットを用いるディジタル動画データ(以下、MPEGデータと称する)に対する編集処理では、画像と音声の編集をそれぞれ個別に行い、最終的に画像と音声を組み合わせて、再び、MPEGデータとする。
【0003】
図1は、従来におけるMPEGデータの編集処理を行うインサート編集システムの構成の一例を示す図である。図1において、1はMPEG2−TSデータファイル、2は音声データ変換・抽出部、3は音声データファイル、4は映像データ編集処理部、5は音声データ編集処理部、6は映像データ出力部、7は音声データ出力部、8は同期処理部である。
【0004】
MPEGデータは、符号化され高度に圧縮された映像データと音声データとがそれぞれパケットデータとして混じり合って存在しているので、MPEG2データの編集処理を行うインサート編集システムでは、その映像データの編集処理と、音声データの編集処理がそれぞれ個別に行われる。図1に示すように、映像データの編集処理は、MPEG2−TSデータファイル1から取り出されたMPEGデータの映像データのパケットに対して、映像データ編集処理部4により行い、映像データ出力部6から、その編集した映像データリソースが取り出される。この場合、映像データ編集処理部4では、映像データのフレーム画像をモニタ画面等に表示して映像の編集を行う。
【0005】
音声データの編集処理については、まず、音声データ変換・抽出部2により、MPEG2−TSデータファイル1からMPEG2−TSデータの音声データ部分である音声データパケットを取り出し、それを他のデータ形式(WAVEデータ、PCMデータ)の音声データに変換して抽出し、音声データファイル3に格納する。そして、音声データファイル3から音声データを取りだし、音声データ編集処理部5により編集処理を行い、音声データ出力部7から、その編集した音声データリソースを取り出す。そして、映像に対して音声を合わせるため、同期処理部8の制御により映像データ出力部6と音声データ出力部7を制御し、編集結果を別々のリソースから同期を取りながら出力することにより、インサート編集を行う。
【0006】
つまり、この場合、1つのMPEG2−TSデータを、その映像データと音声データとで別々の編集処理(4,5)を施し、編集した結果を別々のデータリソース(6,7)として、同期(8)を取りながら出力することによりインサート編集を実現している。
【0007】
ところで、このようなインサート編集システムでは、映像データに対して音声データを追加するなどのインサート編集した編集結果は、映像出力と音声出力とが同期を取られて出力されるが、映像出力と音声出力とが別系統の信号となっているため、また、データとしてもデータ量の大きな映像データと音声データに戻っているため、これを1つのデータとしてまとめて、コンパクトなMPEG2−TSデータとして扱えるようにするには、編集結果の映像データと音声データをMPEGデータに再エンコードしなければならない。
【0008】
したがって、MPEG2−TSデータを扱うインサート編集システムでは、映像データ(映像リソース,映像出力)と音声データ(音声リソース,音声出力)を、MPEGデータにエンコードするエンコード処理部を設けている。
【0009】
図2は、従来のMPEG2データの編集処理を行うインサート編集システムの別の構成例を示す図である。図2において、10はMPEG2−TSデータファイル、11は音声データ変換・抽出部、12は音声データファイル、13は映像データ編集処理部、14は音声データ編集処理部、15は映像データ出力部、16は音声データ出力部、17は同期処理部、18はエンコード処理部、19は編集されたMPEG2−TSデータファイルである。
【0010】
図2に示すMPEG2データのインサート編集システムは、図1に示したインサート編集システムに対して、映像データ(映像リソース,映像出力)と音声データ(音声リソース,音声出力)を、MPEGデータにエンコードするエンコード処理部を設けた構成となっている。
【0011】
MPEG2データのインサート編集システムは、図2に示すように、MPEG2−TSデータファイル10から取り出されたMPEGデータに対して、映像データの編集処理を、映像データ編集処理部13により行い、同期処理部17の制御によって映像データ出力部15から編集した映像データリソースとして取り出す。また、音声データの編集処理では、音声データ変換・抽出部11により、MPEG2−TSデータファイル10からMPEG2−TSデータの音声データ部分を他のデータ形式(WAVEデータ、PCMデータ)の音声データに変換して抽出し、音声データファイル12に格納する。そして、音声データファイル12から音声データを取り出し、音声データ編集処理部14により編集処理を行い、同期処理部17の制御によって音声データ出力部16から、編集した音声データが音声データリソースとして取り出される。その際、映像に対して音声を合わせて出力するため、同期処理部17は、映像データ出力部15と音声データ出力部16を制御して、映像データと音声データとを同期を取りながら出力し、エンコード処理部18に入力する。エンコード処理部18は、同期して入力された映像データと音声データとをMPEG2データにエンコードして出力し、MPEG2−TSデータファイル19に格納する。
【0012】
【発明が解決しようとする課題】
このように、従来のインサート編集システムにおいては、映像データの編集処理と音声データの編集処理がそれぞれ別に行われ、また、映像データに対して音声データを追加するなどのインサート編集した編集結果は、映像出力と音声出力とが同期を取られて出力されるが、映像出力と音声出力とが別系統の信号となっているため、これを1つのデータとしてまとめて簡易に扱えるようにするには、映像データと音声データを合わせてMPEGデータに再びエンコードしなければならない。
【0013】
MPEGデータへのエンコード処理は映像データと音声データを高度に圧縮するため負荷が重く、多くの処理時間を必要とし、リアルタイムなインサート編集が行えないという問題があった。つまり、MPEGデータの映像データに対して音声データを付加するなどの簡単なインサート編集を行う場合であっても、編集結果の映像出力と音声出力とがそれぞれに別系統の信号となって出力され、これが1つのデータとしてまとめてMPEGデータにするには、再度のエンコード処理を行わなければならず、多くの処理時間を必要とし、リアルタイムなインサート編集が行えないという問題があった。
【0014】
したがって、本発明の目的は、MPEG2データの音声データをリアルタイムに編集することができるMPEG2データインサート編集方法及びシステムを提供することにある。
【0015】
【課題を解決するための手段】
上記のような目的を達成するため、本発明によるMPEG2データインサート編集方法は、MPEG2−TSデータの音声データを編集後に再エンコードの必要のない形式で抽出し、抽出した音声データのパケットデータをまとめて1フレームの単位で編集し、編集した音声データをパケットデータに分解し、分解したパケットデータをMPEG2−TSデータの音声データ部分の対応位置にマージし、MPEG2−TSデータとして同一リソースから出力することを特徴とする。また、本発明によるMPEG2データインサート編集システムのシステム構成としては、MPEG2−TSデータの音声データを編集後に再エンコードの必要のない形式で、例えば、MPEG1 Audio レイヤII−ESデータ形式で抽出する抽出手段と、抽出した音声データを編集する編集手段と、編集した音声データをMPEG2−TSデータの音声データ部分に上書きし、MPEG2−TSデータとして出力する出力手段とを備えたことを特徴とする。
【0016】
本発明によるMPEG2データのインサート編集システムでは、MPEG2のデータ形式を考慮して、MPEG2データにおける音声データ部分のパケットデータを取り出して編集し、処理負荷の多いMPEGデータへのエンコード処理を行うことなく、音声データ部分を編集したMPEG2データを出力する。これにより、リアルタイムでのインサート編集が可能となる。
【0017】
つまり、抽出手段が、MPEG2−TSデータの音声データをMPEG1 Audio レイヤII−ESデータ形式で抽出し、編集手段により、抽出した音声データを編集し、出力手段により、編集した音声データをMPEG2−TSデータの音声データ部分に上書きし、MPEG2−TSデータとして出力する。これにより、MPEG2データの音声データ部分をMPEGデータ形式で抽出し編集処理を施し、編集結果をその都度MPEG2データとして同一リソースから出力することができる。
【0018】
【発明の実施の形態】
以下、本発明を実施する場合の一形態について、図面を参照して具体的に説明する。本発明によるインサート編集システムで扱うデータは、MPEG2のデータ形式によるデータである。具体的に、MPEG2データ形式は、MPEG2−TSのGOP=1または2を前提としている。
【0019】
図3は、本発明の一実施例のMPEGデータの編集処理を行うインサート編集システムの構成を示す図である。図3において、20はMPEG2−TSデータファイル、21は音声データ抽出部、22は「MPEG1 Audio」の音声データファイル、23は映像データ編集処理部、24は音声データ編集処理部、25はマージ処理部、26は編集されたMPEG2−TSデータファイル、27は出力処理部である。
【0020】
編集されるMPEG2−TSデータは、図3に示すように、MPEG2−TSデータファイル20から取り出され、映像データ編集処理部23において、必要であれば、MPEGデータの映像データのフレーム画像に対して、映像データの編集処理を行う。この場合、例えば、映像データ編集処理部23では、映像データのフレーム画像をモニタ画面等に表示して映像データの編集を行う。
【0021】
音声データの編集処理は、音声データ抽出部21により、MPEG2−TSデータファイル1からMPEG2−TSデータの音声データ部分である音声データパケットを取り出す。ここでは、取り出した音声データは、他のデータ形式(WAVEデータ、PCMデータ)の音声データには変換しないので、取り出したMPEG2−TSデータの音声データ部分は、「MPEG1 Audio」音声データのパケットデータとなっている。そのパケットデータを順に並べて、例えば、ヘッダ部分を除き、「MPEG1 Audio」音声データとし、同期ワードによる区別される音声データの1フレーム部分を判定するため、音声データファイル22に格納する。後述するように、音声データの1フレームが復号可能な最小単位となっているため、同期ワードにより1フレームの音声データを判別して、音声データをフレーム単位で復号して、必要に応じて音声データの編集処理を行う。
【0022】
つまり、音声データの編集処理では、音声データ編集処理部24により、音声データファイル22から音声データを取り出し、同期ワードにより1フレーム単位の音声データを判別して、その音声データをフレーム単位で復号して、必要に応じて音声データの編集処理を行う。そして、音声データ編集処理部24では、再び、編集された音声データに対して符号化し、ヘッダ部分を付加し、「MPEG1 Audio」音声データのパケットデータとして、パケットデータに分解して、マージ処理部25により映像データ部分のパケットデータの対応位置に上書きしてマージする。これにより、そのままインサート編集されたMPEG2−TSデータとなる。編集されたMPEG2−TSデータは、編集結果を格納するMPEG2−TSデータファイル26に格納され、MPEG2−TSデータをデコードして再生する出力処理部27によって再生される。これにより、インサート編集された映像出力および音声出力が得られる。ここでのインサート編集処理では、多くの負荷のかかるMPEG2データへのエンコード処理は行っておらず、リアルタイム編集が可能となる。
【0023】
図4は、本発明の実施例に関係したMPEG2のデータ形式を説明する図である。図4を参照して説明する。前述したように、本発明で適用するMPEG2データ形式は、MPEG2−TSのGOP=1または2を前提とする。
【0024】
MPEG2−TSデータは、図4に示すように、映像データストリーム30および音声データストリーム31が、それぞれ188バイト単位のパケット(TSパケット)に分割され、更に多重化されている。映像データの1フレーム32は、複数個のTSパケットから構成されており、1フレームのデータ区切りは、必ずTSパケットの区切りと一致する。
【0025】
これに対し、音声データの1フレーム33のデータ区切りは、ほとんどの場合TSパケットの区切りとは一致しない。音声データの1フレーム33が復号可能な最小単位となっているが、これは同期ワードにより区別され、したがって、音声データの編集を行うには、同期ワードにより1フレームの音声データを判別して、音声データをフレーム単位で復号して、必要に応じて音声データの編集処理を行う。
【0026】
MPEG2−TSデータの映像データの1フレーム32のデータサイズは、ピクチャ(画像)のタイプ(Iピクチャ,Pピクチャ)によって大きく異なる(可変長)が、これに対して、音声データは、サンプリング周波数を高くして高品質にしてもデータの性質からデータ量がそれほど多くならず、音声データの1フレーム33のデータサイズは、固定長となっている。
【0027】
図5は、本発明によるMPEG2−TSデータのインサート編集方法を説明する図である。このMPEG2−TSデータのインサート編集方法によると、図5に示すように、MPEG2−TSデータを格納しているMPEG2ファイル40から、MPEG2−TSデータの音声データだけを抽出し、MPEG1 Audio レイヤII−ESファイル42に格納し、抽出した音声データに対して、必要に応じて復号化して音声信号として、他の音声リソースとマージするなどの編集処理を施し、映像の1フレームに対応した1フレーム分(約1/30秒)の音声データ43とする。この音声データをパケットデータとして分解し、MPEG2−TSデータにおける音声データのパケットデータに差し替えるマージ処理を行う。編集の結果は、その都度、MPEG2−TSデータとして同一リソースから出力する。ここでは、MPEG2−TSデータにおける音声データのパケットデータに差し替えるため、その映像データおよび音声データのパケットデータサイズが管理される。ここでは、映像をベースとした1フレーム単位のデータサイズを、データサイズ管理ファイル41を用いて管理する。ここで管理されているデータサイズを参照して、MPEG2−TSデータから、その音声データ部分のパケットのみを順次に差し替え、その都度、MPEG2−TSデータとして同一リソースから出力させる。
【0028】
すなわち、ここでのMPEG2データのインサート編集方法では、MPEG2−TSデータの音声データを抽出し、抽出した音声データのパケットデータをまとめて1フレームの単位で編集し、編集した音声データをパケットデータに分解し、このパケットデータをMPEG2−TSデータの音声データ部分の対応位置にマージし、MPEG2−TSデータとして同一リソースから出力するようにして、インサート編集を行う。この編集処理においても、MPEG2データを作成するエンコード処理は必要なく、リアルタイムにインサート編集が行える。
【0029】
図6は、本発明によるMPEG2−TSデータのインサート編集処理の処理フローを示すフローチャートである。図6を参照して説明する。
【0030】
ここでのインサート編集処理では、まず、編集するMPEG2データに対し、編集を行うため、再生指示が行われた部分の該当データを抽出する(ステップ51)。次に、映像データについては、映像をベースとした1フレーム単位のデータサイズを管理しているデータサイズ管理ファイル41を解析して、そのデータサイズを得る(ステップ52)。そして、MPEG2ファイル40から該当する1フレーム分のMPEG2−TSのデータを取得する(ステップ53)。
【0031】
次に、音声データついては、MPEG1 Audio レイヤII−ESファイル42から、該当する約1/30秒分(映像の1フレームに対応する)のMPEG1 Audio レイヤII−ESのデータを取得する(ステップ54)。そして、MPEG2ファイル40から取得したMPEG2−TSの音声パケットを、MPEG1 Audio レイヤII−ESファイル42から取得した音声パケットと入れ替えて、MPEG2データを再編成する(ステップ55)。続いて、再編成したMPEG2データを同一リソースから出力する(ステップ56)。
【0032】
【発明の効果】
以上、説明したように、本発明のMPEG2データインサート編集方法及びシステムによれば、MPEG2データの音声データ部分を抽出し編集処理を施し、編集結果をその都度、MPEG2データとして同一リソースから出力することで、音声データのインサート編集を実現する。これにより、MPEG2データのインサート編集をリアルタイムで行うことができる。
【図面の簡単な説明】
【図1】従来におけるMPEGデータの編集処理を行うインサート編集システムの構成の一例を示す図、
【図2】従来のMPEG2データの編集処理を行うインサート編集システムの別の構成例を示す図、
【図3】本発明の一実施例のMPEGデータの編集処理を行うインサート編集システムの構成を示す図、
【図4】本発明の実施例に関係したMPEG2のデータ形式を説明する図、
【図5】本発明によるMPEG2−TSデータのインサート編集方法を説明する図、
【図6】本発明によるMPEG2−TSデータのインサート編集処理の処理フローを示すフローチャートである。
【符号の説明】
1…MPEG2−TSデータファイル、
2…音声データ変換・抽出部、
3…音声データファイル、
4…映像データ編集処理部、
5…音声データ編集処理部、
6…映像データ出力部、
7…音声データ出力部、
8…同期処理部
10…MPEG2−TSデータファイル、
11…音声データ変換・抽出部、
12…音声データファイル、
13…映像データ編集処理部、
14…音声データ編集処理部、
15…映像データ出力部、
16…音声データ出力部、
17…同期処理部、
18…エンコード処理部、
19…編集されたMPEG2−TSデータファイル
20…MPEG2−TSデータファイル、
21…音声データ抽出部、
22…「MPEG1 Audio」の音声データファイル、
23…映像データ編集処理部、
24…音声データ編集処理部、
25…マージ処理部、
26…編集されたMPEG2−TSデータファイル、
27…出力処理部、
30…映像データストリーム、
31…音声データストリーム、
32…映像の1フレーム、
33…音声の1フレーム、
40…MPEG2−TSデータファイル、
41…データサイズ管理ファイル、
42…MPEG1 Audio レイヤII−ESファイル、
43…音声の1フレーム。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an insert editing method and system for MPEG2 data, and more particularly to an insert editing method and system capable of editing audio data in MPEG2 data in real time.
[0002]
[Prior art]
In order to highly compress a moving image and handle it as digital moving image data, a data format of the MPEG (motion photocoding encodings group) standard is used. In the editing process for digital moving image data (hereinafter, referred to as MPEG data) using the MPEG data format, image and audio are individually edited, and finally the image and audio are combined, and the MPEG data and I do.
[0003]
FIG. 1 is a diagram showing an example of a configuration of a conventional insert editing system that performs an editing process of MPEG data. In FIG. 1, 1 is an MPEG2-TS data file, 2 is an audio data conversion / extraction unit, 3 is an audio data file, 4 is a video data editing processing unit, 5 is an audio data editing processing unit, 6 is a video data output unit, 7, an audio data output unit; and 8, a synchronization processing unit.
[0004]
Since the MPEG data includes coded and highly compressed video data and audio data mixed with each other as packet data, an insert editing system for editing MPEG2 data requires an edit processing of the video data. And audio data editing processing are performed individually. As shown in FIG. 1, the video data editing process is performed by a video data editing unit 4 on a video data packet of MPEG data extracted from an MPEG2-TS data file 1, Then, the edited video data resource is extracted. In this case, the video data editing processor 4 edits the video by displaying the frame image of the video data on a monitor screen or the like.
[0005]
Regarding the audio data editing process, first, the audio data conversion / extraction unit 2 extracts an audio data packet, which is the audio data portion of MPEG2-TS data, from the MPEG2-TS data file 1 and converts it into another data format (WAVE). (Data, PCM data), and extract it, and store it in the audio data file 3. Then, audio data is extracted from the audio data file 3, edited by the audio data editing processing unit 5, and the edited audio data resource is extracted from the audio data output unit 7. Then, in order to match the audio with the video, the video data output unit 6 and the audio data output unit 7 are controlled by the control of the synchronization processing unit 8, and the edited results are output from different resources while being synchronized, so that the insertion is performed. Edit.
[0006]
In other words, in this case, one MPEG2-TS data is subjected to separate editing processing (4, 5) for its video data and audio data, and the edited result is set as a separate data resource (6, 7) and synchronized ( 8) The insert editing is realized by outputting while taking.
[0007]
By the way, in such an insert editing system, an edit result obtained by insert editing such as adding audio data to video data is output with the video output and the audio output synchronized, but the video output and the audio output are synchronized. Since the output is a signal of a different system, and the data is returned to video data and audio data having a large data amount, these can be combined into one data and handled as compact MPEG2-TS data. To do so, the video data and audio data resulting from the editing must be re-encoded into MPEG data.
[0008]
Therefore, an insert editing system that handles MPEG2-TS data is provided with an encoding processing unit that encodes video data (video resources, video output) and audio data (audio resources, voice output) into MPEG data.
[0009]
FIG. 2 is a diagram showing another example of a configuration of a conventional insert editing system that performs editing processing of MPEG2 data. 2, 10 is an MPEG2-TS data file, 11 is an audio data conversion / extraction unit, 12 is an audio data file, 13 is a video data edit processing unit, 14 is an audio data edit processing unit, 15 is a video data output unit, Reference numeral 16 denotes an audio data output unit, 17 denotes a synchronization processing unit, 18 denotes an encoding processing unit, and 19 denotes an edited MPEG2-TS data file.
[0010]
The MPEG2 data insert editing system shown in FIG. 2 encodes video data (video resource, video output) and audio data (audio resource, audio output) into MPEG data with respect to the insert editing system shown in FIG. The configuration is such that an encoding processing unit is provided.
[0011]
As shown in FIG. 2, the insert editing system for MPEG2 data performs editing processing of video data on the MPEG data extracted from the MPEG2-TS data file 10 by a video data editing processing unit 13 and a synchronization processing unit. Under the control of 17, the video data is extracted from the video data output unit 15 as an edited video data resource. In the audio data editing process, the audio data conversion / extraction unit 11 converts the audio data portion of the MPEG2-TS data from the MPEG2-TS data file 10 into audio data of another data format (WAVE data, PCM data). To extract and store it in the audio data file 12. Then, audio data is extracted from the audio data file 12, edited by the audio data editing processing unit 14, and the edited audio data is extracted from the audio data output unit 16 as an audio data resource under the control of the synchronization processing unit 17. At this time, in order to output the audio together with the video, the synchronization processing unit 17 controls the video data output unit 15 and the audio data output unit 16 to output the video data and the audio data while synchronizing them. , To the encoding processing unit 18. The encoding processing unit 18 encodes and outputs the video data and the audio data input in synchronization with each other to MPEG2 data, and stores the encoded data in the MPEG2-TS data file 19.
[0012]
[Problems to be solved by the invention]
As described above, in the conventional insert editing system, the editing process of the video data and the editing process of the audio data are separately performed, and the editing result of the insert editing such as adding the audio data to the video data is: The video output and the audio output are output in synchronization with each other. However, since the video output and the audio output are signals of different systems, it is necessary to collectively handle them as one data and easily handle them. In addition, the video data and the audio data must be encoded again into MPEG data.
[0013]
Encoding processing to MPEG data has a problem that the load is heavy because it compresses video data and audio data at a high level, requires a lot of processing time, and does not allow real-time insert editing. In other words, even when performing simple insert editing such as adding audio data to video data of MPEG data, the video output and audio output of the edited result are output as signals of different systems, respectively. However, in order to combine the data into one piece of MPEG data, re-encoding processing must be performed, which requires a lot of processing time, and there is a problem that real-time insert editing cannot be performed.
[0014]
Therefore, an object of the present invention is to provide an MPEG2 data insert editing method and system capable of editing audio data of MPEG2 data in real time.
[0015]
[Means for Solving the Problems]
In order to achieve the above object, the MPEG2 data insert editing method according to the present invention extracts MPEG2-TS data audio data in a format that does not require re-encoding after editing, and collects the extracted audio data packet data. The audio data is edited in units of one frame, the edited audio data is decomposed into packet data, the decomposed packet data is merged with the corresponding position of the audio data portion of the MPEG2-TS data, and output from the same resource as MPEG2-TS data. It is characterized by the following. Further, the system configuration of the MPEG2 data insert editing system according to the present invention is an extracting means for extracting audio data of MPEG2-TS data in a format that does not need to be re-encoded after editing , for example, in an MPEG1 Audio Layer II-ES data format. And editing means for editing the extracted audio data, and output means for overwriting the edited audio data on the audio data portion of the MPEG2-TS data and outputting it as MPEG2-TS data.
[0016]
The insert editing system for MPEG2 data according to the present invention takes out the packet data of the audio data portion of the MPEG2 data in consideration of the data format of MPEG2, edits the packet data, and performs the encoding process on the MPEG data having a large processing load. It outputs MPEG2 data with the audio data part edited. This enables insert editing in real time.
[0017]
That is, the extracting unit extracts the audio data of the MPEG2-TS data in the MPEG1 Audio Layer II-ES data format, edits the extracted audio data by the editing unit, and outputs the edited audio data by the output unit. It overwrites the audio data part of the data and outputs it as MPEG2-TS data. As a result, the audio data portion of the MPEG2 data can be extracted in the MPEG data format and edited, and the edited result can be output as MPEG2 data from the same resource each time.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be specifically described with reference to the drawings. The data handled by the insert editing system according to the present invention is data in the MPEG2 data format. Specifically, the MPEG2 data format is based on GOP = 1 or 2 of MPEG2-TS.
[0019]
FIG. 3 is a diagram showing a configuration of an insert editing system for performing an editing process of MPEG data according to one embodiment of the present invention. 3, reference numeral 20 denotes an MPEG2-TS data file, 21 denotes an audio data extraction unit, 22 denotes an audio data file of "MPEG1 Audio", 23 denotes a video data editing processing unit, 24 denotes an audio data editing processing unit, and 25 denotes a merge processing. , 26 is an edited MPEG2-TS data file, and 27 is an output processing unit.
[0020]
The MPEG2-TS data to be edited is taken out from the MPEG2-TS data file 20 as shown in FIG. And edit processing of the video data. In this case, for example, the video data editing processing unit 23 edits the video data by displaying a frame image of the video data on a monitor screen or the like.
[0021]
In the audio data editing process, the audio data extraction unit 21 extracts an audio data packet, which is the audio data portion of the MPEG2-TS data, from the MPEG2-TS data file 1. Here, the extracted audio data is not converted into audio data of another data format (WAVE data, PCM data), so the audio data portion of the extracted MPEG2-TS data is packet data of “MPEG1 Audio” audio data. It has become. The packet data is arranged in order and, for example, excluding the header portion, is set as “MPEG1 Audio” audio data, and is stored in the audio data file 22 in order to determine one frame portion of the audio data distinguished by the synchronization word. As will be described later, since one frame of the audio data is the smallest unit that can be decoded, the audio data of one frame is determined based on the synchronization word, and the audio data is decoded in units of frames. Edit data.
[0022]
In other words, in the audio data editing process, the audio data editing processing unit 24 extracts audio data from the audio data file 22, determines audio data in units of one frame based on synchronization words, and decodes the audio data in units of frames. Then, the audio data is edited as needed. Then, the audio data editing processing unit 24 encodes the edited audio data again, adds a header portion thereto, decomposes the data into packet data as packet data of “MPEG1 Audio” audio data, 25, overwrites and merges the corresponding position of the packet data of the video data portion. As a result, it becomes the MPEG2-TS data that has been insert-edited as it is. The edited MPEG2-TS data is stored in an MPEG2-TS data file 26 that stores the edited result, and is reproduced by an output processing unit 27 that decodes and reproduces the MPEG2-TS data. As a result, a video output and an audio output subjected to insert editing are obtained. In the insert edit processing here, encoding processing on MPEG2 data that places a lot of load is not performed, and real-time editing becomes possible.
[0023]
FIG. 4 is a view for explaining the data format of MPEG2 related to the embodiment of the present invention. This will be described with reference to FIG. As described above, the MPEG2 data format applied in the present invention is based on GOP = 1 or 2 of MPEG2-TS.
[0024]
In the MPEG2-TS data, as shown in FIG. 4, a video data stream 30 and an audio data stream 31 are each divided into packets (TS packets) in units of 188 bytes and further multiplexed. One frame 32 of the video data is composed of a plurality of TS packets, and the data segment of one frame always matches the segment of the TS packet.
[0025]
On the other hand, the data segment of one frame 33 of the audio data does not match the segment of the TS packet in most cases. One frame 33 of the audio data is the minimum unit that can be decoded. This is distinguished by the synchronization word. Therefore, in order to edit the audio data, the audio data of one frame is determined by the synchronization word. The audio data is decoded frame by frame, and the audio data is edited as needed.
[0026]
The data size of one frame 32 of the video data of the MPEG2-TS data varies greatly depending on the type of picture (image) (I picture, P picture) (variable length), whereas the sampling frequency of audio data is different. Even if the quality is increased and the quality is increased, the data amount is not so large due to the nature of the data, and the data size of one frame 33 of the audio data is fixed.
[0027]
FIG. 5 is a diagram illustrating a method of insert editing MPEG2-TS data according to the present invention. According to the insert editing method of the MPEG2-TS data, as shown in FIG. 5, only the audio data of the MPEG2-TS data is extracted from the MPEG2 file 40 storing the MPEG2-TS data, and the MPEG1 Audio layer II- The audio data stored and extracted in the ES file 42 is subjected to an editing process such as decoding as necessary and merging it with another audio resource as an audio signal to obtain one frame corresponding to one frame of video. (Approximately 1/30 second) audio data 43. The audio data is decomposed into packet data, and a merge process is performed to replace the audio data in the MPEG2-TS data with packet data. The editing result is output from the same resource as MPEG2-TS data each time. Here, the packet data size of the video data and the audio data is managed to replace the packet data of the audio data in the MPEG2-TS data. Here, the data size of each frame based on video is managed using the data size management file 41. With reference to the data size managed here, only the packet of the audio data portion is sequentially replaced from the MPEG2-TS data, and each time it is output from the same resource as MPEG2-TS data.
[0028]
That is, in the insert editing method of the MPEG2 data, the audio data of the MPEG2-TS data is extracted, the packet data of the extracted audio data is collectively edited in units of one frame, and the edited audio data is converted into packet data. The packet data is disassembled, the packet data is merged with the corresponding position of the audio data part of the MPEG2-TS data, and insert editing is performed such that the packet data is output as MPEG2-TS data from the same resource. Also in this editing process, encoding processing for creating MPEG2 data is not required, and insert editing can be performed in real time.
[0029]
FIG. 6 is a flowchart showing a processing flow of insert editing processing of MPEG2-TS data according to the present invention. This will be described with reference to FIG.
[0030]
In the insert editing process, first, in order to edit the MPEG2 data to be edited, the data corresponding to the portion where the reproduction instruction is issued is extracted (step 51). Next, for the video data, the data size management file 41 which manages the data size of one frame unit based on the video is analyzed to obtain the data size (step 52). Then, one frame worth of MPEG2-TS data is acquired from the MPEG2 file 40 (step 53).
[0031]
Next, as for the audio data, the corresponding data of about 1/30 second (corresponding to one video frame) of the MPEG1 Audio layer II-ES is obtained from the MPEG1 Audio layer II-ES file 42 (step 54). . Then, the MPEG2-TS audio packet acquired from the MPEG2 file 40 is replaced with the audio packet acquired from the MPEG1 Audio layer II-ES file 42, and the MPEG2 data is reorganized (step 55). Subsequently, the rearranged MPEG2 data is output from the same resource (step 56).
[0032]
【The invention's effect】
As described above, according to the MPEG2 data insert editing method and system of the present invention, the audio data portion of MPEG2 data is extracted and edited, and the edited result is output as MPEG2 data from the same resource each time. Thus, insert editing of audio data is realized. Thereby, insert editing of MPEG2 data can be performed in real time.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of a configuration of a conventional insert editing system for performing an editing process of MPEG data;
FIG. 2 is a diagram showing another example of the configuration of a conventional insert editing system for performing editing processing of MPEG2 data;
FIG. 3 is a diagram illustrating a configuration of an insert editing system that performs an MPEG data editing process according to an embodiment of the present invention;
FIG. 4 is a view for explaining the data format of MPEG2 related to the embodiment of the present invention;
FIG. 5 is a diagram for explaining an insert editing method of MPEG2-TS data according to the present invention;
FIG. 6 is a flowchart showing a processing flow of insert editing processing of MPEG2-TS data according to the present invention.
[Explanation of symbols]
1 ... MPEG2-TS data file,
2 ... Sound data conversion / extraction unit
3: Audio data file,
4: Video data editing processing unit
5. Audio data editing processing unit
6 ... video data output unit
7 audio data output unit,
8 synchronization processing unit 10 MPEG2-TS data file
11 ... voice data conversion / extraction unit
12 ... Audio data file,
13 ... Video data editing processing unit
14 audio data editing processing unit
15 ... Video data output unit
16 audio data output unit
17: Synchronization processing unit,
18. Encoding processing unit,
19 ... edited MPEG2-TS data file 20 ... MPEG2-TS data file
21 ... audio data extraction unit
22: "MPEG1 Audio" audio data file,
23 ... Video data editing processing unit
24 audio data editing processing unit
25 ... Merge processing unit
26 ... edited MPEG2-TS data file,
27 output processing unit,
30 ... video data stream,
31 ... audio data stream,
32 ... 1 frame of video,
33 ... one frame of audio
40 ... MPEG2-TS data file,
41: Data size management file
42... MPEG1 Audio Layer II-ES file,
43 1 voice frame.

Claims (3)

MPEG2−TSデータの音声データを編集後に再エンコードの必要のない形式で抽出し、
抽出した音声データのパケットデータをまとめて1フレームの単位で編集し、
編集した音声データをパケットデータに分解し、
分解したパケットデータをMPEG2−TSデータの音声データ部分の対応位置にマージし、
MPEG2−TSデータとして同一リソースから出力する
ことを特徴とするMPEG2データのインサート編集方法。
Extract audio data of MPEG2-TS data in a format that does not require re-encoding after editing ,
Edit the packet data of the extracted audio data collectively in units of one frame,
Decompose the edited audio data into packet data,
The decomposed packet data is merged with the corresponding position of the audio data portion of the MPEG2-TS data,
A method for inserting and editing MPEG2 data, wherein the method is output from the same resource as MPEG2-TS data.
MPEG2−TSデータの音声データを編集後に再エンコードの必要のない形式で抽出する抽出手段と、
抽出した音声データを編集する編集手段と、
編集した音声データをMPEG2−TSデータの音声データ部分にマージして、MPEG2−TSデータとして出力する出力手段と
を備えたことを特徴とするMPEG2データのインサート編集システム。
Extracting means for extracting audio data of MPEG2-TS data after editing in a format that does not require re-encoding ;
Editing means for editing the extracted audio data;
Output means for merging the edited audio data with the audio data portion of the MPEG2-TS data and outputting the merged audio data as MPEG2-TS data.
請求項2に記載のMPEG2データのインサート編集システムにおいて、
前記抽出手段は、MPEG2−TSデータの音声データは、MPEG1 Audio レイヤII−ESデータ形式で抽出する
ことを特徴とするMPEG2データのインサート編集システム。
The MPEG2 data insert editing system according to claim 2,
The MPEG2 data insert editing system, wherein the extracting means extracts the audio data of the MPEG2-TS data in an MPEG1 Audio layer II-ES data format.
JP9106199A 1999-03-31 1999-03-31 MPEG2 data insert editing method and system Expired - Lifetime JP3552945B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9106199A JP3552945B2 (en) 1999-03-31 1999-03-31 MPEG2 data insert editing method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9106199A JP3552945B2 (en) 1999-03-31 1999-03-31 MPEG2 data insert editing method and system

Publications (2)

Publication Number Publication Date
JP2000287178A JP2000287178A (en) 2000-10-13
JP3552945B2 true JP3552945B2 (en) 2004-08-11

Family

ID=14015999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9106199A Expired - Lifetime JP3552945B2 (en) 1999-03-31 1999-03-31 MPEG2 data insert editing method and system

Country Status (1)

Country Link
JP (1) JP3552945B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8532468B2 (en) 2005-03-18 2013-09-10 Fujitsu Limited Moving image data editing apparatus, moving image data reproducing apparatus, moving image data editing method, and moving image data reproducing method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2224790B1 (en) 2000-07-17 2013-01-02 UDC Ireland Limited Light emitting element and azole compound
US9883213B2 (en) 2014-02-10 2018-01-30 Dolby International Ab Embedding encoded audio into transport stream for perfect splicing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8532468B2 (en) 2005-03-18 2013-09-10 Fujitsu Limited Moving image data editing apparatus, moving image data reproducing apparatus, moving image data editing method, and moving image data reproducing method

Also Published As

Publication number Publication date
JP2000287178A (en) 2000-10-13

Similar Documents

Publication Publication Date Title
US6339760B1 (en) Method and system for synchronization of decoded audio and video by adding dummy data to compressed audio data
KR100750520B1 (en) Apparatus and method for generating encoded streams, data transmission system and method, editing system and method
CN1829333B (en) Method for generating information signal to be recorded
US8676038B2 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JP2001036844A (en) Image quality confirming device, image quality confirming method and recording medium storing its program
JP2002501702A (en) Video and audio signal processing
JP2000165802A (en) Stream editing device and editing method
US6754273B1 (en) Method for compressing an audio-visual signal
JP2000152234A (en) Processor and method for data processing, and data processing system
JP2002521882A (en) Device for separating and multiplexing encoded data
JP3552945B2 (en) MPEG2 data insert editing method and system
JPH1118051A (en) I frame extraction method
JP2000078531A (en) Audio data editing method and editing system
US20050069289A1 (en) Transport stream recording/editing device and recording/editing method
US9113150B2 (en) System and method for recording collaborative information
JP2000278643A (en) Data conversion device
JP2000165803A (en) Video signal recording and reproducing device
KR100240331B1 (en) Apparatus for synchronizing a video and an audio signals for a decoder system
JP4154799B2 (en) Compressed video editing apparatus and storage medium
JP3944845B2 (en) Information processing apparatus and method, recording medium, and program
JP3749216B2 (en) Digital video / audio recording device
JP4764707B2 (en) Program unit separation device and program unit separation program
JP4725675B2 (en) Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program
JPH04107084A (en) Picture compressing device
JPH08329605A (en) Method and device for processing digital audio signal and recording/reproducing device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040427

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160514

Year of fee payment: 12

EXPY Cancellation because of completion of term