Nothing Special   »   [go: up one dir, main page]

JP3748245B2 - MPEG data recording device - Google Patents

MPEG data recording device Download PDF

Info

Publication number
JP3748245B2
JP3748245B2 JP2002189976A JP2002189976A JP3748245B2 JP 3748245 B2 JP3748245 B2 JP 3748245B2 JP 2002189976 A JP2002189976 A JP 2002189976A JP 2002189976 A JP2002189976 A JP 2002189976A JP 3748245 B2 JP3748245 B2 JP 3748245B2
Authority
JP
Japan
Prior art keywords
image data
mpeg
section
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002189976A
Other languages
Japanese (ja)
Other versions
JP2003092734A (en
Inventor
隆幸 菅原
俊夫 黒岩
渉 猪羽
健二朗 上田
誠司 日暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2002189976A priority Critical patent/JP3748245B2/en
Publication of JP2003092734A publication Critical patent/JP2003092734A/en
Application granted granted Critical
Publication of JP3748245B2 publication Critical patent/JP3748245B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、MPEG符号化方式で符号化された画像データである第1及び第2の2つのMPEG画像データを、それぞれのMPEG画像データにおける指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生させる際に、シームレスな再生を実現させるためのMPEGデータ記録装置に関するものである。
【0002】
【従来の技術】
本特許において使用する従来技術であるMPEGについて簡単に説明する。
【0003】
MPEGについてはISO-IEC11172-2、ITU-T H.262 / ISO-IEC13818-2に詳細な説明がなされているので、ここでは概略のみ説明する。MPEGは1988年、ISO/IEC JTC1/SC2(国際標準化機構/国際電気標準化会合同技術委員会1/専門部会2、現在のSC29)に設立された動画像符号化標準を検討する組織の名称(Moving Pictures Expert Group)の略称である。MPEG1(MPEGフェーズ1)は1.5Mbps程度の蓄積メディアを対象とした標準で、静止画符号化を目的としたJPEGと、ISDNのテレビ会議やテレビ電話の低転送レート用の動画像圧縮を目的としたH.261(CCITT SGXV、現在のITU-T SG15で標準化)の基本的な技術を受け継ぎ、蓄積メディア用に新しい技術を導入したものである。これらは1993年8月、ISO/IEC 11172 として成立している。
【0004】
MPEG1は幾つかの技術を組み合わせて作成されている。図5にMPEG符号化方式による符号化を行う従来のMPEG符号化器を示し、以下に簡単に説明する。入力画像は動き補償予測器1で復号化した画像と、入力画像の差分とを差分器2で取ることで時間冗長部分を削減する。
【0005】
予測の方向は、過去、未来、両方からの3モード存在する。またこれらは16画素×16画素のMB(Macroblock)ごとに切り替えて使用できる。予測方向は入力画像に与えられたPicture Typeによって決定される。過去からの予測により符号化するモードと、予測をしないでそのMBを独立で符号化するモードとの2モード存在するのが片方向画像間予測符号化画像(P-picture)である。また未来からの予測により符号化するモード、過去からの予測により符号化するモード、両方からの予測により符号化するモード、独立で符号化するモードの4モード存在するのが双方向画像間予測符号化画像(B-picture)である。そして全てのMBが独立で符号化するのが画像内独立符号化画像(I-picture)である。
【0006】
動き補償は、動き領域をMBごとにパターンマッチングを行ってハーフペル精度で動きベクトルを検出し、動き分だけシフトしてから予測する。動きベクトルは水平方向と垂直方向が存在し、何処からの予測かを示すMC(Motion Compensation)モードとともにMBの付加情報として伝送される。
【0007】
一般的には、Iピクチャから次のIピクチャの前のピクチャまでをGOP(Group Of Picture)といい、蓄積メディアなどで使用される場合には、一般に約15ピクチャ程度が一つのGOP区間として使用される。(但し、1GOP区間内に2つ以上のIピクチャを含んでもよい。要するに1GOP区間内に1つ以上のIピクチャを含めばよい。)
差分画像はDCT器3において直交変換が行われる。DCT(Discrete Cosine Transform)とは、余弦関数を積分核とした積分変換を有限空間への離散変換する直交変換である。MPEGではMBを4分割し8×8のDCTブロックに対して、2次元DCTを行う。一般にビデオ信号は低域成分が多く高域成分が少ないため、DCTを行うと係数が低域に集中する。
【0008】
DCTされた画像データ(DCT係数)は量子化器4で量子化が行われる。量子化は量子化マトリックスという8×8の2次元周波数を視覚特性で重み付けした値と、その全体をスカラー倍する量子化スケールという値で乗算した値を量子化値として、DCT係数をその量子化値で叙算する。MPEG復号化器(デコーダー)で逆量子化するときは量子化値で乗算することにより、元のDCT係数に近似している値を得ることになる。
【0009】
量子化されたデータはVLC器5で可変長符号化される。量子化された値のうち直流(DC)成分は予測符号化のひとつであるDPCM(differential pulse code modulation )を使用する。また交流(AC)成分は 低域から高域にzigzag scanを行い、ゼロのラン長および有効係数値を1つの事象とし、出現確率の高いものから符号長の短い符号を割り当てていくハフマン符号化が行われる。
【0010】
可変長符号化されたデータは一時バッファ6に蓄えられ、所定の転送レートで符号化データとして出力される。また、その出力されるデータのマクロブロック毎の発生符号量は、符号量制御器21に送信され、目標符号量に対する発生符号量との誤差符号量を量子化器4にフィードバックして量子化スケールを調整することで符号量制御される。
【0011】
量子化された画像データは逆量子化器7にて逆量子化、逆DCT器8にて逆DCTされ、加算器9を介して一時、画像メモリー10に蓄えられたのち、動き補償予測器1において、差分画像を計算するためのリファレンスの復号化画像として使用される。
【0012】
このようにしてMPEG符号化された符号化データを復号化するMPEG復号化器(デコーダー)を図6に示す。
【0013】
入来する符号化データ(ストリーム)はバッファ11でバッファリングされ、バッファ11からのデータはVLD器12に入力される。VLD器12では可変長復号化を行い、直流(DC)成分および交流(AC)成分を得る。交流(AC)成分データは低域から高域にzigzag scanの順で8x8のマトリックスに配置される。このデータは逆量子化器13に入力され、量子化マトリックスにて逆量子化される。逆量子化されたデータは逆DCT器14に入力されて逆DCTされ、画像データ(復号化データ)として出力される。また、復号化データは一時、画像メモリー16に蓄えられたのち、動き補償予測器17において、差分画像を計算するためのリファレンスの復号化画像として使用される。
【0014】
また、符号化ビットストリームはビデオの場合1ピクチャーごとに可変長の符号量をもっている。これはMPEGがDCT、量子化、ハフマン符号化という情報変換を用いている理由と同時に、画質向上のためにピクチャーごとに配分する符号量は適応的に変更する必要性があり、動き補償予測を行っているので、あるときは入力画像そのままを符号化し、あるときは予測画像の差分である差分画像を符号化するなど符号化画像自体のエントロピーも大きく変化するためである。
【0015】
この場合、多くはその画像のエントロピー比率に配分しつつ、バッファの制限を守りながら符号量制御される。バッファ管理器は発生した符号量と符号化レートの関係を監視し、所定のバッファ内に収まるように目標符号量を設定する。この値は可変長符号化器にフィードバックされ、符号量制御器に入り、そこで量子化器にセットする量子化値を大きくして発生符号量を抑えたり、量子化値を小さくして発生符号量を小さくしたりする。
【0016】
このような可変長データを固定の転送レート(符号化レート)で符号化する場合、復号器の最大バッファ量を上限値とすると、一定速度でデータが入力されて、所定の値だけ溜まったとことから、所定の時刻(NTSCのビデオ信号なら1/29.97 sec単位)で復号化を一瞬で行うモデルを使用し、そのバッファがオーバーフローもアンダーフローも発生しないように符号化することがMPEGで規定されている。この規定(VBVバッファ規定)を守っていればVBVバッファ内でのレートは局部的に変化しているものの、観測時間を長く取れば固定の転送レートとなり、MPEGではこのことを固定レートであると定義している。
【0017】
固定転送レートの場合、発生符号量の少ない場合にはバッファ占有量は、上限値に張り付いた状態になる。この場合、無効ビットを追加してオーバーフローしないように符号量を増やさなければならない。
【0018】
可変転送レートの場合にはこの固定転送レートの定義を拡張して、バッファー占有率が上限値になった場合、復号器の読み出しを中止することにより、原理的にオーバーフローが起きないように定義されている。こうしたバッファ推移を図7に示す。仮に非常に発生符号量が少なくても、復号器の読み出しが中止されるので、固定転送レートの時のように無効ビットをいれる必要はない。従って、アンダーフローだけが発生しないように符号化する。
【0019】
MPEGシステムはMPEGビデオ及びオーディオなどで符号化されビットストリームを、1個のビットストリームに多重化し、同期を確保しながら再生する方式を規定したものである。システムで規定されている内容は大きく分けて次の5点である。
1)複数の符号化されたビットストリームの同期再生
2)複数の符号化されたビットストリームの単一ビットストリームへの多重化
3)再生開始時のバッファの初期化
4)連続的なバッファの管理
5)復号や再生などの時刻の確定
MPEGシステムで多重化を行うには情報をパケット化する必要がある。パケットによる多重化とは、例えばビデオ、オーディオを多重化する場合、各々をパケットと呼ばれる適当な長さのストリームに分割し、ヘッダなどの付加情報を付けて、適宜、ビデオ、オーディオのパケットを切り替えて時分割伝送する方式である。ヘッダにはビデオ、オーディオなどを識別する情報や、同期の為の時間情報が存在する。パケット長は伝送媒体やアプリケーションに依存し、ATMのように53バイトから、光ディスクのように4Kバイトと長いものまで存在している。MPEGでは、パケット長は可変で任意に指定できるようになっている。
【0020】
データはパック、パケット化され、1パックは数パケットで構成されている。各Pパックの先頭部分にはpack start codeやSCR(System Clock Referance) 、パケットの先頭部分にはstream idやタイムスタンプが記述されている。タイムスタンプにはオーディオ、ビデオなどの同期をとる時間情報が記述されており、DTS(Decoding Time Stamp)、PTS(Presentation Time Stamp) の2種類が存在する。PCR(Program Clock Reference)は27MHzの時間精度で記述されており、decoderの基準時計をロックする情報である。DTSはそのパケットデータ内の最初のアクセスユニット(ビデオなら1ピクチャ、オーディオなら例えば1152サンプル)のデコード開始時刻を、PTSは表示(再生)開始時刻を示している。図11に示すように、オーディオ、ビデオ、その他のデコーダーは、PCRでロックした共通の基準時計を常に監視し、DTSやPTSの時間と一致したときに、デコードや表示を行うしくみになっている。多重化されたデータが各デコーダでバッファリングされ、同期した表示を行うための仮想的なデコーダをSTD(System Target Decoder)とよび、このSTDがオーバーフローやアンダーフローを起こさないようにな多重化されていなければならない。
【0021】
また、MPEGシステムには、大きく分けてTS ( Transport Stream)とPS ( Program Stream )が存在する。これらはPES(Packetized Elementary Stream)、およびその他の必要な情報を含むパケットから構成されている。PESは両ストリーム間の変換を可能とするための中間ストリームとして規定されていて、MPEGで符号化されたビデオ、オーディオデータの他、プライベートストリームなどをパケット化したものである。
【0022】
PSは共通の基準時間を有するプログラムのビデオ、オーディオの多重化をすることが可能である。パケットレイヤはPESとよばれ、この構造は図12に示すように、後述するTSと共用して用いられ、これらの相互互換性を可能とする。PSのSTDモデルでは、ストリームはPES パケット内の stream id によってスイッチされる。
【0023】
TSもPSと同じように共通の基準時間を有するプログラムのビデオ、オーディオの多重化をすることが可能であるが、TSはさらに異なる基準時間を有する通信や放送などのマルチプログラムの多重化を可能としている。 TSはATMセル長や誤り訂正符号化する場合を考慮し、188バイトの固定長パケットで構成されており、エラーが存在する系でも使用できるように考慮されている。TS パケット自体の構造はそれほど複雑ではないがマルチプログラムのストリームであるため、その運用は複雑である。PSと比べて特徴的なのはTS パケットが上位構造であるにも関わらず、PES パケット より(通常は)短く、PES パケット を分割してTS パケット に乗せて伝送する点である。TSのSTDモデルでは、ストリームはTS パケット内のPID(パケット ID)によってスイッチされる。
【0024】
MPEGシステムのTSにはその多重化されている番組の情報に関するパケットがどのPIDであるのかを指示する仕組みがある。それを図13で説明する。まずTSパケット群の中からPID=0のものを探す。それはPAT (Program Association Table)と呼ばれる情報パケットで、そのパケットの中にはPROGRAMナンバーPRに対応する情報PIDがリンクされた形で記述されている。次に目的のPRに対応するPIDのパケットを読みに行くとPMT(Program Map Table)と呼ばれる情報パケットがあり、そのパケットの中にはそのPRに対応する番組のビデオパケットのPIDと、オーディオパケットのPIDの情報が記述されている。
【0025】
PATとPMTのことをPSI(Program Specific Information)と呼び、目的の番組のチャンネルにアクセス(エントリー)することが可能な情報体系になっている。
【0026】
また、従来、特開平11−74799の発明によれば、記録媒体に記録されたMPEGデータなどの圧縮データを編集する場合、MPEGデータの連続性を保つため、その編集点ではVBVバッファをつねに固定になるよう発生符号量を制御したり、GOPをクローズドGOPとして符号化するなど、連続性を考慮した符号化をおこなう方法が記載されている。
【0027】
また、特開平11−187354の発明のよれば、符号化データにはなんの制約も施さずに、そのデータの部分区間のうち、編集素材として抜粋されたデータを指示する情報とその再生順番に関する情報を記述し、記録されたデータは変更せずに、単一記録媒体に映像編集を実現できる方法が記載されている。
【0028】
【発明が解決しようとする課題】
しかしながら上記の従来の方式では、MPEG画像データは単純につなぐとVBVバッファの接続に矛盾が生じ、オーバーフローやアンダーフローがおきてしまった。
【0029】
特開平11−74799の発明においては、どこで編集されても良いように、各GOPに対してVBVバッファが常に固定になるよう発生符号量を制御したり、GOPをクローズドGOPとして符号化するなど、連続性を考慮した符号化制約を施すことになり、符号化効率の面では不利な要因になっていた。
【0030】
また、特開平11−187354の発明においては、あたかも編集したように再生表示はされるが、その編集点での連続性は不完全で、MPEGデータのデコーダーバッファの初期化などの一時的な静止現象がおこる可能性があった。
【0031】
本発明は、第1及び第2の2つのMPEG画像データを(または、第1のMPEG画像データを要素符号化データとして含むパケット多重化された第1のMPEG多重化データと、第2のMPEG画像データを要素符号化データとして含むパケット多重化された第2のMPEG多重化データとを)、それぞれの指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生させる際に(前記第1のMPEG多重化データから前記第2のMPEG多重化データへ繋げて再生させる際に)、VBVバッファの接続にオーバーフローやアンダーフローの矛盾が生じることなく、シームレスで高品位な再生を実現させることができるMPEGデータ記録装置を提供することを目的としている。
【0032】
【課題を解決するための手段】
そこで、上記課題を解決するために本発明は、以下の記録装置を提供するものである。
(1) MPEG符号化方式で符号化されて同一の記録媒体に記録された画像データである第1及び第2の2つのMPEG画像データを、それぞれのMPEG画像データにおける指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生させるためのデータとして、前記MPEG符号化方式で符号化された第3の繋ぎ区間再符号化データを生成して記録させる記録手段を設けたMPEGデータ記録装置であって、
前記記録手段は、
前記第1のMPEG画像データにおける前記繋ぎ指定位置から第1の所定時間分前の位置を開始位置とし、前記第1のMPEG画像データにおける前記繋ぎ指定位置を終了位置とする区間を第1の繋ぎ区間とすると共に、前記第2のMPEG画像データにおける前記繋ぎ指定位置を開始位置とし、前記第2のMPEG画像データにおける前記繋ぎ指定位置から第2の所定時間分後の位置を終了位置とする区間を第2の繋ぎ区間とし、前記第1の繋ぎ区間と前記第2の繋ぎ区間とを合わせた区間を第3の繋ぎ区間として、
前記第1の繋ぎ区間の前記第1のMPEG画像データを復号して得た画像データである第1の繋ぎ区間復号画像データと、前記第2の繋ぎ区間の前記第2のMPEG画像データを復号して得た画像データである第2の繋ぎ区間復号画像データとよりなる第3の繋ぎ区間復号画像データを、前記MPEG符号化方式で再符号化して前記第3の繋ぎ区間再符号化データを生成する再符号化手段を備え、前記第3の繋ぎ区間再符号化データを前記同一の記録媒体の前記第1及び第2の2つの MPEG 画像データの記録されている各領域と異なる領域に記録させるものであり、
前記再符号化手段は、前記再符号化時において、VBVバッファ占有値に関する情報値の推移が、前記第1の繋ぎ区間の開始位置に対応する位置における前記第1のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値から開始されて、前記第2の繋ぎ区間の終了位置に対応する位置における前記第2のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値までで終了するように符号量制御を行い再符号化を行うものである、
ことを特徴とするMPEGデータ記録装置。
【0033】
【発明の実施の形態】
まず、本発明で実現可能とする繋ぎ再生の概念を説明する。図8のように第MPEG符号化方式で符号化された画像データである1のMPEG画像データと同じく第2のMPEG画像データが存在する場合の、第1のMPEG画像データの途中(指定された繋ぎ指定位置)から第2のMPEG画像データを繋げて再生することを考える。接続点(第1のMPEG画像データにおける繋ぎ指定位置)がbの位置と仮定すると、第1のMPEG画像データのbの位置まで再生を行い、そのあと第2のMPEG画像データへ接続してデータを再生することになるが、MPEG画像データは単純につなぐとVBVバッファの接続に矛盾が生じ、オーバーフローやアンダーフローがおきてしまうという問題が生じる。
【0034】
そこで、まず、第1のMPEG画像データと第2のMPEG画像データとのMPEG符号化方式での符号化時における、VBVバッファの情報を所定区間単位(第1のMPEG画像データでは第1の所定区間単位、第2のMPEG画像データでは第2の所定区間単位)でサイド情報として生成して記録媒体に記述しておくようにする。
【0035】
なお、このサイド情報にVBVバッファの情報を記述しないで繋ぎ再生を実現することも可能である。この場合には2つの方法が考えられるが、それについては後述する。
【0036】
第1のMPEG画像データに関するVBVバッファの情報は、第1のMPEG画像データの第1の所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時点でのVBVバッファ占有値に関する情報値を示す第1のVBVバッファ占有値関連情報と、VBVバッファ占有値に関する情報値が第1のMPEG画像データのどの位置におけるVBVバッファ占有値に関する情報値であるかを示す第1のアドレス情報とである。
【0037】
第2のMPEG画像データに関するVBVバッファの情報は、第2のMPEG画像データの第2の所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時点でのVBVバッファ占有値に関する情報値を示す第2のVBVバッファ占有値関連情報と、VBVバッファ占有値に関する情報値が前記第2のMPEG画像データのどの位置におけるVBVバッファ占有値に関する情報値であるかを示す第2のアドレス情報とである。
【0038】
VBVバッファ占有値に関する情報値とは、例えばMPEGで規定されているVBVバッファ占有値またはVBV delay値である。
【0039】
前記第1及び第2の所定区間の1単位は後述するように例えば3フレーム程度のものでも、1GOP程度でもよい。仮にその所定区間単位を、第1のMPEG画像データにおいては図8のa-b間、第2のMPEG画像データにおいては図8のc-d間とする。
【0040】
前記VBVバッファの情報リストには、aの位置(前記第1のMPEG画像データにおける前記繋ぎ指定位置から第1の所定時間分前の前記第1の所定区間の境界:即ち後述する区間Aの開始位置)でのVBVバッファの情報と、bの位置(第1のMPEG画像データにおける前記繋ぎ指定位置:即ち後述する区間Aの終了位置)でのVBVバッファの情報が記述されている。また、第2のMPEG画像データのcの位置(第2のMPEG画像データにおける前記繋ぎ指定位置から第2の所定時間分前の前記第2の所定区間の境界位置)でのVBVバッファの情報と、接続点dの位置(第2のMPEG画像データにおける前記繋ぎ指定位置:この例の場合は第2の所定区間の境界位置)でのVBVバッファの情報も存在する。
【0041】
そこで、第1のMPEG画像データのa-b区間(第1の繋ぎ区間:ここでは区間Aとする)のデータを、一旦、復号化して復号画像データを得、その復号画像データ(第1の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化を行う。それによって作成された再符号化データを区間Aの再符号化MPEG画像データ(第1の繋ぎ区間再符号化データ)と呼ぶこととする。この再符号化は、VBVバッファ占有値に関する情報値の推移が、aの位置での前記検出した第1のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値から開始されて、dの位置での前記検出した第2のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値までで終了するようにレートコントロールを行ってMPEG符号化方式で再符号化を行う。
【0042】
従来の繋ぎ再生動作である、第1のMPEG画像データのbの位置まで再生を行い、そのあと第2のMPEG画像データのdの位置へ接続してデータを再生する、という動作を、区間Aの再符号化MPEG画像データを用いて次のような動作とする。即ち、第1のMPEG画像データのaの位置(区間Aの開始位置)までは第1のMPEG画像データの再生を行い、そのあと前記区間Aの再符号化MPEG画像データをその区間の開始位置から終了位置まで再生し、その後、第2のMPEG画像データのdの位置(繋ぎ指定位置)へ接続してd以降の第2のMPEG画像データのデータを再生する、という動作にする。再生装置側にこの動作を行う繋ぎ再生手段を設けて実現させる。
【0043】
この繋ぎ再生動作とすることで、元の第1及び第2のMPEG画像データと同じコンテンツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生を実現することが可能となる。
【0044】
なお、図8に示した、第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合には、接続点dの位置(第2のMPEG画像データにおける繋ぎ指定位置)のVBVバッファの情報が必要となる。前述したようにVBVバッファの情報は、MPEG画像データの所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時点での情報であるので、所定区間の境界の位置での情報となる。従って、接続点の位置(繋ぎ指定位置)は、少なくとも第2のMPEG画像データにおいては第2の所定区間の境界として指定される必要がある。(即ち、第2のMPEG画像データにおける接続点dの位置は第2の所定区間の境界として指定される必要がある。)
また、第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合には、前述したように図8に示したaの位置(繋ぎ区間Aの開始位置)のVBVバッファの情報も必要となる。しかし、aの位置は、第1のMPEG画像データにおける接続点(繋ぎ指定位置)bから第1の所定時間分前の第1の所定区間の境界として指定されるので、接続点bの位置に関わらずaの位置ではVBVバッファの情報がえられる。よって、第1のMPEG画像データにおける接続点bの位置は、必ずしも第1の所定区間の境界として指定される必要はない。
【0045】
次に、その応用例を図9(2),(3)に示す。同図(1)は図8に示した例と同様のものである。図8に示した例では、第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得て繋ぎ再生を実現したが、第2のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得て繋ぎ再生を実現することも可能である。その例が図9(2)に示したものであり、第2のMPEG画像データにおける繋ぎ区間Bの再符号化MPEG画像データを用いるものである。
【0046】
図9(2)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をiの位置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をkの位置とする。前述したVBVバッファの情報を有する単位である第1及び第2の所定区間の1単位を、第1のMPEG画像データにおいてはi-j間、第2のMPEG画像データにおいてはk-l間とする。lの位置は第2のMPEG画像データにおける接続点(繋ぎ指定位置)kから第2の所定時間分後の第2の所定区間の境界位置となる。接続点kを開始位置としlの位置を終了位置とする区間を繋ぎ区間B(第2の繋ぎ区間)とする。
【0047】
第2のMPEG画像データのを繋ぎ区間B(k-l区間)のデータを、一旦、復号化して、復号画像データを得、その復号画像データ(第2の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化を行う。それによって作成された再符号化データを繋ぎ区間Bの再符号化MPEG画像データ(第2の繋ぎ区間再符号化データ)と呼ぶこととする。この再符号化は、VBVバッファ占有値に関する情報値の推移が、iの位置での第1のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値から開始されて、lの位置での第2のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値までで終了するようにレートコントロールを行ってMPEG符号化方式で再符号化を行う。
【0048】
そして、繋ぎ区間Bの再符号化MPEG画像データを用いて、第1のMPEG画像データから第2のMPEG画像データへの繋ぎ再生を行う。すなわち、第1のMPEG画像データの接続点i(繋ぎ指定位置)までは第1のMPEG画像データの再生を行い、そのあと前記区間Bの再符号化MPEG画像データをその区間の開始位置から終了位置まで再生し、その後、第2のMPEG画像データのlの位置(繋ぎ区間Bの終了位置)へ接続してlの位置以降の第2のMPEG画像データのデータを再生する、という動作にする。再生装置側にこの動作を行う繋ぎ再生手段を設けて実現させる。
【0049】
この繋ぎ再生動作とすることで、元の第1及び第2のMPEG画像データと同じコンテンツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生を実現することが可能となる。
【0050】
なお、図9(2)に示した、第2のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合には、接続点iの位置(第1のMPEG画像データにおける繋ぎ指定位置)のVBVバッファの情報が必要となる。前述したようにVBVバッファの情報は、MPEG画像データの所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時点での情報であるので、所定区間の境界の位置での情報となる。従って、接続点の位置(繋ぎ指定位置)は、少なくとも第1のMPEG画像データにおいては第1の所定区間の境界として指定される必要がある。(即ち、第1のMPEG画像データにおける接続点iの位置は第1の所定区間の境界として指定される必要がある。)
また、第2のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合には、前述のように図9(2)に示した、lの位置(繋ぎ区間Bの終了位置)のVBVバッファの情報も必要となる。しかし、lの位置は、第2のMPEG画像データにおける接続点(繋ぎ指定位置)kから第2の所定時間分後の第2の所定区間の境界として指定されるので、接続点kの位置に関わらずlの位置ではVBVバッファの情報が得られる。よって、第2のMPEG画像データにおける接続点kの位置は、必ずしも第2の所定区間の境界として指定される必要はない。
【0051】
次に、図9(3)に示す応用例について説明する。この例では、接続点前後の第1及び第2のMPEG画像データを元に繋ぎ区間の再符号化MPEG画像データを得て繋ぎ再生を実現すさせるものである。
【0052】
図9(3)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をnの位置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をpの位置とする。前述したVBVバッファの情報を有する単位である第1及び第2の所定区間の1単位を、第1のMPEG画像データにおいてはm-n間、第2のMPEG画像データにおいてはp-q間とする。
【0053】
mの位置は第1のMPEG画像データにおける接続点(繋ぎ指定位置)nから第1の所定時間分前の第1の所定区間の境界位置となる。mの位置を開始位置とし接続点nの位置を終了位置とする区間を繋ぎ区間A(第1の繋ぎ区間)とする。qの位置は第2のMPEG画像データにおける接続点(繋ぎ指定位置)pから第2の所定時間分後の第2の所定区間の境界位置となる。接続点pを開始位置としqの位置を終了位置とする区間を繋ぎ区間B(第2の繋ぎ区間)とする。
【0054】
第1のMPEG画像データの繋ぎ区間A(m-n区間)のデータを、一旦、復号化して復号画像データ(繋ぎ区間A復号画像データ:第1の繋ぎ区間復号画像データ)をえる。また、第2のMPEG画像データのを繋ぎ区間B(p-q区間)のデータを、一旦、復号化して、復号画像データ(繋ぎ区間B復号画像データ:第2の繋ぎ区間復号画像データ)を得る。
【0055】
繋ぎ区間A復号画像データと繋ぎ区間B復号画像データとを合わせた繋ぎ区間A+B復号画像データ(第3の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化を行う。それによって作成された再符号化データを繋ぎ区間A+Bの再符号化MPEG画像データ(第3の繋ぎ区間再符号化データ)と呼ぶこととする。この再符号化は、VBVバッファ占有値に関する情報値の推移が、mの位置での第1のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値から開始されて、qの位置での第2のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値までで終了するようにレートコントロールを行ってMPEG符号化方式で再符号化を行う。
【0056】
そして、繋ぎ区間A+Bの再符号化MPEG画像データを用いて、第1のMPEG画像データから第2のMPEG画像データへの繋ぎ再生を行う。すなわち、第1のMPEG画像データの繋ぎ区間Aの開始位置mまでは第1のMPEG画像データの再生を行い、そのあと前記繋ぎ区間A+Bの再符号化MPEG画像データをその区間の開始位置から終了位置まで再生し、その後、第2のMPEG画像データの繋ぎ区間Bの終了位置qへ接続してqの位置以降の第2のMPEG画像データのデータを再生する、という動作にする。再生装置側にこの動作を行う繋ぎ再生手段を設けて実現させる。
【0057】
この繋ぎ再生動作とすることで、元の第1及び第2のMPEG画像データと同じコンテンツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生を実現することが可能となる。
【0058】
なお、図9(3)に示した例では、前述したようにmの位置(繋ぎ区間Aの開始位置)のVBVバッファの情報が必要となる。mの位置は、第1のMPEG画像データにおける接続点(繋ぎ指定位置)nから第1の所定時間分前の第1の所定区間の境界として指定されるので、接続点nの位置に関わらずmの位置ではVBVバッファの情報が得られる。よって、第1のMPEG画像データにおける接続点nの位置は、必ずしも第1の所定区間の境界として指定される必要はない。
【0059】
また、前述のように図9(3)に示した、qの位置(繋ぎ区間Bの終了位置)のVBVバッファの情報も必要となる。qの位置は、第2のMPEG画像データにおける接続点(繋ぎ指定位置)pから第2の所定時間分後の第2の所定区間の境界として指定されるので、接続点pの位置に関わらずqの位置ではVBVバッファの情報が得られる。よって、第2のMPEG画像データにおける接続点pの位置も、必ずしも第2の所定区間の境界として指定される必要はない。
【0060】
このように、図9(1)〜(3)に示した方法は、いずれもシームレスで高品位な繋ぎ再生を実現させることができる
これらの発展系としては、図10に示すように、第1のMPEG画像データと、第2のMPEG画像データや、第3、第4のMPEG画像データを、図のように途中分岐するような繋ぎ再生を実現させることも可能となる。このように、本発明を用いれば、元のMPEG画像データそのものを加工することなく、繋ぎ区間の再符号化MPEG画像データを生成し利用するだけで、他のMPEGデータに自由につなげることができるので、さまざまな分岐ストーリーを構成するプログラムを符号化する際にも、分岐ストーリー毎にそのストーリーの全体にわたる冗長なMPEG画像データを記録することなく、メディアを効率よく使用することが可能となる。(本発明を用いれば、第1〜第4のMPEG画像データそれぞれ一組と、分岐ストーリー毎の繋ぎ区間の再符号化MPEG画像データとを用意しておけばよい。)
また、図9(3)に示す方法を用いれば、前述したように、第1のMPEG画像データにおける接続点の位置は、必ずしも第1の所定区間の境界として指定される必要がなく、第2のMPEG画像データにおける接続点の位置も、必ずしも第2の所定区間の境界として指定される必要がないので、VBVバッファの情報を所定区間単位でサイド情報として記述しておく所定区間単位よりも細かい精度、例えば1フレーム単位で編集する場合に適用できる。この例を図15と共に説明する。所定単位は3フレーム程度のものでも、1GOP程度でもよいが、ここでは1GOPとする。
【0061】
図15のように繋げる対象の2つのMPEGストリームが存在するとする。第1のMPEGストリームに矢印で示してあるgとhの地点では、前記VBVバッファの情報リストにgの位置でのVBVバッファの情報と、hの位置でのVBVバッファの情報が記述されている。また、第2のMPEG画像データにもiの位置のVBVバッファの情報とjの位置のVBVバッファの情報も存在する。
【0062】
第1のMEPGストリーム1のpの位置から、第2のMPEGストリームの先頭へ繋ぐ場合、第1のMPEGストリームのgからpまでの区間Aのデータを復号し、さらに、第2のMPEGストリームのiからjの区間Bのデータを復号し、両方の画像をバッファ推移がgの位置のバッファ占有値から始まってjの位置のバッファ占有値になるように再符号化を行う。
【0063】
それによって作成されたデータを区間A+Bの再符号化MPEG画像データを呼ぶとすると、従来の再生動作である、第1のMPEG画像データのpの位置まで再生を行い、そのあと第2のMPEG画像データへ接続してデータを再生する、という動作は、第1のMPEG画像データのgの位置まで再生を行い、そのあと前記区間A+Bの再符号化MPEG画像データを再生し、その後、第2のMPEG画像データのjへ接続してデータを再生する、という動作にすることで、同じコンテンツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生をすることができる。
【0064】
次に、サイド情報としてVBVバッファの情報を記述しないで上述した各例と同様な繋ぎ再生を実現する2つの方法について説明する。(繋ぎ区間再符号化データを生成する際に必要となる、VBVバッファ占有値に関する情報値の算出方法について説明する。)
まず、第1の方法について説明する。MPEG規格において、基本的にCBR(constant bit rate)、即ち、固定転送レートの場合には、MPEGビデオのピクチャーレイヤにVBVバッファのバッファ占有率を示す、VBV delay値が規定されている。この場合にはVBV delay値がピクチャー単位に記述されているので、MPEG画像ビットストリームをピクチャーヘッダーのみだけでも観測することで、MPEG画像データの所定位置に対応するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値を検出することができる。この場合、例えば後述する図4におけるVBVバッファ情報検出器33の機能は、ビットストリームのピクチャーヘッダー(MPEGでは0x00000100という4バイトのコード)をサーチして、そのあとの、10ビットのtemparal reference10ビット、picture coding type3ビットのあとに続く、VBV delay16ビットを検出することで実現できる。VBV delay値とは
VBV delay = 90000 x B / R
B:バッファ占有値 R:ビットレート
で定義されたものであるから、固定レートの場合には、このビットレートを用いてVBV delay値からVBVバッファ占有値も計算で求めることができる。(例えば図4に示すVBVバッファ情報検出器33で計算する。)
MPEGではこのVBV delay値は、図16(2)のように、グラフの頂点の位置でのものに注意しなければならない。
【0065】
次に、第2の方法について説明する。これは、固定転送レートではなく可変転送レートの場合である。MPEG規格では、基本的にVBR(variable bit rate:可変転送レート)の場合、MPEGビデオのピクチャーレイヤにおけるVBVバッファのバッファ占有率を示すVBV delay値はすべて1、(16ビットすべてが1なので0xffff)となる。従って、前記第1の方法は使えない。
【0066】
そこで、MPEG画像ビットストリームを観測することで得られた情報から次のような計算を行う。まず、ビットストリームの一番初めから、VBVバッファをMPEG規定の最大値(たとえばメインプロファイルメインレベルでは1.75Mbit)まで占有したと仮定する。次に、始めのピクチャーの符号量を減算する。次に、可変転送レート符号化におけるピークレートの伝送レート情報を用いて、表示ピクチャー間の時間だけ経過した場合の伝送量を加算し、次のピクチャーの符号量を減算する。このような一連の加算、減算という処理を所定の求めたいビットストリームの位置まで繰り返し行うことで、図3に示すようなグラフをシミュレーションして求めるがごとく、MPEG画像データの所定位置に対応するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値を求めることができる。可変転送レート時のピークレートは、MPEGではシーケンスヘッダーのbit rateというシンタックスの部分に記述することに規定されているので、それを参照すれば得られる。
【0067】
例えば、後述する図4に示すVBVバッファ情報検出器33に上述のMPEG画像ビットストリームを観測機能と計算機能を持たせるようにして実現する。(この第2の方法の場合、そのMPEG画像ビットストリームの先頭から、各ピクチャーの発生符号量を観測して計算しなければならないが、第1の方法と同様に予めサイド情報としてVBVバッファの情報を用意しておく必要がない。)
次に、上記第1及び第2の方法を用いた場合における、繋ぎ区間再符号化データの生成について簡単に説明する。なお、この繋ぎ区間再符号化データを用いた繋ぎ再生動作は、予めサイド情報として記録されているVBVバッファの情報により生成した繋ぎ区間再符号化データを用いた場合と同様であるので、ここでは説明を省略する。
【0068】
図9(1)に示す第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合には、第1のMPEG画像データにおける接続点(繋ぎ指定位置)bから第1の所定時間分前の位置aを開始位置として、第1のMPEG画像データにおける繋ぎ指定位置bを終了位置とする区間を第1の繋ぎ区間(繋ぎ区間A)とする。繋ぎ区間Aの開始位置aの指定に、サイド情報を用いる場合のような第1の所定区間の境界といった制限は不要となる。同様に、第2のMPEG画像データにおける接続点(繋ぎ指定位置)dの指定に、サイド情報を用いる場合のような第2の所定区間の境界といった制限は不要となる。
【0069】
第1のMPEG画像データのa-b区間(繋ぎ区間A)のデータを、一旦、復号化して復号画像データを得、その復号画像データ(第1の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化して、繋ぎ区間Aの再符号化MPEG画像データ(第1の繋ぎ区間再符号化データ)を得る。この再符号化は、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、aの位置に相当するピクチャのMPEG符号化(第1のMPEG画像データ生成時のMPEG符号化)開始時点(または終了時点)でのVBVバッファ占有値から開始される。そして、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、dの位置に相当するピクチャのMPEG符号化(第2のMPEG画像データ生成時のMPEG符号化)開始時点(または終了時点)でのVBVバッファ占有値までで終了するように、レートコントロールを行ってMPEG符号化方式で再符号化される。得られた繋ぎ区間Aの再符号化MPEG画像データ(第1の繋ぎ区間再符号化データ)を記録媒体に記録する。(例えば、後述する図4に示すデータ書き込み部37により記録する。)
次に、図9(2)に示す第2のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合について説明する。図9(2)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をiの位置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をkの位置とする。接続点kを開始位置とし、接続点(繋ぎ指定位置)kから第2の所定時間分後の位置となるlの位置を終了位置とする、第2のMPEG画像データの区間を繋ぎ区間B(第2の繋ぎ区間)とする。繋ぎ区間Bの終了位置lの指定に、サイド情報を用いる場合のような、第2の所定区間の境界といった制限は不要となる。同様に、第1のMPEG画像データにおける接続点(繋ぎ指定位置)iの指定に、サイド情報を用いる場合のような第1の所定区間の境界といった制限は不要となる。
【0070】
第2のMPEG画像データの繋ぎ区間B(k-l区間)のデータを、一旦、復号化して、復号画像データを得、その復号画像データ(第2の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化して、繋ぎ区間Bの再符号化MPEG画像データ(第2の繋ぎ区間再符号化データ)を得る。この再符号化は、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、iの位置に相当するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値から開始される。そして、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、lの位置に相当するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値までで終了するように、レートコントロールを行ってMPEG符号化方式で再符号化が行われる。得られた繋ぎ区間Bの再符号化MPEG画像データ(第2の繋ぎ区間再符号化データ)を記録媒体に記録する。(例えば、後述する図4に示すデータ書き込み部37により記録する。)
次に、図9(3)に示す、接続点前後の第1及び第2のMPEG画像データを元に繋ぎ区間の再符号化MPEG画像データを得る場合について説明する。
【0071】
図9(3)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をnの位置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をpの位置とする。
【0072】
第1のMPEG画像データにおける接続点(繋ぎ指定位置)nから第1の所定時間分前の位置をmとする。mの位置を開始位置とし、接続点nの位置を終了位置とする第1のMPEG画像データの区間を、繋ぎ区間A(第1の繋ぎ区間)とする。第2のMPEG画像データにおける接続点(繋ぎ指定位置)pから第2の所定時間分後の位置をqする。接続点pを開始位置とし、qの位置を終了位置とする第2のMPEG画像データの区間を、繋ぎ区間B(第2の繋ぎ区間)とする。
【0073】
繋ぎ区間Aの開始位置mの指定に、サイド情報を用いる場合のような第1の所定区間の境界といった制限は不要となる。同様に、繋ぎ区間Bの終了位置qの指定に、サイド情報を用いる場合のような第2の所定区間の境界といった制限は不要となる。
【0074】
第1のMPEG画像データの繋ぎ区間A(m-n区間)のデータを、一旦、復号化して復号画像データ(繋ぎ区間A復号画像データ:第1の繋ぎ区間復号画像データ)を得る。また、第2のMPEG画像データの繋ぎ区間B(p-q区間)のデータを、一旦、復号化して、復号画像データ(繋ぎ区間B復号画像データ:第2の繋ぎ区間復号画像データ)を得る。
【0075】
そして、繋ぎ区間A復号画像データと繋ぎ区間B復号画像データとを合わせた繋ぎ区間A+B復号画像データ(第3の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化を行う。それによって作成された再符号化データを繋ぎ区間A+Bの再符号化MPEG画像データ(第3の繋ぎ区間再符号化データ)とする。この再符号化は、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、mの位置に相当するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値から開始される。そして、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、qの位置に相当するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値までで終了するように、レートコントロールを行ってMPEG符号化方式で再符号化される。得られた繋ぎ区間A+Bの再符号化MPEG画像データ(第3の繋ぎ区間再符号化データ)を記録媒体に記録する。(例えば、後述する図4に示すデータ書き込み部37により記録する。)
図10に示す例においても、もちろん、上述の計算方法により必要な位置でのVBVバッファ占有値を求めることが可能であり、所望の繋ぎ区間再符号化データ)を得ることができる。
【0076】
次に、本発明を適用した記録再生装置の一実施例によって記録媒体に記録するVBVバッファ情報(MPEG画像データの所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時点でのVBVバッファ占有値に関する情報値を示すVBVバッファ占有値関連情報と、前記VBVバッファ占有値に関する情報値が前記MPEG画像データのどの位置におけるVBVバッファ占有値に関する情報値であるかを示すアドレス情報)、ならびに、MPEG画像データに関する記録構造について詳しく説明する。記録媒体には、MPEG符号化方式で圧縮された画像データであるMPEG画像データが記録される。このMPEG画像データは、一回の記録単位で符号化生成された連続再生可能なデータが複数連続して連なったビットストリームとして記録される。
【0077】
これらの符号化されたMPEG画像データのビットストリームとは別に、MPEG画像データのビットストリームにおけるIピクチャーの1フレーム前のピクチャー符号化終了時点でのVBVバッファ値(占有値)と、Pピクチャーの1フレーム前のピクチャー符号化終了時点でのVBVバッファ値(占有値)と、前記各VBVバッファ値がMPEG画像データのどの位置におけるVBVバッファ占有値であるかを示すアドレス情報(この例では、MPEG画像データのファイルのはじめからの相対アドレス)が記録される。これらのデータを含むVBVバッファ情報のデータ構造を図1に示す。
【0078】
VBVバッファ情報は階層構造をもっている。始めにエントリーポイント情報構造体があり、その後にVBV情報構造体がある。エントリーポイント情報構造体は、始めにエントリーポイント(EP)のアドレスの個数を32ビット、その後にEPn(nは1以上の自然数)アドレスを32ビットで順に記述する。EPnアドレスはVBV情報構造体のEPn情報(nは1以上の自然数)の記述されている位置を示し、このVBVバッファ情報の先頭からの相対アドレスを記述する。一方VBV情報構造体は、EP1情報から順に記述されており、EP1情報の中身は相対アドレス、PTM値、VBV値を順に記述する。
【0079】
VBV情報構造体のEPn情報における相対アドレスとは、図2のように、MPEG画像データのビットストリームにおけるIピクチャーの1フレーム前のピクチャー符号化終了時点、Pピクチャーの1フレーム前のピクチャー符号化終了時点、及び記録終了時点での、そのMPEG画像データの先頭からの相対アドレスであり、例えば単位はバイトが用いられる。ディスクメディアに記録されている場合には、相対アドレスとしてセクターなどが用いられる。
【0080】
VBV情報構造体のEPn情報におけるPTM値とは、MPEGのシステム規格(多重化規格)において、90kHzもしくは27MHzのクロックで記録されているタイムスタンプである。MPEG規格ではPTS(Presentation Time Stamp)やDTS(Decoding Time Stamp)と呼ばれている。ここでは、MPEG画像データのビットストリームのIピクチャーの1フレーム前のピクチャー符号化終了時点、Pピクチャーの1フレーム前のピクチャー符号化終了時点、及び記録終了時点での、時間情報としてDTSを記録する。DTSは1ピクチャーに1つ記録されており、NTSCのビデオ信号であれば90KHzクロックで1ピクチャにつき3003クロックの間隔で、記録されている。従って、本発明のように3ピクチャーごとにIピクチャかPピクチャが存在している場合で一番初めが0からスタートする場合には、9009、18018....という間隔でPTM情報がEPn情報に記述されることになる。
【0081】
VBV情報構造体のEPn情報におけるVBV値は、MPEGで規定されているデコーダーの仮想バッファ占有値である。MPEG画像データの1ピクチャごとの発生符号量と、転送レートの値から計算で導けるもので、図3のように、圧縮されているビットストリーム情報のIピクチャーとPピクチャーの1フレーム前のピクチャー符号化終了時点での、図の○の位置でのVBV占有値を記述する。もしくはMPEGで規定されているVBV delay値を記述する。この値はVBV占有値まで、そのときの転送レートでどれだけの時間がかかるかという時間に換算した値である。本発明ではVBVバッファ占有値に関する情報であれば何であっても良い。VBVバッファ占有値とVBV delay値の関係を図17に示す。VBVバッファの占有値OCCは、符号化レートをRとすると、VBV delay = 90000 * OCC / Rという関係にあり、90000は90kHzのカウント数で示すための値である。
【0082】
MPEG圧縮では基本的にIBB、PBB、というように3フレーム単位でIかPのピクチャータイプを用いて符号化する。MPEG圧縮はBピクチャーは両方向から予測されている可能性があるので、符号化ビットストリーム順番において、ビットストリームのIピクチャー、Pピクチャーの1フレーム前のピクチャー符号化終了時点でしか、データのつなぎ追加は簡単にはできない。そのため本発明では、VBVの情報をビットストリームのIピクチャー、Pピクチャーの1フレーム前のピクチャー符号化終了時点で記述する形態をもつという仮定で説明している。
【0083】
しかしながら、本質的にはVBV占有値に関する情報値は、毎ピクチャー持っても良い。また、ピクチャー符号化終了時点でなく、符号化開始点でも良い。図16(1)では符号化終了点の値をリストに持つ場合の概念図であるが、この場合には一番初めのVBV占有値に関する情報値が無いため、第1フレームの前に仮想的にフレームがあったとして、その仮想フレームの符号化終了時点のVBV占有値に関する情報値を初期値として計算する。計算は第1のピクチャ符号量を、一番目のVBV占有値に関する情報値に加算して、加算した値から、符号化レートによる傾きから、(1/ピクチャーレート)だけの時間によってどれだけの符号伝送量かを計算した値を減算すると、図16(1)の黒丸部分の初期値が求められる。また、図16(2)では符号化開始点の値をリストに持つ場合の概念図であるが、この場合には一番最後のVBV占有値に関する情報値が無いため、最終フレームの後ろに仮想的にフレームがあったとして、その仮想フレームの符号化開始時点のVBV占有値に関する情報値を最終値として計算する。計算は最終のピクチャ符号量を、最後のVBV占有値に関する情報値から減算して、減算した値から、符号化レートによる傾きから、(1/ピクチャーレート)だけの時間によってどれだけの符号伝送量かを計算した値を加算すると、図16(2)の黒丸部分の最終値が求められる。
【0084】
次に、本発明を適用した記録再生装置の一実施例の構成を図4に示し、MPEG符号化方式で画像データを符号化しながらVBVバッファ情報を作成する動作を説明をする。
【0085】
記録媒体31に符号化データがまったく無い状態、すなわち、初めて符号化する場合には、記録媒体31からのデータ読み取り部32では、データが存在していないので、データがないという情報をVBVバッファ情報検出器33に送信する。VBVバッファ情報検出器33でもデータが存在していないので、パラメータ設定器34にはあらかじめ設定した初期値、すなわちVBV値は、たとえばMPEGで規定されるVBVの最大値の80%の値とし、PTMタイムスタンプ情報は0とする。これらの初期設定値を画像符号化器35に送信する。
【0086】
画像符号化器35では、符号化を初期設定値から開始する。画像符号化器35では符号化を行いながら、ビットストリームのIピクチャーの1フレーム前、及びPピクチャーの1フレーム前のピクチャー符号化終了時点での発生符号量とPTM値、VBV値を、毎回、VBVバッファ情報作成器36へ送信する。それとともに符号化データをデータ書き込み部37へ送信する。さらに、画像符号化器35は、ユーザーが画像圧縮記録を一時停止、もしくは終了した時点での発生符号量とPTM値、VBV値を、VBVバッファ情報作成器36へ送信する。
【0087】
VBVバッファ情報作成器36では、入力された発生符号量値とPTM値とVBV値から図1に示す構造のVBVバッファ情報のデータを作成する。もしくはそのデータ構造を作成するのに必要なデータをメモリーして所定のフォーマットで記録保持する。VBVバッファ情報作成器36で作成された情報は、データ書き込み部37により符号化データ(MPEG画像データ)が記録媒体31に書き込まれているときに、同時にバースト的に書き込みを行っても良い。また、VBVバッファ情報作成器36で作成された情報は、符号化データ(MPEG画像データ)が書き込み終わったとき、すなわち、ユーザーが画像圧縮記録を一時停止、もしくは終了した後に所定のフォーマットで記録保持されていたデータから、図1の構造に変換してデータ書き込み部37により書き込みを行っても良い。
【0088】
次に、記録媒体31に記録されている第1及び第2の2つのMPEG画像データに対して、所定の位置からの繋ぎ再生を可能とするための区間Aの部分の再符号化を行う場合の説明を図8を用いて行う。
【0089】
まず、図示せぬ、ユーザーインターフェースから、すでに記録されている第1及び第2の2つのMPEG画像データのどこのポイントから繋ぎ再生するかを指定してもらう。
【0090】
記録媒体31には、すでに第1及び第2の2つのMPEG画像データ(圧縮符号化ストリーム)と、図4に示した記録再生装置により生成したVBVバッファ情報とが記録されている。従って、図4に示すデータ読み取り部32ではVBVバッファ情報を読み取り、接続点b(繋ぎ指定位置)から区間Aの分だけ前にある位置の図8におけるaの位置のVBV値、PTM値、相対アドレスを得る。
【0091】
前記ユーザーインターフェースからの繋ぎ再生位置の指定が、例えば、その指定の仕方が、データの相対アドレスの位置情報の場合には、VBVバッファ情報の構造のEPn情報内の相対アドレス情報にもっとも近い値のデータにリンクされているVBV値、PTM値を用いる。また、もし、その指定の仕方が、データの開始時刻からの時間や、繋ぎ再生されるポイントのタイムスタンプ情報であれば、同様にVBVバッファ情報の構造のEPn情報内のPTM値を用いて、この値が90KHzのクロックで記録されている場合にはその値に 1/90000秒の値を乗じることで秒の時間を得ることができ、その繋ぎ再生する位置(相対アドレス)とVBV値、PTM値を得ることができる。
【0092】
これらの値はパラメータ設定器34に入力され、画像符号化器35においてその設定値から符号化が開始される。一方、符号化データサーチ器38では再符号化する区間Aの先頭位置を、すでに記録してあるビットストリームに対してサーチする。サーチはデータの相対アドレスを用いて、そのビットストリームファイルの頭からの位置にポインタを設定する。
【0093】
画像符号化器35では区間Aに対応する第1のMPEG画像データを復号化し、復号画像を用いて再度、VBVバッファ占有値の推移が、aの位置でのVBV値から開始されて、dの位置でのVBV値までで終了するようにレートコントロールを行ってMPEG符号化方式で再符号化を行う。再符号化は前記のように完全に復号した画像を用いても良いが、特開平11−234677に開示されているような、ビットストリーム上での符号量コントロールの技術を用いても良い。
【0094】
ここでもし、再符号化する区間Aが、VBVバッファ情報の最小単位より長い場合には、再符号化しながら、ビットストリームのIピクチャー、Pピクチャーの1フレーム前のピクチャー符号化終了時点での発生符号量とPTM値、VBV値を、毎回、VBVバッファ情報作成器36へ送信する。それと共に、再符号化データをデータ書き込み部37へ送信する。
【0095】
VBVバッファ情報作成器36では、入力された発生符号量値とPTM値とVBV値から図1に示す構造のデータを作成する。もしくはそのデータ構造を作成するのに必要なデータをメモリーして所定のフォーマットで記録保持する。VBVバッファ情報作成器36でのその情報は、符号化データが書き込まれているときに、同時にバースト的に書き込みを行っても良いし、符号化データが書き終わったとき、すなわち、ユーザーが画像圧縮記録を一時停止、もしくは終了したときに所定のフォーマットで記録保持されていたデータから、図1の構造に変換して書き込みを行っても良い。
【0096】
再符号化された区間Aの画像データ(繋ぎ区間A再符号化データ)は、第1、第2のMPEG画像データと分離された別のファイルとして記録する。もしくは、記録第2のMPEG画像データの先頭に連結して記録する。
【0097】
第1のMPEG画像データと、第2のMPEG画像データと、VBVバッファ占有値に関する情報とそのデータアドレス情報と、前記区間Aの再符号化画像データ(または前記区間Bの再符号化画像データ、または前記区間A+Bの再符号化画像データ)は、同一記録メディアに記録されていても、任意の組み合わせで複数の記録メディアに記録くされていても、それぞれが異なる記録メディアに記録されていてもかまわない。複数の記録メディアに分けて記録されている場合には、それぞれの記録メディア同士がリンクされて(それぞれのデータ、情報同士がリンクされて)運用されるように、同一情報群であることを示す情報、例えばIDなどを各記録メディアに記録しておくと良い。第1のMPEG画像データと、第2のMPEG画像データと、前記区間Aの再符号化画像データ(または前記区間Bの再符号化画像データ、または前記区間A+Bの再符号化画像データ)とが同一の記録媒体に記録されている場合には、一つの記録媒体で、再生装置側の繋ぎ再生を制御できる。
【0098】
なお、繋ぎ区間再符号化画像データを得るためのVBVバッファ占有値に関する情報を、媒体に記録されているサイド情報から読み出すのではなく、計算により求める場合には、VBVバッファ占有値に関する情報とそのデータアドレス情報とを記録しておく必要はない。
【0099】
上記実施例で、記録メディアは記録再生装置内の記録メディアとして説明したが、記録再生装置に着脱自在の記録メディア、ネットワークを介した記録メディア(データベース)であってもかまわない。
【0100】
また、上記実施例では、単体のMPEG画像データに着目して画像データをつなぐ例を説明したが、音声データなどと共にMPEG方式でパケット多重化されたMPEG多重化データであるMPEGトランスポートストリーム内のMPEG画像データをつなぐ場合に適応しても良い。
【0101】
トランスポートストリームには可変長符号化されているMPEG画像データ、固定長符号化されているMPEG1レイヤー2オーディオもしくはAC3などが多重化されている場合が多い。従って、その多重化されたデータ中の要素符号化データのひとつであるMPEG画像データをつなぐ場合、接続する点においてMPEGで規定されるSTDバッファ(ビデオではVBVバッファ)の整合性を考慮した接続方法として、前記説明した実施例の方法を適応すればよい。
【0102】
例えば第1及び第2のMPEGトランスポートストリーム内からそれぞれ接続対象の第1及び第2のMPEG画像データを取り出し、上記した実施例と同様にして接続する。繋ぎ再生に使用する繋ぎ区間再符号化データ(前記区間Aの再符号化画像データ、前記区間Bの再符号化画像データ、前記区間A+Bの再符号化画像データ)は、MPEG方式でパケット多重化されたMPEG多重化データとして生成、記録されてもよい。
【0103】
図14(1)の状態はMPEGトランスポートストリームのパケット多重化されたデータの状態を示している。Vと記載されているパケットはビデオパケット、Aと記載されているパケットはオーディオのパケット、Sと記載されているパケットはシステムで使用されるPATやPMTなどの情報パケットである。おのおのMPEG2システムのルールに準拠した形で記録されている。ビデオパケットは薄いグレーの色を施してある。これらの全体を示した状態が同図(2)である。このビデオパケットだけを集めた状態が同図(3)である。このビデオパケットの中身は、同図(4)に示すように始めがIピクチャーであり、次にBピクチャーが2枚、そのあとにPピクチャーが1枚、と続いてくのが典型的な例である。
【0104】
これらのピクチャーの1枚もしくは複数のピクチャーにおいて再符号化によって符号量を調整する。例えば符号量が削減された状態が同図(5)である。各ピクチャーの符号量はそれぞれ小さくなっている。その状態でパケット化したものが同図(6)である。減少した部分には黒色を施してある。このパケット分、ビデオの全体の量が減少する。そして、TSを再構築する。この状態を全体で表現したものが同図(7)である。同図(7)を拡大したものが同図(8)である。結果的にVパケットの一部が減少し、それ以外の要素データパケットはそのまま多重化する。
【0105】
MPEGシステムの規定ではPCRクロック情報は100msecに一度は記録されていなければならない。また、データ長が変更されているので、それぞれの要素パケットに記載されているPCRクロック情報は必要に応じて変更する。また、ビデオパケットにはアクセスユニット(フレームやフィールドのピクチャー単位)の先頭のPESヘッダーが存在するパケットにPTSやDTSが記述されている。オーディオパケットには1つもしくは複数のオーディオフレームをPESでパッキングしたその先頭のPESヘッダーが存在するパケットにPTSが記載されている。これらのタイムスタンプ情報は画像においてはピクチャー数を増減していない場合には変更する必要は無いし、オーディオも再生時間長を増減しなければ変更の必要はないが、それ以外の場合には、適切なPTS,DTSを追加修正する。
【0106】
さらにまた、単純に再符号化する場合には、予測符号化のリセットタイミングであるIピクチャーからのGOP単位が扱いやすいが、GOPが独立していない場合、即ち、境界のBピクチャーが双方のGOPにまたがって予測されている場合(GOPのclosed gop=0の場合)には、一つ前のGOPの最後のリファレンスピクチャーを復号化して、図示せぬ画像再符号化用メモリーなどに保持しておくことが必要になる場合がある。
【0107】
第1のMPEG多重化データ(第1のMPEGトランスポートストリーム)と、第2のMPEG画像データ(第2のMPEGトランスポートストリーム)と、VBVバッファ占有値に関する情報とそのデータアドレス情報と、前記区間Aの再符号化画像データ(または前記区間Bの再符号化画像データ、または前記区間A+Bの再符号化画像データ)を要素符号化データとして含んで、MPEG方式によりパケット多重化して生成した繋ぎ区間MPEG多重化データとは、同一記録メディアに記録されていても、任意の組み合わせで複数の記録メディアに記録くされていても、それぞれが異なる記録メディアに記録されていてもかまわない。複数の記録メディアに分けて記録されている場合には、それぞれの記録メディア同士がリンクされて(それぞれのデータ、情報同士がリンクされて)運用されるように、同一情報群であることを示す情報、例えばIDなどを各記録メディアに記録しておくと良い。第1のMPEG多重化画像データと、第2のMPEG多重化画像データと、前記区間Aの再符号化画像データ(または前記区間Bの再符号化画像データ、または前記区間A+Bの再符号化画像データ)の繋ぎ区間MPEG多重化データとが同一の記録媒体に記録されている場合には、一つの記録媒体で、再生装置側の繋ぎ再生を制御できる。
【0108】
【発明の効果】
以上の通り、本発明を用いれば、第1及び第2の2つのMPEG画像データを(または、第1のMPEG画像データを要素符号化データとして含むパケット多重化された第1のMPEG多重化データと、第2のMPEG画像データを要素符号化データとして含むパケット多重化された第2のMPEG多重化データとを)、それぞれの指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生させる際に(前記第1のMPEG多重化データから前記第2のMPEG多重化データへ繋げて再生させる際に)、VBVバッファの接続にオーバーフローやアンダーフローの矛盾が生じることなく、シームレスで高品位な再生を実現させることができる。
【0109】
また、本発明では、シームレスで高品位な再生を実現させるために新たに生成・記録する画像データとしては、設定した繋ぎ区間の再符号化データのみでよいので、繋ぎ区間の再符号化データを記録する記録媒体を効率よく利用できる。
【図面の簡単な説明】
【図1】本発明を適用した記録再生装置の一実施例に基づくVBVバッファ情報構造を示す図である。
【図2】一実施例におけるMPEG画像データと相対アドレスとの関係を示す図である。
【図3】一実施例におけるVBV値を説明する説明図である。
【図4】本発明を適用した記録再生装置の一実施例を示すブロック図である。
【図5】従来のMPEG符号化器の一例を示す図である。
【図6】従来のMPEG復号化器の一例を示す図である。
【図7】 MPEGにおけるVBVバッファ概念を説明するための図である。
【図8】本発明で実現可能とする繋ぎ再生の概念を説明するための図である。
【図9】本発明で実現可能とする繋ぎ再生の概念を説明するための図である。
【図10】本発明で実現可能とする繋ぎ再生の概念を説明するための図である。
【図11】従来のMPEG多重化システムを示す説明図である。
【図12】 MPEGTSとPS及びPESの関連を示す説明図である。
【図13】 MPEGTSのPSIの使用例を示す説明図である。
【図14】 MPEGTSパケット配置を示す説明図である。
【図15】本発明で実現可能とする繋ぎ再生の概念を説明するための図である。
【図16】一実施例におけるVBVバッファ占有値に関する情報値を説明するための図である。
【図17】 VBVバッファ占有値とVBV delay値の関係を示す図である。
【符号の説明】
31 記録媒体
32 データ読み取り部
33 VBVバッファ情報検出器
34 パラメータ設定器
35 画像符号化器
36 VBVバッファ情報作成器
37 データ書き込み部
38 符号化データサーチ器
[0001]
BACKGROUND OF THE INVENTION
According to the present invention, the first and second MPEG image data, which are image data encoded by the MPEG encoding method, are converted into the first MPEG image at specified connection specification positions in the respective MPEG image data. The present invention relates to an MPEG data recording apparatus for realizing seamless reproduction when data is connected to the second MPEG image data for reproduction.
[0002]
[Prior art]
The conventional MPEG used in this patent will be briefly described.
[0003]
Since MPEG is described in detail in ISO-IEC11172-2 and ITU-T H.262 / ISO-IEC13818-2, only the outline will be described here. MPEG is the name of the organization that examines video coding standards established in 1988 in ISO / IEC JTC1 / SC2 (International Organization for Standardization / International Electrotechnical Standards Meeting Technical Committee 1 / Technical Committee 2, now SC29) ( Abbreviation for Moving Pictures Expert Group. MPEG1 (MPEG Phase 1) is a standard for storage media of about 1.5 Mbps, and is intended for video compression for low transfer rates of JPEG and ISDN video conferences and videophones for the purpose of still image coding. H.261 (CCITT SGXV, standardized by the current ITU-T SG15), the new technology was introduced for storage media. These were established in August 1993 as ISO / IEC 11172.
[0004]
MPEG1 is created by combining several technologies. FIG. 5 shows a conventional MPEG encoder that performs encoding by the MPEG encoding method, which will be briefly described below. For the input image, the difference between the image decoded by the motion compensation predictor 1 and the input image is taken by the differencer 2 to reduce the time redundant portion.
[0005]
There are three modes of prediction from the past and the future. These can be used by switching every 16 pixels × 16 pixels MB (Macroblock). The prediction direction is determined by the picture type given to the input image. One-way inter-picture predictive coded images (P-pictures) exist in two modes: a mode in which encoding is performed by prediction from the past and a mode in which MB is independently encoded without prediction. In addition, there are four modes of bi-directional inter-picture prediction: a mode that encodes by prediction from the future, a mode that encodes by prediction from the past, a mode that encodes by prediction from both, and a mode that encodes independently. This is a B-picture. All MBs are independently encoded in an intra-picture independently encoded image (I-picture).
[0006]
In motion compensation, the motion region is subjected to pattern matching for each MB, a motion vector is detected with half-pel accuracy, and prediction is performed after shifting by the motion amount. The motion vector has a horizontal direction and a vertical direction, and is transmitted as additional information of the MB together with an MC (Motion Compensation) mode indicating where the motion vector is predicted.
[0007]
Generally, the GOP (Group Of Picture) is a group of pictures from the I picture to the picture before the next I picture. When used in storage media, etc., about 15 pictures are generally used as one GOP section. Is done. (However, two or more I pictures may be included in one GOP section. In short, one or more I pictures may be included in one GOP section.)
The difference image is subjected to orthogonal transformation in the DCT unit 3. DCT (Discrete Cosine Transform) is an orthogonal transformation that discretely transforms an integral transformation with a cosine function as an integral kernel into a finite space. In MPEG, MB is divided into four and two-dimensional DCT is performed on an 8 × 8 DCT block. In general, video signals have many low-frequency components and few high-frequency components. Therefore, when DCT is performed, coefficients are concentrated in the low frequency range.
[0008]
The image data (DCT coefficient) subjected to DCT is quantized by the quantizer 4. Quantization is a quantized value obtained by multiplying the 8 × 8 two-dimensional frequency called the quantization matrix by the visual characteristic weighted by the value of the quantization scale that multiplies the whole by a scalar, and the DCT coefficient is quantized. Calculate by value. When inverse quantization is performed by the MPEG decoder (decoder), a value approximating the original DCT coefficient is obtained by multiplying by the quantized value.
[0009]
The quantized data is variable length encoded by the VLC unit 5. Among the quantized values, the direct current (DC) component uses DPCM (differential pulse code modulation) which is one of predictive coding. Also, AC (AC) components are zigzag scanned from low to high, with zero run length and effective coefficient value as one event, and Huffman coding assigning codes with short code lengths from those with high appearance probability. Is done.
[0010]
The variable-length encoded data is stored in the temporary buffer 6 and output as encoded data at a predetermined transfer rate. The generated code amount for each macroblock of the output data is transmitted to the code amount controller 21, and the error code amount with respect to the generated code amount with respect to the target code amount is fed back to the quantizer 4 to quantize the scale. The amount of code is controlled by adjusting.
[0011]
The quantized image data is inversely quantized by the inverse quantizer 7, inversely DCTed by the inverse DCT unit 8, temporarily stored in the image memory 10 via the adder 9, and then the motion compensated predictor 1. Are used as reference decoded images for calculating difference images.
[0012]
FIG. 6 shows an MPEG decoder (decoder) for decoding the encoded data encoded in this way.
[0013]
Incoming encoded data (stream) is buffered by the buffer 11, and the data from the buffer 11 is input to the VLD unit 12. The VLD unit 12 performs variable length decoding to obtain a direct current (DC) component and an alternating current (AC) component. The alternating current (AC) component data is arranged in an 8 × 8 matrix in the order of zigzag scan from low to high. This data is input to the inverse quantizer 13 and is inversely quantized by the quantization matrix. The inversely quantized data is input to the inverse DCT unit 14 and subjected to inverse DCT, and output as image data (decoded data). The decoded data is temporarily stored in the image memory 16 and then used as a reference decoded image for calculating a difference image in the motion compensation predictor 17.
[0014]
In the case of video, the encoded bit stream has a variable amount of code for each picture. This is because MPEG uses information conversion such as DCT, quantization, and Huffman coding, and at the same time, it is necessary to adaptively change the amount of code allocated to each picture to improve image quality. This is because the entropy of the encoded image itself changes greatly, such as encoding the input image as it is in some cases and encoding a difference image that is the difference between the predicted images in some cases.
[0015]
In this case, in many cases, the code amount is controlled while allocating the entropy ratio of the image and keeping the limitation of the buffer. The buffer manager monitors the relationship between the generated code amount and the encoding rate, and sets the target code amount so as to be within a predetermined buffer. This value is fed back to the variable length encoder and enters the code amount controller, where the generated code amount is suppressed by increasing the quantized value set in the quantizer or by reducing the quantized value. Or make it smaller.
[0016]
When encoding such variable-length data at a fixed transfer rate (encoding rate), if the maximum buffer amount of the decoder is the upper limit value, the data is input at a constant speed and only a predetermined value is accumulated. Therefore, MPEG is specified to use a model that performs decoding instantaneously at a predetermined time (1 / 29.97 sec unit for NTSC video signals) and encodes the buffer so that neither overflow nor underflow occurs. ing. If this rule (VBV buffer rule) is observed, the rate in the VBV buffer changes locally, but if the observation time is long, it becomes a fixed transfer rate. In MPEG, this is a fixed rate. Defined.
[0017]
In the case of a fixed transfer rate, when the amount of generated code is small, the buffer occupation amount is stuck to the upper limit value. In this case, it is necessary to increase the code amount so as not to overflow by adding an invalid bit.
[0018]
In the case of variable transfer rate, the definition of this fixed transfer rate is expanded so that when the buffer occupancy reaches the upper limit value, it is defined so that overflow will not occur in principle by stopping reading of the decoder. ing. Such a buffer transition is shown in FIG. Even if the amount of generated code is very small, reading of the decoder is stopped, so there is no need to insert invalid bits as in the case of a fixed transfer rate. Therefore, encoding is performed so that only underflow does not occur.
[0019]
The MPEG system stipulates a method for reproducing a bit stream that is encoded with MPEG video and audio, etc., and multiplexed into one bit stream while ensuring synchronization. The contents specified in the system are roughly divided into the following five points.
1) Synchronous playback of multiple encoded bitstreams 2) Multiplexing of multiple encoded bitstreams into a single bitstream 3) Buffer initialization at playback start 4) Continuous buffer management 5) Determining the time for decoding and playback
In order to multiplex in the MPEG system, it is necessary to packetize information. Packet multiplexing means, for example, when video and audio are multiplexed, each is divided into streams of appropriate length called packets, attached with additional information such as headers, and video and audio packets are switched appropriately. Time-division transmission. The header includes information for identifying video, audio, etc., and time information for synchronization. The packet length depends on the transmission medium and application, and ranges from 53 bytes like ATM to as long as 4 Kbytes like optical disc. In MPEG, the packet length is variable and can be specified arbitrarily.
[0020]
Data is packed and packetized, and one pack is composed of several packets. Pack start code and SCR (System Clock Referance) are described in the head part of each P pack, and stream id and time stamp are described in the head part of the packet. The time stamp describes time information for synchronizing audio, video, etc., and there are two types, DTS (Decoding Time Stamp) and PTS (Presentation Time Stamp). PCR (Program Clock Reference) is described with a time accuracy of 27 MHz, and is information for locking the reference clock of the decoder. DTS indicates the decoding start time of the first access unit (1 picture for video, 1152 samples for audio) in the packet data, and PTS indicates the display (playback) start time. As shown in FIG. 11, the audio, video, and other decoders constantly monitor a common reference clock locked by PCR, and perform decoding and display when they coincide with the DTS or PTS time. . Multiplexed data is buffered by each decoder, and a virtual decoder for synchronized display is called STD (System Target Decoder), and multiplexed so that this STD does not cause overflow or underflow. Must be.
[0021]
The MPEG system is roughly divided into TS (Transport Stream) and PS (Program Stream). These are composed of packets including PES (Packetized Elementary Stream) and other necessary information. PES is defined as an intermediate stream for enabling conversion between both streams, and is a packet of a private stream or the like in addition to video and audio data encoded with MPEG.
[0022]
PS can multiplex video and audio of programs with a common reference time. The packet layer is called PES, and this structure is used in common with a TS, which will be described later, as shown in FIG. In the PS STD model, streams are switched by the stream id in the PES packet.
[0023]
TS can also multiplex video and audio of programs that have a common reference time like PS, but TS can also multiplex multi-programs such as communications and broadcasts that have different reference times It is said. The TS is composed of a 188-byte fixed-length packet in consideration of the ATM cell length and error correction coding, and is considered so that it can be used even in a system in which an error exists. Although the structure of TS packet itself is not so complicated, its operation is complicated because it is a multi-program stream. A characteristic of PS is that although TS packets have a higher structure, they are (usually) shorter than PES packets, and are divided into TS packets for transmission. In the STD model of TS, the stream is switched by the PID (packet ID) in the TS packet.
[0024]
The MPEG system TS has a mechanism for indicating which PID is a packet related to information of the multiplexed program. This will be described with reference to FIG. First, search for TS packets with PID = 0. It is an information packet called PAT (Program Association Table), in which information PID corresponding to the PROGRAM number PR is described in a linked form. Next, when reading the PID packet corresponding to the target PR, there is an information packet called PMT (Program Map Table). Among these packets, the PID of the video packet of the program corresponding to the PR and the audio packet are included. PID information is described.
[0025]
PAT and PMT are called PSI (Program Specific Information), which is an information system that allows access (entry) to the channel of the target program.
[0026]
Conventionally, according to the invention of Japanese Patent Laid-Open No. 11-74799, when editing compressed data such as MPEG data recorded on a recording medium, the VBV buffer is always fixed at the editing point in order to maintain the continuity of the MPEG data. There are described methods for performing coding in consideration of continuity, such as controlling the amount of generated code so that the GOP becomes equal, or coding the GOP as a closed GOP.
[0027]
Further, according to the invention of Japanese Patent Laid-Open No. 11-187354, there is no restriction on the encoded data, and the information indicating the data extracted as the editing material in the partial section of the data and the reproduction order thereof. A method is described in which information can be described and video editing can be realized on a single recording medium without changing the recorded data.
[0028]
[Problems to be solved by the invention]
However, in the conventional method described above, when MPEG image data is simply connected, a contradiction occurs in the connection of the VBV buffer, and overflow and underflow occur.
[0029]
In the invention of Japanese Patent Laid-Open No. 11-74799, the generated code amount is controlled so that the VBV buffer is always fixed for each GOP so that it can be edited anywhere, the GOP is encoded as a closed GOP, etc. Encoding restrictions considering continuity are imposed, which is a disadvantageous factor in encoding efficiency.
[0030]
In the invention disclosed in Japanese Patent Laid-Open No. 11-187354, playback is displayed as if it had been edited, but the continuity at the editing point is incomplete, and temporary rest such as initialization of the decoder buffer of MPEG data is performed. There was a possibility that the phenomenon occurred.
[0031]
The present invention provides first and second MPEG image data (or packet-multiplexed first MPEG multiplexed data including the first MPEG image data as element encoded data) and second MPEG Packet-multiplexed second MPEG multiplexed data including image data as element-coded data), and the second MPEG image data from the first MPEG image data at each designated connection designation position. When connecting to a VBV buffer (when reproducing from the first MPEG multiplexed data to the second MPEG multiplexed data), there is no inconsistency in overflow or underflow in the connection of the VBV buffer. An object of the present invention is to provide an MPEG data recording apparatus capable of realizing seamless and high-quality playback.
[0032]
[Means for Solving the Problems]
Therefore, in order to solve the above problems, the present invention provides the following recording apparatus.
(1) The first and second MPEG image data, which are image data encoded by the MPEG encoding method and recorded on the same recording medium , are connected at specified connection specification positions in the respective MPEG image data. , Generating and recording the third linked section re-encoded data encoded by the MPEG encoding method as the data to be reproduced from the first MPEG image data to the second MPEG image data. An MPEG data recording apparatus provided with recording means for
The recording means includes
A section having a start position in the first MPEG image data as a start position and a end position at the connection specified position in the first MPEG image data is a first connection. A section having a connection designated position in the second MPEG image data as a start position and a position after a second predetermined time from the connection designated position in the second MPEG image data as an end position. As a second connecting section, and a section combining the first connecting section and the second connecting section as a third connecting section,
Decoding the first joint section decoded image data, which is image data obtained by decoding the first MPEG image data in the first joint section, and the second MPEG image data in the second joint section. The third joint section decoded image data composed of the second joint section decoded image data, which is the image data obtained as described above, is re-encoded by the MPEG encoding method, and the third joint section re-encoded data is obtained. Re-encoding means for generating , and recording the third linked section re-encoded data in an area different from each area where the first and second MPEG image data are recorded on the same recording medium. It is what
In the re-encoding, the re-encoding means encodes the first MPEG image data at a position where the transition of the information value related to the VBV buffer occupation value corresponds to the start position of the first connection section. Starting from the information value related to the VBV buffer occupancy value, and ends up to the information value related to the VBV buffer occupancy value at the time of encoding the second MPEG image data at the position corresponding to the end position of the second connection interval. The code amount is controlled as described above and re-encoding is performed.
MPEG data recording apparatus characterized by the above.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
First, the concept of joint reproduction that can be realized by the present invention will be described. As shown in FIG. 8, when the second MPEG image data exists in the same way as the first MPEG image data which is the image data encoded by the first MPEG encoding method, the middle of the first MPEG image data (specified Consider that the second MPEG image data is connected and reproduced from the connection designated position). Assuming that the connection point (connection designation position in the first MPEG image data) is the position b, the reproduction is performed up to the position b in the first MPEG image data, and then the data is connected to the second MPEG image data. However, when MPEG image data are simply connected, there is a problem in that the connection of the VBV buffer is inconsistent and overflow or underflow occurs.
[0034]
Therefore, first, the information of the VBV buffer at the time of encoding the first MPEG image data and the second MPEG image data by the MPEG encoding method is set to a predetermined section unit (the first predetermined image in the first MPEG image data). It is generated as side information in a section unit, and in the second MPEG image data, a second predetermined section unit) and is described in the recording medium.
[0035]
Note that it is also possible to realize splicing reproduction without describing the information of the VBV buffer in this side information. In this case, two methods can be considered, which will be described later.
[0036]
The VBV buffer information related to the first MPEG image data is related to the VBV buffer occupancy value at the MPEG encoding start time or end time of the last picture in the first MPEG image data for each first predetermined interval. First VBV buffer occupancy value related information indicating an information value, and first address information indicating at which position in the first MPEG image data the information value related to the VBV buffer occupancy value is an information value related to the VBV buffer occupancy value It is.
[0037]
The VBV buffer information related to the second MPEG image data relates to the VBV buffer occupancy value at the MPEG encoding start time or end time of the last picture in the second MPEG image data for each second predetermined interval. Second VBV buffer occupancy value related information indicating an information value, and a second address indicating where the information value related to the VBV buffer occupancy value is an information value related to the VBV buffer occupancy value in the second MPEG image data Information.
[0038]
The information value related to the VBV buffer occupation value is, for example, a VBV buffer occupation value or a VBV delay value defined by MPEG.
[0039]
As described later, one unit of the first and second predetermined sections may be about 3 frames or about 1 GOP. The predetermined interval unit is assumed to be between ab in FIG. 8 for the first MPEG image data and between cd in FIG. 8 for the second MPEG image data.
[0040]
In the information list of the VBV buffer, the position of a (the boundary of the first predetermined section before the first predetermined time from the connection specified position in the first MPEG image data: that is, the start of section A described later) The VBV buffer information at the position (position) and the VBV buffer information at the position b (the connection designation position in the first MPEG image data: that is, the end position of the section A described later) are described. Also, the information of the VBV buffer at the position c of the second MPEG image data (the boundary position of the second predetermined section a second predetermined time before the connection specified position in the second MPEG image data) Also, there is information on the VBV buffer at the position of the connection point d (the connection designation position in the second MPEG image data: the boundary position of the second predetermined section in this example).
[0041]
Therefore, the data in the ab section (first connection section: here, section A) of the first MPEG image data is once decoded to obtain decoded image data, and the decoded image data (first connection section). (Decoded image data) is re-encoded by the MPEG encoding method. The re-encoded data created thereby is referred to as interval A re-encoded MPEG image data (first connected interval re-encoded data). In this re-encoding, the transition of the information value related to the VBV buffer occupancy value is started from the information value related to the VBV buffer occupancy value obtained based on the detected first VBV buffer occupancy value related information at the position a. The rate control is performed so as to end up to the information value related to the VBV buffer occupancy value obtained based on the detected second VBV buffer occupancy value related information at the position of d, and re-encoding is performed by the MPEG encoding method. Do.
[0042]
The operation of performing the conventional joint reproduction operation of reproducing to the position of b of the first MPEG image data and then reproducing the data by connecting to the position of d of the second MPEG image data is performed in section A. The following operation is performed using the re-encoded MPEG image data. That is, the first MPEG image data is reproduced up to the position a (start position of section A) of the first MPEG image data, and then the re-encoded MPEG image data of section A is used as the start position of the section. To the end position, and then connected to the d position (connection designated position) of the second MPEG image data to reproduce the data of the second MPEG image data after d. This is realized by providing a connecting reproduction means for performing this operation on the reproduction apparatus side.
[0043]
By using this joint playback operation, it is possible to realize seamless connection playback that has the same content as the original first and second MPEG image data and that does not cause the VBV buffer to fail.
[0044]
In addition, when obtaining re-encoded MPEG image data of the connection section based only on the first MPEG image data side shown in FIG. 8, the position of the connection point d (connection specification position in the second MPEG image data). ) VBV buffer information is required. As described above, the information in the VBV buffer is information at the start or end of MPEG encoding of the last picture in the predetermined section of the MPEG image data. It becomes. Therefore, the position of the connection point (connection specification position) needs to be specified as the boundary of the second predetermined section at least in the second MPEG image data. (That is, the position of the connection point d in the second MPEG image data needs to be specified as the boundary of the second predetermined section.)
Further, when re-encoded MPEG image data of the connecting section is obtained based only on the first MPEG image data side, as described above, the VBV at the position a (starting position of the connecting section A) shown in FIG. Buffer information is also required. However, since the position of a is designated as the boundary of the first predetermined section before the first predetermined time from the connection point (connection designation position) b in the first MPEG image data, the position of the connection point b is set. Regardless, the information of the VBV buffer is obtained at the position a. Therefore, the position of the connection point b in the first MPEG image data does not necessarily have to be specified as the boundary of the first predetermined section.
[0045]
Next, application examples thereof are shown in FIGS. 9 (2) and 9 (3). FIG. 1A is the same as the example shown in FIG. In the example shown in FIG. 8, the re-encoded MPEG image data of the section is obtained based on only the first MPEG image data side, and the joint reproduction is realized. However, only the second MPEG image data side is connected. It is also possible to obtain the re-encoded MPEG image data of the section and realize the joint reproduction. An example of this is shown in FIG. 9 (2), in which re-encoded MPEG image data in the connection section B in the second MPEG image data is used.
[0046]
In FIG. 9 (2), a connection point (connection designation position) in the first MPEG image data is a position i, and a connection point (connection designation position) in the second MPEG image data is a position k. One unit of the first and second predetermined sections, which are units having the information of the VBV buffer described above, is set between ij in the first MPEG image data and between kl in the second MPEG image data. The position l is the boundary position of the second predetermined section after the second predetermined time from the connection point (connection designated position) k in the second MPEG image data. A section having the connection point k as the start position and the position l as the end position is defined as a connection section B (second connection section).
[0047]
The data of the section B (k-1 section) connecting the second MPEG image data is once decoded to obtain decoded image data, and the decoded image data (second connection section decoded image data) is MPEG-coded. Re-encoding is performed using the encoding method. The re-encoded data created thereby will be referred to as re-encoded MPEG image data (second connected interval re-encoded data) in the connection interval B. This re-encoding is started from the information value related to the VBV buffer occupancy value obtained from the transition of the information value related to the VBV buffer occupancy value based on the first VBV buffer occupancy value related information at the position i. The rate control is performed so as to end up to the information value related to the VBV buffer occupation value obtained based on the second VBV buffer occupation value related information at the position, and re-encoding is performed by the MPEG encoding method.
[0048]
Then, using the re-encoded MPEG image data in the connection section B, connection reproduction from the first MPEG image data to the second MPEG image data is performed. That is, the first MPEG image data is reproduced up to the connection point i (connection designated position) of the first MPEG image data, and then the re-encoded MPEG image data of the section B is ended from the start position of the section. To the position, and then connected to the position 1 of the second MPEG image data (end position of the connecting section B) to reproduce the data of the second MPEG image data after the position l. . This is realized by providing a connecting reproduction means for performing this operation on the reproduction apparatus side.
[0049]
By using this joint playback operation, it is possible to realize seamless connection playback that has the same content as the original first and second MPEG image data and that does not cause the VBV buffer to fail.
[0050]
In addition, when obtaining re-encoded MPEG image data of a section connected based only on the second MPEG image data side shown in FIG. 9B, the position of the connection point i (in the first MPEG image data) Information of the VBV buffer at the connection designated position) is required. As described above, the information in the VBV buffer is information at the start or end of MPEG encoding of the last picture in the predetermined section of the MPEG image data. It becomes. Therefore, the position of the connection point (connection specification position) needs to be specified as the boundary of the first predetermined section at least in the first MPEG image data. (That is, the position of the connection point i in the first MPEG image data needs to be specified as the boundary of the first predetermined section.)
Further, when re-encoded MPEG image data of a connection section is obtained based only on the second MPEG image data side, the position of l shown in FIG. Information on the VBV buffer at position) is also required. However, the position of l is specified as the boundary of the second predetermined section after the second predetermined time from the connection point (connection specification position) k in the second MPEG image data, so that the position of the connection point k is set. Regardless, information on the VBV buffer is obtained at position l. Therefore, the position of the connection point k in the second MPEG image data does not necessarily have to be specified as the boundary of the second predetermined section.
[0051]
Next, an application example shown in FIG. 9 (3) will be described. In this example, the re-encoded MPEG image data of the connection section is obtained based on the first and second MPEG image data before and after the connection point, and the connection reproduction is realized.
[0052]
In FIG. 9 (3), the connection point (connection designation position) in the first MPEG image data is set as the n position, and the connection point (connection specification position) in the second MPEG image data is set as the p position. One unit of the first and second predetermined sections, which are units having the information of the VBV buffer described above, is expressed as mn in the first MPEG image data, and between p-q in the second MPEG image data. To do.
[0053]
The position of m is the boundary position of the first predetermined section before the first predetermined time from the connection point (connection designated position) n in the first MPEG image data. A section having the position of m as the start position and the position of the connection point n as the end position is defined as a connection section A (first connection section). The position of q is the boundary position of the second predetermined section after the second predetermined time from the connection point (connection designated position) p in the second MPEG image data. A section having the connection point p as the start position and the position of q as the end position is defined as a connection section B (second connection section).
[0054]
The data of the connection section A (mn section) of the first MPEG image data is once decoded to obtain decoded image data (connection section A decoded image data: first connection section decoded image data). Further, the data of the segment B (pq segment) connecting the second MPEG image data is once decoded and the decoded image data (joint segment B decoded image data: second segmented decoded image data) is obtained. obtain.
[0055]
The joint section A + B decoded image data (third joint section decoded image data) obtained by combining the joint section A decoded image data and the joint section B decoded image data is re-encoded by the MPEG encoding method. The re-encoded data created thereby is referred to as re-encoded MPEG image data (third re-encoded data of the third connection section) in the connection section A + B. This re-encoding is started from the information value related to the VBV buffer occupancy value obtained based on the first VBV buffer occupancy value related information at the position of m when the transition of the information value related to the VBV buffer occupancy value is The rate control is performed so as to end up to the information value related to the VBV buffer occupation value obtained based on the second VBV buffer occupation value related information at the position, and re-encoding is performed by the MPEG encoding method.
[0056]
Then, using the re-encoded MPEG image data in the connection section A + B, connection reproduction from the first MPEG image data to the second MPEG image data is performed. That is, the first MPEG image data is reproduced until the start position m of the first MPEG image data connection section A, and then the re-encoded MPEG image data of the connection section A + B is ended from the start position of the section. The reproduction is performed up to the position, and then the second MPEG image data after the q position is reproduced by connecting to the end position q of the second MPEG image data connection section B. This is realized by providing a connecting reproduction means for performing this operation on the reproduction apparatus side.
[0057]
By using this joint playback operation, it is possible to realize seamless connection playback that has the same content as the original first and second MPEG image data and that does not cause the VBV buffer to fail.
[0058]
In the example shown in FIG. 9 (3), as described above, information on the VBV buffer at the position m (the start position of the connecting section A) is required. Since the position of m is designated as the boundary of the first predetermined section for the first predetermined time before the connection point (connection designation position) n in the first MPEG image data, regardless of the position of the connection point n. Information on the VBV buffer is obtained at the position m. Therefore, the position of the connection point n in the first MPEG image data is not necessarily designated as the boundary of the first predetermined section.
[0059]
Further, as described above, information on the VBV buffer at the position of q (end position of the connecting section B) shown in FIG. Since the position of q is designated as the boundary of the second predetermined section after the second predetermined time from the connection point (connection specification position) p in the second MPEG image data, regardless of the position of the connection point p. Information of the VBV buffer is obtained at the position of q. Therefore, the position of the connection point p in the second MPEG image data is not necessarily designated as the boundary of the second predetermined section.
[0060]
As described above, the methods shown in FIGS. 9 (1) to 9 (3) are all developed systems capable of realizing seamless and high-quality joint reproduction, as shown in FIG. It is also possible to realize linked reproduction in which the MPEG image data, the second MPEG image data, and the third and fourth MPEG image data are branched halfway as shown in the figure. As described above, by using the present invention, it is possible to freely connect to other MPEG data simply by generating and using the re-encoded MPEG image data in the connecting section without processing the original MPEG image data itself. Therefore, even when a program that constitutes various branch stories is encoded, it is possible to efficiently use the media without recording redundant MPEG image data of the entire story for each branch story. (If the present invention is used, one set of each of the first to fourth MPEG image data and the re-encoded MPEG image data of the connecting section for each branch story may be prepared.)
If the method shown in FIG. 9 (3) is used, as described above, the position of the connection point in the first MPEG image data does not necessarily have to be specified as the boundary of the first predetermined section. Since the position of the connection point in the MPEG image data does not necessarily need to be specified as the boundary of the second predetermined section, the information of the VBV buffer is smaller than the predetermined section unit described as side information in the predetermined section unit. This can be applied when editing with accuracy, for example, in units of one frame. This example will be described with reference to FIG. The predetermined unit may be about 3 frames or about 1 GOP, but here it is 1 GOP.
[0061]
Assume that there are two MPEG streams to be connected as shown in FIG. At the points g and h indicated by arrows in the first MPEG stream, the VBV buffer information at the position g and the VBV buffer information at the position h are described in the VBV buffer information list. . The second MPEG image data also includes information on the VBV buffer at position i and information on the VBV buffer at position j.
[0062]
When connecting from the position of p of the first MPEG stream 1 to the head of the second MPEG stream, the data of the section A from g to p of the first MPEG stream is decoded, and further, the second MPEG stream The data of the section B from i to j is decoded, and both images are re-encoded so that the buffer transition starts from the buffer occupation value at the position g and becomes the buffer occupation value at the position j.
[0063]
If the data thus created is referred to as re-encoded MPEG image data in the section A + B, reproduction is performed up to the position p of the first MPEG image data, which is a conventional reproduction operation, and then the second MPEG image is reproduced. The operation of connecting to the data and reproducing the data is to reproduce up to the position of g of the first MPEG image data, and then reproduce the re-encoded MPEG image data of the section A + B, and then the second MPEG image data. By connecting to the MPEG image data j and reproducing the data, it is possible to perform seamless connection reproduction with the same content and without causing the VBV buffer to fail.
[0064]
Next, two methods for realizing connected reproduction similar to the above-described examples without describing the information of the VBV buffer as side information will be described. (A method for calculating the information value related to the VBV buffer occupation value, which is necessary when generating the re-encoded data of the connected sections will be described.)
First, the first method will be described. In the MPEG standard, basically, in the case of CBR (constant bit rate), that is, a fixed transfer rate, a VBV delay value indicating the buffer occupancy rate of the VBV buffer is defined in the MPEG video picture layer. In this case, since the VBV delay value is described in units of pictures, by observing the MPEG image bitstream only with the picture header alone, the MPEG encoding start time (or the picture corresponding to the predetermined position of the MPEG image data) (or VBV buffer occupancy value at the time of termination) can be detected. In this case, for example, the function of the VBV buffer information detector 33 in FIG. 4 to be described later is to search for a picture header of a bit stream (a 4-byte code of 0x00000100 in MPEG), and then 10-bit temporal reference 10 bits, This can be achieved by detecting the VBV delay 16 bits following the picture coding type 3 bits. What is VBV delay value?
VBV delay = 90000 x B / R
B: Buffer occupancy value R: Since it is defined by the bit rate, in the case of a fixed rate, the VBV buffer occupancy value can also be obtained by calculation from the VBV delay value using this bit rate. (For example, the calculation is performed by the VBV buffer information detector 33 shown in FIG. 4.)
In MPEG, it is necessary to pay attention to the VBV delay value at the vertex position of the graph as shown in FIG.
[0065]
Next, the second method will be described. This is the case for a variable transfer rate rather than a fixed transfer rate. In the MPEG standard, basically, in the case of VBR (variable bit rate), the VBV delay value indicating the buffer occupancy of the VBV buffer in the MPEG video picture layer is all 1 (0xffff because all 16 bits are 1). It becomes. Therefore, the first method cannot be used.
[0066]
Therefore, the following calculation is performed from the information obtained by observing the MPEG image bit stream. First, it is assumed that the VBV buffer is occupied from the very beginning of the bitstream up to the maximum value defined by MPEG (for example, 1.75 Mbit in the main profile main level). Next, the code amount of the first picture is subtracted. Next, using the transmission rate information of the peak rate in variable transfer rate coding, the transmission amount when the time between display pictures has elapsed is added, and the coding amount of the next picture is subtracted. By repeating such a series of addition and subtraction processes up to a predetermined bitstream position, a picture corresponding to a predetermined position in the MPEG image data is obtained by simulating a graph as shown in FIG. The VBV buffer occupation value at the MPEG encoding start time (or end time) can be obtained. The peak rate at the time of the variable transfer rate is specified in the syntax part called bit rate of the sequence header in MPEG, and can be obtained by referring to it.
[0067]
For example, the VBV buffer information detector 33 shown in FIG. 4 to be described later is realized by providing the above-described MPEG image bit stream with an observation function and a calculation function. (In the case of the second method, the generated code amount of each picture must be observed and calculated from the head of the MPEG image bitstream. However, as in the first method, information in the VBV buffer is previously used as side information. There is no need to prepare.)
Next, a brief description will be given of the generation of re-encoded data for connected sections when the first and second methods are used. In addition, since the joint reproduction | regeneration operation | movement using this connection area re-encoding data is the same as the case where the connection area re-encoding data produced | generated by the information of the VBV buffer previously recorded as side information is used, here Description is omitted.
[0068]
When obtaining the re-encoded MPEG image data of the connection section based only on the first MPEG image data side shown in FIG. 9A, the connection point (connection designation position) b in the first MPEG image data is the second one. A section having a position a before one predetermined time as a start position and a connection designation position b in the first MPEG image data as an end position is defined as a first connection section (connection section A). The restriction such as the boundary of the first predetermined section as in the case of using the side information is not necessary for specifying the start position a of the connection section A. Similarly, there is no need to limit the boundary of the second predetermined section as in the case of using side information for specifying the connection point (connection specification position) d in the second MPEG image data.
[0069]
The data of the ab section (joining section A) of the first MPEG image data is once decoded to obtain decoded image data, and the decoded image data (first joining section decoded image data) is re-encoded by the MPEG encoding method. Encoding is performed to obtain re-encoded MPEG image data (first joint section re-encoded data) in the joint section A. In this re-encoding, the transition of the VBV buffer occupancy value is the MPEG encoding of the picture corresponding to the position a calculated by the first or second method (the MPEG code at the time of generating the first MPEG image data). ) Start from the VBV buffer occupancy value at the start (or end). Then, the transition of the VBV buffer occupancy value is calculated by the first or second method, and the MPEG encoding of the picture corresponding to the position d (MPEG encoding at the time of generating the second MPEG image data) is started. The rate control is performed to re-encode with the MPEG encoding method so as to end up to the VBV buffer occupation value at (or the end time). The obtained re-encoded MPEG image data of the connection section A (first connection section re-encoded data) is recorded on the recording medium. (For example, recording is performed by a data writing unit 37 shown in FIG. 4 described later.)
Next, a case will be described in which re-encoded MPEG image data in a section is obtained based only on the second MPEG image data side shown in FIG. In FIG. 9 (2), a connection point (connection designation position) in the first MPEG image data is a position i, and a connection point (connection designation position) in the second MPEG image data is a position k. A section of the second MPEG image data having a connection point k as a start position and a position l after the second predetermined time from the connection point (connection specification position) k as an end position is connected to a connection section B ( Second connecting section). A restriction such as the boundary of the second predetermined section as in the case where the side information is used to specify the end position 1 of the connection section B is not necessary. Similarly, there is no need to limit the boundary of the first predetermined section as in the case where the side information is used for specifying the connection point (connection specification position) i in the first MPEG image data.
[0070]
The data of the connecting section B (k-1 section) of the second MPEG image data is once decoded to obtain decoded image data, and the decoded image data (second connecting section decoded image data) is MPEG-encoded. Re-encoding is performed according to the method to obtain re-encoded MPEG image data (second connection interval re-encoded data) of the connection interval B. In this re-encoding, the transition of the VBV buffer occupancy value is calculated by the above first or second method, and the VBV buffer occupancy at the MPEG encoding start time (or end time) of the picture corresponding to the position i is calculated. Start with a value. The transition of the VBV buffer occupancy value ends up to the VBV buffer occupancy value calculated at the MPEG encoding start point (or end point) of the picture corresponding to the position l calculated by the first or second method. As described above, rate encoding is performed and re-encoding is performed using the MPEG encoding method. The re-encoded MPEG image data (second connected section re-encoded data) of the obtained connecting section B is recorded on the recording medium. (For example, recording is performed by a data writing unit 37 shown in FIG. 4 described later.)
Next, a case where re-encoded MPEG image data in a section is obtained based on the first and second MPEG image data before and after the connection point shown in FIG. 9 (3) will be described.
[0071]
In FIG. 9 (3), the connection point (connection designation position) in the first MPEG image data is set as the n position, and the connection point (connection specification position) in the second MPEG image data is set as the p position.
[0072]
Let m be a position a first predetermined time before a connection point (connection designated position) n in the first MPEG image data. A section of the first MPEG image data having the position of m as the start position and the position of the connection point n as the end position is defined as a connection section A (first connection section). The position after the second predetermined time from the connection point (connection designated position) p in the second MPEG image data is q. A section of the second MPEG image data having the connection point p as the start position and the position of q as the end position is defined as a connection section B (second connection section).
[0073]
In order to specify the start position m of the connection section A, there is no need to restrict the first predetermined section as in the case of using side information. Similarly, there is no need to limit the boundary of the second predetermined section as in the case of using side information to specify the end position q of the connection section B.
[0074]
The data of the connection section A (mn section) of the first MPEG image data is once decoded to obtain decoded image data (connection section A decoded image data: first connection section decoded image data). Also, the data of the connection section B (pq section) of the second MPEG image data is once decoded to obtain decoded image data (connection section B decoded image data: second connection section decoded image data). .
[0075]
Then, the joint section A + B decoded image data (third joint section decoded image data), which is a combination of the joint section A decoded image data and the joint section B decoded image data, is re-encoded by the MPEG encoding method. The re-encoded data created thereby is assumed to be re-encoded MPEG image data (third connected interval re-encoded data) in the connection interval A + B. In this re-encoding, the transition of the VBV buffer occupancy value is calculated by the first or second method, and the VBV buffer occupancy at the MPEG encoding start time (or end time) of the picture corresponding to the position of m is calculated. Start with value. The transition of the VBV buffer occupancy value ends up to the VBV buffer occupancy value calculated at the MPEG encoding start time (or end time) of the picture corresponding to the position q calculated by the first or second method. As described above, rate control is performed and re-encoding is performed using the MPEG encoding method. The resulting re-encoded MPEG image data (third re-encoded data) is recorded on a recording medium. (For example, recording is performed by a data writing unit 37 shown in FIG. 4 described later.)
Also in the example shown in FIG. 10, it is of course possible to obtain the VBV buffer occupancy value at a required position by the above-described calculation method, and to obtain desired connected section re-encoded data).
[0076]
Next, VBV buffer information to be recorded on the recording medium by one embodiment of the recording / reproducing apparatus to which the present invention is applied (at the time of starting or ending the MPEG encoding of the last picture in the predetermined section of the MPEG image data) VBV buffer occupancy value related information indicating the information value related to the VBV buffer occupancy value, and address information indicating where the information value related to the VBV buffer occupancy value is the information value related to the VBV buffer occupancy value in the MPEG image data) The recording structure related to MPEG image data will be described in detail. MPEG image data, which is image data compressed by the MPEG encoding method, is recorded on the recording medium. The MPEG image data is recorded as a bit stream in which a plurality of continuously reproducible data encoded and generated in one recording unit is continuously connected.
[0077]
In addition to the encoded MPEG image data bit stream, the VBV buffer value (occupancy value) at the end of picture encoding one frame before the I picture in the MPEG image data bit stream, and 1 P picture The VBV buffer value (occupancy value) at the end of picture encoding before the frame, and address information indicating the VBV buffer occupancy value at which position in the MPEG image data each VBV buffer value (in this example, an MPEG image) The relative address from the beginning of the data file is recorded. A data structure of VBV buffer information including these data is shown in FIG.
[0078]
VBV buffer information has a hierarchical structure. There is an entry point information structure first, followed by a VBV information structure. In the entry point information structure, first, the number of addresses of entry points (EP) is described in 32 bits, and then an EPn (n is a natural number of 1 or more) address is described in 32 bits in order. The EPn address indicates a position where EPn information (n is a natural number of 1 or more) of the VBV information structure is described, and describes a relative address from the top of the VBV buffer information. On the other hand, the VBV information structure is described in order from the EP1 information, and the contents of the EP1 information describe the relative address, the PTM value, and the VBV value in order.
[0079]
As shown in FIG. 2, the relative address in the EPn information of the VBV information structure means the end of picture encoding one frame before the I picture in the bit stream of MPEG image data, and the end of picture encoding one frame before the P picture. This is a relative address from the beginning of the MPEG image data at the time point and at the end of recording. For example, the unit is a byte. When recorded on a disk medium, a sector or the like is used as a relative address.
[0080]
The PTM value in the EPn information of the VBV information structure is a time stamp recorded with a clock of 90 kHz or 27 MHz in the MPEG system standard (multiplexing standard). In the MPEG standard, it is called PTS (Presentation Time Stamp) or DTS (Decoding Time Stamp). Here, the DTS is recorded as time information at the end of picture encoding one frame before the I picture of the bit stream of the MPEG image data, at the end of picture encoding one frame before the P picture, and at the end of recording. . One DTS is recorded in one picture, and an NTSC video signal is recorded at an interval of 3003 clocks per picture with a 90 kHz clock. Therefore, when there is an I picture or a P picture every three pictures as in the present invention, and the first starts from 0, the PTM information is EPn information at intervals of 9009, 18018. Will be described.
[0081]
The VBV value in the EPn information of the VBV information structure is a virtual buffer occupation value of the decoder defined by MPEG. This can be derived from the amount of generated code for each picture of the MPEG image data and the transfer rate value. As shown in FIG. 3, the picture code one frame before the I picture and P picture of the compressed bitstream information Describe the VBV occupation value at the position of ○ in the figure at the end of conversion. Or, describe the VBV delay value specified by MPEG. This value is a value converted to the time it takes to reach the VBV occupation value at the transfer rate at that time. In the present invention, any information regarding the VBV buffer occupation value may be used. FIG. 17 shows the relationship between the VBV buffer occupancy value and the VBV delay value. The occupancy value OCC of the VBV buffer has a relationship of VBV delay = 90000 * OCC / R, where R is the encoding rate, and 90000 is a value for indicating a count number of 90 kHz.
[0082]
In MPEG compression, encoding is basically performed using I or P picture types in units of 3 frames such as IBB and PBB. In MPEG compression, B picture may be predicted from both directions, so in the encoded bit stream order, data linkage is added only at the end of picture encoding one frame before the I picture and P picture of the bit stream. Is not easy. For this reason, the present invention is described on the assumption that VBV information is described at the end of picture encoding one frame before the I picture and P picture of the bit stream.
[0083]
However, in essence, an information value related to the VBV occupation value may be included in each picture. Further, the encoding start point may be used instead of the picture encoding end point. FIG. 16 (1) is a conceptual diagram in the case of having a value of the encoding end point in the list, but in this case, there is no information value regarding the first VBV occupation value, so there is a virtual before the first frame. As a result, the information value related to the VBV occupancy value at the end of encoding of the virtual frame is calculated as an initial value. The calculation is performed by adding the first picture code amount to the information value related to the first VBV occupancy value, and from the added value, from the gradient due to the encoding rate, how much code is required in the time of (1 / picture rate) By subtracting the calculated value of the transmission amount, the initial value of the black circle part in FIG. FIG. 16 (2) is a conceptual diagram in the case of having the value of the encoding start point in the list. In this case, since there is no information value regarding the last VBV occupation value, a virtual is behind the last frame. If there is a specific frame, the information value related to the VBV occupancy value at the start of encoding of the virtual frame is calculated as the final value. The calculation subtracts the final picture code amount from the information value related to the last VBV occupancy value, and from the subtracted value, from the gradient by the encoding rate, how much code transmission amount in the time of (1 / picture rate) When the calculated values are added, the final value of the black circle portion in FIG. 16 (2) is obtained.
[0084]
Next, the configuration of an embodiment of a recording / reproducing apparatus to which the present invention is applied is shown in FIG. 4, and the operation of creating VBV buffer information while encoding image data by the MPEG encoding method will be described.
[0085]
When there is no encoded data in the recording medium 31, that is, when encoding is performed for the first time, the data reading unit 32 from the recording medium 31 indicates that there is no data, so information that there is no data is indicated as VBV buffer information. Transmit to detector 33. Since no data exists in the VBV buffer information detector 33, the initial value set in advance in the parameter setting unit 34, that is, the VBV value is set to, for example, 80% of the maximum value of VBV defined by MPEG. The time stamp information is 0. These initial set values are transmitted to the image encoder 35.
[0086]
The image encoder 35 starts encoding from an initial set value. In the image encoder 35, while encoding, the generated code amount, PTM value, and VBV value at the end of picture encoding one frame before the I picture of the bit stream and one frame before the P picture are Transmit to the VBV buffer information creator 36. At the same time, the encoded data is transmitted to the data writing unit 37. Further, the image encoder 35 transmits the generated code amount, the PTM value, and the VBV value when the user temporarily stops or ends the image compression recording to the VBV buffer information creator 36.
[0087]
The VBV buffer information creator 36 creates VBV buffer information data having the structure shown in FIG. 1 from the generated generated code amount value, PTM value, and VBV value. Alternatively, data necessary for creating the data structure is stored in memory and recorded and held in a predetermined format. The information created by the VBV buffer information creator 36 may be written in bursts simultaneously when encoded data (MPEG image data) is written on the recording medium 31 by the data writing unit 37. The information generated by the VBV buffer information generator 36 is recorded and held in a predetermined format after the encoded data (MPEG image data) has been written, that is, after the user has paused or ended the image compression recording. The written data may be converted into the structure shown in FIG.
[0088]
Next, in the case where the first and second MPEG image data recorded on the recording medium 31 are re-encoded for the section A in order to enable joint reproduction from a predetermined position. Will be described with reference to FIG.
[0089]
First, from a user interface (not shown), the user designates from which point of the first and second MPEG image data already recorded to be connected and reproduced.
[0090]
The recording medium 31 has already recorded the first and second MPEG image data (compressed encoded stream) and the VBV buffer information generated by the recording / reproducing apparatus shown in FIG. Therefore, the data reading unit 32 shown in FIG. 4 reads the VBV buffer information, and the VBV value, the PTM value, and the relative value at the position a in FIG. Get an address.
[0091]
When the connection playback position is specified from the user interface, for example, when the specification method is position information of the relative address of the data, the value closest to the relative address information in the EPn information of the structure of the VBV buffer information is set. Use VBV and PTM values linked to data. Also, if the method of designation is the time from the start time of the data or the time stamp information of the points to be played back, the PTM value in the EPn information of the structure of the VBV buffer information is similarly used, When this value is recorded with a clock of 90 kHz, the time of the second can be obtained by multiplying the value by the value of 1/90000 second, the position (relative address) for replaying the connection, VBV value, PTM A value can be obtained.
[0092]
These values are input to the parameter setter 34, and the image encoder 35 starts encoding from the set values. On the other hand, the encoded data search unit 38 searches the bit stream already recorded for the start position of the section A to be re-encoded. In the search, a pointer is set at a position from the head of the bit stream file using the relative address of the data.
[0093]
The image encoder 35 decodes the first MPEG image data corresponding to the section A, and the transition of the VBV buffer occupancy value is started again from the VBV value at the position a using the decoded image. The rate control is performed so that the process ends up to the VBV value at the position, and re-encoding is performed by the MPEG encoding method. For re-encoding, an image completely decoded as described above may be used, but a code amount control technique on a bit stream as disclosed in Japanese Patent Laid-Open No. 11-234677 may be used.
[0094]
Here, if the section A to be re-encoded is longer than the minimum unit of the VBV buffer information, the re-encoding occurs at the end of picture encoding one frame before the I picture and P picture of the bit stream. The code amount, the PTM value, and the VBV value are transmitted to the VBV buffer information creator 36 each time. At the same time, the re-encoded data is transmitted to the data writing unit 37.
[0095]
The VBV buffer information creator 36 creates data having the structure shown in FIG. 1 from the input generated code amount value, PTM value, and VBV value. Alternatively, data necessary for creating the data structure is stored in memory and recorded and held in a predetermined format. The information in the VBV buffer information generator 36 may be written in bursts at the same time when the encoded data is written, or when the encoded data is written, that is, the user compresses the image. Writing may be performed by converting the data recorded and held in a predetermined format when recording is temporarily stopped or ended into the structure of FIG.
[0096]
The re-encoded image data of section A (joined section A re-encoded data) is recorded as a separate file separated from the first and second MPEG image data. Alternatively, recording is performed by connecting to the head of the second recorded MPEG image data.
[0097]
First MPEG image data, second MPEG image data, information on the VBV buffer occupancy value and data address information thereof, re-encoded image data of section A (or re-encoded image data of section B, Alternatively, the re-encoded image data of the section A + B) may be recorded on the same recording medium, recorded on a plurality of recording media in any combination, or recorded on different recording media. It doesn't matter. In the case of being recorded separately on a plurality of recording media, it indicates that they are the same information group so that each recording medium is linked and operated (each data and information is linked). Information, such as an ID, may be recorded on each recording medium. The first MPEG image data, the second MPEG image data, and the re-encoded image data of the section A (or the re-encoded image data of the section B or the re-encoded image data of the section A + B). When recorded on the same recording medium, it is possible to control splice playback on the playback apparatus side with a single recording medium.
[0098]
If the information related to the VBV buffer occupancy value for obtaining the re-encoded image data of the connected section is not read from the side information recorded on the medium but calculated, the information about the VBV buffer occupancy value and its There is no need to record data address information.
[0099]
In the above embodiment, the recording medium is described as a recording medium in the recording / reproducing apparatus. However, the recording medium may be a recording medium detachably attached to the recording / reproducing apparatus or a recording medium (database) via a network.
[0100]
In the above embodiment, an example in which image data is connected by focusing on single MPEG image data has been described. However, in the MPEG transport stream, which is MPEG multiplexed data that is packet-multiplexed by the MPEG method together with audio data or the like. This may be applied when connecting MPEG image data.
[0101]
In many cases, variable-length-encoded MPEG image data, fixed-length-encoded MPEG 1 layer 2 audio, AC3, or the like are multiplexed in the transport stream. Therefore, when connecting MPEG image data, which is one of the element encoded data in the multiplexed data, a connection method that takes into account the consistency of the STD buffer (VBV buffer in video) defined by MPEG at the point of connection As described above, the method of the embodiment described above may be applied.
[0102]
For example, the first and second MPEG image data to be connected are extracted from the first and second MPEG transport streams, respectively, and connected in the same manner as in the above-described embodiment. Linked segment re-encoded data (re-encoded image data of interval A, re-encoded image data of interval B, re-encoded image data of interval A + B) used for splicing reproduction is packet-multiplexed by the MPEG method. The generated MPEG multiplexed data may be recorded.
[0103]
The state shown in FIG. 14 (1) indicates the state of the packet multiplexed data of the MPEG transport stream. A packet described as V is a video packet, a packet described as A is an audio packet, and a packet described as S is an information packet such as PAT or PMT used in the system. It is recorded in a form that complies with the rules of each MPEG2 system. The video packet has a light gray color. The state showing these as a whole is FIG. The state where only the video packets are collected is shown in FIG. The contents of this video packet are typically an I picture, followed by two B pictures, followed by one P picture, as shown in Figure 4 (4). is there.
[0104]
The code amount is adjusted by re-encoding in one or more of these pictures. For example, FIG. 5 shows a state in which the code amount is reduced. The code amount of each picture is small. The packetized state in this state is FIG. The reduced area is black. This packet reduces the overall amount of video. Then rebuild the TS. This state is expressed as a whole (7). FIG. 8 is an enlarged view of FIG. As a result, a part of the V packet is reduced, and the other element data packets are multiplexed as they are.
[0105]
In the MPEG system, PCR clock information must be recorded once every 100 msec. Since the data length is changed, the PCR clock information described in each element packet is changed as necessary. In addition, PTS and DTS are described in a packet in which the PES header at the head of an access unit (frame or field picture unit) is present in the video packet. In the audio packet, one or a plurality of audio frames are packed with PES, and the PTS is described in the packet having the head PES header. These time stamp information does not need to be changed if the number of pictures is not increased or decreased in the image, and the audio does not need to be changed unless the playback time length is increased or decreased. Add and modify appropriate PTS and DTS.
[0106]
Furthermore, when simply re-encoding, the GOP unit from the I picture that is the reset timing of predictive encoding is easy to handle, but when the GOP is not independent, that is, the B picture at the boundary is the GOP of both sides. The last reference picture of the previous GOP is decoded and stored in an image re-encoding memory (not shown) or the like. It may be necessary to keep it.
[0107]
First MPEG multiplexed data (first MPEG transport stream), second MPEG image data (second MPEG transport stream), information on the VBV buffer occupancy value, its data address information, and the section A spliced section generated by packet multiplexing according to the MPEG method including A recoded image data (or the recoded image data of the section B or the recoded image data of the section A + B) as element coded data The MPEG multiplexed data may be recorded on the same recording medium, recorded on a plurality of recording media in any combination, or recorded on different recording media. In the case of being recorded separately on a plurality of recording media, it indicates that they are the same information group so that each recording medium is linked and operated (each data and information is linked). Information, such as an ID, may be recorded on each recording medium. First MPEG multiplexed image data, second MPEG multiplexed image data, re-encoded image data of section A (or re-encoded image data of section B, or re-encoded image of section A + B) (Data) splicing section MPEG multiplexed data is recorded on the same recording medium, it is possible to control splicing playback on the playback device side with a single recording medium.
[0108]
【The invention's effect】
As described above, according to the present invention, the first MPEG multiplexed data packet-multiplexed including the first and second MPEG image data (or the first MPEG image data as the element encoded data). And packet-multiplexed second MPEG multiplexed data including the second MPEG image data as element encoded data) from the first MPEG image data at each designated connection designation position. When connected to the second MPEG image data and played back (when played back from the first MPEG multiplexed data to the second MPEG multiplexed data), the connection of the VBV buffer has overflow or underflow. Seamless and high-quality playback can be realized without any contradiction.
[0109]
Further, in the present invention, the image data to be newly generated / recorded in order to realize seamless and high-quality reproduction may be only re-encoded data of the set connection section. The recording medium for recording can be used efficiently.
[Brief description of the drawings]
FIG. 1 is a diagram showing a VBV buffer information structure based on an embodiment of a recording / reproducing apparatus to which the present invention is applied.
FIG. 2 is a diagram illustrating a relationship between MPEG image data and a relative address in one embodiment.
FIG. 3 is an explanatory diagram illustrating a VBV value in one embodiment.
FIG. 4 is a block diagram showing an embodiment of a recording / reproducing apparatus to which the present invention is applied.
FIG. 5 is a diagram illustrating an example of a conventional MPEG encoder.
FIG. 6 is a diagram illustrating an example of a conventional MPEG decoder.
FIG. 7 is a diagram for explaining the concept of a VBV buffer in MPEG.
FIG. 8 is a diagram for explaining a concept of splicing reproduction that can be realized by the present invention;
FIG. 9 is a diagram for explaining a concept of splicing reproduction that can be realized by the present invention.
FIG. 10 is a diagram for explaining a concept of splicing reproduction that can be realized by the present invention.
FIG. 11 is an explanatory diagram showing a conventional MPEG multiplexing system.
FIG. 12 is an explanatory diagram showing the relationship between MPEGTS, PS, and PES.
FIG. 13 is an explanatory diagram showing an example of use of MPEGTS PSI.
FIG. 14 is an explanatory diagram showing an arrangement of MPEGTS packets.
FIG. 15 is a diagram for explaining a concept of splicing reproduction that can be realized by the present invention;
FIG. 16 is a diagram for explaining an information value related to a VBV buffer occupation value according to an embodiment;
FIG. 17 is a diagram illustrating a relationship between a VBV buffer occupation value and a VBV delay value.
[Explanation of symbols]
31 Recording medium 32 Data reading unit 33 VBV buffer information detector 34 Parameter setting unit 35 Image encoder 36 VBV buffer information creation unit 37 Data writing unit 38 Encoded data search unit

Claims (1)

MPEG符号化方式で符号化されて同一の記録媒体に記録された画像データである第1及び第2の2つのMPEG画像データを、それぞれのMPEG画像データにおける指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生させるためのデータとして、前記MPEG符号化方式で符号化された第3の繋ぎ区間再符号化データを生成して記録させる記録手段を設けたMPEGデータ記録装置であって、
前記記録手段は、
前記第1のMPEG画像データにおける前記繋ぎ指定位置から第1の所定時間分前の位置を開始位置とし、前記第1のMPEG画像データにおける前記繋ぎ指定位置を終了位置とする区間を第1の繋ぎ区間とすると共に、前記第2のMPEG画像データにおける前記繋ぎ指定位置を開始位置とし、前記第2のMPEG画像データにおける前記繋ぎ指定位置から第2の所定時間分後の位置を終了位置とする区間を第2の繋ぎ区間とし、前記第1の繋ぎ区間と前記第2の繋ぎ区間とを合わせた区間を第3の繋ぎ区間として、
前記第1の繋ぎ区間の前記第1のMPEG画像データを復号して得た画像データである第1の繋ぎ区間復号画像データと、前記第2の繋ぎ区間の前記第2のMPEG画像データを復号して得た画像データである第2の繋ぎ区間復号画像データとよりなる第3の繋ぎ区間復号画像データを、前記MPEG符号化方式で再符号化して前記第3の繋ぎ区間再符号化データを生成する再符号化手段を備え、前記第3の繋ぎ区間再符号化データを前記同一の記録媒体の前記第1及び第2の2つの MPEG 画像データの記録されている各領域と異なる領域に記録させるものであり、
前記再符号化手段は、前記再符号化時において、VBVバッファ占有値に関する情報値の推移が、前記第1の繋ぎ区間の開始位置に対応する位置における前記第1のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値から開始されて、前記第2の繋ぎ区間の終了位置に対応する位置における前記第2のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値までで終了するように符号量制御を行い再符号化を行うものである、
ことを特徴とするMPEGデータ記録装置。
The first and second MPEG image data, which are image data encoded by the MPEG encoding method and recorded on the same recording medium , are stored at the specified connection specification positions in the respective MPEG image data. Recording means for generating and recording third linked section re-encoded data encoded by the MPEG encoding method as data to be reproduced by connecting from one MPEG image data to the second MPEG image data An MPEG data recording device provided with
The recording means includes
A section having a start position in the first MPEG image data as a start position and a end position at the connection specified position in the first MPEG image data is a first connection. A section having a connection designated position in the second MPEG image data as a start position and a position after a second predetermined time from the connection designated position in the second MPEG image data as an end position. As a second connecting section, and a section combining the first connecting section and the second connecting section as a third connecting section,
Decoding the first joint section decoded image data, which is image data obtained by decoding the first MPEG image data in the first joint section, and the second MPEG image data in the second joint section. The third joint section decoded image data composed of the second joint section decoded image data, which is the image data obtained as described above, is re-encoded by the MPEG encoding method, and the third joint section re-encoded data is obtained. Re-encoding means for generating , and recording the third linked section re-encoded data in an area different from each area where the first and second MPEG image data are recorded on the same recording medium It is what
The re-encoding means, during the re-encoding, changes the information value related to the VBV buffer occupancy value at the time of encoding the first MPEG image data at a position corresponding to the start position of the first connection section. Starting from the information value related to the VBV buffer occupancy value, and ends up to the information value related to the VBV buffer occupancy value at the time of encoding the second MPEG image data at the position corresponding to the end position of the second connection interval. The code amount is controlled as described above and re-encoding is performed.
MPEG data recording apparatus characterized by the above.
JP2002189976A 2001-05-30 2002-06-28 MPEG data recording device Expired - Lifetime JP3748245B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002189976A JP3748245B2 (en) 2001-05-30 2002-06-28 MPEG data recording device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001162346 2001-05-30
JP2001-162346 2001-05-30
JP2002189976A JP3748245B2 (en) 2001-05-30 2002-06-28 MPEG data recording device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002155986A Division JP3748234B2 (en) 2001-05-30 2002-05-29 MPEG data recording method

Publications (2)

Publication Number Publication Date
JP2003092734A JP2003092734A (en) 2003-03-28
JP3748245B2 true JP3748245B2 (en) 2006-02-22

Family

ID=26615964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002189976A Expired - Lifetime JP3748245B2 (en) 2001-05-30 2002-06-28 MPEG data recording device

Country Status (1)

Country Link
JP (1) JP3748245B2 (en)

Also Published As

Publication number Publication date
JP2003092734A (en) 2003-03-28

Similar Documents

Publication Publication Date Title
US8260122B2 (en) MPEG picture data recording apparatus, MPEG picture data recording method, MPEG picture data recording medium, MPEG picture data generating apparatus, MPEG picture data reproducing apparatus, and MPEG picture data reproducing method
JP2003169292A (en) After-recording device, computer program, recording medium, transmission method and reproducing device
JP3748234B2 (en) MPEG data recording method
JP4092681B2 (en) MPEG recording device, playback device, and transmission device
JP2003052040A (en) Mpeg data reproduction equipment
JP3748243B2 (en) MPEG data recording device
JP3748245B2 (en) MPEG data recording device
JP3748244B2 (en) MPEG data recording device
JP3748241B2 (en) MPEG data recording method
JP3748240B2 (en) MPEG data recording method
JP3748242B2 (en) MPEG data recording method
JP2007325304A (en) Mpeg data recording and reproducing method
JP4148200B2 (en) MPEG image data recording apparatus and MPEG image data recording method
JP2008005520A (en) Mpeg data recording and reproducing method
JP3721972B2 (en) MPEG image data recording method
JP2004297829A (en) Mpeg data reproduction equipment
JP4192861B2 (en) MPEG image data recording apparatus and MPEG image data recording method
JP2008005521A (en) Mpeg data recording and reproducing method
JP2007336574A (en) Mpeg data recording and reproducing apparatus
JP2008005519A (en) Mpeg data recording and reproducing apparatus
JP2008005522A (en) Mpeg data recording and reproducing method
JP4380068B2 (en) Data reproduction device and editing device
JP2004254347A (en) Mpeg data playback method
JP2004289872A (en) Mpeg data reproducing apparatus
JP2004289871A (en) Method for reproducing mpeg data

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051124

R151 Written notification of patent or utility model registration

Ref document number: 3748245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111209

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121209

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121209

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131209

Year of fee payment: 8

EXPY Cancellation because of completion of term