JP2008005521A - Mpeg data recording and reproducing method - Google Patents
Mpeg data recording and reproducing method Download PDFInfo
- Publication number
- JP2008005521A JP2008005521A JP2007195752A JP2007195752A JP2008005521A JP 2008005521 A JP2008005521 A JP 2008005521A JP 2007195752 A JP2007195752 A JP 2007195752A JP 2007195752 A JP2007195752 A JP 2007195752A JP 2008005521 A JP2008005521 A JP 2008005521A
- Authority
- JP
- Japan
- Prior art keywords
- mpeg
- image data
- data
- section
- encoded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
本発明は、MPEG符号化方式で符号化された画像データである第1及び第2の2つのMPEG
画像データを、それぞれのMPEG画像データにおける指定された繋ぎ指定位置で、前記第1
のMPEG画像データから前記第2のMPEG画像データへ繋げて再生させる際に、シームレスな
再生を実現させるためのMPEGデータ記録再生方法に関するものである。
The present invention relates to first and second MPEGs which are image data encoded by the MPEG encoding method.
The image data is stored in the first designated connection position in each MPEG image data.
The present invention relates to an MPEG data recording / reproducing method for realizing seamless reproduction when the MPEG image data is reproduced by being linked to the second MPEG image data.
本特許において使用する従来技術であるMPEGについて簡単に説明する。
MPEGについてはISO-IEC11172-2、ITU-T H.262 / ISO-IEC13818-2に詳細な説明がなされ
ているので、ここでは概略のみ説明する。MPEGは1988年、ISO/IEC JTC1/SC2(国際標準化
機構/国際電気標準化会合同技術委員会1/専門部会2、現在のSC29)に設立された動画像符
号化標準を検討する組織の名称(Moving Pictures Expert Group)の略称である。MPEG1
(MPEGフェーズ1)は1.5Mbps程度の蓄積メディアを対象とした標準で、静止画符号化を目
的としたJPEGと、ISDNのテレビ会議やテレビ電話の低転送レート用の動画像圧縮を目的と
したH.261(CCITT SGXV、現在のITU-T SG15で標準化)の基本的な技術を受け継ぎ、蓄積
メディア用に新しい技術を導入したものである。これらは1993年8月、ISO/IEC 11172 と
して成立している。
The conventional MPEG used in this patent will be briefly described.
Since MPEG is described in detail in ISO-IEC11172-2 and ITU-T H.262 / ISO-IEC13818-2, only the outline will be described here. MPEG is the name of the organization that examines video coding standards established in 1988 in ISO / IEC JTC1 / SC2 (International Organization for Standardization / International Electrotechnical Standards Meeting Technical Committee 1 / Technical Committee 2, now SC29) ( Abbreviation for Moving Pictures Expert Group. MPEG1
(MPEG Phase 1) is a standard for storage media of about 1.5 Mbps, and is intended for JPEG for still image coding and video compression for low transfer rates of ISDN video conferences and videophones. It inherits the basic technology of H.261 (CCITT SGXV, standardized by the current ITU-T SG15) and introduces new technology for storage media. These were established in August 1993 as ISO / IEC 11172.
MPEG1は幾つかの技術を組み合わせて作成されている。図5にMPEG符号化方式による符
号化を行う従来のMPEG符号化器を示し、以下に簡単に説明する。入力画像は動き補償予測
器1で復号化した画像と、入力画像の差分とを差分器2で取ることで時間冗長部分を削減
する。
MPEG1 is created by combining several technologies. FIG. 5 shows a conventional MPEG encoder that performs encoding by the MPEG encoding method, which will be briefly described below. For the input image, the difference between the image decoded by the
予測の方向は、過去、未来、両方からの3モード存在する。またこれらは16画素×16画
素のMB(Macroblock)ごとに切り替えて使用できる。予測方向は入力画像に与えられたPict
ure Typeによって決定される。過去からの予測により符号化するモードと、予測をしない
でそのMBを独立で符号化するモードとの2モード存在するのが片方向画像間予測符号化画
像(P-picture)である。また未来からの予測により符号化するモード、過去からの予測
により符号化するモード、両方からの予測により符号化するモード、独立で符号化するモ
ードの4モード存在するのが双方向画像間予測符号化画像(B-picture)である。そして
全てのMBが独立で符号化するのが画像内独立符号化画像(I-picture)である。
There are three modes of prediction from the past and the future. These can be used by switching every 16 pixels × 16 pixels MB (Macroblock). The prediction direction is Pict given to the input image
Determined by ure Type. One-way inter-picture predictive coded images (P-pictures) exist in two modes: a mode in which encoding is performed by prediction from the past and a mode in which MB is independently encoded without prediction. In addition, there are four modes of bi-directional inter-picture prediction: a mode that encodes by prediction from the future, a mode that encodes by prediction from the past, a mode that encodes by prediction from both, and a mode that encodes independently. This is a B-picture. All MBs are independently encoded in an intra-picture independently encoded image (I-picture).
動き補償は、動き領域をMBごとにパターンマッチングを行ってハーフペル精度で動きベ
クトルを検出し、動き分だけシフトしてから予測する。動きベクトルは水平方向と垂直方
向が存在し、何処からの予測かを示すMC(Motion Compensation)モードとともにMBの付加
情報として伝送される。
In motion compensation, the motion region is subjected to pattern matching for each MB, a motion vector is detected with half-pel accuracy, and prediction is performed after shifting by the motion amount. The motion vector has a horizontal direction and a vertical direction, and is transmitted as additional information of the MB together with an MC (Motion Compensation) mode indicating where the motion vector is predicted.
一般的には、Iピクチャから次のIピクチャの前のピクチャまでをGOP(Group Of Picture
)といい、蓄積メディアなどで使用される場合には、一般に約15ピクチャ程度が一つのG
OP区間として使用される。(但し、1GOP区間内に2つ以上のIピクチャを含んでもよい
。要するに1GOP区間内に1つ以上のIピクチャを含めばよい。)
差分画像はDCT器3において直交変換が行われる。DCT(Discrete Cosine Transform)と
は、余弦関数を積分核とした積分変換を有限空間への離散変換する直交変換である。MPEG
ではMBを4分割し8×8のDCTブロックに対して、2次元DCTを行う。一般にビデオ信号は低
域成分が多く高域成分が少ないため、DCTを行うと係数が低域に集中する。
In general, GOP (Group Of Picture) from I picture to the picture before the next I picture
), When used in storage media, etc.
Used as OP section. (However, two or more I pictures may be included in one GOP section. In short, one or more I pictures may be included in one GOP section.)
The difference image is subjected to orthogonal transformation in the
Then, the MB is divided into four, and the two-dimensional DCT is performed on the 8 × 8 DCT block. In general, video signals have many low-frequency components and few high-frequency components. Therefore, when DCT is performed, coefficients are concentrated in the low frequency range.
DCTされた画像データ(DCT係数)は量子化器4で量子化が行われる。量子化は量子化マ
トリックスという8×8の2次元周波数を視覚特性で重み付けした値と、その全体をスカラ
ー倍する量子化スケールという値で乗算した値を量子化値として、DCT係数をその量子化
値で叙算する。MPEG復号化器(デコーダー)で逆量子化するときは量子化値で乗算するこ
とにより、元のDCT係数に近似している値を得ることになる。
The image data (DCT coefficient) subjected to DCT is quantized by the
量子化されたデータはVLC器5で可変長符号化される。量子化された値のうち直流(D
C)成分は予測符号化のひとつであるDPCM(differential pulse code modulation )
を使用する。また交流(AC)成分は 低域から高域にzigzag scanを行い、ゼロのラン長
および有効係数値を1つの事象とし、出現確率の高いものから符号長の短い符号を割り当
てていくハフマン符号化が行われる。
The quantized data is variable length encoded by the
C) component is one of predictive coding DPCM (differential pulse code modulation)
Is used. Also, AC (AC) components are zigzag scanned from low to high, with zero run length and effective coefficient value as one event, and Huffman coding assigning codes with short code lengths from those with high appearance probability. Is done.
可変長符号化されたデータは一時バッファ6に蓄えられ、所定の転送レートで符号化デ
ータとして出力される。また、その出力されるデータのマクロブロック毎の発生符号量は
、符号量制御器21に送信され、目標符号量に対する発生符号量との誤差符号量を量子化
器4にフィードバックして量子化スケールを調整することで符号量制御される。
The variable-length encoded data is stored in the
量子化された画像データは逆量子化器7にて逆量子化、逆DCT器8にて逆DCTされ、加算
器9を介して一時、画像メモリー10に蓄えられたのち、動き補償予測器1において、差
分画像を計算するためのリファレンスの復号化画像として使用される。
The quantized image data is inversely quantized by the
このようにしてMPEG符号化された符号化データを復号化するMPEG復号化器(デコーダー
)を図6に示す。
入来する符号化データ(ストリーム)はバッファ11でバッファリングされ、バッファ
11からのデータはVLD器12に入力される。VLD器12では可変長復号化を行い、直流(
DC)成分および交流(AC)成分を得る。交流(AC)成分データは低域から高域にzi
gzag scanの順で8x8のマトリックスに配置される。このデータは逆量子化器13に入
力され、量子化マトリックスにて逆量子化される。逆量子化されたデータは逆DCT器14
に入力されて逆DCTされ、画像データ(復号化データ)として出力される。また、復号化
データは一時、画像メモリー16に蓄えられたのち、動き補償予測器17において、差分
画像を計算するためのリファレンスの復号化画像として使用される。
FIG. 6 shows an MPEG decoder (decoder) for decoding the encoded data encoded in this way.
Incoming encoded data (stream) is buffered by the
DC) component and alternating current (AC) component are obtained. AC component data is zi from low to high
They are arranged in an 8x8 matrix in the order of gzag scan. This data is input to the
Is subjected to inverse DCT and output as image data (decoded data). The decoded data is temporarily stored in the
また、符号化ビットストリームはビデオの場合1ピクチャーごとに可変長の符号量をも
っている。これはMPEGがDCT、量子化、ハフマン符号化という情報変換を用いている理由
と同時に、画質向上のためにピクチャーごとに配分する符号量は適応的に変更する必要性
があり、動き補償予測を行っているので、あるときは入力画像そのままを符号化し、ある
ときは予測画像の差分である差分画像を符号化するなど符号化画像自体のエントロピーも
大きく変化するためである。
In the case of video, the encoded bit stream has a variable amount of code for each picture. This is because MPEG uses information conversion such as DCT, quantization, and Huffman coding, and at the same time, it is necessary to adaptively change the amount of code allocated to each picture to improve image quality. This is because the entropy of the encoded image itself changes greatly, such as encoding the input image as it is in some cases and encoding a difference image that is the difference between the predicted images in some cases.
この場合、多くはその画像のエントロピー比率に配分しつつ、バッファの制限を守りな
がら符号量制御される。バッファ管理器は発生した符号量と符号化レートの関係を監視し
、所定のバッファ内に収まるように目標符号量を設定する。この値は可変長符号化器にフ
ィードバックされ、符号量制御器に入り、そこで量子化器にセットする量子化値を大きく
して発生符号量を抑えたり、量子化値を小さくして発生符号量を小さくしたりする。
In this case, in many cases, the code amount is controlled while allocating the entropy ratio of the image and keeping the limitation of the buffer. The buffer manager monitors the relationship between the generated code amount and the encoding rate, and sets the target code amount so as to be within a predetermined buffer. This value is fed back to the variable length encoder and enters the code amount controller, where the generated code amount is suppressed by increasing the quantized value set in the quantizer or by reducing the quantized value. Or make it smaller.
このような可変長データを固定の転送レート(符号化レート)で符号化する場合、復号
器の最大バッファ量を上限値とすると、一定速度でデータが入力されて、所定の値だけ溜
まったとことから、所定の時刻(NTSCのビデオ信号なら1/29.97 sec単位)で復号化を一
瞬で行うモデルを使用し、そのバッファがオーバーフローもアンダーフローも発生しない
ように符号化することがMPEGで規定されている。この規定(VBVバッファ規定)を守っ
ていればVBVバッファ内でのレートは局部的に変化しているものの、観測時間を長く取れ
ば固定の転送レートとなり、MPEGではこのことを固定レートであると定義している。
When encoding such variable-length data at a fixed transfer rate (encoding rate), if the maximum buffer amount of the decoder is the upper limit value, the data is input at a constant speed and only a predetermined value is accumulated. Therefore, MPEG is specified to use a model that performs decoding instantaneously at a predetermined time (1 / 29.97 sec unit for NTSC video signals) and encodes the buffer so that neither overflow nor underflow occurs. ing. If this rule (VBV buffer rule) is observed, the rate in the VBV buffer changes locally, but if the observation time is long, it becomes a fixed transfer rate. In MPEG, this is a fixed rate. Defined.
固定転送レートの場合、発生符号量の少ない場合にはバッファ占有量は、上限値に張り
付いた状態になる。この場合、無効ビットを追加してオーバーフローしないように符号量
を増やさなければならない。
In the case of a fixed transfer rate, when the amount of generated code is small, the buffer occupation amount is stuck to the upper limit value. In this case, it is necessary to increase the code amount so as not to overflow by adding an invalid bit.
可変転送レートの場合にはこの固定転送レートの定義を拡張して、バッファー占有率が
上限値になった場合、復号器の読み出しを中止することにより、原理的にオーバーフロー
が起きないように定義されている。こうしたバッファ推移を図7に示す。仮に非常に発生
符号量が少なくても、復号器の読み出しが中止されるので、固定転送レートの時のように
無効ビットをいれる必要はない。従って、アンダーフローだけが発生しないように符号化
する。
In the case of variable transfer rate, the definition of this fixed transfer rate is expanded so that when the buffer occupancy reaches the upper limit value, it is defined so that overflow will not occur in principle by stopping reading of the decoder. ing. Such a buffer transition is shown in FIG. Even if the amount of generated code is very small, reading of the decoder is stopped, so there is no need to insert invalid bits as in the case of a fixed transfer rate. Therefore, encoding is performed so that only underflow does not occur.
MPEGシステムはMPEGビデオ及びオーディオなどで符号化されビットストリームを、1個
のビットストリームに多重化し、同期を確保しながら再生する方式を規定したものである
。システムで規定されている内容は大きく分けて次の5点である。
1)複数の符号化されたビットストリームの同期再生
2)複数の符号化されたビットストリームの単一ビットストリームへの多重化
3)再生開始時のバッファの初期化
4)連続的なバッファの管理
5)復号や再生などの時刻の確定
MPEGシステムで多重化を行うには情報をパケット化する必要がある。パケットによる多
重化とは、例えばビデオ、オーディオを多重化する場合、各々をパケットと呼ばれる適当
な長さのストリームに分割し、ヘッダなどの付加情報を付けて、適宜、ビデオ、オーディ
オのパケットを切り替えて時分割伝送する方式である。ヘッダにはビデオ、オーディオな
どを識別する情報や、同期の為の時間情報が存在する。パケット長は伝送媒体やアプリケ
ーションに依存し、ATMのように53バイトから、光ディスクのように4Kバイトと長いも
のまで存在している。MPEGでは、パケット長は可変で任意に指定できるようになっている
。
The MPEG system stipulates a method for reproducing a bit stream that is encoded with MPEG video and audio, etc., and multiplexed into one bit stream while ensuring synchronization. The contents specified in the system are roughly divided into the following five points.
1) Synchronous playback of multiple encoded bitstreams 2) Multiplexing of multiple encoded bitstreams into a single bitstream 3) Buffer initialization at playback start 4) Continuous buffer management 5) Determining the time for decoding and playback
In order to multiplex in the MPEG system, it is necessary to packetize information. Packet multiplexing means, for example, when video and audio are multiplexed, each is divided into streams of appropriate length called packets, attached with additional information such as headers, and video and audio packets are switched appropriately. Time-division transmission. The header includes information for identifying video, audio, etc., and time information for synchronization. The packet length depends on the transmission medium and application, and ranges from 53 bytes like ATM to as long as 4 Kbytes like optical disc. In MPEG, the packet length is variable and can be specified arbitrarily.
データはパック、パケット化され、1パックは数パケットで構成されている。各Pパッ
クの先頭部分にはpack start codeやSCR(System Clock Referance) 、パケットの先頭部
分にはstream idやタイムスタンプが記述されている。タイムスタンプにはオーディオ、
ビデオなどの同期をとる時間情報が記述されており、DTS(Decoding Time Stamp)、PTS(Pr
esentation Time Stamp) の2種類が存在する。PCR(Program Clock Reference)は27MH
zの時間精度で記述されており、decoderの基準時計をロックする情報である。DTSはその
パケットデータ内の最初のアクセスユニット(ビデオなら1ピクチャ、オーディオなら例
えば1152サンプル)のデコード開始時刻を、PTSは表示(再生)開始時刻を示してい
る。図11に示すように、オーディオ、ビデオ、その他のデコーダーは、PCRでロックし
た共通の基準時計を常に監視し、DTSやPTSの時間と一致したときに、デコードや表示を行
うしくみになっている。多重化されたデータが各デコーダでバッファリングされ、同期し
た表示を行うための仮想的なデコーダをSTD(System Target Decoder)とよび、このSTDが
オーバーフローやアンダーフローを起こさないようにな多重化されていなければならない
。
Data is packed and packetized, and one pack is composed of several packets. Pack start code and SCR (System Clock Referance) are described in the head part of each P pack, and stream id and time stamp are described in the head part of the packet. Audio for timestamps,
Describes the time information for synchronization such as video, DTS (Decoding Time Stamp), PTS (Pr
esentation Time Stamp) exists. PCR (Program Clock Reference) is 27MH
It is described with z time accuracy and is information for locking the reference clock of the decoder. DTS indicates the decoding start time of the first access unit (1 picture for video, 1152 samples for audio) in the packet data, and PTS indicates the display (playback) start time. As shown in FIG. 11, the audio, video, and other decoders constantly monitor a common reference clock locked by PCR, and perform decoding and display when they coincide with the DTS or PTS time. . Multiplexed data is buffered by each decoder, and a virtual decoder for synchronized display is called STD (System Target Decoder), and multiplexed so that this STD does not cause overflow or underflow. Must be.
また、MPEGシステムには、大きく分けてTS ( Transport Stream)とPS ( Program Strea
m )が存在する。これらはPES(Packetized Elementary Stream)、およびその他の必要な情
報を含むパケットから構成されている。PESは両ストリーム間の変換を可能とするための
中間ストリームとして規定されていて、MPEGで符号化されたビデオ、オーディオデータの
他、プライベートストリームなどをパケット化したものである。
MPEG systems can be broadly divided into TS (Transport Stream) and PS (Program Strea).
m) exists. These are composed of packets including PES (Packetized Elementary Stream) and other necessary information. PES is defined as an intermediate stream for enabling conversion between both streams, and is a packet of a private stream or the like in addition to video and audio data encoded with MPEG.
PSは共通の基準時間を有するプログラムのビデオ、オーディオの多重化をすることが可
能である。パケットレイヤはPESとよばれ、この構造は図12に示すように、後述するTS
と共用して用いられ、これらの相互互換性を可能とする。PSのSTDモデルでは、ストリー
ムはPES パケット内の stream id によってスイッチされる。
PS can multiplex video and audio of programs with a common reference time. The packet layer is called PES, and this structure is shown in FIG.
And can be used interchangeably with each other. In the PS STD model, streams are switched by the stream id in the PES packet.
TSもPSと同じように共通の基準時間を有するプログラムのビデオ、オーディオの多重化
をすることが可能であるが、TSはさらに異なる基準時間を有する通信や放送などのマルチ
プログラムの多重化を可能としている。 TSはATMセル長や誤り訂正符号化する場合を考慮
し、188バイトの固定長パケットで構成されており、エラーが存在する系でも使用でき
るように考慮されている。TS パケット自体の構造はそれほど複雑ではないがマルチプロ
グラムのストリームであるため、その運用は複雑である。PSと比べて特徴的なのはTS パ
ケットが上位構造であるにも関わらず、PES パケット より(通常は)短く、PES パケッ
ト を分割してTS パケット に乗せて伝送する点である。TSのSTDモデルでは、ストリーム
はTS パケット内のPID(パケット ID)によってスイッチされる。
TS can also multiplex video and audio of programs that have a common reference time like PS, but TS can also multiplex multi-programs such as communications and broadcasts that have different reference times It is said. The TS is composed of a 188-byte fixed-length packet in consideration of the ATM cell length and error correction coding, and is considered so that it can be used even in a system in which an error exists. Although the structure of TS packet itself is not so complicated, its operation is complicated because it is a multi-program stream. A characteristic of PS is that although TS packets have a higher structure, they are (usually) shorter than PES packets, and are divided into TS packets for transmission. In the STD model of TS, the stream is switched by the PID (packet ID) in the TS packet.
MPEGシステムのTSにはその多重化されている番組の情報に関するパケットがどのPIDで
あるのかを指示する仕組みがある。それを図13で説明する。まずTSパケット群の中から
PID=0のものを探す。それはPAT (Program Association Table)と呼ばれる情報パケット
で、そのパケットの中にはPROGRAMナンバーPRに対応する情報PIDがリンクされた形で記述
されている。次に目的のPRに対応するPIDのパケットを読みに行くとPMT(Program Map Ta
ble)と呼ばれる情報パケットがあり、そのパケットの中にはそのPRに対応する番組のビ
デオパケットのPIDと、オーディオパケットのPIDの情報が記述されている。
The MPEG system TS has a mechanism for indicating which PID is a packet related to information of the multiplexed program. This will be described with reference to FIG. First, from the TS packet group
Search for PID = 0. It is an information packet called PAT (Program Association Table), in which information PID corresponding to the PROGRAM number PR is described in a linked form. Next, when reading the PID packet corresponding to the target PR, PMT (Program Map Ta
ble), which contains information on the PID of the video packet of the program corresponding to the PR and the PID of the audio packet.
PATとPMTのことをPSI(Program Specific Information)と呼び、目的の番組のチャ
ンネルにアクセス(エントリー)することが可能な情報体系になっている。
また、従来、特開平11−74799の発明によれば、記録媒体に記録されたMPEGデー
タなどの圧縮データを編集する場合、MPEGデータの連続性を保つため、その編集点ではVB
Vバッファをつねに固定になるよう発生符号量を制御したり、GOPをクローズドGOPとして
符号化するなど、連続性を考慮した符号化をおこなう方法が記載されている。
PAT and PMT are called PSI (Program Specific Information), which is an information system that allows access (entry) to the channel of the target program.
Conventionally, according to the invention of Japanese Patent Laid-Open No. 11-74799, when editing compressed data such as MPEG data recorded on a recording medium, in order to maintain the continuity of the MPEG data, the editing point is VB.
There are described methods for performing coding in consideration of continuity, such as controlling the amount of generated code so that the V-buffer is always fixed, and coding GOP as closed GOP.
また、特開平11−187354の発明のよれば、符号化データにはなんの制約も施さ
ずに、そのデータの部分区間のうち、編集素材として抜粋されたデータを指示する情報と
その再生順番に関する情報を記述し、記録されたデータは変更せずに、単一記録媒体に映
像編集を実現できる方法が記載されている。
Further, according to the invention of Japanese Patent Laid-Open No. 11-187354, there is no restriction on the encoded data, and the information indicating the data extracted as the editing material in the partial section of the data and the reproduction order thereof. A method is described in which information can be described and video editing can be realized on a single recording medium without changing the recorded data.
しかしながら上記の従来の方式では、MPEG画像データは単純につなぐとVBVバッファの
接続に矛盾が生じ、オーバーフローやアンダーフローがおきてしまった。
特開平11−74799の発明においては、どこで編集されても良いように、各GOPに
対してVBVバッファが常に固定になるよう発生符号量を制御したり、GOPをクローズドGOP
として符号化するなど、連続性を考慮した符号化制約を施すことになり、符号化効率の面
では不利な要因になっていた。
However, in the conventional method described above, when MPEG image data is simply connected, a contradiction occurs in the connection of the VBV buffer, and overflow and underflow occur.
In the invention of Japanese Patent Laid-Open No. 11-74799, the generated code amount is controlled so that the VBV buffer is always fixed for each GOP, or the GOP is closed GOP so that it can be edited anywhere.
As a result, encoding restrictions are considered in consideration of continuity, which is a disadvantageous factor in terms of encoding efficiency.
また、特開平11−187354の発明においては、あたかも編集したように再生表示
はされるが、その編集点での連続性は不完全で、MPEGデータのデコーダーバッファの初期
化などの一時的な静止現象がおこる可能性があった。
In the invention disclosed in Japanese Patent Laid-Open No. 11-187354, playback is displayed as if it had been edited, but the continuity at the editing point is incomplete, and temporary rest such as initialization of the decoder buffer of MPEG data is performed. There was a possibility that the phenomenon occurred.
本発明は、第1及び第2の2つのMPEG画像データを(または、第1のMPEG画像データを
要素符号化データとして含むパケット多重化された第1のMPEG多重化データと、第2のMP
EG画像データを要素符号化データとして含むパケット多重化された第2のMPEG多重化デー
タとを)、それぞれの指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第
2のMPEG画像データへ繋げて再生させる際に(前記第1のMPEG多重化データから前記第2
のMPEG多重化データへ繋げて再生させる際に)、VBVバッファの接続にオーバーフローや
アンダーフローの矛盾が生じることなく、シームレスで高品位な再生を実現させることが
できるMPEGデータ記録再生方法を提供することを目的としている。
The present invention provides first and second MPEG image data (or packet-multiplexed first MPEG multiplexed data including the first MPEG image data as element encoded data) and a second MP.
Packet-multiplexed second MPEG multiplexed data including EG image data as element-encoded data) from the first MPEG image data to the second MPEG image at each designated connection designation position. When connecting to data and reproducing (from the first MPEG multiplexed data to the second
MPEG data recording and playback method that can realize seamless and high-quality playback without causing overflow or underflow inconsistency in VBV buffer connection (when playing back to MPEG multiplexed data) The purpose is that.
そこで、上記課題を解決するために本発明は、以下の記録再生方法を提供するものである。
(1) 第1の記録媒体に記録されているMPEG方式によりパケット多重化されて成る第1及び第2のMPEG多重化データのそれぞれにおいて、前記第1のMPEG多重化データが要素符号化データとして含むMPEG符号化方式で符号化された第1のMPEG画像データと、前記第2のMPEG多重化データが要素符号化データとして含む前記MPEG符号化方式で符号化された第2のMPEG画像データとの各MPEG画像データにおける指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生させるためのデータとして、前記MPEG符号化方式で符号化された繋ぎ区間再符号化データを生成して記録させる記録ステップを設けると共に、
前記MPEG符号化方式で符号化された画像データである2つのMPEG画像データを、それぞれのMPEG画像データにおける指定された繋ぎ指定位置で、一方のMPEG画像データから他方のMPEG画像データへ繋げて再生を行う繋ぎ再生ステップを設けたMPEGデータ記録再生方法であって、
前記記録ステップは、
前記第2のMPEG画像データにおける前記繋ぎ指定位置を開始位置とし、前記第2のMPEG画像データにおける前記繋ぎ指定位置から所定時間分後の位置を終了位置とする区間を繋ぎ区間として、
前記繋ぎ区間の前記第2のMPEG画像データを復号して得た画像データである繋ぎ区間復号画像データを、前記MPEG符号化方式で再符号化して前記繋ぎ区間再符号化データを生成し、前記繋ぎ区間再符号化データを要素符号化データとして含んで前記MPEG方式によりパケット多重化して生成した繋ぎ区間MPEG多重化データを、前記第1の記録媒体の前記第1及び第2のMPEG多重化データの記録されている各領域と異なる領域に記録させるステップであり、
前記再符号化は、その再符号化時におけるVBVバッファ占有値に関する情報値の推移が、前記繋ぎ指定位置に対応する位置における前記第1のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値から開始されて、前記繋ぎ区間の終了位置に対応する位置における前記第2のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値までで終了するように符号量制御が行われて実行されるものであり、
前記繋ぎ再生ステップは、前記第1の記録媒体から再生を行う第1の繋ぎ再生ステップと、第2の記録媒体から再生を行う第2の繋ぎ再生ステップとを有し、
前記第1の繋ぎ再生ステップは、
前記第1の記録媒体に記録されている前記第1のMPEG多重化データから前記第1のMPEG画像データを得、前記第1の記録媒体に記録されている前記第2のMPEG多重化データから前記第2のMPEG画像データを得ると共に、前記第1の記録媒体に記録されている前記繋ぎ区間MPEG多重化データから前記繋ぎ区間再符号化データを得て、
前記第1のMPEG画像データにおける前記繋ぎ指定位置まで前記第1のMPEG画像データを再生した後、前記繋ぎ区間再符号化データを前記繋ぎ区間の開始位置から終了位置まで再生し、その後、前記第2のMPEG画像データにおける前記繋ぎ区間の終了位置から前記第2のMPEG画像データを再生する繋ぎ再生ステップであり、
前記第2の繋ぎ再生ステップは、
前記MPEG符号化方式で符号化された第3のMPEG画像データを要素符号化データとして含んで前記MPEG方式によりパケット多重化して生成され前記第2の記録媒体に記録された第3のMPEG多重化データから前記第3のMPEG画像データを得、前記MPEG符号化方式で符号化された第4のMPEG画像データを要素符号化データとして含んで前記MPEG方式によりパケット多重化して生成され前記第2の記録媒体に記録された第4のMPEG多重化データから前記第4のMPEG画像データを得ると共に、繋ぎ再生させるためのデータである繋ぎ区間再符号化データを要素符号化データとして含んで前記MPEG方式でパケット多重化して生成され前記第2の記録媒体の前記第3及び第4のMPEG多重化データの記録されている各領域とは異なる領域に記録された繋ぎ区間MPEG多重化データから前記繋ぎ区間再符号化データを得て、
前記第3のMPEG画像データにおける前記繋ぎ指定位置まで前記第3のMPEG画像データを再生した後、前記繋ぎ区間再符号化データを前記第4のMPEG画像データにおいて設定された所定の繋ぎ区間の開始位置から終了位置まで再生し、その後、前記第4のMPEG画像データにおける前記繋ぎ区間の終了位置から前記第4のMPEG画像データを再生する繋ぎ再生ステップであり、
前記第2の記録媒体に記録された前記繋ぎ区間再符号化データは、前記第4のMPEG画像データにおける前記繋ぎ指定位置を開始位置とし、前記第4のMPEG画像データにおける前記繋ぎ指定位置から所定時間分後の位置を終了位置とする区間を前記繋ぎ区間として、前記繋ぎ区間の前記第4のMPEG画像データを復号して得た画像データである繋ぎ区間復号画像データを、前記MPEG符号化方式で再符号化して生成された再符号化データであって、
前記第2の記録媒体に記録された前記繋ぎ区間再符号化データは、前記再符号化時におけるVBVバッファ占有値に関する情報値の推移が、前記繋ぎ指定位置に対応する位置における前記第3のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値から開始されて、前記繋ぎ区間の終了位置に対応する位置における前記第4のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値までで終了するように符号量制御が行われて再符号化されたものである、
ことを特徴とするMPEGデータ記録再生方法。
Therefore, in order to solve the above problems, the present invention provides the following recording / reproducing method.
(1) In each of the first and second MPEG multiplexed data that is packet-multiplexed by the MPEG method recorded on the first recording medium, the first MPEG multiplexed data is used as element encoded data. First MPEG image data encoded by the included MPEG encoding method, second MPEG image data encoded by the MPEG encoding method including the second MPEG multiplexed data as element encoded data, and As a data to be reproduced from the first MPEG image data to the second MPEG image data at the designated connection designation position in each of the MPEG image data, the linkage encoded by the MPEG encoding method is used. A recording step for generating and recording interval re-encoded data is provided, and
Two MPEG image data, which are image data encoded by the MPEG encoding method, are reproduced by connecting from one MPEG image data to the other MPEG image data at a specified connection specification position in each MPEG image data. An MPEG data recording / reproducing method provided with a connected reproduction step for performing
The recording step includes
The connection specified position in the second MPEG image data is set as a start position, and a section having a position after a predetermined time from the connection specified position in the second MPEG image data as an end position is set as a connection section.
Re-encoding the connection interval decoded image data, which is image data obtained by decoding the second MPEG image data of the connection interval, using the MPEG encoding method, and generating the connection interval re-encoded data, The first and second MPEG multiplexed data of the first recording medium is obtained by combining the segmented MPEG multiplexed data generated by packet multiplexing according to the MPEG method, including the segmented recoded data as the element encoded data. Are recorded in a different area from each recorded area,
In the re-encoding, information on the VBV buffer occupancy value at the time of encoding the first MPEG image data at a position corresponding to the connection designated position is a transition of an information value related to the VBV buffer occupancy value at the time of re-encoding. The code amount control is performed so that the code value is controlled so as to end up to the information value related to the VBV buffer occupation value at the time of encoding the second MPEG image data at the position corresponding to the end position of the connecting section. Is,
The splicing reproduction step has a first splicing reproduction step of reproducing from the first recording medium and a second splicing reproduction step of reproducing from the second recording medium,
The first splicing reproduction step includes
The first MPEG image data is obtained from the first MPEG multiplexed data recorded on the first recording medium, and from the second MPEG multiplexed data recorded on the first recording medium. Obtaining the second MPEG image data, obtaining the joint section re-encoded data from the joint section MPEG multiplexed data recorded on the first recording medium,
After the first MPEG image data is reproduced up to the connection designated position in the first MPEG image data, the connection section re-encoded data is reproduced from the start position to the end position of the connection section. A joint reproduction step of reproducing the second MPEG image data from an end position of the joint section in the MPEG image data of 2;
The second splicing reproduction step includes
Third MPEG multiplexing that is generated by packet multiplexing according to the MPEG method, including the third MPEG image data encoded by the MPEG encoding method as element encoded data, and recorded on the second recording medium The third MPEG image data is obtained from the data, the fourth MPEG image data encoded by the MPEG encoding method is included as element encoded data, packet-multiplexed by the MPEG method, and generated by the second multiplexing. The MPEG format is obtained by obtaining the fourth MPEG image data from the fourth MPEG multiplexed data recorded on the recording medium, and including re-encoded data as segment encoded data, which is data to be reconstructed. Or connected segment MPEG multiplexed data generated by packet multiplexing and recorded in a region different from each of the third and fourth MPEG multiplexed data recorded on the second recording medium. To obtain the re-encoded data of the connecting section,
After the third MPEG image data is reproduced up to the connection designated position in the third MPEG image data, the connection section re-encoded data is used as a start of a predetermined connection section set in the fourth MPEG image data. Replaying from a position to an end position, and then replaying the fourth MPEG image data from the end position of the splicing section in the fourth MPEG image data,
The splice section re-encoded data recorded on the second recording medium has a splice designated position in the fourth MPEG image data as a start position, and is predetermined from the splice designated position in the fourth MPEG image data. Using the section having a position after time as an end position as the joining section, the joint section decoded image data, which is image data obtained by decoding the fourth MPEG image data of the joining section, is converted into the MPEG encoding method. Re-encoded data generated by re-encoding at
The joint section re-encoded data recorded on the second recording medium has the third MPEG at a position where the transition of the information value related to the VBV buffer occupation value at the time of the re-encoding corresponds to the joint designation position. Starting from an information value related to the VBV buffer occupancy value at the time of encoding image data, up to an information value related to the VBV buffer occupancy value at the time of encoding the fourth MPEG image data at a position corresponding to the end position of the splicing section The code amount control is performed so as to end with the re-encoding,
MPEG data recording and reproducing method characterized by the above.
以上の通り、本発明を用いれば、第1及び第2の2つのMPEG画像データを(または、第
1のMPEG画像データを要素符号化データとして含むパケット多重化された第1のMPEG多重
化データと、第2のMPEG画像データを要素符号化データとして含むパケット多重化された
第2のMPEG多重化データとを)、それぞれの指定された繋ぎ指定位置で、前記第1のMPEG
画像データから前記第2のMPEG画像データへ繋げて再生させる際に(前記第1のMPEG多重
化データから前記第2のMPEG多重化データへ繋げて再生させる際に)、VBVバッファの接
続にオーバーフローやアンダーフローの矛盾が生じることなく、シームレスで高品位な再
生を実現させることができる。
As described above, according to the present invention, the first MPEG multiplexed data packet-multiplexed including the first and second MPEG image data (or the first MPEG image data as the element encoded data). And the second MPEG multiplexed data packet-multiplexed including the second MPEG image data as the element encoded data) at each designated connection designation position.
When the image data is played back by connecting to the second MPEG image data (when the first MPEG multiplexed data is played back by connecting to the second MPEG multiplexed data), the VBV buffer connection overflows Seamless and high-quality playback can be realized without any inconsistency of the underflow and underflow.
まず、本発明で実現可能とする繋ぎ再生の概念を説明する。図8のように第MPEG符号化
方式で符号化された画像データである1のMPEG画像データと同じく第2のMPEG画
像データが存在する場合の、第1のMPEG画像データの途中(指定された繋ぎ指定位置
)から第2のMPEG画像データを繋げて再生することを考える。接続点(第1のMPEG画
像データにおける繋ぎ指定位置)がbの位置と仮定すると、第1のMPEG画像データの
bの位置まで再生を行い、そのあと第2のMPEG画像データへ接続してデータを再生す
ることになるが、MPEG画像データは単純につなぐとVBVバッファの接続に矛盾が生じ、オ
ーバーフローやアンダーフローがおきてしまうという問題が生じる。
First, the concept of joint reproduction that can be realized by the present invention will be described. As shown in FIG. 8, when the second MPEG image data exists in the same way as the first MPEG image data which is the image data encoded by the first MPEG encoding method, the middle of the first MPEG image data (specified Consider that the second MPEG image data is connected and reproduced from the connection designated position). Assuming that the connection point (connection designation position in the first MPEG image data) is the position b, the reproduction is performed up to the position b in the first MPEG image data, and then the data is connected to the second MPEG image data. However, when MPEG image data are simply connected, there is a problem in that the connection of the VBV buffer is inconsistent and overflow or underflow occurs.
そこで、まず、第1のMPEG画像データと第2のMPEG画像データとのMPEG符号化
方式での符号化時における、VBVバッファの情報を所定区間単位(第1のMPEG画像デー
タでは第1の所定区間単位、第2のMPEG画像データでは第2の所定区間単位)でサイド情
報として生成して記録媒体に記述しておくようにする。
Therefore, first, the information of the VBV buffer at the time of encoding the first MPEG image data and the second MPEG image data by the MPEG encoding method is set to a predetermined section unit (the first predetermined image in the first MPEG image data). It is generated as side information in a section unit, and in the second MPEG image data, a second predetermined section unit) and is described in the recording medium.
なお、このサイド情報にVBVバッファの情報を記述しないで繋ぎ再生を実現すること
も可能である。この場合には2つの方法が考えられるが、それについては後述する。
第1のMPEG画像データに関するVBVバッファの情報は、第1のMPEG画像データの第1
の所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時
点でのVBVバッファ占有値に関する情報値を示す第1のVBVバッファ占有値関連情報と、VB
Vバッファ占有値に関する情報値が第1のMPEG画像データのどの位置におけるVBVバッファ
占有値に関する情報値であるかを示す第1のアドレス情報とである。
Note that it is also possible to realize splicing reproduction without describing the information of the VBV buffer in this side information. In this case, two methods can be considered, which will be described later.
The information of the VBV buffer related to the first MPEG image data is the first of the first MPEG image data.
First VBV buffer occupancy value related information indicating the information value related to the VBV buffer occupancy value at the MPEG encoding start or end time of the last picture in the predetermined interval
This is first address information indicating the information value related to the VBV buffer occupation value at which position of the first MPEG image data the information value related to the V buffer occupation value.
第2のMPEG画像データに関するVBVバッファの情報は、第2のMPEG画像データの第2
の所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時
点でのVBVバッファ占有値に関する情報値を示す第2のVBVバッファ占有値関連情報と、VB
Vバッファ占有値に関する情報値が前記第2のMPEG画像データのどの位置におけるVBVバッ
ファ占有値に関する情報値であるかを示す第2のアドレス情報とである。
The information of the VBV buffer regarding the second MPEG image data is the second of the second MPEG image data.
Second VBV buffer occupancy value related information indicating an information value related to the VBV buffer occupancy value at the time of starting or ending the MPEG encoding of the last picture in the predetermined interval
The second address information indicates the information value related to the VBV buffer occupation value at which position of the second MPEG image data the information value related to the V buffer occupation value.
VBVバッファ占有値に関する情報値とは、例えばMPEGで規定されているVBVバッファ占有
値またはVBV delay値である。
前記第1及び第2の所定区間の1単位は後述するように例えば3フレーム程度のもので
も、1GOP程度でもよい。仮にその所定区間単位を、第1のMPEG画像データにおいては
図8のa-b間、第2のMPEG画像データにおいては図8のc-d間とする。
The information value related to the VBV buffer occupancy value is, for example, a VBV buffer occupancy value or a VBV delay value defined by MPEG.
As described later, one unit of the first and second predetermined sections may be about 3 frames or about 1 GOP. The predetermined interval unit is assumed to be between ab in FIG. 8 for the first MPEG image data and between cd in FIG. 8 for the second MPEG image data.
前記VBVバッファの情報リストには、aの位置(前記第1のMPEG画像データにおける
前記繋ぎ指定位置から第1の所定時間分前の前記第1の所定区間の境界:即ち後述する区
間Aの開始位置)でのVBVバッファの情報と、bの位置(第1のMPEG画像データにおけ
る前記繋ぎ指定位置:即ち後述する区間Aの終了位置)でのVBVバッファの情報が記述
されている。また、第2のMPEG画像データのcの位置(第2のMPEG画像データにおけ
る前記繋ぎ指定位置から第2の所定時間分前の前記第2の所定区間の境界位置)でのVB
Vバッファの情報と、接続点dの位置(第2のMPEG画像データにおける前記繋ぎ指定位置
:この例の場合は第2の所定区間の境界位置)でのVBVバッファの情報も存在する。
In the information list of the VBV buffer, the position of a (the boundary of the first predetermined section before the first predetermined time from the connection specified position in the first MPEG image data: that is, the start of section A described later) The VBV buffer information at the position (position) and the VBV buffer information at the position b (the connection designation position in the first MPEG image data: that is, the end position of the section A described later) are described. Also, VB at the position c of the second MPEG image data (the boundary position of the second predetermined section in the second MPEG image data for the second predetermined time before the connection specified position).
Information on the V buffer and information on the VBV buffer at the position of the connection point d (the connection designation position in the second MPEG image data: the boundary position of the second predetermined section in this example) are also present.
そこで、第1のMPEG画像データのa-b区間(第1の繋ぎ区間:ここでは区間Aとす
る)のデータを、一旦、復号化して復号画像データを得、その復号画像データ(第1の繋
ぎ区間復号画像データ)をMPEG符号化方式で再符号化を行う。それによって作成された再
符号化データを区間Aの再符号化MPEG画像データ(第1の繋ぎ区間再符号化データ)
と呼ぶこととする。この再符号化は、VBVバッファ占有値に関する情報値の推移が、a
の位置での前記検出した第1のVBVバッファ占有値関連情報に基づき得られたVBVバッファ
占有値に関する情報値から開始されて、dの位置での前記検出した第2のVBVバッファ占
有値関連情報に基づき得られたVBVバッファ占有値に関する情報値までで終了するように
レートコントロールを行ってMPEG符号化方式で再符号化を行う。
Therefore, the data in the ab section (first connection section: here, section A) of the first MPEG image data is once decoded to obtain decoded image data, and the decoded image data (first connection section). (Decoded image data) is re-encoded by the MPEG encoding method. The re-encoded data created thereby is re-encoded MPEG image data of section A (first connected section re-encoded data).
I will call it. In this re-encoding, the transition of the information value related to the VBV buffer occupation value becomes a
Starting from the information value related to the VBV buffer occupancy value obtained based on the detected first VBV buffer occupancy value related information at the position d, and the detected second VBV buffer occupancy value related information at the position d Then, the rate control is performed so that the process ends up to the information value related to the VBV buffer occupation value obtained based on the above, and re-encoding is performed by the MPEG encoding method.
従来の繋ぎ再生動作である、第1のMPEG画像データのbの位置まで再生を行い、そ
のあと第2のMPEG画像データのdの位置へ接続してデータを再生する、という動作を
、区間Aの再符号化MPEG画像データを用いて次のような動作とする。即ち、第1のM
PEG画像データのaの位置(区間Aの開始位置)までは第1のMPEG画像データの再
生を行い、そのあと前記区間Aの再符号化MPEG画像データをその区間の開始位置から
終了位置まで再生し、その後、第2のMPEG画像データのdの位置(繋ぎ指定位置)へ
接続してd以降の第2のMPEG画像データのデータを再生する、という動作にする。再
生装置側にこの動作を行う繋ぎ再生手段を設けて実現させる。
The operation of performing the conventional joint reproduction operation of reproducing to the position of b of the first MPEG image data and then reproducing the data by connecting to the position of d of the second MPEG image data is performed in section A. The following operation is performed using the re-encoded MPEG image data. That is, the first M
The first MPEG image data is reproduced up to the position a of the PEG image data (start position of section A), and then the re-encoded MPEG image data of section A is reproduced from the start position to the end position of the section. Then, the second MPEG image data is connected to the d position (connection designated position) of the second MPEG image data, and the second MPEG image data after d is reproduced. This is realized by providing a connecting reproduction means for performing this operation on the reproduction apparatus side.
この繋ぎ再生動作とすることで、元の第1及び第2のMPEG画像データ同じコンテン
ツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生を実現すること
が可能となる。
By performing this joint playback operation, it is possible to realize seamless connection playback that has the same content content as the original first and second MPEG image data and that does not cause the VBV buffer to fail.
なお、図8に示した、第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MP
EG画像データを得る場合には、接続点dの位置(第2のMPEG画像データにおける繋ぎ指
定位置)のVBVバッファの情報が必要となる。前述したようにVBVバッファの情報は
、MPEG画像データの所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始
時点または終了時点での情報であるので、所定区間の境界の位置での情報となる。従って
、接続点の位置(繋ぎ指定位置)は、少なくとも第2のMPEG画像データにおいては第2の
所定区間の境界として指定される必要がある。(即ち、第2のMPEG画像データにおける接
続点dの位置は第2の所定区間の境界として指定される必要がある。)
また、第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データ
を得る場合には、前述したように図8に示したaの位置(繋ぎ区間Aの開始位置)のVB
Vバッファの情報も必要となる。しかし、aの位置は、第1のMPEG画像データにおける接
続点(繋ぎ指定位置)bから第1の所定時間分前の第1の所定区間の境界として指定され
るので、接続点bの位置に関わらずaの位置ではVBVバッファの情報がえられる。よっ
て、第1のMPEG画像データにおける接続点bの位置は、必ずしも第1の所定区間の境界と
して指定される必要はない。
It should be noted that the re-encoding MP of the section shown in FIG. 8 based on only the first MPEG image data side.
In order to obtain EG image data, information in the VBV buffer at the position of the connection point d (connection designation position in the second MPEG image data) is required. As described above, the information in the VBV buffer is information at the start or end of MPEG encoding of the last picture in the predetermined section of the MPEG image data. It becomes. Therefore, the position of the connection point (connection specification position) needs to be specified as the boundary of the second predetermined section at least in the second MPEG image data. (That is, the position of the connection point d in the second MPEG image data needs to be specified as the boundary of the second predetermined section.)
Further, when re-encoded MPEG image data of the connecting section is obtained based only on the first MPEG image data side, as described above, VB at the position a (starting position of the connecting section A) shown in FIG.
V buffer information is also required. However, since the position of a is designated as the boundary of the first predetermined section before the first predetermined time from the connection point (connection designation position) b in the first MPEG image data, the position of the connection point b is set. Regardless, the information of the VBV buffer is obtained at the position a. Therefore, the position of the connection point b in the first MPEG image data does not necessarily have to be specified as the boundary of the first predetermined section.
次に、その応用例を図9(2),(3)に示す。同図(1)は図8に示した例と同様の
ものである。図8に示した例では、第1のMPEG画像データ側のみを元に繋ぎ区間の再
符号化MPEG画像データを得て繋ぎ再生を実現したが、第2のMPEG画像データ側の
みを元に繋ぎ区間の再符号化MPEG画像データを得て繋ぎ再生を実現することも可能で
ある。その例が図9(2)に示したものであり、第2のMPEG画像データにおける繋ぎ区間
Bの再符号化MPEG画像データを用いるものである。
Next, application examples thereof are shown in FIGS. 9 (2) and 9 (3). FIG. 1A is the same as the example shown in FIG. In the example shown in FIG. 8, the re-encoded MPEG image data of the section is obtained based on only the first MPEG image data side, and the joint reproduction is realized. However, only the second MPEG image data side is connected. It is also possible to obtain the re-encoded MPEG image data of the section and realize the joint reproduction. An example of this is shown in FIG. 9 (2), in which re-encoded MPEG image data in the connection section B in the second MPEG image data is used.
図9(2)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をiの位
置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をkの位置とする。前述
したVBVバッファの情報を有する単位である第1及び第2の所定区間の1単位を、第1
のMPEG画像データにおいてはi-j間、第2のMPEG画像データにおいてはk-l間とする。l
の位置は第2のMPEG画像データにおける接続点(繋ぎ指定位置)kから第2の所定時間分
後の第2の所定区間の境界位置となる。接続点kを開始位置としlの位置を終了位置とす
る区間を繋ぎ区間B(第2の繋ぎ区間)とする。
In FIG. 9 (2), a connection point (connection designation position) in the first MPEG image data is a position i, and a connection point (connection designation position) in the second MPEG image data is a position k. One unit of the first and second predetermined sections, which are units having the information of the VBV buffer described above, is a first unit.
In the MPEG image data, between ij, and in the second MPEG image data, between k−1. l
Is the boundary position of the second predetermined section after the second predetermined time from the connection point (connection designated position) k in the second MPEG image data. A section having the connection point k as the start position and the position l as the end position is defined as a connection section B (second connection section).
第2のMPEG画像データのを繋ぎ区間B(k-l区間)のデータを、一旦、復号化し
て、復号画像データを得、その復号画像データ(第2の繋ぎ区間復号画像データ)をMPEG
符号化方式で再符号化を行う。それによって作成された再符号化データを繋ぎ区間Bの再
符号化MPEG画像データ(第2の繋ぎ区間再符号化データ)と呼ぶこととする。この再
符号化は、VBVバッファ占有値に関する情報値の推移が、iの位置での第1のVBVバッ
ファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値から開始されて
、lの位置での第2のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に
関する情報値までで終了するようにレートコントロールを行ってMPEG符号化方式で再符号
化を行う。
The data of the section B (k-1 section) connecting the second MPEG image data is once decoded to obtain decoded image data, and the decoded image data (second connection section decoded image data) is converted into MPEG.
Re-encoding is performed using the encoding method. The re-encoded data created thereby will be referred to as re-encoded MPEG image data (second connected interval re-encoded data) in the connection interval B. This re-encoding is started from the information value related to the VBV buffer occupancy value obtained from the transition of the information value related to the VBV buffer occupancy value based on the first VBV buffer occupancy value related information at the position i. The rate control is performed so as to end up to the information value related to the VBV buffer occupation value obtained based on the second VBV buffer occupation value related information at the position, and re-encoding is performed by the MPEG encoding method.
そして、繋ぎ区間Bの再符号化MPEG画像データを用いて、第1のMPEG画像デー
タから第2のMPEG画像データへの繋ぎ再生を行う。すなわち、第1のMPEG画像デ
ータの接続点i(繋ぎ指定位置)までは第1のMPEG画像データの再生を行い、そのあ
と前記区間Bの再符号化MPEG画像データをその区間の開始位置から終了位置まで再生
し、その後、第2のMPEG画像データのlの位置(繋ぎ区間Bの終了位置)へ接続して
lの位置以降の第2のMPEG画像データのデータを再生する、という動作にする。再生
装置側にこの動作を行う繋ぎ再生手段を設けて実現させる。
Then, using the re-encoded MPEG image data in the connection section B, connection reproduction from the first MPEG image data to the second MPEG image data is performed. That is, the first MPEG image data is reproduced up to the connection point i (connection designated position) of the first MPEG image data, and then the re-encoded MPEG image data of the section B is ended from the start position of the section. To the position, and then connected to the
この繋ぎ再生動作とすることで、元の第1及び第2のMPEG画像データ同じコンテン
ツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生を実現すること
が可能となる。
By performing this joint playback operation, it is possible to realize seamless connection playback that has the same content content as the original first and second MPEG image data and that does not cause the VBV buffer to fail.
なお、図9(2)に示した、第2のMPEG画像データ側のみを元に繋ぎ区間の再符号
化MPEG画像データを得る場合には、接続点iの位置(第1のMPEG画像データにおける
繋ぎ指定位置)のVBVバッファの情報が必要となる。前述したようにVBVバッファの
情報は、MPEG画像データの所定区間毎における、その区間の最後のピクチャーのMPEG符号
化開始時点または終了時点での情報であるので、所定区間の境界の位置での情報となる。
従って、接続点の位置(繋ぎ指定位置)は、少なくとも第1のMPEG画像データにおいては
第1の所定区間の境界として指定される必要がある。(即ち、第1のMPEG画像データにお
ける接続点iの位置は第1の所定区間の境界として指定される必要がある。)
また、第2のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データ
を得る場合には、前述のように図9(2)に示した、lの位置(繋ぎ区間Bの終了位置)
のVBVバッファの情報も必要となる。しかし、lの位置は、第2のMPEG画像データにお
ける接続点(繋ぎ指定位置)kから第2の所定時間分後の第2の所定区間の境界として指
定されるので、接続点kの位置に関わらずlの位置ではVBVバッファの情報が得られる
。よって、第2のMPEG画像データにおける接続点kの位置は、必ずしも第2の所定区間の
境界として指定される必要はない。
In addition, when obtaining re-encoded MPEG image data of a section connected based only on the second MPEG image data side shown in FIG. 9B, the position of the connection point i (in the first MPEG image data) Information of the VBV buffer at the connection designated position) is required. As described above, the information in the VBV buffer is information at the start or end of MPEG encoding of the last picture in the predetermined section of the MPEG image data. It becomes.
Therefore, the position of the connection point (connection specification position) needs to be specified as the boundary of the first predetermined section at least in the first MPEG image data. (That is, the position of the connection point i in the first MPEG image data needs to be specified as the boundary of the first predetermined section.)
Further, when re-encoded MPEG image data of a connection section is obtained based only on the second MPEG image data side, the position of l shown in FIG. position)
The VBV buffer information is also required. However, the position of l is specified as the boundary of the second predetermined section after the second predetermined time from the connection point (connection specification position) k in the second MPEG image data, so that the position of the connection point k is set. Regardless, information on the VBV buffer is obtained at position l. Therefore, the position of the connection point k in the second MPEG image data does not necessarily have to be specified as the boundary of the second predetermined section.
次に、図9(3)に示す応用例について説明する。この例では、接続点前後の第1及び
第2のMPEG画像データを元に繋ぎ区間の再符号化MPEG画像データを得て繋ぎ再生
を実現させるものである。
図9(3)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をnの位
置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をpの位置とする。前述
したVBVバッファの情報を有する単位である第1及び第2の所定区間の1単位を、第1
のMPEG画像データにおいてはm-n間、第2のMPEG画像データにおいてはp-q間とする。
Next, an application example shown in FIG. 9 (3) will be described. In this example, the re-encoded MPEG image data of the section is obtained based on the first and second MPEG image data before and after the connection point, and the joint reproduction is realized.
In FIG. 9 (3), the connection point (connection designation position) in the first MPEG image data is set as the n position, and the connection point (connection specification position) in the second MPEG image data is set as the p position. One unit of the first and second predetermined sections, which are units having the information of the VBV buffer described above, is a first unit.
In the MPEG image data, the interval is mn, and in the second MPEG image data, the interval is p-q.
mの位置は第1のMPEG画像データにおける接続点(繋ぎ指定位置)nから第1の所定時
間分前の第1の所定区間の境界位置となる。mの位置を開始位置とし接続点nの位置を終
了位置とする区間を繋ぎ区間A(第1の繋ぎ区間)とする。qの位置は第2のMPEG画像デ
ータにおける接続点(繋ぎ指定位置)pから第2の所定時間分後の第2の所定区間の境界
位置となる。接続点pを開始位置としqの位置を終了位置とする区間を繋ぎ区間B(第2
の繋ぎ区間)とする。
The position of m is the boundary position of the first predetermined section before the first predetermined time from the connection point (connection designated position) n in the first MPEG image data. A section having the position of m as the start position and the position of the connection point n as the end position is defined as a connection section A (first connection section). The position of q is the boundary position of the second predetermined section after the second predetermined time from the connection point (connection designated position) p in the second MPEG image data. The section B (second) is connected to a section having the connection point p as the start position and the position of q as the end position.
).
第1のMPEG画像データの繋ぎ区間A(m-n区間)のデータを、一旦、復号化して
復号画像データ(繋ぎ区間A復号画像データ:第1の繋ぎ区間復号画像データ)をえる。
また、第2のMPEG画像データのを繋ぎ区間B(p-q区間)のデータを、一旦、復号
化して、復号画像データ(繋ぎ区間B復号画像データ:第2の繋ぎ区間復号画像データ)
を得る。
The data of the connection section A (mn section) of the first MPEG image data is once decoded to obtain decoded image data (connection section A decoded image data: first connection section decoded image data).
Further, the data of the segment B (pq segment) connecting the second MPEG image data is once decoded and decoded image data (joint segment B decoded image data: second segmented decoded image data).
Get.
繋ぎ区間A復号画像データと繋ぎ区間B復号画像データとを合わせた繋ぎ区間A+B復
号画像データ(第3の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化を行う。そ
れによって作成された再符号化データを繋ぎ区間A+Bの再符号化MPEG画像データ(
第3の繋ぎ区間再符号化データ)と呼ぶこととする。この再符号化は、VBVバッファ占
有値に関する情報値の推移が、mの位置での第1のVBVバッファ占有値関連情報に基づき
得られたVBVバッファ占有値に関する情報値から開始されて、qの位置での第2のVBVバッ
ファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値までで終了する
ようにレートコントロールを行ってMPEG符号化方式で再符号化を行う。
The joint section A + B decoded image data (third joint section decoded image data) obtained by combining the joint section A decoded image data and the joint section B decoded image data is re-encoded by the MPEG encoding method. The re-encoded data created thereby connects the re-encoded MPEG image data in the section A + B (
This will be referred to as “third connected section re-encoded data”. This re-encoding is started from the information value related to the VBV buffer occupancy value obtained based on the first VBV buffer occupancy value related information at the position of m when the transition of the information value related to the VBV buffer occupancy value is The rate control is performed so as to end up to the information value related to the VBV buffer occupation value obtained based on the second VBV buffer occupation value related information at the position, and re-encoding is performed by the MPEG encoding method.
そして、繋ぎ区間A+Bの再符号化MPEG画像データを用いて、第1のMPEG画像
データから第2のMPEG画像データへの繋ぎ再生を行う。すなわち、第1のMPEG画
像データの繋ぎ区間Aの開始位置mまでは第1のMPEG画像データの再生を行い、その
あと前記繋ぎ区間A+Bの再符号化MPEG画像データをその区間の開始位置から終了位
置まで再生し、その後、第2のMPEG画像データの繋ぎ区間Bの終了位置qへ接続して
qの位置以降の第2のMPEG画像データのデータを再生する、という動作にする。再生
装置側にこの動作を行う繋ぎ再生手段を設けて実現させる。
Then, using the re-encoded MPEG image data in the connection section A + B, connection reproduction from the first MPEG image data to the second MPEG image data is performed. That is, the first MPEG image data is reproduced until the start position m of the first MPEG image data connection section A, and then the re-encoded MPEG image data of the connection section A + B is ended from the start position of the section. The reproduction is performed up to the position, and then the second MPEG image data after the q position is reproduced by connecting to the end position q of the second MPEG image data connection section B. This is realized by providing a connecting reproduction means for performing this operation on the reproduction apparatus side.
この繋ぎ再生動作とすることで、元の第1及び第2のMPEG画像データ同じコンテン
ツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生を実現すること
が可能となる。
By performing this joint playback operation, it is possible to realize seamless connection playback that has the same content content as the original first and second MPEG image data and that does not cause the VBV buffer to fail.
なお、図9(3)に示した例では、前述したようにmの位置(繋ぎ区間Aの開始位置)
のVBVバッファの情報が必要となる。mの位置は、第1のMPEG画像データにおける接続
点(繋ぎ指定位置)nから第1の所定時間分前の第1の所定区間の境界として指定される
ので、接続点nの位置に関わらずmの位置ではVBVバッファの情報が得られる。よって
、第1のMPEG画像データにおける接続点nの位置は、必ずしも第1の所定区間の境界とし
て指定される必要はない。
In the example shown in FIG. 9 (3), the position of m (the start position of the connecting section A) as described above.
VBV buffer information is required. Since the position of m is designated as the boundary of the first predetermined section for the first predetermined time before the connection point (connection designation position) n in the first MPEG image data, regardless of the position of the connection point n. Information on the VBV buffer is obtained at the position m. Therefore, the position of the connection point n in the first MPEG image data is not necessarily designated as the boundary of the first predetermined section.
また、前述のように図9(3)に示した、qの位置(繋ぎ区間Bの終了位置)のVBV
バッファの情報も必要となる。qの位置は、第2のMPEG画像データにおける接続点(繋ぎ
指定位置)pから第2の所定時間分後の第2の所定区間の境界として指定されるので、接
続点pの位置に関わらずqの位置ではVBVバッファの情報が得られる。よって、第2の
MPEG画像データにおける接続点pの位置も、必ずしも第2の所定区間の境界として指定さ
れる必要はない。
Further, as described above, the VBV at the position of q (end position of the connecting section B) shown in FIG.
Buffer information is also required. Since the position of q is designated as the boundary of the second predetermined section after the second predetermined time from the connection point (connection specification position) p in the second MPEG image data, regardless of the position of the connection point p. Information of the VBV buffer is obtained at the position of q. Therefore, the second
The position of the connection point p in the MPEG image data is not necessarily designated as the boundary of the second predetermined section.
このように、図9(1)〜(3)に示した方法は、いずれもシームレスで高品位な繋ぎ
再生を実現させることができる
これらの発展系としては、図10に示すように、第1のMPEG画像データと、第2の
MPEG画像データや、第3、第4のMPEG画像データを、図のように途中分岐するよ
うな繋ぎ再生を実現させることも可能となる。このように、本発明を用いれば、元のMPEG
画像データそのものを加工することなく、繋ぎ区間の再符号化MPEG画像データを生成
し利用するだけで、他のMPEGデータに自由につなげることができるので、さまざまな分岐
ストーリーを構成するプログラムを符号化する際にも、分岐ストーリー毎にそのストーリ
ーの全体にわたる冗長なMPEG画像データを記録することなく、メディアを効率よく使用す
ることが可能となる。(本発明を用いれば、第1〜第4のMPEG画像データそれぞれ一
組と、分岐ストーリー毎の繋ぎ区間の再符号化MPEG画像データとを用意しておけばよ
い。)
また、図9(3)に示す方法を用いれば、前述したように、第1のMPEG画像データにお
ける接続点の位置は、必ずしも第1の所定区間の境界として指定される必要がなく、第2
のMPEG画像データにおける接続点の位置も、必ずしも第2の所定区間の境界として指定さ
れる必要がないので、VBVバッファの情報を所定区間単位でサイド情報として記述して
おく所定区間単位よりも細かい精度、例えば1フレーム単位で編集する場合に適用できる
。この例を図15と共に説明する。所定単位は3フレーム程度のものでも、1GOP程度
でもよいが、ここでは1GOPとする。
As described above, all the methods shown in FIGS. 9 (1) to 9 (3) can realize seamless and high-quality connection reproduction. As shown in FIG. It is also possible to realize linked reproduction in which the MPEG image data, the second MPEG image data, and the third and fourth MPEG image data are branched halfway as shown in the figure. Thus, with the present invention, the original MPEG
Re-encoding of connected sections without processing the image data itself. By simply generating and using MPEG image data, it can be freely connected to other MPEG data, so programs that make up various branch stories can be encoded. In this case, it is possible to efficiently use the media without recording redundant MPEG image data over the entire story for each branch story. (If the present invention is used, one set of each of the first to fourth MPEG image data and the re-encoded MPEG image data of the connecting section for each branch story may be prepared.)
If the method shown in FIG. 9 (3) is used, as described above, the position of the connection point in the first MPEG image data does not necessarily have to be specified as the boundary of the first predetermined section.
Since the position of the connection point in the MPEG image data does not necessarily need to be specified as the boundary of the second predetermined section, the information of the VBV buffer is smaller than the predetermined section unit described as side information in the predetermined section unit. This can be applied when editing with accuracy, for example, in units of one frame. This example will be described with reference to FIG. The predetermined unit may be about 3 frames or about 1 GOP, but here it is 1 GOP.
図15のように繋げる対象の2つのMPEGストリームが存在するとする。第1のMPEGスト
リームに矢印で示してあるgとhの地点では、前記VBVバッファの情報リストにgの位
置でのVBVバッファの情報と、hの位置でのVBVバッファの情報が記述されている。
また、第2のMPEG画像データにもiの位置のVBVバッファの情報とjの位置のVBV
バッファの情報も存在する。
Assume that there are two MPEG streams to be connected as shown in FIG. At the points g and h indicated by arrows in the first MPEG stream, the VBV buffer information at the position g and the VBV buffer information at the position h are described in the VBV buffer information list. .
The second MPEG image data also includes information on the VBV buffer at position i and VBV at position j.
Buffer information is also present.
第1のMEPGストリーム1のpの位置から、第2のMPEGストリームの先頭へ繋ぐ場合、第
1のMPEGストリームのgからpまでの区間Aのデータを復号し、さらに、第2のMPEGスト
リームのiからjの区間Bのデータを復号し、両方の画像をバッファ推移がgの位置のバッ
ファ占有値から始まってjの位置のバッファ占有値になるように再符号化を行う。
When connecting from the position of p of the
それによって作成されたデータを区間A+Bの再符号化MPEG画像データを呼ぶとす
ると、従来の再生動作である、第1のMPEG画像データのpの位置まで再生を行い、そ
のあと第2のMPEG画像データへ接続してデータを再生する、という動作は、第1のM
PEG画像データのgの位置まで再生を行い、そのあと前記区間A+Bの再符号化MPE
G画像データを再生し、その後、第2のMPEG画像データのjへ接続してデータを再生
する、という動作にすることで、同じコンテンツ内容で且つ、VBVバッファの破綻を起
こさないシームレスな接続再生をすることができる。
If the data thus created is referred to as re-encoded MPEG image data in the section A + B, reproduction is performed up to the position p of the first MPEG image data, which is a conventional reproduction operation, and then the second MPEG image is reproduced. The operation of connecting to data and reproducing the data is the first M
Playback to the position of g of PEG image data, and then re-encoding MPE of the section A + B
Seamless connection playback with the same content and no VBV buffer failure by playing back G image data and then connecting to j of the second MPEG image data to play back the data Can do.
次に、サイド情報としてVBVバッファの情報を記述しないで上述した各例と同様な繋
ぎ再生を実現する2つの方法について説明する。(繋ぎ区間再符号化データを生成する際
に必要となる、VBVバッファ占有値に関する情報値の算出方法について説明する。)
まず、第1の方法について説明する。MPEG規格において、基本的にCBR(consta
nt bit rate)、即ち、固定転送レートの場合には、MPEGビデオのピクチャーレイヤ
にVBVバッファのバッファ占有率を示す、VBV delay値が規定されている。この場合に
はVBV delay値がピクチャー単位に記述されているので、MPEG画像ビットストリーム
をピクチャーヘッダーのみだけでも観測することで、MPEG画像データの所定位置に対
応するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値を
検出することができる。この場合、例えば後述する図4におけるVBVバッファ情報検出
器33の機能は、ビットストリームのピクチャーヘッダー(MPEGでは0x00000
100という4バイトのコード)をサーチして、そのあとの、10ビットのtemparal ref
erence10ビット、picture coding type3ビットのあとに続く、VBV delay16ビットを
検出することで実現できる。VBV delay値とは
VBV delay = 90000 x B / R
B:バッファ占有値 R:ビットレート
で定義されたものであるから、固定レートの場合には、このビットレートを用いてVBV de
lay値からVBVバッファ占有値も計算で求めることができる。(例えば図4に示すVBVバ
ッファ情報検出器33で計算する。)
MPEGではこのVBV delay値は、図16(2)のように、グラフの頂点の位置でのも
のに注意しなければならない。
Next, two methods for realizing connected reproduction similar to the above-described examples without describing the VBV buffer information as side information will be described. (A method for calculating the information value related to the VBV buffer occupation value, which is necessary when generating the re-encoded data of the connected sections will be described.)
First, the first method will be described. In the MPEG standard, basically CBR (consta
nt bit rate), that is, a fixed transfer rate, a VBV delay value indicating the buffer occupancy rate of the VBV buffer is defined in the picture layer of MPEG video. In this case, since the VBV delay value is described in units of pictures, by observing the MPEG image bitstream only with the picture header alone, the MPEG encoding start time (or the picture corresponding to the predetermined position of the MPEG image data) (or VBV buffer occupancy value at the time of termination) can be detected. In this case, for example, the function of the VBV
100-byte code) and then 10-bit temporal ref
This can be realized by detecting 16 bits of VBV delay following 10 bits of erence and 3 bits of picture coding type. What is VBV delay value?
VBV delay = 90000 x B / R
B: Buffer occupancy value R: Since it is defined by the bit rate, in the case of a fixed rate, VBV de
The VBV buffer occupancy value can also be calculated from the lay value. (For example, the calculation is performed by the VBV
In MPEG, it is necessary to pay attention to the VBV delay value at the vertex position of the graph as shown in FIG.
次に、第2の方法について説明する。これは、固定転送レートではなく可変転送レート
の場合である。MPEG規格では、基本的にVBR(variable bit rate:可変転送レー
ト)の場合、MPEGビデオのピクチャーレイヤにおけるVBVバッファのバッファ占有
率を示すVBV delay値はすべて1、(16ビットすべてが1なので0xffff)となる
。従って、前記第1の方法は使えない。
Next, the second method will be described. This is the case for a variable transfer rate rather than a fixed transfer rate. In the MPEG standard, basically, in the case of VBR (variable bit rate), the VBV delay value indicating the buffer occupancy of the VBV buffer in the MPEG video picture layer is all 1 (0xffff because all 16 bits are 1). It becomes. Therefore, the first method cannot be used.
そこで、MPEG画像ビットストリームを観測することで得られた情報から次のような
計算を行う。まず、ビットストリームの一番初めから、VBVバッファをMPEG規定の
最大値(たとえばメインプロファイルメインレベルでは1.75Mbit)まで占有したと仮定す
る。次に、始めのピクチャーの符号量を減算する。次に、可変転送レート符号化における
ピークレートの伝送レート情報を用いて、表示ピクチャー間の時間だけ経過した場合の伝
送量を加算し、次のピクチャーの符号量を減算する。このような一連の加算、減算という
処理を所定の求めたいビットストリームの位置まで繰り返し行うことで、図3に示すよう
なグラフをシミュレーションして求めるがごとく、MPEG画像データの所定位置に対応
するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値を求める
ことができる。可変転送レート時のピークレートは、MPEGではシーケンスヘッダーの
bit rateというシンタックスの部分に記述することに規定されているので、それを参照す
れば得られる。
Therefore, the following calculation is performed from the information obtained by observing the MPEG image bit stream. First, it is assumed that the VBV buffer is occupied from the very beginning of the bitstream up to the maximum value defined by MPEG (for example, 1.75 Mbit in the main profile main level). Next, the code amount of the first picture is subtracted. Next, using the transmission rate information of the peak rate in variable transfer rate coding, the transmission amount when the time between display pictures has elapsed is added, and the coding amount of the next picture is subtracted. By repeating such a series of addition and subtraction processes up to a predetermined bitstream position, a picture corresponding to a predetermined position in the MPEG image data is obtained by simulating a graph as shown in FIG. The VBV buffer occupation value at the MPEG encoding start time (or end time) can be obtained. The peak rate at the variable transfer rate is the sequence header in MPEG.
It is specified to be described in the syntax part of bit rate, so it can be obtained by referring to it.
例えば、後述する図4に示すVBVバッファ情報検出器33に上述のMPEG画像ビッ
トストリームを観測機能と計算機能を持たせるようにして実現する。(この第2の方法の
場合、そのMPEG画像ビットストリームの先頭から、各ピクチャーの発生符号量を観測
して計算しなければならないが、第1の方法と同様に予めサイド情報としてVBVバッフ
ァの情報を用意しておく必要がない。)
次に、上記第1及び第2の方法を用いた場合における、繋ぎ区間再符号化データの生成
について簡単に説明する。なお、この繋ぎ区間再符号化データを用いた繋ぎ再生動作は、
予めサイド情報として記録されているVBVバッファの情報により生成した繋ぎ区間再符
号化データを用いた場合と同様であるので、ここでは説明を省略する。
For example, the VBV
Next, a brief description will be given of the generation of re-encoded data for connected sections when the first and second methods are used. In addition, the connection reproduction | regeneration operation | movement using this connection area re-encoding data is as follows.
Since it is the same as the case where the joint section re-encoded data generated by the information of the VBV buffer recorded as side information in advance is used, the description is omitted here.
図9(1)に示す第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG
画像データを得る場合には、第1のMPEG画像データにおける接続点(繋ぎ指定位置)
bから第1の所定時間分前の位置aを開始位置として、第1のMPEG画像データにおけ
る繋ぎ指定位置bを終了位置とする区間を第1の繋ぎ区間(繋ぎ区間A)とする。繋ぎ区
間Aの開始位置aの指定に、サイド情報を用いる場合のような第1の所定区間の境界とい
った制限は不要となる。同様に、第2のMPEG画像データにおける接続点(繋ぎ指定位
置)dの指定に、サイド情報を用いる場合のような第2の所定区間の境界といった制限は
不要となる。
Re-encoded MPEG of sections connected based only on the first MPEG image data side shown in FIG.
When obtaining image data, the connection point (connection designated position) in the first MPEG image data
A section in which the position a in the first predetermined time before b is the start position and the connection designated position b in the first MPEG image data is the end position is defined as a first connection section (connection section A). The restriction such as the boundary of the first predetermined section as in the case of using the side information is not necessary for specifying the start position a of the connection section A. Similarly, there is no need to limit the boundary of the second predetermined section as in the case of using side information for specifying the connection point (connection specification position) d in the second MPEG image data.
第1のMPEG画像データのa-b区間(繋ぎ区間A)のデータを、一旦、復号化して復
号画像データを得、その復号画像データ(第1の繋ぎ区間復号画像データ)をMPEG符
号化方式で再符号化して、繋ぎ区間Aの再符号化MPEG画像データ(第1の繋ぎ区間再
符号化データ)を得る。この再符号化は、VBVバッファ占有値の推移が、上記第1または
第2の方法で算出された、aの位置に相当するピクチャのMPEG符号化(第1のMPE
G画像データ生成時のMPEG符号化)開始時点(または終了時点)でのVBVバッファ占
有値から開始される。そして、VBVバッファ占有値の推移が、上記第1または第2の方法
で算出された、dの位置に相当するピクチャのMPEG符号化(第2のMPEG画像データ生
成時のMPEG符号化)開始時点(または終了時点)でのVBVバッファ占有値までで終了
するように、レートコントロールを行ってMPEG符号化方式で再符号化される。得られた繋
ぎ区間Aの再符号化MPEG画像データ(第1の繋ぎ区間再符号化データ)を記録媒体に
記録する。(例えば、後述する図4に示すデータ書き込み部37により記録する。)
次に、図9(2)に示す第2のMPEG画像データ側のみを元に繋ぎ区間の再符号化M
PEG画像データを得る場合について説明する。図9(2)において、第1のMPEG画像デ
ータにおける接続点(繋ぎ指定位置)をiの位置とし、第2のMPEG画像データにおける接
続点(繋ぎ指定位置)をkの位置とする。接続点kを開始位置とし、接続点(繋ぎ指定位
置)kから第2の所定時間分後の位置となるlの位置を終了位置とする、第2のMPEG
画像データの区間を繋ぎ区間B(第2の繋ぎ区間)とする。繋ぎ区間Bの終了位置lの指
定に、サイド情報を用いる場合のような、第2の所定区間の境界といった制限は不要とな
る。同様に、第1のMPEG画像データにおける接続点(繋ぎ指定位置)iの指定に、サ
イド情報を用いる場合のような第1の所定区間の境界といった制限は不要となる。
The data of the ab section (joining section A) of the first MPEG image data is once decoded to obtain decoded image data, and the decoded image data (first joining section decoded image data) is re-encoded by the MPEG encoding method. Encoding is performed to obtain re-encoded MPEG image data (first joint section re-encoded data) in the joint section A. In this re-encoding, the transition of the VBV buffer occupancy value is MPEG-encoded (first MPE) of the picture corresponding to the position a calculated by the first or second method.
It starts from the VBV buffer occupancy value at the start (or end) of MPEG encoding at the time of G image data generation. Then, the transition of the VBV buffer occupancy value is calculated by the first or second method, and the MPEG encoding of the picture corresponding to the position d (MPEG encoding at the time of generating the second MPEG image data) is started. The rate control is performed to re-encode with the MPEG encoding method so as to end up to the VBV buffer occupation value at (or the end time). The obtained re-encoded MPEG image data of the connection section A (first connection section re-encoded data) is recorded on the recording medium. (For example, recording is performed by a
Next, the re-encoding M of the section is performed based only on the second MPEG image data side shown in FIG.
A case where PEG image data is obtained will be described. In FIG. 9 (2), a connection point (connection designation position) in the first MPEG image data is a position i, and a connection point (connection designation position) in the second MPEG image data is a position k. A second MPEG having a connection point k as a start position and a position l that is a position after a second predetermined time from the connection point (connection designated position) k as an end position.
A section of image data is defined as a connecting section B (second connecting section). A restriction such as the boundary of the second predetermined section as in the case where the side information is used to specify the
第2のMPEG画像データの繋ぎ区間B(k-l区間)のデータを、一旦、復号化して
、復号画像データを得、その復号画像データ(第2の繋ぎ区間復号画像データ)をMPEG符
号化方式で再符号化して、繋ぎ区間Bの再符号化MPEG画像データ(第2の繋ぎ区間再
符号化データ)を得る。この再符号化は、VBVバッファ占有値の推移が、上記第1または
第2の方法で算出された、iの位置に相当するピクチャのMPEG符号化開始時点(また
は終了時点)でのVBVバッファ占有値から開始される。そして、VBVバッファ占有値の推移
が、上記第1または第2の方法で算出された、lの位置に相当するピクチャのMPEG符号化
開始時点(または終了時点)でのVBVバッファ占有値までで終了するように、レートコン
トロールを行ってMPEG符号化方式で再符号化が行われる。得られた繋ぎ区間Bの再符号化
MPEG画像データ(第2の繋ぎ区間再符号化データ)を記録媒体に記録する。(例えば
、後述する図4に示すデータ書き込み部37により記録する。)
次に、図9(3)に示す、接続点前後の第1及び第2のMPEG画像データを元に繋ぎ
区間の再符号化MPEG画像データを得る場合について説明する。
The data of the connecting section B (k-1 section) of the second MPEG image data is once decoded to obtain decoded image data, and the decoded image data (second connecting section decoded image data) is MPEG-encoded. Re-encoding is performed according to the method to obtain re-encoded MPEG image data (second connection interval re-encoded data) of the connection interval B. In this re-encoding, the transition of the VBV buffer occupancy value is calculated by the above first or second method, and the VBV buffer occupancy at the MPEG encoding start time (or end time) of the picture corresponding to the position i is calculated. Start with a value. The transition of the VBV buffer occupancy value ends up to the VBV buffer occupancy value calculated at the MPEG encoding start point (or end point) of the picture corresponding to the position l calculated by the first or second method. As described above, rate encoding is performed and re-encoding is performed using the MPEG encoding method. The re-encoded MPEG image data (second connected section re-encoded data) of the obtained connecting section B is recorded on the recording medium. (For example, recording is performed by a
Next, a case where re-encoded MPEG image data in a section is obtained based on the first and second MPEG image data before and after the connection point shown in FIG. 9 (3) will be described.
図9(3)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をnの位
置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をpの位置とする。
第1のMPEG画像データにおける接続点(繋ぎ指定位置)nから第1の所定時間分前の位
置をmとする。mの位置を開始位置とし、接続点nの位置を終了位置とする第1のMPEG画
像データの区間を、繋ぎ区間A(第1の繋ぎ区間)とする。第2のMPEG画像データにおけ
る接続点(繋ぎ指定位置)pから第2の所定時間分後の位置をqする。接続点pを開始位
置とし、qの位置を終了位置とする第2のMPEG画像データの区間を、繋ぎ区間B(第2の
繋ぎ区間)とする。
In FIG. 9 (3), the connection point (connection designation position) in the first MPEG image data is set as the n position, and the connection point (connection specification position) in the second MPEG image data is set as the p position.
Let m be a position a first predetermined time before a connection point (connection designated position) n in the first MPEG image data. A section of the first MPEG image data having the position of m as the start position and the position of the connection point n as the end position is defined as a connection section A (first connection section). The position after the second predetermined time from the connection point (connection designated position) p in the second MPEG image data is q. A section of the second MPEG image data having the connection point p as the start position and the position of q as the end position is defined as a connection section B (second connection section).
繋ぎ区間Aの開始位置mの指定に、サイド情報を用いる場合のような第1の所定区間の
境界といった制限は不要となる。同様に、繋ぎ区間Bの終了位置qの指定に、サイド情報
を用いる場合のような第2の所定区間の境界といった制限は不要となる。
In order to specify the start position m of the connection section A, there is no need to restrict the first predetermined section as in the case of using side information. Similarly, there is no need to limit the boundary of the second predetermined section as in the case of using side information to specify the end position q of the connection section B.
第1のMPEG画像データの繋ぎ区間A(m-n区間)のデータを、一旦、復号化して
復号画像データ(繋ぎ区間A復号画像データ:第1の繋ぎ区間復号画像データ)を得る。
また、第2のMPEG画像データの繋ぎ区間B(p-q区間)のデータを、一旦、復号化
して、復号画像データ(繋ぎ区間B復号画像データ:第2の繋ぎ区間復号画像データ)を
得る。
The data of the connection section A (mn section) of the first MPEG image data is once decoded to obtain decoded image data (connection section A decoded image data: first connection section decoded image data).
Also, the data of the connection section B (pq section) of the second MPEG image data is once decoded to obtain decoded image data (connection section B decoded image data: second connection section decoded image data). .
そして、繋ぎ区間A復号画像データと繋ぎ区間B復号画像データとを合わせた繋ぎ区間
A+B復号画像データ(第3の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化を
行う。それによって作成された再符号化データを繋ぎ区間A+Bの再符号化MPEG画像
データ(第3の繋ぎ区間再符号化データ)とする。この再符号化は、VBVバッファ占有
値の推移が、上記第1または第2の方法で算出された、mの位置に相当するピクチャのM
PEG符号化開始時点(または終了時点)でのVBVバッファ占有値から開始される。そし
て、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、qの位置に
相当するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値まで
で終了するように、レートコントロールを行ってMPEG符号化方式で再符号化される。得ら
れた繋ぎ区間A+Bの再符号化MPEG画像データ(第3の繋ぎ区間再符号化データ)を
記録媒体に記録する。(例えば、後述する図4に示すデータ書き込み部37により記録す
る。)
図10に示す例においても、もちろん、上述の計算方法により必要な位置でのVBVバッ
ファ占有値を求めることが可能であり、所望の繋ぎ区間再符号化データ)を得ることがで
きる。
Then, the joint section A + B decoded image data (third joint section decoded image data), which is a combination of the joint section A decoded image data and the joint section B decoded image data, is re-encoded by the MPEG encoding method. The re-encoded data created thereby is assumed to be re-encoded MPEG image data (third connected interval re-encoded data) in the connection interval A + B. In this re-encoding, the transition of the VBV buffer occupancy value is M of the picture corresponding to the position of m calculated by the first or second method.
It starts from the VBV buffer occupancy value at the start (or end) of PEG encoding. The transition of the VBV buffer occupancy value ends up to the VBV buffer occupancy value calculated at the MPEG encoding start time (or end time) of the picture corresponding to the position q calculated by the first or second method. As described above, rate control is performed and re-encoding is performed using the MPEG encoding method. The resulting re-encoded MPEG image data (third re-encoded data) is recorded on a recording medium. (For example, recording is performed by a
Also in the example shown in FIG. 10, it is of course possible to obtain the VBV buffer occupancy value at a required position by the above-described calculation method, and to obtain desired connected section re-encoded data).
次に、本発明を適用した記録再生装置の一実施例によって記録媒体に記録するVBVバ
ッファ情報(MPEG画像データの所定区間毎における、その区間の最後のピクチャーのMPEG
符号化開始時点または終了時点でのVBVバッファ占有値に関する情報値を示すVBVバッファ
占有値関連情報と、前記VBVバッファ占有値に関する情報値が前記MPEG画像データのどの
位置におけるVBVバッファ占有値に関する情報値であるかを示すアドレス情報)、ならび
に、MPEG画像データに関する記録構造について詳しく説明する。記録媒体には、MPEG
符号化方式で圧縮された画像データであるMPEG画像データが記録される。このMPEG画像デ
ータは、一回の記録単位で符号化生成された連続再生可能なデータが複数連続して連なっ
たビットストリームとして記録される。
Next, VBV buffer information to be recorded on the recording medium by one embodiment of the recording / reproducing apparatus to which the present invention is applied (for each predetermined section of the MPEG image data, the MPEG of the last picture in the section)
VBV buffer occupancy value related information indicating an information value related to the VBV buffer occupancy value at the start or end of encoding, and an information value related to the VBV buffer occupancy value at which position of the MPEG image data the information value related to the VBV buffer occupancy value Address information indicating whether or not) and a recording structure relating to MPEG image data will be described in detail. MPEG recording media
MPEG image data that is image data compressed by the encoding method is recorded. The MPEG image data is recorded as a bit stream in which a plurality of continuously reproducible data encoded and generated in one recording unit is continuously connected.
これらの符号化されたMPEG画像データのビットストリームとは別に、MPEG画像データの
ビットストリームにおけるIピクチャーの1フレーム前のピクチャー符号化終了時点でのV
BVバッファ値(占有値)と、Pピクチャーの1フレーム前のピクチャー符号化終了時点で
のVBVバッファ値(占有値)と、前記各VBVバッファ値がMPEG画像データのどの位置におけ
るVBVバッファ占有値であるかを示すアドレス情報(この例では、MPEG画像データのファ
イルのはじめからの相対アドレス)が記録される。これらのデータを含むVBVバッファ情
報のデータ構造を図1に示す。
In addition to these encoded MPEG image data bitstreams, the V at the end of picture encoding one frame before the I picture in the MPEG image data bitstream.
BV buffer value (occupancy value), VBV buffer value (occupation value) at the end of picture encoding one frame before the P picture, and each VBV buffer value is the VBV buffer occupancy value at which position in the MPEG image data Address information (in this example, a relative address from the beginning of the MPEG image data file) indicating whether or not there is recorded. A data structure of VBV buffer information including these data is shown in FIG.
VBVバッファ情報は階層構造をもっている。始めにエントリーポイント情報構造体があ
り、その後にVBV情報構造体がある。エントリーポイント情報構造体は、始めにエントリ
ーポイント(EP)のアドレスの個数を32ビット、その後にEPn(nは1以上の自然数)
アドレスを32ビットで順に記述する。EPnアドレスはVBV情報構造体のEPn情報(nは
1以上の自然数)の記述されている位置を示し、このVBVバッファ情報の先頭からの相対
アドレスを記述する。一方VBV情報構造体は、EP1情報から順に記述されており、EP1情報
の中身は相対アドレス、PTM値、VBV値を順に記述する。
VBV buffer information has a hierarchical structure. There is an entry point information structure first, followed by a VBV information structure. The entry point information structure starts with 32 bits for the number of entry point (EP) addresses, followed by EPn (n is a natural number of 1 or more).
Address is described in order of 32 bits. The EPn address indicates a position where EPn information (n is a natural number of 1 or more) of the VBV information structure is described, and describes a relative address from the top of the VBV buffer information. On the other hand, the VBV information structure is described in order from the EP1 information, and the contents of the EP1 information describe the relative address, the PTM value, and the VBV value in order.
VBV情報構造体のEPn情報における相対アドレスとは、図2のように、MPEG画像データ
のビットストリームにおけるIピクチャーの1フレーム前のピクチャー符号化終了時点、P
ピクチャーの1フレーム前のピクチャー符号化終了時点、及び記録終了時点での、そのMP
EG画像データの先頭からの相対アドレスであり、例えば単位はバイトが用いられる。ディ
スクメディアに記録されている場合には、相対アドレスとしてセクターなどが用いられる
。
As shown in FIG. 2, the relative address in the EPn information of the VBV information structure is the picture encoding end point one frame before the I picture in the bit stream of MPEG image data, P
The MP at the end of picture encoding one frame before the picture and at the end of recording
This is a relative address from the beginning of the EG image data. For example, the unit is a byte. When recorded on a disk medium, a sector or the like is used as a relative address.
VBV情報構造体のEPn情報におけるPTM値とは、MPEGのシステム規格(多重化規格)にお
いて、90kHzもしくは27MHzのクロックで記録されているタイムスタンプである。MPE
G規格ではPTS(Presentation Time Stamp)やDTS(Decoding Time Stamp)と呼ばれている
。ここでは、MPEG画像データのビットストリームのIピクチャーの1フレーム前のピクチ
ャー符号化終了時点、Pピクチャーの1フレーム前のピクチャー符号化終了時点、及び記
録終了時点での、時間情報としてDTSを記録する。DTSは1ピクチャーに1つ記録されてお
り、NTSCのビデオ信号であれば90KHzクロックで1ピクチャにつき3003クロックの
間隔で、記録されている。従って、本発明のように3ピクチャーごとにIピクチャかPピク
チャが存在している場合で一番初めが0からスタートする場合には、9009、1801
8....という間隔でPTM情報がEPn情報に記述されることになる。
The PTM value in the EPn information of the VBV information structure is a time stamp recorded with a clock of 90 kHz or 27 MHz in the MPEG system standard (multiplexing standard). MPE
In the G standard, it is called PTS (Presentation Time Stamp) or DTS (Decoding Time Stamp). Here, the DTS is recorded as time information at the end of picture encoding one frame before the I picture of the bit stream of the MPEG image data, at the end of picture encoding one frame before the P picture, and at the end of recording. . One DTS is recorded in one picture, and an NTSC video signal is recorded at an interval of 3003 clocks per picture with a 90 kHz clock. Therefore, in the case where an I picture or a P picture exists for every three pictures as in the present invention, when starting from 0 at the very beginning, 9009, 1801
PTM information is described in the EPn information at intervals of 8 ....
VBV情報構造体のEPn情報におけるVBV値は、MPEGで規定されているデコーダーの仮想バ
ッファ占有値である。MPEG画像データの1ピクチャごとの発生符号量と、転送レートの値
から計算で導けるもので、図3のように、圧縮されているビットストリーム情報のIピク
チャーとPピクチャーの1フレーム前のピクチャー符号化終了時点での、図の○の位置で
のVBV占有値を記述する。もしくはMPEGで規定されているVBV delay値を記述する。この値
はVBV占有値まで、そのときの転送レートでどれだけの時間がかかるかという時間に換算
した値である。本発明ではVBVバッファ占有値に関する情報であれば何であっても良い。V
BVバッファ占有値とVBV delay値の関係を図17に示す。VBVバッファの占有値OCCは、符
号化レートをRとすると、VBV delay = 90000 * OCC / Rという関係にあり、90000は
90kHzのカウント数で示すための値である。
The VBV value in the EPn information of the VBV information structure is a virtual buffer occupation value of the decoder defined by MPEG. This can be derived from the amount of generated code for each picture of MPEG image data and the transfer rate value. As shown in FIG. 3, the picture code of one frame before the I picture and P picture of the compressed bit stream information Describe the VBV occupation value at the position of ○ in the figure at the end of conversion. Or, describe the VBV delay value specified by MPEG. This value is a value converted to the time required for the transfer rate at that time to the VBV occupation value. In the present invention, any information regarding the VBV buffer occupation value may be used. V
The relationship between the BV buffer occupation value and the VBV delay value is shown in FIG. The occupancy value OCC of the VBV buffer has a relationship of VBV delay = 90000 * OCC / R, where R is the encoding rate, and 90000 is a value for indicating a count number of 90 kHz.
MPEG圧縮では基本的にIBB、PBB、というように3フレーム単位でIかPのピクチャータイ
プを用いて符号化する。MPEG圧縮はBピクチャーは両方向から予測されている可能性があ
るので、符号化ビットストリーム順番において、ビットストリームのIピクチャー、Pピク
チャーの1フレーム前のピクチャー符号化終了時点でしか、データのつなぎ追加は簡単に
はできない。そのため本発明では、VBVの情報をビットストリームのIピクチャー、Pピク
チャーの1フレーム前のピクチャー符号化終了時点で記述する形態をもつという仮定で説
明している。
In MPEG compression, encoding is basically performed using I or P picture types in units of 3 frames such as IBB and PBB. In MPEG compression, B picture may be predicted from both directions, so in the encoded bit stream order, data linkage is added only at the end of picture encoding one frame before the I picture and P picture of the bit stream. Is not easy. For this reason, the present invention is described on the assumption that VBV information is described at the end of picture encoding one frame before the I picture and P picture of the bit stream.
しかしながら、本質的にはVBV占有値に関する情報値は、毎ピクチャー持っても良い。
また、ピクチャー符号化終了時点でなく、符号化開始点でも良い。図16(1)では符号
化終了点の値をリストに持つ場合の概念図であるが、この場合には一番初めのVBV占有値
に関する情報値が無いため、第1フレームの前に仮想的にフレームがあったとして、その
仮想フレームの符号化終了時点のVBV占有値に関する情報値を初期値として計算する。計
算は第1のピクチャ符号量を、一番目のVBV占有値に関する情報値に加算して、加算した
値から、符号化レートによる傾きから、(1/ピクチャーレート)だけの時間によってど
れだけの符号伝送量かを計算した値を減算すると、図16(1)の黒丸部分の初期値が求
められる。また、図16(2)では符号化開始点の値をリストに持つ場合の概念図である
が、この場合には一番最後のVBV占有値に関する情報値が無いため、最終フレームの後ろ
に仮想的にフレームがあったとして、その仮想フレームの符号化開始時点のVBV占有値に
関する情報値を最終値として計算する。計算は最終のピクチャ符号量を、最後のVBV占有
値に関する情報値から減算して、減算した値から、符号化レートによる傾きから、(1/
ピクチャーレート)だけの時間によってどれだけの符号伝送量かを計算した値を加算する
と、図16(2)の黒丸部分の最終値が求められる。
However, in essence, an information value related to the VBV occupation value may be included in each picture.
Further, the encoding start point may be used instead of the picture encoding end point. FIG. 16 (1) is a conceptual diagram in the case of having a value of the encoding end point in the list, but in this case, there is no information value regarding the first VBV occupation value, so there is a virtual before the first frame. As a result, the information value related to the VBV occupancy value at the end of encoding of the virtual frame is calculated as an initial value. The calculation is performed by adding the first picture code amount to the information value related to the first VBV occupancy value, and from the added value, from the gradient due to the encoding rate, how much code is required in the time of (1 / picture rate) By subtracting the calculated value of the transmission amount, the initial value of the black circle part in FIG. FIG. 16 (2) is a conceptual diagram in the case of having the value of the encoding start point in the list. In this case, since there is no information value regarding the last VBV occupation value, a virtual is behind the last frame. If there is a specific frame, the information value related to the VBV occupancy value at the start of encoding of the virtual frame is calculated as the final value. The calculation is performed by subtracting the final picture code amount from the information value related to the final VBV occupancy value, and from the subtracted value, from the gradient by the encoding rate, (1 /
When the value calculated for how much code transmission amount is obtained by the time of only (picture rate) is added, the final value of the black circle portion in FIG.
次に、本発明を適用した記録再生装置の一実施例の構成を図4に示し、MPEG符号化方式
で画像データを符号化しながらVBVバッファ情報を作成する動作を説明をする。
記録媒体31に符号化データがまったく無い状態、すなわち、初めて符号化する場合に
は、記録媒体31からのデータ読み取り部32では、データが存在していないので、デー
タがないという情報をVBVバッファ情報検出器33に送信する。VBVバッファ情報検出器3
3でもデータが存在していないので、パラメータ設定器34にはあらかじめ設定した初期
値、すなわちVBV値は、たとえばMPEGで規定されるVBVの最大値の80%の値とし、PTMタ
イムスタンプ情報は0とする。これらの初期設定値を画像符号化器35に送信する。
Next, the configuration of an embodiment of a recording / reproducing apparatus to which the present invention is applied is shown in FIG. 4, and the operation of creating VBV buffer information while encoding image data by the MPEG encoding method will be described.
When there is no encoded data in the
Since no data exists even at 3, the initial value set in advance in the
画像符号化器35では、符号化を初期設定値から開始する。画像符号化器35では符号
化を行いながら、ビットストリームのIピクチャーの1フレーム前、及びPピクチャーの1
フレーム前のピクチャー符号化終了時点での発生符号量とPTM値、VBV値を、毎回、VBVバ
ッファ情報作成器36へ送信する。それとともに符号化データをデータ書き込み部37へ
送信する。さらに、画像符号化器35は、ユーザーが画像圧縮記録を一時停止、もしくは
終了した時点での発生符号量とPTM値、VBV値を、VBVバッファ情報作成器36へ送信する
。
The
The generated code amount, PTM value, and VBV value at the end of picture encoding before the frame are transmitted to the VBV
VBVバッファ情報作成器36では、入力された発生符号量値とPTM値とVBV値から図1に
示す構造のVBVバッファ情報のデータを作成する。もしくはそのデータ構造を作成するの
に必要なデータをメモリーして所定のフォーマットで記録保持する。VBVバッファ情報作
成器36で作成された情報は、データ書き込み部37により符号化データ(MPEG画像デー
タ)が記録媒体31に書き込まれているときに、同時にバースト的に書き込みを行っても
良い。また、VBVバッファ情報作成器36で作成された情報は、符号化データ(MPEG画像
データ)が書き込み終わったとき、すなわち、ユーザーが画像圧縮記録を一時停止、もし
くは終了した後に所定のフォーマットで記録保持されていたデータから、図1の構造に変
換してデータ書き込み部37により書き込みを行っても良い。
The VBV
次に、記録媒体31に記録されている第1及び第2の2つのMPEG画像データに対して、
所定の位置からの繋ぎ再生を可能とするための区間Aの部分の再符号化を行う場合の説明
を図8を用いて行う。
Next, for the first and second MPEG image data recorded on the
A case where re-encoding of the section A in order to enable splicing reproduction from a predetermined position will be described with reference to FIG.
まず、図示せぬ、ユーザーインターフェースから、すでに記録されている第1及び第2
の2つのMPEG画像データのどこのポイントから繋ぎ再生するかを指定してもらう。
記録媒体31には、すでに第1及び第2の2つのMPEG画像データ(圧縮符号化ストリー
ム)と、図4に示した記録再生装置により生成したVBVバッファ情報とが記録されている
。従って、図4に示すデータ読み取り部32ではVBVバッファ情報を読み取り、接続点b
(繋ぎ指定位置)から区間Aの分だけ前にある位置の図8におけるaの位置のVBV値、PTM
値、相対アドレスを得る。
First, from the user interface (not shown), the first and second already recorded
The point where the two MPEG image data are to be connected and played back is specified.
The
The VBV value at the position a in FIG. 8 at the position before the section A from the (designated connection position), PTM
Get value, relative address.
前記ユーザーインターフェースからの繋ぎ再生位置の指定が、例えば、その指定の仕方
が、データの相対アドレスの位置情報の場合には、VBVバッファ情報の構造のEPn情報内
の相対アドレス情報にもっとも近い値のデータにリンクされているVBV値、PTM値を用いる
。また、もし、その指定の仕方が、データの開始時刻からの時間や、繋ぎ再生されるポイ
ントのタイムスタンプ情報であれば、同様にVBVバッファ情報の構造のEPn情報内のPTM値
を用いて、この値が90KHzのクロックで記録されている場合にはその値に 1/90000秒の
値を乗じることで秒の時間を得ることができ、その繋ぎ再生する位置(相対アドレス)と
VBV値、PTM値を得ることができる。
When the connection playback position is specified from the user interface, for example, when the specification method is position information of the relative address of the data, the value closest to the relative address information in the EPn information of the structure of the VBV buffer information is set. Use VBV and PTM values linked to data. Also, if the method of designation is the time from the start time of the data or the time stamp information of the points to be played back, the PTM value in the EPn information of the structure of the VBV buffer information is similarly used, If this value is recorded with a 90 kHz clock, the time of seconds can be obtained by multiplying that value by the value of 1/90000 seconds.
VBV and PTM values can be obtained.
これらの値はパラメータ設定器34に入力され、画像符号化器35においてその設定値
から符号化が開始される。一方、符号化データサーチ器38では再符号化する区間Aの先
頭位置を、すでに記録してあるビットストリームに対してサーチする。サーチはデータの
相対アドレスを用いて、そのビットストリームファイルの頭からの位置にポインタを設定
する。
These values are input to the
画像符号化器35では区間Aに対応する第1のMPEG画像データを復号化し、復号画
像を用いて再度、VBVバッファ占有値の推移が、aの位置でのVBV値から開始されて、
dの位置でのVBV値までで終了するようにレートコントロールを行ってMPEG符号化方式で
再符号化を行う。再符号化は前記のように完全に復号した画像を用いても良いが、特開平
11−234677に開示されているような、ビットストリーム上での符号量コントロー
ルの技術を用いても良い。
The
Rate control is performed so that the processing is completed up to the VBV value at the position d, and re-encoding is performed by the MPEG encoding method. For re-encoding, an image completely decoded as described above may be used, but a code amount control technique on a bit stream as disclosed in Japanese Patent Laid-Open No. 11-234677 may be used.
ここでもし、再符号化する区間Aが、VBVバッファ情報の最小単位より長い場合には
、再符号化しながら、ビットストリームのIピクチャー、Pピクチャーの1フレーム前のピ
クチャー符号化終了時点での発生符号量とPTM値、VBV値を、毎回、VBVバッファ情報作成
器36へ送信する。それと共に、再符号化データをデータ書き込み部37へ送信する。
Here, if the section A to be re-encoded is longer than the minimum unit of the VBV buffer information, the re-encoding occurs at the end of picture encoding one frame before the I picture and P picture of the bit stream. The code amount, the PTM value, and the VBV value are transmitted to the VBV
VBVバッファ情報作成器36では、入力された発生符号量値とPTM値とVBV値から図1に
示す構造のデータを作成する。もしくはそのデータ構造を作成するのに必要なデータをメ
モリーして所定のフォーマットで記録保持する。VBVバッファ情報作成器36でのその情
報は、符号化データが書き込まれているときに、同時にバースト的に書き込みを行っても
良いし、符号化データが書き終わったとき、すなわち、ユーザーが画像圧縮記録を一時停
止、もしくは終了したときに所定のフォーマットで記録保持されていたデータから、図1
の構造に変換して書き込みを行っても良い。
The VBV
It is also possible to write after converting into the structure of
再符号化された区間Aの画像データ(繋ぎ区間A再符号化データ)は、第1、第2のM
PEG画像データと分離された別のファイルとして記録する。もしくは、記録第2のMP
EG画像データの先頭に連結して記録する。
The re-encoded image data of the section A (joined section A re-encoded data) is the first and second M
It is recorded as a separate file separated from the PEG image data. Or record second MP
The EG image data is recorded linked to the head.
第1のMPEG画像データと、第2のMPEG画像データと、VBVバッファ占有値に関する情報
とそのデータアドレス情報と、前記区間Aの再符号化画像データ(または前記区間Bの再
符号化画像データ、または前記区間A+Bの再符号化画像データ)は、同一記録メディア
に記録されていても、任意の組み合わせで複数の記録メディアに記録くされていても、そ
れぞれが異なる記録メディアに記録されていてもかまわない。複数の記録メディアに分け
て記録されている場合には、それぞれの記録メディア同士がリンクされて(それぞれのデ
ータ、情報同士がリンクされて)運用されるように、同一情報群であることを示す情報、
例えばIDなどを各記録メディアに記録しておくと良い。第1のMPEG画像データと、第2の
MPEG画像データと、前記区間Aの再符号化画像データ(または前記区間Bの再符号化画像
データ、または前記区間A+Bの再符号化画像データ)とが同一の記録媒体に記録されて
いる場合には、一つの記録媒体で、再生装置側の繋ぎ再生を制御できる。
First MPEG image data, second MPEG image data, information on the VBV buffer occupancy value and data address information thereof, re-encoded image data of section A (or re-encoded image data of section B, Alternatively, the re-encoded image data of the section A + B) may be recorded on the same recording medium, recorded on a plurality of recording media in any combination, or recorded on different recording media. It doesn't matter. In the case of being recorded separately on a plurality of recording media, it indicates that they are the same information group so that each recording medium is linked and operated (each data and information is linked). information,
For example, an ID or the like may be recorded on each recording medium. First MPEG image data and second
When MPEG image data and re-encoded image data of section A (or re-encoded image data of section B or re-encoded image data of section A + B) are recorded on the same recording medium Can control joint playback on the playback device side with a single recording medium.
なお、繋ぎ区間再符号化画像データを得るためのVBVバッファ占有値に関する情報を、
媒体に記録されているサイド情報から読み出すのではなく、計算により求める場合には、
VBVバッファ占有値に関する情報とそのデータアドレス情報とを記録しておく必要はない
。
In addition, information regarding the VBV buffer occupancy value for obtaining the connected section re-encoded image data,
When calculating by calculation instead of reading from the side information recorded on the medium,
It is not necessary to record information about the VBV buffer occupation value and its data address information.
上記実施例で、記録メディアは記録再生装置内の記録メディアとして説明したが、記録
再生装置に着脱自在の記録メディア、ネットワークを介した記録メディア(データベース
)であってもかまわない。
In the above embodiment, the recording medium is described as a recording medium in the recording / reproducing apparatus. However, the recording medium may be a recording medium detachably attached to the recording / reproducing apparatus or a recording medium (database) via a network.
また、上記実施例では、単体のMPEG画像データに着目して画像データをつなぐ例を説明
したが、音声データなどと共にMPEG方式でパケット多重化されたMPEG多重化データである
MPEGトランスポートストリーム内のMPEG画像データをつなぐ場合に適応しても良い。
In the above embodiment, an example of connecting image data by focusing on single MPEG image data has been described. However, it is MPEG multiplexed data that is packet-multiplexed by the MPEG method together with audio data and the like.
You may apply when connecting the MPEG image data in an MPEG transport stream.
トランスポートストリームには可変長符号化されているMPEG画像データ、固定長符号化
されているMPEG1レイヤー2オーディオもしくはAC3などが多重化されている場合が多い
。従って、その多重化されたデータ中の要素符号化データのひとつであるMPEG画像データ
をつなぐ場合、接続する点においてMPEGで規定されるSTDバッファ(ビデオではVBVバッフ
ァ)の整合性を考慮した接続方法として、前記説明した実施例の方法を適応すればよい。
In many cases, variable-length-encoded MPEG image data, fixed-length-encoded
例えば第1及び第2のMPEGトランスポートストリーム内からそれぞれ接続対象の第1及
び第2のMPEG画像データを取り出し、上記した実施例と同様にして接続する。繋ぎ再生に
使用する繋ぎ区間再符号化データ(前記区間Aの再符号化画像データ、前記区間Bの再符
号化画像データ、前記区間A+Bの再符号化画像データ)は、MPEG方式でパケット多重化
されたMPEG多重化データとして生成、記録されてもよい。
For example, the first and second MPEG image data to be connected are extracted from the first and second MPEG transport streams, respectively, and connected in the same manner as in the above-described embodiment. Linked segment re-encoded data (re-encoded image data of interval A, re-encoded image data of interval B, re-encoded image data of interval A + B) used for splicing reproduction is packet-multiplexed by the MPEG method. The generated MPEG multiplexed data may be recorded.
図14(1)の状態はMPEGトランスポートストリームのパケット多重化されたデータの
状態を示している。Vと記載されているパケットはビデオパケット、Aと記載されているパ
ケットはオーディオのパケット、Sと記載されているパケットはシステムで使用されるPAT
やPMTなどの情報パケットである。おのおのMPEG2システムのルールに準拠した形で記録さ
れている。ビデオパケットは薄いグレーの色を施してある。これらの全体を示した状態が
同図(2)である。このビデオパケットだけを集めた状態が同図(3)である。このビデ
オパケットの中身は、同図(4)に示すように始めがIピクチャーであり、次にBピクチャ
ーが2枚、そのあとにPピクチャーが1枚、と続いてくのが典型的な例である。
The state shown in FIG. 14 (1) indicates the state of the packet multiplexed data of the MPEG transport stream. Packets marked V are video packets, packets marked A are audio packets, packets marked S are PAT used by the system
And information packets such as PMT. It is recorded in a form that complies with the rules of each MPEG2 system. The video packet has a light gray color. The state showing these as a whole is FIG. The state where only the video packets are collected is shown in FIG. The contents of this video packet are typically an I picture, followed by two B pictures, followed by one P picture, as shown in Figure 4 (4). is there.
これらのピクチャーの1枚もしくは複数のピクチャーにおいて再符号化によって符号量
を調整する。例えば符号量が削減された状態が同図(5)である。各ピクチャーの符号量
はそれぞれ小さくなっている。その状態でパケット化したものが同図(6)である。減少
した部分には黒色を施してある。このパケット分、ビデオの全体の量が減少する。そして
、TSを再構築する。この状態を全体で表現したものが同図(7)である。同図(7)を拡
大したものが同図(8)である。結果的にVパケットの一部が減少し、それ以外の要素デ
ータパケットはそのまま多重化する。
The code amount is adjusted by re-encoding in one or more of these pictures. For example, FIG. 5 shows a state in which the code amount is reduced. The code amount of each picture is small. The packetized state in this state is FIG. The reduced area is black. This packet reduces the overall amount of video. Then rebuild the TS. This state is expressed as a whole (7). FIG. 8 is an enlarged view of FIG. As a result, a part of the V packet is reduced, and the other element data packets are multiplexed as they are.
MPEGシステムの規定ではPCRクロック情報は100msecに一度は記録されていなければ
ならない。また、データ長が変更されているので、それぞれの要素パケットに記載されて
いるPCRクロック情報は必要に応じて変更する。また、ビデオパケットにはアクセスユニ
ット(フレームやフィールドのピクチャー単位)の先頭のPESヘッダーが存在するパケッ
トにPTSやDTSが記述されている。オーディオパケットには1つもしくは複数のオーディオ
フレームをPESでパッキングしたその先頭のPESヘッダーが存在するパケットにPTSが記載
されている。これらのタイムスタンプ情報は画像においてはピクチャー数を増減していな
い場合には変更する必要は無いし、オーディオも再生時間長を増減しなければ変更の必要
はないが、それ以外の場合には、適切なPTS,DTSを追加修正する。
In the MPEG system, PCR clock information must be recorded once every 100 msec. Since the data length is changed, the PCR clock information described in each element packet is changed as necessary. In addition, PTS and DTS are described in a packet in which the PES header at the head of an access unit (frame or field picture unit) is present in the video packet. In the audio packet, one or a plurality of audio frames are packed with PES, and the PTS is described in the packet having the leading PES header. These time stamp information does not need to be changed if the number of pictures is not increased or decreased in the image, and the audio does not need to be changed unless the playback time length is increased or decreased. Add and modify appropriate PTS and DTS.
さらにまた、単純に再符号化する場合には、予測符号化のリセットタイミングであるI
ピクチャーからのGOP単位が扱いやすいが、GOPが独立していない場合、即ち、境界のBピ
クチャーが双方のGOPにまたがって予測されている場合(GOPのclosed gop=0の場合)には
、一つ前のGOPの最後のリファレンスピクチャーを復号化して、図示せぬ画像再符号化用
メモリーなどに保持しておくことが必要になる場合がある。
Furthermore, when re-encoding is simply performed, I is the reset timing of predictive encoding.
If the GOP unit from the picture is easy to handle, but the GOP is not independent, that is, if the border B picture is predicted across both GOPs (if GOP closed gop = 0), then one It may be necessary to decode the last reference picture of the previous GOP and store it in an image re-encoding memory (not shown).
第1のMPEG多重化データ(第1のMPEGトランスポートストリーム)と、第2のMPEG画像
データ(第2のMPEGトランスポートストリーム)と、VBVバッファ占有値に関する情報と
そのデータアドレス情報と、前記区間Aの再符号化画像データ(または前記区間Bの再符
号化画像データ、または前記区間A+Bの再符号化画像データ)を要素符号化データとし
て含んで、MPEG方式によりパケット多重化して生成した繋ぎ区間MPEG多重化データとは、
同一記録メディアに記録されていても、任意の組み合わせで複数の記録メディアに記録く
されていても、それぞれが異なる記録メディアに記録されていてもかまわない。複数の記
録メディアに分けて記録されている場合には、それぞれの記録メディア同士がリンクされ
て(それぞれのデータ、情報同士がリンクされて)運用されるように、同一情報群である
ことを示す情報、例えばIDなどを各記録メディアに記録しておくと良い。第1のMPEG多重
化画像データと、第2のMPEG多重化画像データと、前記区間Aの再符号化画像データ(ま
たは前記区間Bの再符号化画像データ、または前記区間A+Bの再符号化画像データ)の
繋ぎ区間MPEG多重化データとが同一の記録媒体に記録されている場合には、一つの記録媒
体で、再生装置側の繋ぎ再生を制御できる。
First MPEG multiplexed data (first MPEG transport stream), second MPEG image data (second MPEG transport stream), information on the VBV buffer occupancy value, its data address information, and the section A spliced section generated by packet multiplexing according to the MPEG method including A recoded image data (or the recoded image data of the section B or the recoded image data of the section A + B) as element coded data What is MPEG multiplexed data?
It may be recorded on the same recording medium, recorded on a plurality of recording media in any combination, or recorded on different recording media. In the case of being recorded separately on a plurality of recording media, it indicates that they are the same information group so that each recording medium is linked and operated (each data and information is linked). Information, such as an ID, may be recorded on each recording medium. First MPEG multiplexed image data, second MPEG multiplexed image data, re-encoded image data of section A (or re-encoded image data of section B, or re-encoded image of section A + B) (Data) splicing section MPEG multiplexed data is recorded on the same recording medium, it is possible to control splicing playback on the playback device side with a single recording medium.
31 記録媒体
32 データ読み取り部
33 VBVバッファ情報検出器
34 パラメータ設定器
35 画像符号化器
36 VBVバッファ情報作成器
37 データ書き込み部
38 符号化データサーチ器
Claims (1)
前記MPEG符号化方式で符号化された画像データである2つのMPEG画像データを、それぞれのMPEG画像データにおける指定された繋ぎ指定位置で、一方のMPEG画像データから他方のMPEG画像データへ繋げて再生を行う繋ぎ再生ステップを設けたMPEGデータ記録再生方法であって、
前記記録ステップは、
前記第2のMPEG画像データにおける前記繋ぎ指定位置を開始位置とし、前記第2のMPEG画像データにおける前記繋ぎ指定位置から所定時間分後の位置を終了位置とする区間を繋ぎ区間として、
前記繋ぎ区間の前記第2のMPEG画像データを復号して得た画像データである繋ぎ区間復号画像データを、前記MPEG符号化方式で再符号化して前記繋ぎ区間再符号化データを生成し、前記繋ぎ区間再符号化データを要素符号化データとして含んで前記MPEG方式によりパケット多重化して生成した繋ぎ区間MPEG多重化データを、前記第1の記録媒体の前記第1及び第2のMPEG多重化データの記録されている各領域と異なる領域に記録させるステップであり、
前記再符号化は、その再符号化時におけるVBVバッファ占有値に関する情報値の推移が、前記繋ぎ指定位置に対応する位置における前記第1のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値から開始されて、前記繋ぎ区間の終了位置に対応する位置における前記第2のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値までで終了するように符号量制御が行われて実行されるものであり、
前記繋ぎ再生ステップは、前記第1の記録媒体から再生を行う第1の繋ぎ再生ステップと、第2の記録媒体から再生を行う第2の繋ぎ再生ステップとを有し、
前記第1の繋ぎ再生ステップは、
前記第1の記録媒体に記録されている前記第1のMPEG多重化データから前記第1のMPEG画像データを得、前記第1の記録媒体に記録されている前記第2のMPEG多重化データから前記第2のMPEG画像データを得ると共に、前記第1の記録媒体に記録されている前記繋ぎ区間MPEG多重化データから前記繋ぎ区間再符号化データを得て、
前記第1のMPEG画像データにおける前記繋ぎ指定位置まで前記第1のMPEG画像データを再生した後、前記繋ぎ区間再符号化データを前記繋ぎ区間の開始位置から終了位置まで再生し、その後、前記第2のMPEG画像データにおける前記繋ぎ区間の終了位置から前記第2のMPEG画像データを再生する繋ぎ再生ステップであり、
前記第2の繋ぎ再生ステップは、
前記MPEG符号化方式で符号化された第3のMPEG画像データを要素符号化データとして含んで前記MPEG方式によりパケット多重化して生成され前記第2の記録媒体に記録された第3のMPEG多重化データから前記第3のMPEG画像データを得、前記MPEG符号化方式で符号化された第4のMPEG画像データを要素符号化データとして含んで前記MPEG方式によりパケット多重化して生成され前記第2の記録媒体に記録された第4のMPEG多重化データから前記第4のMPEG画像データを得ると共に、繋ぎ再生させるためのデータである繋ぎ区間再符号化データを要素符号化データとして含んで前記MPEG方式でパケット多重化して生成され前記第2の記録媒体の前記第3及び第4のMPEG多重化データの記録されている各領域とは異なる領域に記録された繋ぎ区間MPEG多重化データから前記繋ぎ区間再符号化データを得て、
前記第3のMPEG画像データにおける前記繋ぎ指定位置まで前記第3のMPEG画像データを再生した後、前記繋ぎ区間再符号化データを前記第4のMPEG画像データにおいて設定された所定の繋ぎ区間の開始位置から終了位置まで再生し、その後、前記第4のMPEG画像データにおける前記繋ぎ区間の終了位置から前記第4のMPEG画像データを再生する繋ぎ再生ステップであり、
前記第2の記録媒体に記録された前記繋ぎ区間再符号化データは、前記第4のMPEG画像データにおける前記繋ぎ指定位置を開始位置とし、前記第4のMPEG画像データにおける前記繋ぎ指定位置から所定時間分後の位置を終了位置とする区間を前記繋ぎ区間として、前記繋ぎ区間の前記第4のMPEG画像データを復号して得た画像データである繋ぎ区間復号画像データを、前記MPEG符号化方式で再符号化して生成された再符号化データであって、
前記第2の記録媒体に記録された前記繋ぎ区間再符号化データは、前記再符号化時におけるVBVバッファ占有値に関する情報値の推移が、前記繋ぎ指定位置に対応する位置における前記第3のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値から開始されて、前記繋ぎ区間の終了位置に対応する位置における前記第4のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値までで終了するように符号量制御が行われて再符号化されたものである、
ことを特徴とするMPEGデータ記録再生方法。 In each of the first and second MPEG multiplexed data packet-multiplexed by the MPEG method recorded on the first recording medium, the MPEG code included in the first MPEG multiplexed data as element encoded data MPEG data of the first MPEG image data encoded by the encoding method and the second MPEG image data encoded by the MPEG encoding method that includes the second MPEG multiplexed data as element encoded data As a data to be reproduced by connecting from the first MPEG image data to the second MPEG image data at a specified connection specification position in the image data, a re-encoding of a connection section encoded by the MPEG encoding method is performed. Providing a recording step for generating and recording digitized data;
Two MPEG image data, which are image data encoded by the MPEG encoding method, are reproduced by connecting from one MPEG image data to the other MPEG image data at a specified connection specification position in each MPEG image data. An MPEG data recording / reproducing method provided with a connected reproduction step for performing
The recording step includes
The connection specified position in the second MPEG image data is set as a start position, and a section having a position after a predetermined time from the connection specified position in the second MPEG image data as an end position is set as a connection section.
Re-encoding the connection interval decoded image data, which is image data obtained by decoding the second MPEG image data of the connection interval, using the MPEG encoding method, and generating the connection interval re-encoded data, The first and second MPEG multiplexed data of the first recording medium is obtained by combining the segmented MPEG multiplexed data generated by packet multiplexing according to the MPEG method, including the segmented recoded data as the element encoded data. Are recorded in a different area from each recorded area,
In the re-encoding, information on the VBV buffer occupancy value at the time of encoding the first MPEG image data at a position corresponding to the connection designated position is a transition of an information value related to the VBV buffer occupancy value at the time of re-encoding. The code amount control is performed so that the code value is controlled so as to end up to the information value related to the VBV buffer occupation value at the time of encoding the second MPEG image data at the position corresponding to the end position of the connecting section. Is,
The splicing reproduction step has a first splicing reproduction step of reproducing from the first recording medium and a second splicing reproduction step of reproducing from the second recording medium,
The first splicing reproduction step includes
The first MPEG image data is obtained from the first MPEG multiplexed data recorded on the first recording medium, and from the second MPEG multiplexed data recorded on the first recording medium. Obtaining the second MPEG image data, obtaining the joint section re-encoded data from the joint section MPEG multiplexed data recorded on the first recording medium,
After the first MPEG image data is reproduced up to the connection designated position in the first MPEG image data, the connection section re-encoded data is reproduced from the start position to the end position of the connection section. A joint reproduction step of reproducing the second MPEG image data from an end position of the joint section in the MPEG image data of 2;
The second splicing reproduction step includes
Third MPEG multiplexing that is generated by packet multiplexing according to the MPEG method, including the third MPEG image data encoded by the MPEG encoding method as element encoded data, and recorded on the second recording medium The third MPEG image data is obtained from the data, the fourth MPEG image data encoded by the MPEG encoding method is included as element encoded data, packet-multiplexed by the MPEG method, and generated by the second multiplexing. The MPEG format is obtained by obtaining the fourth MPEG image data from the fourth MPEG multiplexed data recorded on the recording medium, and including re-encoded data as segment encoded data, which is data to be reconstructed. Or connected segment MPEG multiplexed data generated by packet multiplexing and recorded in a region different from each of the third and fourth MPEG multiplexed data recorded on the second recording medium. To obtain the re-encoded data of the connecting section,
After the third MPEG image data is reproduced up to the connection designation position in the third MPEG image data, the connection section re-encoded data is started as a predetermined connection section set in the fourth MPEG image data. Replaying from a position to an end position, and then replaying the fourth MPEG image data from the end position of the splicing section in the fourth MPEG image data,
The splice section re-encoded data recorded on the second recording medium has a splice designated position in the fourth MPEG image data as a start position, and is predetermined from the splice designated position in the fourth MPEG image data. Using the section having a position after time as an end position as the joining section, the joint section decoded image data, which is image data obtained by decoding the fourth MPEG image data of the joining section, is converted into the MPEG encoding method. Re-encoded data generated by re-encoding at
The joint section re-encoded data recorded on the second recording medium has the third MPEG at a position where the transition of the information value related to the VBV buffer occupation value at the time of the re-encoding corresponds to the joint designation position. Starting from an information value related to the VBV buffer occupancy value at the time of encoding image data, up to an information value related to the VBV buffer occupancy value at the time of encoding the fourth MPEG image data at a position corresponding to the end position of the splicing section The code amount control is performed so as to end with the re-encoding,
MPEG data recording and reproducing method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007195752A JP2008005521A (en) | 2001-05-30 | 2007-07-27 | Mpeg data recording and reproducing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001162348 | 2001-05-30 | ||
JP2007195752A JP2008005521A (en) | 2001-05-30 | 2007-07-27 | Mpeg data recording and reproducing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002156229A Division JP2003052021A (en) | 2001-05-30 | 2002-05-29 | Mpeg data reproduction method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008005521A true JP2008005521A (en) | 2008-01-10 |
Family
ID=39009456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007195752A Pending JP2008005521A (en) | 2001-05-30 | 2007-07-27 | Mpeg data recording and reproducing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008005521A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1145555A (en) * | 1997-07-30 | 1999-02-16 | Sony Corp | Editing method and device therefor |
JPH11196376A (en) * | 1997-12-26 | 1999-07-21 | Victor Co Of Japan Ltd | Image compression stream editing device and method therefor |
JP2000197010A (en) * | 1998-12-28 | 2000-07-14 | Victor Co Of Japan Ltd | Picture data editing device |
-
2007
- 2007-07-27 JP JP2007195752A patent/JP2008005521A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1145555A (en) * | 1997-07-30 | 1999-02-16 | Sony Corp | Editing method and device therefor |
JPH11196376A (en) * | 1997-12-26 | 1999-07-21 | Victor Co Of Japan Ltd | Image compression stream editing device and method therefor |
JP2000197010A (en) * | 1998-12-28 | 2000-07-14 | Victor Co Of Japan Ltd | Picture data editing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8260122B2 (en) | MPEG picture data recording apparatus, MPEG picture data recording method, MPEG picture data recording medium, MPEG picture data generating apparatus, MPEG picture data reproducing apparatus, and MPEG picture data reproducing method | |
JP2003169292A (en) | After-recording device, computer program, recording medium, transmission method and reproducing device | |
JP4092681B2 (en) | MPEG recording device, playback device, and transmission device | |
JP3748234B2 (en) | MPEG data recording method | |
JP2003052040A (en) | Mpeg data reproduction equipment | |
JP3748243B2 (en) | MPEG data recording device | |
JP2007325304A (en) | Mpeg data recording and reproducing method | |
JP3748245B2 (en) | MPEG data recording device | |
JP3748244B2 (en) | MPEG data recording device | |
JP3748242B2 (en) | MPEG data recording method | |
JP3748240B2 (en) | MPEG data recording method | |
JP3748241B2 (en) | MPEG data recording method | |
JP2008005520A (en) | Mpeg data recording and reproducing method | |
JP4148200B2 (en) | MPEG image data recording apparatus and MPEG image data recording method | |
JP2008005521A (en) | Mpeg data recording and reproducing method | |
JP2008005522A (en) | Mpeg data recording and reproducing method | |
JP2007336574A (en) | Mpeg data recording and reproducing apparatus | |
JP2008005519A (en) | Mpeg data recording and reproducing apparatus | |
JP2004297829A (en) | Mpeg data reproduction equipment | |
JP4192861B2 (en) | MPEG image data recording apparatus and MPEG image data recording method | |
JP4380068B2 (en) | Data reproduction device and editing device | |
JP2003052021A (en) | Mpeg data reproduction method | |
JP2004289872A (en) | Mpeg data reproducing apparatus | |
JP2004254347A (en) | Mpeg data playback method | |
JP2004289871A (en) | Method for reproducing mpeg data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100312 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100702 |