Nothing Special   »   [go: up one dir, main page]

JP6206558B2 - Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program - Google Patents

Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program Download PDF

Info

Publication number
JP6206558B2
JP6206558B2 JP2016141164A JP2016141164A JP6206558B2 JP 6206558 B2 JP6206558 B2 JP 6206558B2 JP 2016141164 A JP2016141164 A JP 2016141164A JP 2016141164 A JP2016141164 A JP 2016141164A JP 6206558 B2 JP6206558 B2 JP 6206558B2
Authority
JP
Japan
Prior art keywords
prediction
merge candidate
merge
prediction block
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016141164A
Other languages
Japanese (ja)
Other versions
JP2017005724A (en
JP2017005724A5 (en
Inventor
博哉 中村
博哉 中村
福島 茂
茂 福島
英樹 竹原
英樹 竹原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Publication of JP2017005724A publication Critical patent/JP2017005724A/en
Publication of JP2017005724A5 publication Critical patent/JP2017005724A5/en
Application granted granted Critical
Publication of JP6206558B2 publication Critical patent/JP6206558B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画像復号技術に関し、特に動き補償予測を利用した動画像復号技術に関す
る。
The present invention relates to a moving picture decoding technique, and more particularly to a moving picture decoding technique using motion compensated prediction.

動画像の圧縮符号化方式の代表的なものとして、MPEG−4 AVC/H.264の
規格がある。MPEG−4 AVC/H.264では、ピクチャを複数の矩形ブロックに
分割し、すでに符号化・復号したピクチャを参照ピクチャとし、参照ピクチャからの動き
を予測する動き補償が用いられている。この動き補償により動きを予測する手法をインタ
ー予測または動き補償予測と呼ぶ。MPEG−4 AVC/H.264でのインター予測
では、複数のピクチャを参照ピクチャとして用いることができ、これらの複数の参照ピク
チャから最も適した参照ピクチャをブロック毎に選択して動き補償を行う。そこで、それ
ぞれの参照ピクチャには参照インデックスが割り当てられ、この参照インデックスにより
、参照ピクチャを特定する。なお、Bピクチャでは、符号化・復号済みの参照ピクチャか
ら最大で2枚を選択してインター予測に用いることができる。それらの2枚の参照ピクチ
ャからの予測をそれぞれ主に前方向の予測として使われるL0予測(リスト0予測)、主
に後方向の予測として使われるL1予測(リスト1予測)として区別している。
As a typical moving image compression encoding method, MPEG-4 AVC / H. There are H.264 standards. MPEG-4 AVC / H. In H.264, motion compensation is used in which a picture is divided into a plurality of rectangular blocks, a picture that has already been encoded / decoded is used as a reference picture, and motion from the reference picture is predicted. This method of predicting motion by motion compensation is called inter prediction or motion compensated prediction. MPEG-4 AVC / H. In the inter prediction in H.264, a plurality of pictures can be used as reference pictures, and the most suitable reference picture is selected for each block from the plurality of reference pictures to perform motion compensation. Therefore, a reference index is assigned to each reference picture, and the reference picture is specified by this reference index. In the B picture, a maximum of two pictures can be selected from the encoded / decoded reference pictures and used for inter prediction. The predictions from these two reference pictures are distinguished as L0 prediction (list 0 prediction) mainly used as forward prediction and L1 prediction (list 1 prediction) mainly used as backward prediction.

さらに、L0予測とL1予測の2つのインター予測を同時に用いる双予測も定義されて
いる。双予測の場合は、双方向の予測を行い、L0予測、L1予測のそれぞれのインター
予測された信号に重み付け係数を掛け算し、オフセット値を加算して重畳し、最終的なイ
ンター予測画像信号を生成する。重み付け予測に用いる重み付け係数及びオフセット値は
ピクチャ単位で各リストの参照ピクチャ毎に代表的な値が設定され、符号化される。イン
ター予測に関する符号化情報には、ブロック毎に、L0予測とL1予測、双予測を区別す
る予測モード、ブロック毎の参照リスト毎に、参照ピクチャを特定する参照インデックス
、ブロックの移動方向・移動量を表す動きベクトルがあり、これらの符号化情報を符号化
・復号する。
Furthermore, bi-prediction using two inter predictions of L0 prediction and L1 prediction at the same time is also defined. In the case of bi-prediction, bi-directional prediction is performed, the inter-predicted signals of L0 prediction and L1 prediction are multiplied by a weighting coefficient, an offset value is added and superimposed, and a final inter-predicted image signal is obtained. Generate. As weighting coefficients and offset values used for weighted prediction, representative values are set for each reference picture in each list and encoded. The encoding information related to inter prediction includes, for each block, a prediction mode for distinguishing between L0 prediction and L1 prediction and bi-prediction, a reference index for specifying a reference picture for each reference list for each block, and a moving direction and a moving amount of the block. There is a motion vector that expresses and encodes and decodes the encoded information.

さらに、MPEG−4 AVC/H.264では、符号化/復号済みのブロックのイン
ター予測情報から符号化/復号対象のブロックのインター予測情報を生成するダイレクト
モードが定義されている。ダイレクトモードはインター予測情報の符号化が不要となるの
で、符号化効率が向上する。
Furthermore, MPEG-4 AVC / H. H.264 defines a direct mode for generating inter prediction information of a block to be encoded / decoded from inter prediction information of an encoded / decoded block. In the direct mode, encoding of inter prediction information is not necessary, so that encoding efficiency is improved.

時間方向のインター予測情報の相関を利用する時間ダイレクトモードについて図36を
用いて説明する。L1の参照インデックスが0に登録されているピクチャを基準ピクチャ
colPicとする。基準ピクチャcolPic内で符号化/復号対象ブロックと同じ位置のブロック
を基準ブロックとする。
A temporal direct mode using the correlation of inter prediction information in the time direction will be described with reference to FIG. A picture whose reference index of L1 is registered as 0 is a standard picture
colPic. A block in the same position as the encoding / decoding target block in the reference picture colPic is set as a reference block.

基準ブロックがL0予測を用いて符号化されていれば、基準ブロックのL0の動きベク
トルを基準動きベクトルmvColとし、基準ブロックがL0予測を用いて符号化されておら
ず、L1予測を用いて符号化されていれば、基準ブロックのL1の動きベクトルを基準動
きベクトルmvColとする。基準動きベクトルmvColが参照するピクチャを時間ダイレクトモ
ードのL0の参照ピクチャとし、基準ピクチャcolPicを時間ダイレクトモードのL1の参
照ピクチャとする。
If the reference block is encoded using the L0 prediction, the L0 motion vector of the reference block is the reference motion vector mvCol, the reference block is not encoded using the L0 prediction, and is encoded using the L1 prediction. If this is the case, the L1 motion vector of the reference block is set as the reference motion vector mvCol. The picture referred to by the reference motion vector mvCol is the L0 reference picture in the temporal direct mode, and the reference picture colPic is the L1 reference picture in the temporal direct mode.

基準動きベクトルmvColからスケーリング演算処理により時間ダイレクトモードのL0
の動きベクトルmvL0とL1の動きベクトルmvL1を導出する。
Time direct mode L0 by scaling operation from reference motion vector mvCol
Motion vector mvL0 and motion vector mvL1 of L1 are derived.

基準ピクチャcolPicのPOCから、時間ダイレクトモードのL0の参照ピクチャのPO
Cを減算してピクチャ間距離tdを導出する。なお、POCは符号化されるピクチャに関
連付けられる変数とし、ピクチャの出力/表示順序で1ずつ増加する値が設定される。2
つのピクチャのPOCの差が時間軸方向でのピクチャ間距離を示す。
td=基準ピクチャcolPicのPOC−時間ダイレクトモードのL0の参照ピクチャのP
OC
From the POC of the reference picture colPic, the PO of the reference picture of L0 in the temporal direct mode
The inter-picture distance td is derived by subtracting C. Note that POC is a variable associated with a picture to be encoded, and is set to a value that increases by 1 in the picture output / display order. 2
The difference in the POC of two pictures indicates the inter-picture distance in the time axis direction.
td = POC of base picture colPic-P of L0 reference picture in temporal direct mode
OC

符号化/復号対象ピクチャのPOCから時間ダイレクトモードのL0の参照ピクチャの
POCを減算してピクチャ間距離tbを導出する。
tb=符号化/復号対象ピクチャのPOC−時間ダイレクトモードのL0の参照ピクチ
ャのPOC
The inter-picture distance tb is derived by subtracting the POC of the L0 reference picture in the temporal direct mode from the POC of the picture to be encoded / decoded.
tb = POC of picture to be encoded / decoded-POC of L0 reference picture in temporal direct mode

基準動きベクトルmvColからスケーリング演算処理により時間ダイレクトモードのL0
の動きベクトルmvL0を導出する。
mvL0=tb / td * mvCol
Time direct mode L0 by scaling operation from reference motion vector mvCol
The motion vector mvL0 is derived.
mvL0 = tb / td * mvCol

時間ダイレクトモードのL0の動きベクトルmvL0から基準動きベクトルmvColを減算し
L1の動きベクトルmvL1を導出する。
mvL1=mvL0 - mvCol
なお、動画像符号化装置、動画像復号装置の処理能力が低い場合、時間ダイレクトモー
ドの処理を省略することもできる。
The motion vector mvL1 of L1 is derived by subtracting the reference motion vector mvCol from the motion vector mvL0 of L0 in the temporal direct mode.
mvL1 = mvL0-mvCol
In addition, when the processing capability of the moving image encoding device and the moving image decoding device is low, the processing in the time direct mode can be omitted.

特開2004−129191号公報JP 2004-129191 A

このような状況下、本発明者らは、動き補償予測を使用する動画像符号化方式において
、符号化情報をより一層圧縮し、全体の符号量を削減する必要性を認識するに至った。
Under such circumstances, the present inventors have come to recognize the necessity of further compressing the encoded information and reducing the overall code amount in the moving image encoding method using motion compensation prediction.

本発明はこうした状況に鑑みてなされたものであり、その目的は、動き補償予測に用い
る予測情報の候補を状況に応じて導出することにより、符号化情報の符号量の削減を図っ
て符号化効率を向上させる動画像復号技術を提供することにある。
The present invention has been made in view of such a situation, and an object of the present invention is to derive a prediction information candidate used for motion compensation prediction according to the situation, thereby reducing the amount of coding information. An object of the present invention is to provide a video decoding technique that improves efficiency.

動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列を復号する動画像復号装置であって、予め指定されたマージ候補の数を示す情報を復号する予測情報復号部と、復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出部と、前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築部と、前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測部とを備えることを特徴とする動画像復号装置を提供する。
動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列を復号する動画像復号方法であって、予め指定されたマージ候補の数を示す情報を復号する予測情報復号ステップと、復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出ステップと、前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築ステップと、前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測ステップとを有することを特徴とする動画像復号方法を提供する。
動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列を復号する動画像復号プログラムであって、予め指定されたマージ候補の数を示す情報を復号する予測情報復号ステップと、復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出ステップと、前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築ステップと、前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測ステップとをコンピュータに実行させることを特徴とする動画像復号プログラムを提供する。
動画像が符号化された符号化ビット列を受信して復号する受信装置であって、動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列がパケット化された符号化ストリームを受信する受信部と、受信された前記符号化ストリームをパケット処理して元の符号化ビット列を復元する復元部と、予め指定されたマージ候補の数を示す情報を復号する予測情報復号部と、復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出部と、前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築部と、前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測部とを備えることを特徴とする受信装置を提供する。
動画像が符号化された符号化ビット列を受信して復号する受信方法であって、動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列がパケット化された符号化ストリームを受信する受信ステップと、受信された前記符号化ストリームをパケット処理して元の符号化ビット列を復元する復元ステップと、予め指定されたマージ候補の数を示す情報を復号する予測情報復号ステップと、復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出ステップと、前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築ステップと、前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測ステップとを有することを特徴とする受信方法を提供する。
動画像が符号化された符号化ビット列を受信して復号する受信プログラムであって、動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列がパケット化された符号化ストリームを受信する受信ステップと、受信された前記符号化ストリームをパケット処理して元の符号化ビット列を復元する復元ステップと、予め指定されたマージ候補の数を示す情報を復号する予測情報復号ステップと、復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出ステップと、前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築ステップと、前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測ステップとをコンピュータに実行させことを特徴とする受信プログラムを提供する。
A moving picture decoding apparatus that decodes a coded bit string in which the moving picture is encoded using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving picture. Prediction information decoding unit for decoding information indicating the number of candidates, and a prediction block adjacent to a prediction block to be decoded, or the same as the prediction block to be decoded in a decoded picture temporally different from the prediction block to be decoded A prediction information deriving unit for deriving the merge candidate from inter prediction information of a prediction block existing at or near a position, a candidate list building unit for constructing a merge candidate list from the derived merge candidate, and When the number of merge candidates is 1 or more, one merge candidate is selected from the merge candidates included in the merge candidate list. And performing inter prediction on the prediction block to be decoded according to the inter prediction information of the selected merge candidate. When the number of merge candidates designated in advance is 0, the inter prediction information is determined according to predetermined inter prediction information. There is provided a video decoding device comprising a motion compensation prediction unit that performs inter prediction of a prediction block to be decoded.
A moving picture decoding method for decoding a coded bit sequence in which the moving picture is encoded using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving picture. Prediction information decoding step for decoding information indicating the number of candidates, and the same prediction block as the decoding target in the prediction block adjacent to the prediction block to be decoded or the decoded picture temporally different from the prediction block to be decoded A prediction information deriving step for deriving the merge candidate from inter prediction information of a prediction block existing at or near a position, a candidate list building step for building a merge candidate list from the derived merge candidate, and Merge candidates included in the merge candidate list when the number of merge candidates is 1 or more One merge candidate is selected, and inter prediction of the prediction block to be decoded is performed based on the inter prediction information of the selected merge candidate. When the number of merge candidates designated in advance is 0, a predetermined number of merge candidates is determined. And a motion compensated prediction step of performing inter prediction of the prediction block to be decoded by inter prediction information.
A moving picture decoding program for decoding a coded bit sequence in which the moving picture is encoded using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving picture, and a merge specified in advance Prediction information decoding step for decoding information indicating the number of candidates, and the same prediction block as the decoding target in the prediction block adjacent to the prediction block to be decoded or the decoded picture temporally different from the prediction block to be decoded A prediction information deriving step for deriving the merge candidate from inter prediction information of a prediction block existing at or near a position, a candidate list building step for building a merge candidate list from the derived merge candidate, and When the number of merge candidates is 1 or more, the mark included in the merge candidate list One merge candidate is selected from the candidates, inter prediction of the prediction block to be decoded is performed based on the inter prediction information of the selected merge candidate, and predetermined when the number of merge candidates designated in advance is 0 And a motion compensation prediction step for performing inter prediction of the prediction block to be decoded based on the inter prediction information.
A receiving apparatus that receives and decodes a coded bit stream in which a moving image is encoded, and the moving image is encoded using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving image. A receiving unit that receives an encoded stream in which the encoded bit string is packetized, a restoration unit that processes the received encoded stream to restore the original encoded bit sequence, and a pre-specified merge Prediction information decoding unit for decoding information indicating the number of candidates, and a prediction block adjacent to a prediction block to be decoded, or the same as the prediction block to be decoded in a decoded picture temporally different from the prediction block to be decoded A prediction information deriving unit for deriving the merge candidate from inter prediction information of a prediction block existing at or near the position; Selection and candidate list construction unit, when the number of merging candidates the previously specified is 1 or more, one merge candidate from the merge candidates included in the merge candidate list for building a merge candidate list from the issued merging candidate Then, inter prediction of the prediction block to be decoded is performed based on the inter prediction information of the selected merge candidate, and when the number of merge candidates designated in advance is 0, the decoding target is determined based on predetermined inter prediction information. And a motion compensation prediction unit that performs inter prediction of the prediction block .
A receiving method for receiving and decoding a coded bit stream in which a moving image is encoded, wherein the moving image is encoded using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving image. A reception step of receiving an encoded stream in which the encoded bit sequence is packetized, a restoration step of processing the received encoded stream to restore the original encoded bit sequence, and a pre-specified merge Prediction information decoding step for decoding information indicating the number of candidates, and the same prediction block as the decoding target in the prediction block adjacent to the prediction block to be decoded or the decoded picture temporally different from the prediction block to be decoded Prediction for deriving the merge candidate from inter prediction information of a prediction block existing at or near the position A distribution deriving step, the candidate list construction step of constructing a merged candidate list from said derived merged candidates, when the number of merging candidates the previously specified is 1 or more, from the merge candidates included in the merge candidate list One merge candidate is selected, and inter prediction of the prediction block to be decoded is performed based on the inter prediction information of the selected merge candidate. When the number of previously designated merge candidates is 0, a predetermined inter And a motion compensation prediction step of performing inter prediction of the prediction block to be decoded according to prediction information .
A reception program that receives and decodes a coded bit string in which a moving image is encoded, and the moving image is encoded using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving image. A reception step of receiving an encoded stream in which the encoded bit sequence is packetized, a restoration step of processing the received encoded stream to restore the original encoded bit sequence, and a pre-specified merge Prediction information decoding step for decoding information indicating the number of candidates, and the same prediction block as the decoding target in the prediction block adjacent to the prediction block to be decoded or the decoded picture temporally different from the prediction block to be decoded The merge candidate is derived from inter prediction information of a prediction block existing at or near the position. And prediction information derivation step, the candidate list construction step of constructing a merged candidate list from said derived merged candidates, when the number of merging candidates the previously specified is 1 or more, the merge candidates included in the merge candidate list 1 is selected, and inter prediction of the prediction block to be decoded is performed based on the inter prediction information of the selected merge candidate. When the number of merge candidates specified in advance is 0, a predetermined number of merge candidates is determined. to provide a receiving program characterized by Ru to execute the motion compensation prediction step in a computer by the inter prediction information performs inter prediction of the prediction blocks of the decoding target.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒
体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効で
ある。
It should be noted that any combination of the above-described constituent elements and the expression of the present invention converted between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、動き補償予測に用いる予測情報の候補を状況に応じて導出することに
より、伝送する符号化情報の発生符号量を削減させて、符号化効率を向上させることがで
きる。
According to the present invention, by deriving prediction information candidates used for motion compensation prediction according to the situation, it is possible to reduce the amount of generated code of encoded information to be transmitted and improve encoding efficiency.

実施の形態に係る動きベクトルの予測方法を実行する動画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image encoder which performs the motion vector prediction method which concerns on embodiment. 実施の形態に係る動きベクトルの予測方法を実行する動画像復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image decoding apparatus which performs the motion vector prediction method which concerns on embodiment. ツリーブロック、符号化ブロックを説明する図である。It is a figure explaining a tree block and an encoding block. 予測ブロックの分割モードを説明する図である。It is a figure explaining the division mode of a prediction block. マージモードでの空間マージ候補の予測ブロックを説明する図である。It is a figure explaining the prediction block of the spatial merge candidate in merge mode. マージモードでの空間マージ候補の予測ブロックを説明する図である。It is a figure explaining the prediction block of the spatial merge candidate in merge mode. マージモードでの空間マージ候補の予測ブロックを説明する図である。It is a figure explaining the prediction block of the spatial merge candidate in merge mode. マージモードでの空間マージ候補の予測ブロックを説明する図である。It is a figure explaining the prediction block of the spatial merge candidate in merge mode. マージモードでの時間マージ候補の予測ブロックを説明する図である。It is a figure explaining the prediction block of the time merge candidate in merge mode. マージモードに関する予測ブロック単位でのビットストリームのシンタックスを説明する図である。It is a figure explaining the syntax of the bit stream in the prediction block unit regarding merge mode. マージインデックスのシンタックス要素のエントロピー符号の一例を説明する図である。It is a figure explaining an example of the entropy code | symbol of the syntax element of a merge index. 第1の実施例の図1の動画像符号化装置のインター予測情報導出部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the inter prediction information derivation | leading-out part of the moving image encoder of FIG. 1 of 1st Example. 第1の実施例の図2の動画像復号装置のインター予測情報導出部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the inter prediction information derivation | leading-out part of the moving image decoding apparatus of FIG. 2 of 1st Example. マージモードでの処理対象の予測ブロックに隣接する予測ブロックを説明する図である。It is a figure explaining the prediction block adjacent to the prediction block of the process target in merge mode. 第1の実施例のマージモードのマージ候補の導出処理及びマージ候補リストの構築処理手順を説明するフローチャートである。It is a flowchart explaining the merge candidate derivation | leading-out process of the merge mode of 1st Example, and the construction process procedure of a merge candidate list | wrist. マージモードの空間マージ候補導出処理手順を説明するフローチャートである。It is a flowchart explaining the space merge candidate derivation | leading-out process of merge mode. 時間マージ候補の参照インデックスの導出処理において参照する隣接ブロックを説明する図である。It is a figure explaining the adjacent block referred in the derivation | leading-out process of the reference index of a time merge candidate. マージモードの時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。It is a flowchart explaining the derivation | leading-out process procedure of the reference index of the time merge candidate of merge mode. マージモードの時間マージ候補導出処理手順を説明するフローチャートである。It is a flowchart explaining the time merge candidate derivation | leading-out process procedure of merge mode. マージモードの異なる時間のピクチャの導出処理手順を説明するフローチャートである。It is a flowchart explaining the derivation | leading-out process procedure of the picture of the time from which merge mode differs. マージモードの異なる時間のピクチャの予測ブロックの導出処理手順を説明するフローチャートである。It is a flowchart explaining the derivation | leading-out process procedure of the prediction block of the picture of the time from which merge mode differs. マージモードの時間マージ候補導出処理手順を説明するフローチャートである。It is a flowchart explaining the time merge candidate derivation | leading-out process procedure of merge mode. マージモードの時間マージ候補導出処理手順を説明するフローチャートである。It is a flowchart explaining the time merge candidate derivation | leading-out process procedure of merge mode. 動きベクトルのスケーリング演算処理手順を説明するフローチャートである。It is a flowchart explaining the scaling calculation processing procedure of a motion vector. 動きベクトルのスケーリング演算処理手順を説明するフローチャートである。It is a flowchart explaining the scaling calculation processing procedure of a motion vector. マージモードの追加マージ候補導出処理手順を説明するフローチャートである。It is a flowchart explaining the additional merge candidate derivation | leading-out process procedure of merge mode. マージ候補制限処理手順を説明するフローチャートである。It is a flowchart explaining a merge candidate restriction | limiting process procedure. 第2〜7の実施例の図1の動画像符号化装置のインター予測情報導出部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the inter prediction information derivation | leading-out part of the moving image encoder of FIG. 1 of the 2nd-7th Example. 第2〜7の実施例の図2の動画像復号装置のインター予測情報導出部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the inter prediction information derivation | leading-out part of the moving image decoding apparatus of FIG. 2 of the 2nd-7th Example. 第2〜7の実施例のマージモードのマージ候補の導出処理及びマージ候補リストの構築処理手順を説明するフローチャートである。It is a flowchart explaining the merge candidate derivation | leading-out process of the merge mode of 2nd-7th Example, and the construction process sequence of a merge candidate list | wrist. 第2の実施例のマージモードの有効マージ候補補充処理手順を説明するフローチャートである。It is a flowchart explaining the effective merge candidate supplement processing procedure of the merge mode of 2nd Example. 第3の実施例のマージモードの有効マージ候補補充処理手順を説明するフローチャートである。It is a flowchart explaining the effective merge candidate supplement processing procedure of the merge mode of 3rd Example. 第4の実施例のマージモードの有効マージ候補補充処理手順を説明するフローチャートである。It is a flowchart explaining the effective merge candidate supplement processing procedure of the merge mode of 4th Example. 第5の実施例のマージモードの追加マージ候補導出処理および有効マージ候補補充処理手順を説明するフローチャートである。It is a flowchart explaining the additional merge candidate derivation | leading-out process of the merge mode of 5th Example, and the effective merge candidate supplement process. 第6〜7の実施例のマージモードの初期化されたインター予測情報をマージ候補として有効にする処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence which validates the inter prediction information initialized by the merge mode of the 6th-7th Example as a merge candidate. 従来のMPEG−4 AVC/H.264の時間ダイレクトモードを説明する図である。Conventional MPEG-4 AVC / H. It is a figure explaining the H.264 time direct mode. 動画像符号化装置のインター予測情報導出部のインター予測情報選択部の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the inter prediction information selection part of the inter prediction information derivation | leading-out part of a moving image encoder. 動画像復号装置のインター予測情報導出部のインター予測情報選択部の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the inter prediction information selection part of the inter prediction information derivation | leading-out part of a moving image decoding apparatus.

本実施の形態では、動画像の符号化に関し、特にピクチャを任意のサイズ、形状の矩形
ブロックに分割し、ピクチャ間でブロック単位に動き補償を行う動画像符号化における符
号化効率を向上させる為に、符号化対象ブロックに隣接するブロックまたは符号化済みの
ピクチャのブロックの動きベクトルから複数の予測動きベクトルを導出し、符号化対象の
ブロックの動きベクトルと選択された予測動きベクトルとの差分ベクトルを算出して符号
化することによって符号量を削減する。あるいは、符号化対象ブロックに隣接するブロッ
クまたは符号化済みのピクチャのブロックの符号化情報を利用することにより、符号化対
象ブロックの符号化情報を導出することによって符号量を削減する。また、動画像の復号
の場合は、復号対象ブロックに隣接するブロックまたは復号済みのピクチャのブロックの
動きベクトルから複数の予測動きベクトルを算出し、符号化ストリームから復号された差
分ベクトルと選択された予測動きベクトルとから復号対象のブロックの動きベクトルを算
出して復号する。あるいは、復号対象ブロックに隣接するブロックまたは復号済みのピク
チャのブロックの符号化情報を利用することにより、復号対象ブロックの符号化情報を導
出する。
In the present embodiment, with regard to moving picture coding, in particular, to improve coding efficiency in moving picture coding in which a picture is divided into rectangular blocks of an arbitrary size and shape and motion compensation is performed in units of blocks between pictures. Next, a plurality of predicted motion vectors are derived from the motion vectors of the block adjacent to the encoding target block or the block of the encoded picture, and the difference vector between the motion vector of the encoding target block and the selected prediction motion vector The amount of code is reduced by calculating and encoding. Alternatively, the coding amount is reduced by deriving the coding information of the coding target block by using the coding information of the block adjacent to the coding target block or the block of the coded picture. Also, in the case of decoding a moving image, a plurality of predicted motion vectors are calculated from the motion vectors of a block adjacent to the decoding target block or a decoded picture block, and selected from the difference vector decoded from the encoded stream The motion vector of the decoding target block is calculated from the predicted motion vector and decoded. Alternatively, the encoding information of the decoding target block is derived by using the encoding information of the block adjacent to the decoding target block or the block of the decoded picture.

まず、本実施の形態において使用する技術、及び技術用語を定義する。   First, techniques used in the present embodiment and technical terms are defined.

(ツリーブロック、符号化ブロックについて)
実施の形態では、ピクチャを1つまたは複数分割したスライスが符号化の基本単位とな
っており、スライス毎にスライスの種類を示す情報であるスライスタイプが設定される。
図3に示されるように、スライス内を任意の同一サイズの正方の矩形の単位にて均等分割
する。この単位をツリーブロックと定義し、スライス内での符号化/復号対象ブロック(
符号化処理においては符号化対象ブロック、復号処理においては復号対象ブロックのこと
である。以下、断りのない限り、この意味で用いる。)を特定するためのアドレス管理の
基本単位とする。モノクロを除きツリーブロックは1つの輝度信号と2つの色差信号で構
成される。ツリーブロックのサイズはピクチャサイズやピクチャ内のテクスチャに応じて
、2のべき乗のサイズで自由に設定することができる。ツリーブロックはピクチャ内のテ
クスチャに応じて、符号化処理を最適にすべく、必要に応じてツリーブロック内の輝度信
号、及び色差信号を階層的に4分割(縦横に2分割ずつ)して、ブロックサイズの小さい
ブロックにすることができる。このブロックをそれぞれ符号化ブロックと定義し、符号化
及び復号を行う際の処理の基本単位とする。モノクロを除き符号化ブロックも1つの輝度
信号と2つの色差信号で構成される。符号化ブロックの最大サイズはツリーブロックのサ
イズと同一である。符号化ブロックの最小のサイズとなる符号化ブロックを最小符号化ブ
ロックと呼び、2のべき乗のサイズで自由に設定することができる。
(About tree blocks and coding blocks)
In the embodiment, a slice obtained by dividing a picture into one or more is a basic unit of encoding, and a slice type, which is information indicating a slice type, is set for each slice.
As shown in FIG. 3, the slice is equally divided into square units of any same size. This unit is defined as a tree block, and the block to be encoded / decoded in the slice (
In the encoding process, it is an encoding target block, and in the decoding process, it is a decoding target block. Hereinafter, unless otherwise noted, this meaning is used. ) As a basic unit of address management for specifying. Except for monochrome, the tree block is composed of one luminance signal and two color difference signals. The size of the tree block can be freely set to a power of 2 depending on the picture size and the texture in the picture. In order to optimize the encoding process according to the texture in the picture, the tree block divides the luminance signal and chrominance signal in the tree block hierarchically into four parts (two parts vertically and horizontally) as necessary, The block can be made smaller in block size. Each block is defined as a coding block, and is a basic unit of processing when performing coding and decoding. Except for monochrome, the coding block is also composed of one luminance signal and two color difference signals. The maximum size of the coding block is the same as the size of the tree block. An encoded block having the minimum size of the encoded block is called a minimum encoded block, and can be freely set to a power of 2.

図3においては、符号化ブロックAは、ツリーブロックを分割せず、1つの符号化ブロ
ックとしたものである。符号化ブロックBは、ツリーブロックを4分割してできた符号化
ブロックである。符号化ブロックCは、ツリーブロックを4分割してできたブロックをさ
らに4分割してできた符号化ブロックである。符号化ブロックDは、ツリーブロックを4
分割してできたブロックをさらに階層的に2度4分割してできた符号化ブロックであり、
最小サイズの符号化ブロックである。
In FIG. 3, the encoding block A is a single encoding block without dividing the tree block. The encoding block B is an encoding block formed by dividing a tree block into four. The coding block C is a coding block obtained by further dividing the block obtained by dividing the tree block into four. Encoding block D is a tree block of 4
It is an encoded block that is obtained by further dividing the block obtained by dividing into four hierarchically twice.
It is a coding block of the minimum size.

(予測モードについて)
符号化ブロック単位で、符号化/復号対象ピクチャ内の符号化/復号済み(符号化処理
においては符号化した信号を復号したピクチャ、予測ブロック、画像信号等に用い、復号
処理においては復号したピクチャ、予測ブロック、画像信号等に用いる。以下、断りのな
い限り、この意味で用いる。)の周囲の画像信号から予測を行うイントラ予測(MODE_INT
RA)、及び符号化/復号済みのピクチャの画像信号から予測を行うインター予測(MODE_I
NTER)を切り替える。このイントラ予測(MODE_INTRA)とインター予測(MODE_INTER)を
識別するモードを予測モード(PredMode)と定義する。予測モード(PredMode)はイント
ラ予測(MODE_INTRA)、またはインター予測(MODE_INTER)を値として持ち、選択して符
号化できる。
(About prediction mode)
Encoded / decoded in the picture to be encoded / decoded in units of coding blocks (in the encoding process, the encoded signal is used for a decoded picture, a prediction block, an image signal, etc., and the decoded picture in the decoding process) Used for prediction blocks, image signals, etc. In the following, unless otherwise specified, this is used in this sense.
RA), and inter prediction (MODE_I) that performs prediction from the image signal of a coded / decoded picture
NTER). A mode for identifying the intra prediction (MODE_INTRA) and the inter prediction (MODE_INTER) is defined as a prediction mode (PredMode). The prediction mode (PredMode) has intra prediction (MODE_INTRA) or inter prediction (MODE_INTER) as a value, and can be selected and encoded.

(分割モード、予測ブロック、予測ユニットについて)
ピクチャ内をブロックに分割してイントラ予測(MODE_INTRA)及びインター予測(MODE
_INTER)を行う場合、イントラ予測及びインター予測の方法を切り替える単位をより小さ
くするために、必要に応じて符号化ブロックを分割して予測を行う。この符号化ブロック
の輝度信号と色差信号の分割方法を識別するモードを分割モード(PartMode)と定義する
。さらに、この分割されたブロックを予測ブロックと定義する。図4に示すように、符号
化ブロックの輝度信号の分割方法に応じて8種類の分割モード(PartMode)を定義する。
(About split mode, prediction block, prediction unit)
Intra-prediction (MODE_INTRA) and inter-prediction (MODE)
When performing (_INTER), in order to reduce the unit for switching between the intra prediction method and the inter prediction method, prediction is performed by dividing the coded block as necessary. A mode for identifying the division method of the luminance signal and the color difference signal of the coding block is defined as a division mode (PartMode). Furthermore, this divided block is defined as a prediction block. As shown in FIG. 4, eight types of partition modes (PartMode) are defined according to the method of dividing the luminance signal of the coding block.

図4(a)に示す符号化ブロックの輝度信号を分割せず1つの予測ブロックとみなした
分割モード(PartMode)を2N×2N分割(PART_2Nx2N)と定義する。図4(b)、(c
)、(d)に示す符号化ブロックの輝度信号を上下に並ぶ2つの予測ブロックに分割する
分割モード(PartMode)をそれぞれ2N×N分割(PART_2NxN)、2N×nU分割(PART_
2NxnU)、2N×nD分割(PART_2NxnD)と定義する。ただし、2N×N分割(PART_2NxN
)は上下に1:1の比率で分割した分割モードであり、2N×nU分割(PART_2NxnU)は
上下に1:3の比率で分割した分割モードであり、2N×nD分割(PART_2NxnD)は上下
に3:1の比率で分割した分割モードである。図4(e)、(f)、(g)に示す符号化
ブロックの輝度信号を左右に並ぶ2つの予測ブロックに分割する分割モード(PartMode)
をそれぞれN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分
割(PART_nRx2N)と定義する。ただし、N×2N分割(PART_Nx2N)は左右に1:1の比
率で分割した分割モードであり、nL×2N分割(PART_nLx2N)は左右に1:3の比率で
分割した分割モードであり、nR×2N分割(PART_nRx2N)は左右に3:1の比率で分割
した分割モードである。図4(h)に示す符号化ブロックの輝度信号を上下左右に4分割
して、4つの予測ブロックとした分割モード(PartMode)をN×N分割(PART_NxN)とそ
れぞれ定義する。
A division mode (PartMode) that is regarded as one prediction block without dividing the luminance signal of the encoded block shown in FIG. 4A is defined as 2N × 2N division (PART_2Nx2N). 4 (b) and (c
) And (d) are divided into 2N × N divisions (PART_2NxN) and 2N × nU divisions (PART_), respectively, for dividing the luminance signal of the coding block shown in FIG.
2NxnU) and 2N × nD division (PART_2NxnD). However, 2N × N division (PART_2NxN
) Is a split mode divided up and down at a ratio of 1: 1, 2N x nU split (PART_2NxnU) is a split mode split up and down at a ratio of 1: 3, and 2N x nD split (PART_2NxnD) is This is a division mode divided at a ratio of 3: 1. Partition mode (PartMode) for dividing the luminance signal of the coding block shown in FIGS. 4E, 4F, and 4G into two prediction blocks arranged on the left and right
Are defined as N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), and nR × 2N partition (PART_nRx2N), respectively. However, N × 2N division (PART_Nx2N) is a division mode in which left and right are divided at a ratio of 1: 1, and nL × 2N division (PART_nLx2N) is a division mode in which division is performed at a ratio of 1: 3 in the left and right, and nR × 2N division (PART_nRx2N) is a division mode in which the image is divided in the ratio of 3: 1 to the left and right. The division mode (PartMode) in which the luminance signal of the coding block shown in FIG. 4 (h) is divided into four parts in the vertical and horizontal directions and defined as four prediction blocks is defined as N × N division (PART_NxN).

なお、各分割モード(PartMode)毎に輝度信号の縦横の分割比率と同様に色差信号も分
割する。
Note that the color difference signal is also divided in the same manner as the vertical and horizontal division ratios of the luminance signal for each division mode (PartMode).

符号化ブロック内部において、各予測ブロックを特定する為に、0から開始する番号を
、符号化順序で、符号化ブロック内部に存在する予測ブロックに対して割り当てる。この
番号を分割インデックスPartIdxと定義する。図4の符号化ブロックの各予測ブロックの
中に記述された数字は、その予測ブロックの分割インデックスPartIdxを表す。図4(b
)、(c)、(d)に示す2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)
、2N×nD分割(PART_2NxnD)では上の予測ブロックの分割インデックスPartIdxを0
とし、下の予測ブロックの分割インデックスPartIdxを1とする。図4(e)、(f)、
(g)に示すN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N
分割(PART_nRx2N)では左の予測ブロックの分割インデックスPartIdxを0とし、右の予
測ブロックの分割インデックスPartIdxを1とする。図4(h)に示すN×N分割(PART_
NxN)では、左上の予測ブロックの分割インデックスPartIdxを0とし、右上の予測ブロッ
クの分割インデックスPartIdxを1とし、左下の予測ブロックの分割インデックスPartIdx
を2とし、右下の予測ブロックの分割インデックスPartIdxを3とする。
In order to specify each prediction block within the coding block, a number starting from 0 is assigned to the prediction block existing inside the coding block in the coding order. This number is defined as a split index PartIdx. A number described in each prediction block of the encoded block in FIG. 4 represents a partition index PartIdx of the prediction block. FIG.
), (C), (d) 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU)
In 2N × nD partition (PART_2NxnD), the partition index PartIdx of the upper prediction block is set to 0
And the division index PartIdx of the lower prediction block is set to 1. 4 (e), (f),
N × 2N division (PART_Nx2N), nL × 2N division (PART_nLx2N), nR × 2N shown in (g)
In the division (PART_nRx2N), the division index PartIdx of the left prediction block is set to 0, and the division index PartIdx of the right prediction block is set to 1. N × N division (PART_) shown in FIG.
NxN), the partition index PartIdx of the upper left prediction block is set to 0, the partition index PartIdx of the upper right prediction block is set to 1, and the partition index PartIdx of the lower left prediction block is set to 1.
Is set to 2, and the division index PartIdx of the prediction block on the lower right is set to 3.

予測モード(PredMode)がインター予測(MODE_INTER)では、分割モード(PartMode)
は2N×2N分割(PART_2Nx2N)、2N×N分割(PART_2NxN)、2N×nU分割(PART_
2NxnU)、2N×nD分割(PART_2NxnD)、N×2N分割(PART_Nx2N)、nL×2N分割
(PART_nLx2N)、及びnR×2N分割(PART_nRx2N)を定義する。最小の符号化ブロック
である符号化ブロックDのみ、分割モード(PartMode)は2N×2N分割(PART_2Nx2N)
、2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_
2NxnD)、N×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、及びnR×2N
分割(PART_nRx2N)に加えてN×N分割(PART_NxN)を定義することもできるが、本実施
の形態においては、分割モード(PartMode)がN×N分割(PART_NxN)を定義しないもの
とする。
When the prediction mode (PredMode) is inter prediction (MODE_INTER), the split mode (PartMode)
Is 2N x 2N split (PART_2Nx2N), 2N x N split (PART_2NxN), 2N x nU split (PART_
2NxnU), 2N × nD partition (PART_2NxnD), N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), and nR × 2N partition (PART_nRx2N). Only coding block D, which is the smallest coding block, has a partition mode (PartMode) of 2N × 2N (PART_2Nx2N)
2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_
2NxnD), N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), and nR × 2N
Although N × N division (PART_NxN) can be defined in addition to division (PART_nRx2N), in this embodiment, it is assumed that the division mode (PartMode) does not define N × N division (PART_NxN).

予測モード(PredMode)がイントラ予測(MODE_INTRA)では、最小の符号化ブロックで
ある符号化ブロックD以外では、分割モード(PartMode)は2N×2N分割(PART_2Nx2N
)だけを定義し、最小の符号化ブロックである符号化ブロックDのみ、分割モード(Part
Mode)は2N×2N分割(PART_2Nx2N)に加えてN×N分割(PART_NxN)を定義する。な
お、最小の符号化ブロック以外にN×N分割(PART_NxN)を定義しない理由は最小の符号
化ブロック以外では、符号化ブロックを4分割して小さな符号化ブロックを表現できるか
らである。
When the prediction mode (PredMode) is intra prediction (MODE_INTRA), the partition mode (PartMode) is 2N × 2N partition (PART_2Nx2N) except for the coding block D which is the smallest coding block.
Only encoding block D, which is the smallest encoding block,
Mode) defines N × N division (PART_NxN) in addition to 2N × 2N division (PART_2Nx2N). The reason why N × N division (PART_NxN) is not defined other than the smallest coding block is that, except for the smallest coding block, the coding block can be divided into four to represent a small coding block.

(ツリーブロック、符号化ブロック、予測ブロック、変換ブロックの位置)
本実施の形態のツリーブロック、符号化ブロック、予測ブロック、変換ブロックを始め
とする各ブロックの位置は、輝度信号の画面の一番左上の輝度信号の画素の位置を原点(
0,0)とし、それぞれのブロックの領域に含まれる一番左上の輝度信号の画素の位置を
(x,y)の二次元座標で表す。座標軸の向きは水平方向に右の方向、垂直方向に下の方
向をそれぞれ正の向きとし、単位は輝度信号の1画素単位である。輝度信号と色差信号で
画像サイズ(画素数)が同じである色差フォーマットが4:4:4の場合ではもちろんの
こと、輝度信号と色差信号で画像サイズ(画素数)が異なる色差フォーマットが4:2:
0、4:2:2の場合でも色差信号の各ブロックの位置をそのブロックの領域に含まれる
輝度信号の画素の座標で表し、単位は輝度信号の1画素である。この様にすることで、色
差信号の各ブロックの位置が特定できるのはもちろんのこと、座標の値を比較するだけで
、輝度信号のブロックと色差信号のブロックの位置の関係も明確となる。
(Position of tree block, coding block, prediction block, transform block)
The position of each block including the tree block, the encoding block, the prediction block, and the conversion block of the present embodiment is the origin (
0,0), and the pixel position of the upper left luminance signal included in each block area is represented by two-dimensional coordinates (x, y). The direction of the coordinate axis is a right direction in the horizontal direction and a downward direction in the vertical direction, respectively, and the unit is one pixel unit of the luminance signal. Of course, the luminance signal and the color difference signal have the same image size (number of pixels) and the color difference format is 4: 4: 4. Of course, the luminance signal and the color difference signal have a different color size format of 4: 4. 2:
Even in the case of 0, 4: 2: 2, the position of each block of the color difference signal is represented by the coordinates of the pixel of the luminance signal included in the block area, and the unit is one pixel of the luminance signal. In this way, not only can the position of each block of the color difference signal be specified, but also the relationship between the positions of the luminance signal block and the color difference signal block can be clarified only by comparing the coordinate values.

(インター予測モード、参照リストについて)
本発明の実施の形態においては、符号化/復号済みのピクチャの画像信号から予測を行
うインター予測では、複数の復号済みのピクチャを参照ピクチャとして用いることができ
る。複数の参照ピクチャから選択された参照ピクチャを特定するため、予測ブロック毎に
参照インデックスを付ける。Bスライスでは予測ブロック毎に任意の2枚の参照ピクチャ
を選択してインター予測を行うことができ、インター予測モードとしてL0予測(Pred_L
0)、L1予測(Pred_L1)、双予測(Pred_BI)がある。参照ピクチャはリスト構造のL
0(参照リスト0)とL1(参照リスト1)で管理され、L0またはL1の参照インデッ
クスを指定することにより参照ピクチャを特定することができる。L0予測(Pred_L0)
はL0で管理されている参照ピクチャを参照するインター予測であり、L1予測(Pred_L
1)はL1で管理されている参照ピクチャを参照するインター予測であり、双予測(Pred_
BI)はL0予測とL1予測が共に行われ、L0とL1のそれぞれで管理されている1つず
つの参照ピクチャを参照するインター予測である。Pスライスのインター予測ではL0予
測のみが使用でき、Bスライスのインター予測ではL0予測、L1予測、L0予測とL1
予測を平均または重み付け加算する双予測(Pred_BI)が使用できる。以降の処理におい
て出力に添え字LXが付いている定数、変数に関しては、L0、L1ごとに処理が行われ
ることを前提とする。
(Inter prediction mode, reference list)
In the embodiment of the present invention, in inter prediction in which prediction is performed from an image signal of a coded / decoded picture, a plurality of decoded pictures can be used as reference pictures. In order to identify a reference picture selected from a plurality of reference pictures, a reference index is attached to each prediction block. In the B slice, any two reference pictures can be selected for each prediction block, and inter prediction can be performed. As an inter prediction mode, L0 prediction (Pred_L
0), L1 prediction (Pred_L1), and bi-prediction (Pred_BI). Reference picture is L of list structure
It is managed by 0 (reference list 0) and L1 (reference list 1), and a reference picture can be specified by designating a reference index of L0 or L1. L0 prediction (Pred_L0)
Is inter prediction that refers to a reference picture managed in L0, and is L1 prediction (Pred_L
1) is inter prediction that refers to the reference picture managed in L1, and bi-prediction (Pred_
BI) is inter prediction in which both L0 prediction and L1 prediction are performed and one reference picture managed in each of L0 and L1 is referred to. Only L0 prediction can be used for inter prediction of P slice, and L0 prediction, L1 prediction, L0 prediction and L1 can be used for inter prediction of B slice.
Bi-prediction (Pred_BI) that averages or weights the predictions can be used. In the subsequent processing, it is assumed that the constants and variables with the subscript LX in the output are processed for each of L0 and L1.

(マージモード、マージ候補)
マージモードとは、符号化/復号対象の予測ブロックの予測モード、参照インデックス
、動きベクトル等のインター予測情報を符号化/復号するのではなく、符号化/復号対象
の予測ブロックと同一ピクチャ内でその符号化/復号対象の予測ブロックに隣接する予測
ブロック、あるいは符号化/復号対象の予測ブロックと時間的に異なる符号化/復号済み
のピクチャの符号化/復号対象の予測ブロックと同一位置あるいはその付近(近傍の位置
)に存在する予測ブロックのインター予測情報から符号化/復号対象の予測ブロックのイ
ンター予測情報を導出することによりインター予測を行うモードである。符号化/復号対
象の予測ブロックと同一ピクチャ内でその符号化/復号対象の予測ブロックに隣接する予
測ブロック及びその予測ブロックのインター予測情報を空間マージ候補、符号化/復号対
象の予測ブロックと時間的に異なる符号化/復号済みのピクチャの符号化/復号対象の予
測ブロックと同一位置あるいはその付近(近傍の位置)に存在する予測ブロック及びその
予測ブロックのインター予測情報から導出されるインター予測情報を時間マージ候補とす
る。それぞれのマージ候補はマージ候補リストに登録され、マージインデックスによりイ
ンター予測で用いるマージ候補を特定する。
(Merge mode, merge candidate)
The merge mode does not encode / decode inter prediction information such as a prediction mode, a reference index, and a motion vector of a prediction block to be encoded / decoded, but within the same picture as a prediction block to be encoded / decoded. The prediction block adjacent to the prediction block to be encoded / decoded, or the same position as the prediction block to be encoded / decoded of a coded / decoded picture that is temporally different from the prediction block to be encoded / decoded or its position In this mode, inter prediction is performed by deriving inter prediction information of a prediction block to be encoded / decoded from inter prediction information of a prediction block existing in the vicinity (neighboring position). The prediction block adjacent to the prediction block to be encoded / decoded in the same picture as the prediction block to be encoded / decoded and inter prediction information of the prediction block are spatial merge candidates, the prediction block to be encoded / decoded, and the time. Prediction information derived from a prediction block existing at the same position as or near (previously near) a prediction block to be encoded / decoded of a differently encoded / decoded picture and inter prediction information of the prediction block Are time merge candidates. Each merge candidate is registered in the merge candidate list, and the merge candidate used in the inter prediction is specified by the merge index.

(隣接する予測ブロックについて)
図5、図6、図7及び図8は空間マージ候補の導出、および時間マージ候補の参照イン
デックスの導出の際に参照する符号化/復号対象の予測ブロックと同一ピクチャ内でその
符号化/復号対象の予測ブロックに隣接する予測ブロックを説明する図である。図9は時
間マージ候補の導出の際に参照する符号化/復号対象の予測ブロックと時間的に異なる符
号化/復号済みのピクチャにおいて、符号化/復号対象の予測ブロックと同一位置あるい
はその付近に存在する既に符号化/復号済みの予測ブロックを説明する図である。図5、
図6、図7、図8及び図9を用いて符号化/復号対象の予測ブロックの空間方向に隣接す
る予測ブロック、及び異なる時間の同一位置の予測ブロックについて説明する。
(About adjacent prediction blocks)
5, 6, 7, and 8 illustrate encoding / decoding in the same picture as the prediction block to be encoded / decoded that is referred to when the spatial merge candidate is derived and the reference index of the temporal merge candidate is derived. It is a figure explaining the prediction block adjacent to the object prediction block. FIG. 9 shows a picture that has been encoded / decoded that is temporally different from the prediction block to be encoded / decoded that is referred to when the temporal merge candidate is derived, at the same position as or near the prediction block to be encoded / decoded. It is a figure explaining the prediction block which has already been encoded / decoded. FIG.
A prediction block adjacent in the spatial direction of a prediction block to be encoded / decoded and a prediction block at the same position at different times will be described with reference to FIGS. 6, 7, 8, and 9.

図5に示すように、符号化/復号対象の予測ブロックと同一ピクチャ内でその符号化/
復号対象の予測ブロックの左側の辺に隣接する予測ブロックA、上側の辺に隣接する予測
ブロックB、右上の頂点に隣接する予測ブロックC、左下の頂点に隣接する予測ブロック
D、および左上の頂点に隣接する予測ブロックEを空間方向に隣接する予測ブロックと定
義する。
As shown in FIG. 5, the encoding / decoding in the same picture as the prediction block to be encoded / decoded is performed.
Prediction block A adjacent to the left side of the prediction block to be decoded, prediction block B adjacent to the upper side, prediction block C adjacent to the upper right vertex, prediction block D adjacent to the lower left vertex, and upper left vertex Is defined as a prediction block adjacent in the spatial direction.

なお、図6に示すように、符号化/復号対象の予測ブロックの左側の辺に隣接する予測
ブロックのサイズが符号化/復号対象の予測ブロックより小さく、複数存在する場合には
、本実施の形態においては左側の辺に隣接する予測ブロックの中で最も下の予測ブロック
A10だけを左側の辺に隣接する予測ブロックAとする。
As shown in FIG. 6, when the size of the prediction block adjacent to the left side of the prediction block to be encoded / decoded is smaller than the prediction block to be encoded / decoded, and there are a plurality of prediction blocks, this embodiment In the embodiment, only the lowest prediction block A10 among the prediction blocks adjacent to the left side is set as the prediction block A adjacent to the left side.

同様に、符号化/復号対象の予測ブロックの上側の辺に隣接する予測ブロックのサイズ
が符号化/復号対象の予測ブロックより小さく、複数存在する場合には、本実施の形態に
おいては左側の辺に隣接する予測ブロックの中で最も右の予測ブロックB10だけを上側
の辺に隣接する予測ブロックBとする。
Similarly, when the size of the prediction block adjacent to the upper side of the prediction block to be encoded / decoded is smaller than the prediction block to be encoded / decoded, and there are a plurality of prediction blocks, the left side in the present embodiment Only the rightmost prediction block B10 among the prediction blocks adjacent to is set as the prediction block B adjacent to the upper side.

なお、図7に示すように、符号化/復号対象の予測ブロックの左側に隣接する予測ブロ
ックFのサイズが符号化/復号対象の予測ブロックより大きい場合にも、前記条件に従い
、左側に隣接する予測ブロックFがその符号化/復号対象の予測ブロックの左側の辺に隣
接していれば予測ブロックAとし、符号化/復号対象の予測ブロックの左下の頂点に隣接
していれば予測ブロックDとし、符号化/復号対象の予測ブロックの左上の頂点に隣接し
ていれば予測ブロックEとする。図7の例では、予測ブロックA、予測ブロックD及び予
測ブロックEは同一の予測ブロックとなる。
In addition, as shown in FIG. 7, even when the size of the prediction block F adjacent to the left side of the prediction block to be encoded / decoded is larger than the prediction block to be encoded / decoded, it is adjacent to the left side according to the above condition. If the prediction block F is adjacent to the left side of the prediction block to be encoded / decoded, the prediction block A is determined. If the prediction block F is adjacent to the lower left vertex of the prediction block to be encoded / decoded, the prediction block D is determined. If it is adjacent to the top left vertex of the prediction block to be encoded / decoded, the prediction block E is determined. In the example of FIG. 7, the prediction block A, the prediction block D, and the prediction block E are the same prediction block.

なお、図8に示すように、符号化/復号対象の予測ブロックの上側に隣接する予測ブロ
ックGのサイズが符号化/復号対象の予測ブロックより大きい場合にも、前記条件に従い
、上側に隣接する予測ブロックGがその符号化/復号対象の予測ブロックの上側の辺に隣
接していれば予測ブロックBとし、符号化/復号対象の予測ブロックの右上の頂点に隣接
していれば予測ブロックCとし、符号化/復号対象の予測ブロックの左上の頂点に隣接し
ていれば予測ブロックEとする。図8の例では、予測ブロックB、予測ブロックC及び予
測ブロックEは同一の予測ブロックとなる。
As shown in FIG. 8, even when the size of the prediction block G adjacent to the upper side of the prediction block to be encoded / decoded is larger than the prediction block to be encoded / decoded, it is adjacent to the upper side according to the above condition. If the prediction block G is adjacent to the upper side of the prediction block to be encoded / decoded, the prediction block B is determined. If the prediction block G is adjacent to the upper right vertex of the prediction block to be encoded / decoded, the prediction block C is determined. If it is adjacent to the top left vertex of the prediction block to be encoded / decoded, the prediction block E is determined. In the example of FIG. 8, the prediction block B, the prediction block C, and the prediction block E are the same prediction block.

図9に示すように、符号化/復号対象の予測ブロックと時間的に異なる符号化/復号済
みのピクチャにおいて、符号化/復号対象の予測ブロックと同一位置あるいはその付近に
存在する既に符号化/復号済みの予測ブロックT0およびT1を異なる時間の同一位置の
予測ブロックと定義する。
As shown in FIG. 9, in an already encoded / decoded picture that is temporally different from the prediction block to be encoded / decoded, an already encoded / decoded picture that exists at or near the same position as the prediction block to be encoded / decoded. The decoded prediction blocks T0 and T1 are defined as prediction blocks at the same position at different times.

(POCについて)
POCは符号化されるピクチャに関連付けられる変数とし、ピクチャの出力/表示順序
で1ずつ増加する値が設定される。POCの値によって、同じピクチャであるかを判別し
たり、出力/表示順序でのピクチャ間の前後関係を判別したり、ピクチャ間の距離を導出
したりすることができる。例えば、2つのピクチャのPOCが同じ値を持つ場合、同一の
ピクチャであると判断できる。2つのピクチャのPOCが違う値を持つ場合、POCの値
が小さいピクチャのほうが、先に出力/表示されるピクチャであると判断でき、2つのピ
クチャのPOCの差が時間軸方向でのピクチャ間距離を示す。
(About POC)
POC is a variable associated with the picture to be encoded, and is set to a value that increases by 1 in the picture output / display order. Based on the POC value, it is possible to determine whether they are the same picture, to determine the front-to-back relationship between pictures in the output / display order, or to derive the distance between pictures. For example, if the POCs of two pictures have the same value, it can be determined that they are the same picture. When the POCs of two pictures have different values, it can be determined that the picture with the smaller POC value is the picture that is output / displayed first, and the difference in the POC of the two pictures is between the pictures in the time axis direction. Indicates distance.

以下、図面と共に本発明の実施の形態を説明する。図1は本発明の実施の形態に係る動
画像符号化装置の構成を示すブロック図である。実施の形態の動画像符号化装置は、画像
メモリ101、ヘッダ情報設定部117、動きベクトル検出部102、差分動きベクトル
算出部103、インター予測情報導出部104、動き補償予測部105、イントラ予測部
106、予測方法決定部107、残差信号生成部108、直交変換・量子化部109、第
1符号化ビット列生成部118、第2符号化ビット列生成部110、第3符号化ビット列
生成部111、多重化部112、逆量子化・逆直交変換部113、復号画像信号重畳部1
14、符号化情報格納メモリ115、および復号画像メモリ116を備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a moving picture coding apparatus according to an embodiment of the present invention. The moving image encoding apparatus according to the embodiment includes an image memory 101, a header information setting unit 117, a motion vector detection unit 102, a difference motion vector calculation unit 103, an inter prediction information derivation unit 104, a motion compensation prediction unit 105, and an intra prediction unit. 106, prediction method determination unit 107, residual signal generation unit 108, orthogonal transform / quantization unit 109, first encoded bit sequence generation unit 118, second encoded bit sequence generation unit 110, third encoded bit sequence generation unit 111, Multiplexer 112, inverse quantization / inverse orthogonal transform unit 113, decoded image signal superimposing unit 1
14, an encoded information storage memory 115, and a decoded image memory 116.

ヘッダ情報設定部117は、シーケンス、ピクチャ、スライス単位の情報を設定する。
設定されたシーケンス、ピクチャ、スライス単位の情報はインター予測情報導出部104
、第1符号化ビット列生成部118に供給するとともに、図示していないがすべてのブロ
ックに供給する。後述する最大マージ候補数maxNumMergeCandもヘッダ情報設定部117
で設定される。
The header information setting unit 117 sets information in units of sequences, pictures, and slices.
Information on the set sequence, picture, and slice unit is the inter prediction information deriving unit 104.
Are supplied to the first encoded bit string generation unit 118, and are supplied to all blocks (not shown). The maximum merge candidate number maxNumMergeCand, which will be described later, is also a header information setting unit 117.
Set by.

画像メモリ101は、撮影/表示時間順に供給された符号化対象のピクチャの画像信号
を一時格納する。画像メモリ101は、格納された符号化対象のピクチャの画像信号を、
所定の画素ブロック単位で、動きベクトル検出部102、予測方法決定部107、および
残差信号生成部108に供給する。その際、撮影/表示時間順に格納されたピクチャの画
像信号は、符号化順序に並べ替えられて、画素ブロック単位で、画像メモリ101から出
力される。
The image memory 101 temporarily stores the image signal of the encoding target picture supplied in the order of shooting / display time. The image memory 101 stores the stored image signal of the picture to be encoded.
The data is supplied to the motion vector detection unit 102, the prediction method determination unit 107, and the residual signal generation unit 108 in predetermined pixel block units. At this time, the image signals of the pictures stored in the order of shooting / display time are rearranged in the encoding order and output from the image memory 101 in units of pixel blocks.

動きベクトル検出部102は、画像メモリ101から供給される画像信号と復号画像メ
モリ116から供給される参照ピクチャ間でブロックマッチング等により各予測ブロック
サイズ、各予測モードのそれぞれの動きベクトルを各予測ブロック単位で検出し、検出さ
れた動きベクトルを動き補償予測部105、差分動きベクトル算出部103、および予測
方法決定部107に供給する。
The motion vector detection unit 102 uses the motion vector for each prediction block size and each prediction mode by block matching between the image signal supplied from the image memory 101 and the reference picture supplied from the decoded image memory 116 for each prediction block. Detection is performed in units, and the detected motion vector is supplied to the motion compensation prediction unit 105, the difference motion vector calculation unit 103, and the prediction method determination unit 107.

差分動きベクトル算出部103は、符号化情報格納メモリ115に記憶されている既に
符号化された画像信号の符号化情報を用いて、複数の予測動きベクトルの候補を算出して
予測動きベクトルリストに登録し、予測動きベクトルリストに登録された複数の予測動き
ベクトルの候補の中から最適な予測動きベクトルを選択し、動きベクトル検出部102が
検出した動きベクトルと予測動きベクトルから差分動きベクトルを算出し、算出された差
分動きベクトルを予測方法決定部107に供給する。さらに、予測動きベクトルリストに
登録された予測動きベクトルの候補から選択された予測動きベクトルを特定する予測動き
ベクトルインデックスを予測方法決定部107に供給する。
The difference motion vector calculation unit 103 calculates a plurality of motion vector predictor candidates by using the encoded information of the already encoded image signal stored in the encoded information storage memory 115, and generates a prediction motion vector list. The optimum motion vector predictor is selected from a plurality of motion vector predictor candidates registered and registered in the motion vector predictor list, and a motion vector difference is calculated from the motion vector detected by the motion vector detector 102 and the motion vector predictor. Then, the calculated difference motion vector is supplied to the prediction method determination unit 107. Furthermore, a prediction motion vector index that identifies a prediction motion vector selected from prediction motion vector candidates registered in the prediction motion vector list is supplied to the prediction method determination unit 107.

インター予測情報導出部104は、マージモードでのマージ候補を導出する。符号化情
報格納メモリ115に記憶されている既に符号化された予測ブロックの符号化情報を用い
て、複数のマージ候補を導出して後述するマージ候補リストに登録し、マージ候補リスト
に登録された複数のマージ候補の中から適したマージ候補を選択し、選択されたマージ候
補の各予測ブロックのL0予測、及びL1予測を利用するかどうかを示すフラグpredFlag
L0[xP][yP], predFlagL1[xP][yP]、参照インデックスrefIdxL0[xP][yP], refIdxL1[xP][y
P]、動きベクトルmvL0[xP][yP], mvL1[xP][yP]等のインター予測情報を動き補償予測部1
05に供給するとともに、選択されたマージ候補を特定するマージインデックスを予測方
法決定部107に供給する。ここで、xP、yPはピクチャ内での予測ブロックの左上の画素
の位置を示すインデックスである。インター予測情報導出部104の詳細な構成と動作は
後述する。
The inter prediction information deriving unit 104 derives merge candidates in the merge mode. A plurality of merge candidates are derived using the encoding information of the already encoded prediction block stored in the encoding information storage memory 115 and registered in a merge candidate list described later, and registered in the merge candidate list A flag predFlag indicating whether a suitable merge candidate is selected from a plurality of merge candidates and L0 prediction and L1 prediction of each prediction block of the selected merge candidate are used.
L0 [xP] [yP], predFlagL1 [xP] [yP], reference index refIdxL0 [xP] [yP], refIdxL1 [xP] [y
P], motion vectors mvL0 [xP] [yP], mvL1 [xP] [yP] and other inter prediction information are used as motion compensated prediction unit 1
And a merge index that identifies the selected merge candidate is supplied to the prediction method determination unit 107. Here, xP and yP are indexes indicating the position of the upper left pixel of the prediction block in the picture. The detailed configuration and operation of the inter prediction information deriving unit 104 will be described later.

動き補償予測部105は、動きベクトル検出部102およびインター予測情報導出部1
04により検出された動きベクトルを用いて参照ピクチャからインター予測(動き補償予
測)により予測画像信号を生成し、予測画像信号を予測方法決定部107に供給する。な
お、L0予測、及びL1予測では、片方向の予測を行う。双予測(Pred_BI)の場合は、
双方向の予測を行い、L0予測、L1予測のそれぞれのインター予測された信号に適応的
に重み係数を掛け算し、オフセット値を加算して重畳し、最終的な予測画像信号を生成す
る。
The motion compensation prediction unit 105 includes a motion vector detection unit 102 and an inter prediction information derivation unit 1.
A predicted image signal is generated by inter prediction (motion compensated prediction) from the reference picture using the motion vector detected in 04, and the predicted image signal is supplied to the prediction method determination unit 107. In L0 prediction and L1 prediction, one-way prediction is performed. For bi-prediction (Pred_BI)
Bidirectional prediction is performed, the inter-predicted signals of L0 prediction and L1 prediction are adaptively multiplied by a weighting factor, an offset value is added and superimposed, and a final predicted image signal is generated.

イントラ予測部106は、各イントラ予測モードについてイントラ予測を行う。復号画
像メモリ116に格納されている復号済みの画像信号からイントラ予測により予測画像信
号を生成し、複数のイントラ予測モードの中から適したイントラ予測モードを選択し、選
択されたイントラ予測モード、及び選択されたイントラ予測モードに応じた予測画像信号
を予測方法決定部107に供給する。
The intra prediction unit 106 performs intra prediction for each intra prediction mode. A prediction image signal is generated by intra prediction from the decoded image signal stored in the decoded image memory 116, a suitable intra prediction mode is selected from a plurality of intra prediction modes, the selected intra prediction mode, and A prediction image signal corresponding to the selected intra prediction mode is supplied to the prediction method determination unit 107.

予測方法決定部107はそれぞれの予測方法毎に符号化情報及び残差信号の符号量、予
測画像信号と画像信号との間の歪量等を評価することにより、複数の予測方法の中から、
最適な符号化ブロック単位でインター予測(PRED_INTER)かイントラ予測(PRED_INTRA)
かを判別する予測モードPredMode、分割モードPartModeを決定し、インター予測(PRED_I
NTER)では予測ブロック単位でマージモードか否かを決定し、マージモードの場合はマー
ジインデックス、マージモードでない場合はインター予測モード、予測動きベクトルイン
デックス、L0、L1の参照インデックス、差分動きベクトル等を決定して、決定に応じ
た符号化情報を第2符号化ビット列生成部110に供給する。
The prediction method determination unit 107 evaluates the encoding information and the code amount of the residual signal for each prediction method, the distortion amount between the prediction image signal and the image signal, and the like from among a plurality of prediction methods.
Inter prediction (PRED_INTER) or intra prediction (PRED_INTRA) for each optimal coding block
Prediction mode PredMode and split mode PartMode are determined, and inter prediction (PRED_I
NTER) determines whether or not the mode is the merge mode in units of prediction blocks. If the mode is the merge mode, the merge index is selected. The encoded information corresponding to the determination is supplied to the second encoded bit string generation unit 110.

さらに、予測方法決定部107は、決定された予測方法を示す情報、及び決定された予
測方法に応じた動きベクトル等を含む符号化情報を符号化情報格納メモリ115に格納す
る。ここで格納する符号化情報は、各符号化ブロックの予測モードPredMode、分割モード
PartMode、各予測ブロックのL0予測、及びL1予測を利用するかどうかを示すフラグpr
edFlagL0[xP][yP], predFlagL1[xP][yP]、L0、L1の参照インデックスrefIdxL0[xP][y
P], refIdxL1[xP][yP]、L0、L1の動きベクトルmvL0[xP][yP], mvL1[xP][yP]等である
。ここで、xP、yPはピクチャ内での予測ブロックの左上の画素の位置を示すインデックス
である。なお、予測モードPredModeがイントラ予測(MODE_INTRA)の場合、L0予測を利
用するかどうかを示すフラグpredFlagL0[xP][yP]、L1予測を利用するかどうかを示すフ
ラグpredFlagL1[xP][yP]は共に0である。一方、予測モードPredModeがインター予測(MO
DE_INTER)で、インター予測モードがL0予測(Pred_L0)の場合、L0予測を利用する
かどうかを示すフラグpredFlagL0[xP][yP]は1, L1予測を利用するかどうかを示すフラ
グpredFlagL1[xP][yP]は0である。インター予測モードがL1予測(Pred_L1)の場合、
L0予測を利用するかどうかを示すフラグpredFlagL0[xP][yP]は0, L1予測を利用する
かどうかを示すフラグpredFlagL1[xP][yP]は1である。インター予測モードが双予測(Pr
ed_BI)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xP][yP]、L1予
測を利用するかどうかを示すフラグpredFlagL1[xP][yP]は共に1である。予測方法決定部
107は、決定された予測モードに応じた予測画像信号を残差信号生成部108と復号画
像信号重畳部114に供給する。
Furthermore, the prediction method determination unit 107 stores information indicating the determined prediction method and encoded information including a motion vector corresponding to the determined prediction method in the encoded information storage memory 115. The encoding information stored here includes the prediction mode PredMode and the division mode of each encoding block.
Flag indicating whether to use PartMode, L0 prediction of each prediction block, and L1 prediction
edFlagL0 [xP] [yP], predFlagL1 [xP] [yP], L0, L1 reference indices refIdxL0 [xP] [y
P], refIdxL1 [xP] [yP], L0, L1 motion vectors mvL0 [xP] [yP], mvL1 [xP] [yP], and the like. Here, xP and yP are indexes indicating the position of the upper left pixel of the prediction block in the picture. When the prediction mode PredMode is intra prediction (MODE_INTRA), a flag predFlagL0 [xP] [yP] indicating whether to use L0 prediction and a flag predFlagL1 [xP] [yP] indicating whether to use L1 prediction are Both are zero. On the other hand, the prediction mode PredMode is inter prediction (MO
DE_INTER) and when the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 [xP] [yP] indicating whether to use L0 prediction is 1, and the flag predFlagL1 [xP] indicating whether to use L1 prediction [yP] is 0. When the inter prediction mode is L1 prediction (Pred_L1)
The flag predFlagL0 [xP] [yP] indicating whether to use L0 prediction is 0, and the flag predFlagL1 [xP] [yP] indicating whether to use L1 prediction is 1. Inter prediction mode is bi-prediction (Pr
ed_BI), a flag predFlagL0 [xP] [yP] indicating whether to use L0 prediction and a flag predFlagL1 [xP] [yP] indicating whether to use L1 prediction are both 1. The prediction method determination unit 107 supplies a prediction image signal corresponding to the determined prediction mode to the residual signal generation unit 108 and the decoded image signal superimposition unit 114.

残差信号生成部108は、符号化する画像信号と予測画像信号との減算を行うことによ
り残差信号を生成し、直交変換・量子化部109に供給する。
直交変換・量子化部109は、残差信号に対して量子化パラメータに応じて直交変換及
び量子化を行い直交変換・量子化された残差信号を生成し、第3符号化ビット列生成部1
11と逆量子化・逆直交変換部113に供給する。さらに、直交変換・量子化部109は
、量子化パラメータを符号化情報格納メモリ115に格納する。
The residual signal generation unit 108 generates a residual signal by performing subtraction between the image signal to be encoded and the predicted image signal, and supplies the residual signal to the orthogonal transform / quantization unit 109.
The orthogonal transform / quantization unit 109 performs orthogonal transform and quantization on the residual signal according to the quantization parameter to generate an orthogonal transform / quantized residual signal, and generates a third encoded bit string generation unit 1.
11 and the inverse quantization / inverse orthogonal transform unit 113. Further, the orthogonal transform / quantization unit 109 stores the quantization parameter in the encoded information storage memory 115.

第1符号化ビット列生成部118は、ヘッダ情報設定部117で設定されたシーケンス
、ピクチャ、スライス単位の情報を符号化する。第1の符号化ビット列を生成し、多重化
部112に供給する。後述する最大マージ候補数maxNumMergeCandも第1符号化ビット列
生成部118で符号化される。
The first encoded bit string generation unit 118 encodes the sequence, picture, and slice unit information set by the header information setting unit 117. A first encoded bit string is generated and supplied to the multiplexing unit 112. The maximum number of merge candidates maxNumMergeCand described later is also encoded by the first encoded bit string generation unit 118.

第2符号化ビット列生成部110は、符号化ブロック及び予測ブロック毎に予測方法決
定部107によって決定された予測方法に応じた符号化情報を符号化する。具体的には、
符号化ブロック毎のスキップモードかどうかを判別する情報、インター予測(PRED_INTER
)かイントラ予測(PRED_INTRA)かを判別する予測モードPredMode、分割モードPartMode
、イントラ予測(PRED_INTRA)の場合、イントラ予測モード、インター予測(PRED_INTER
)の場合、マージモードかどうかを判別するフラグ、マージモードの場合はマージインデ
ックス、マージモードでない場合はインター予測モード、予測動きベクトルインデックス
、差分動きベクトルに関する情報等の符号化情報を後述する規定のシンタックス規則に従
って符号化して第2の符号化ビット列を生成し、多重化部112に供給する。なお、本実
施の形態では、符号化ブロックがスキップモード(シンタックス要素skip_flag[x0][y0]
が1)の場合、予測ブロックの予測モードPredModeの値はインター予測(MODE_INTER)で
、マージモード(merge_flag[x0][y0]が1)で、分割モード(PartMode)は2N×2N分
割(PART_2Nx2N)とする。
The 2nd coding bit stream production | generation part 110 encodes the encoding information according to the prediction method determined by the prediction method determination part 107 for every encoding block and prediction block. In particular,
Information that determines whether or not the skip mode for each coding block, inter prediction (PRED_INTER
) Or intra prediction (PRED_INTRA) prediction mode PredMode, split mode PartMode
, Intra prediction (PRED_INTRA), intra prediction mode, inter prediction (PRED_INTER
), A flag for determining whether or not the mode is a merge mode, a merge index in the case of the merge mode, an encoding mode information such as an inter prediction mode, a prediction motion vector index, and information on a difference motion vector if not in the merge mode. Encoding is performed according to the syntax rule to generate a second encoded bit string, which is supplied to the multiplexing unit 112. In this embodiment, the coding block is in skip mode (syntax element skip_flag [x0] [y0]
Is 1), the prediction mode PredMode value of the prediction block is inter prediction (MODE_INTER), the merge mode (merge_flag [x0] [y0] is 1), and the partition mode (PartMode) is 2N × 2N partition (PART_2Nx2N) And

第3符号化ビット列生成部111は、直交変換及び量子化された残差信号を規定のシン
タックス規則に従ってエントロピー符号化して第3の符号化ビット列を生成し、多重化部
112に供給する。多重化部112で、第1の符号化ビット列、第2の符号化ビット列お
よび第3の符号化ビット列を規定のシンタックス規則に従って多重化し、ビットストリー
ムを出力する。
The third encoded bit string generation unit 111 generates a third encoded bit string by entropy-encoding the orthogonally transformed and quantized residual signal according to a prescribed syntax rule, and supplies the third encoded bit string to the multiplexing unit 112. The multiplexing unit 112 multiplexes the first encoded bit string, the second encoded bit string, and the third encoded bit string in accordance with a specified syntax rule, and outputs a bit stream.

逆量子化・逆直交変換部113は、直交変換・量子化部109から供給された直交変換
・量子化された残差信号を逆量子化及び逆直交変換して残差信号を算出し、復号画像信号
重畳部114に供給する。復号画像信号重畳部114は、予測方法決定部107による決
定に応じた予測画像信号と逆量子化・逆直交変換部113で逆量子化及び逆直交変換され
た残差信号を重畳して復号画像を生成し、復号画像メモリ116に格納する。なお、復号
画像に対して符号化によるブロック歪等の歪を減少させるフィルタリング処理を施して、
復号画像メモリ116に格納されることもある。
The inverse quantization / inverse orthogonal transform unit 113 performs inverse quantization and inverse orthogonal transform on the orthogonal transform / quantized residual signal supplied from the orthogonal transform / quantization unit 109 to calculate a residual signal, and performs decoding. This is supplied to the image signal superimposing unit 114. The decoded image signal superimposing unit 114 superimposes the predicted image signal according to the determination by the prediction method determining unit 107 and the residual signal subjected to inverse quantization and inverse orthogonal transform by the inverse quantization / inverse orthogonal transform unit 113 to decode the decoded image. Is generated and stored in the decoded image memory 116. In addition, a filtering process for reducing distortion such as block distortion due to encoding is performed on the decoded image,
It may be stored in the decoded image memory 116.

図2は図1の動画像符号化装置に対応した本発明の実施の形態に係る動画像復号装置
の構成を示すブロックである。実施の形態の動画像復号装置は、分離部201、第1符号
化ビット列復号部212、第2符号化ビット列復号部202、第3符号化ビット列復号部
203、動きベクトル算出部204、インター予測情報導出部205、動き補償予測部2
06、イントラ予測部207、逆量子化・逆直交変換部208、復号画像信号重畳部20
9、符号化情報格納メモリ210、および復号画像メモリ211を備える。
FIG. 2 is a block diagram showing the configuration of the moving picture decoding apparatus according to the embodiment of the present invention corresponding to the moving picture encoding apparatus of FIG. The moving picture decoding apparatus according to the embodiment includes a separation unit 201, a first encoded bit string decoding unit 212, a second encoded bit string decoding unit 202, a third encoded bit string decoding unit 203, a motion vector calculation unit 204, and inter prediction information. Deriving unit 205, motion compensation prediction unit 2
06, intra prediction unit 207, inverse quantization / inverse orthogonal transform unit 208, decoded image signal superimposing unit 20
9, an encoded information storage memory 210, and a decoded image memory 211.

図2の動画像復号装置の復号処理は、図1の動画像符号化装置の内部に設けられている
復号処理に対応するものであるから、図2の動き補償予測部206、逆量子化・逆直交変
換部208、復号画像信号重畳部209、符号化情報格納メモリ210、および復号画像
メモリ211の各構成は、図1の動画像符号化装置の動き補償予測部105、逆量子化・
逆直交変換部113、復号画像信号重畳部114、符号化情報格納メモリ115、および
復号画像メモリ116の各構成とそれぞれ対応する機能を有する。
The decoding process of the moving picture decoding apparatus in FIG. 2 corresponds to the decoding process provided in the moving picture encoding apparatus in FIG. 1, so the motion compensation prediction unit 206 in FIG. The configurations of the inverse orthogonal transform unit 208, the decoded image signal superimposing unit 209, the encoded information storage memory 210, and the decoded image memory 211 are the motion compensation prediction unit 105 of the moving image encoding device in FIG.
Each of the configurations of the inverse orthogonal transform unit 113, the decoded image signal superimposing unit 114, the encoded information storage memory 115, and the decoded image memory 116 has a corresponding function.

分離部201に供給されるビットストリームは規定のシンタックスの規則に従って分離
し、分離された符号化ビット列が第1符号化ビット列復号部212、第2符号化ビット列
復号部202、第3符号化ビット列復号部203に供給される。
The bit stream supplied to the separation unit 201 is separated according to a rule of a prescribed syntax, and the separated encoded bit string is a first encoded bit string decoding unit 212, a second encoded bit string decoding unit 202, and a third encoded bit string. The data is supplied to the decoding unit 203.

第1符号化ビット列復号部212は、供給された符号化ビット列を復号して、シーケン
ス、ピクチャ、スライス単位の情報を得る。得られたシーケンス、ピクチャ、スライス単
位の情報は図示していないがすべてのブロックに供給する。後述する最大マージ候補数ma
xNumMergeCandも第1符号化ビット列復号部212で復号される。
The first encoded bit string decoding unit 212 decodes the supplied encoded bit string to obtain information in units of sequences, pictures, and slices. Although the obtained sequence, picture, and slice unit information is not shown, it is supplied to all blocks. Maximum number of merge candidates to be described later ma
xNumMergeCand is also decoded by the first encoded bit string decoding unit 212.

第2符号化ビット列復号部202は、供給された符号化ビット列を復号して、符号化ブ
ロック単位の情報、及び、予測ブロック単位の符号化情報を得る。具体的には、符号化ブ
ロック単位でスキップモードかどうかを判別する情報、インター予測(PRED_INTER)かイ
ントラ予測(PRED_INTRA)かを判別する予測モードPredMode、分割モードPartMode、イン
ター予測(PRED_INTER)の場合、マージモードかどうかを判別するフラグ、マージモード
の場合はマージインデックス、マージモードでない場合はインター予測モード、予測動き
ベクトルインデックス、差分動きベクトル等に関する符号化情報を後述する規定のシンタ
ックス規則に従って復号し、復号された予測モードPredMode、分割モードPartMode等の符
号化情報を符号化情報格納メモリ210に格納するとともに、動きベクトル算出部204
、インター予測情報導出部205またはイントラ予測部207に供給する。なお、本実施
の形態では、符号化ブロックがスキップモード(シンタックス要素skip_flag[x0][y0]が
1)の場合、予測ブロックの予測モードPredModeの値はインター予測(MODE_INTER)で、
マージモード(merge_flag[x0][y0]が1)で、分割モード(PartMode)は2N×2N分割
(PART_2Nx2N)とする。
The second encoded bit string decoding unit 202 decodes the supplied encoded bit string to obtain encoded block unit information and predicted block unit encoded information. Specifically, in the case of prediction mode PredMode, split mode PartMode, and inter prediction (PRED_INTER) to determine whether it is skip mode for each coding block, inter prediction (PRED_INTER) or intra prediction (PRED_INTRA), A flag for determining whether or not the mode is a merge mode. In the case of the merge mode, the encoding information is decoded according to a predetermined syntax rule to be described later. The encoded information such as the decoded prediction mode PredMode and split mode PartMode is stored in the encoded information storage memory 210 and the motion vector calculation unit 204
The inter prediction information deriving unit 205 or the intra prediction unit 207 is supplied. In the present embodiment, when the coding block is in the skip mode (syntax element skip_flag [x0] [y0] is 1), the value of the prediction mode PredMode of the prediction block is inter prediction (MODE_INTER).
The merge mode (merge_flag [x0] [y0] is 1) and the partition mode (PartMode) is 2N × 2N partition (PART_2Nx2N).

第3符号化ビット列復号部203は、供給された符号化ビット列を復号して直交変換・
量子化された残差信号を算出し、直交変換・量子化された残差信号を逆量子化・逆直交変
換部208に供給する。
The third encoded bit string decoding unit 203 decodes the supplied encoded bit string to perform orthogonal transform /
The quantized residual signal is calculated, and the orthogonal transform / quantized residual signal is supplied to the inverse quantization / inverse orthogonal transform unit 208.

動きベクトル算出部204は、復号対象の予測ブロックの予測モードPredModeがインタ
ー予測(PRED_INTER)でマージモードでない時に、符号化情報格納メモリ210に記憶さ
れている既に復号された画像信号の符号化情報を用いて、複数の予測動きベクトルの候補
を導出して後述する予測動きベクトルリストに登録し、予測動きベクトルリストに登録さ
れた複数の予測動きベクトルの候補の中から、第2符号化ビット列復号部202で復号さ
れ供給される予測動きベクトルインデックスに応じた予測動きベクトルを選択し、第2符
号化ビット列復号部202で復号された差分ベクトルと選択された予測動きベクトルから
動きベクトルを算出し、他の符号化情報とともに動き補償予測部206に供給するととも
に、符号化情報格納メモリ210に格納する。ここで供給・格納する予測ブロックの符号
化情報は、L0予測、及びL1予測を利用するかどうかを示すフラグpredFlagL0[xP][yP]
, predFlagL1[xP][yP]、L0、L1の参照インデックスrefIdxL0[xP][yP], refIdxL1[xP]
[yP]、L0、L1の動きベクトルmvL0[xP][yP], mvL1[xP][yP]等である。ここで、xP、yP
はピクチャ内での予測ブロックの左上の画素の位置を示すインデックスである。予測モー
ドPredModeがインター予測(MODE_INTER)で、インター予測モードがL0予測(Pred_L0
)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0は1, L1予測を利用す
るかどうかを示すフラグpredFlagL1は0である。インター予測モードがL1予測(Pred_L
1)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0は0, L1予測を利用
するかどうかを示すフラグpredFlagL1は1である。インター予測モードが双予測(Pred_B
I)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0、L1予測を利用する
かどうかを示すフラグpredFlagL1は共に1である。
When the prediction mode PredMode of the prediction block to be decoded is inter prediction (PRED_INTER) and not the merge mode, the motion vector calculation unit 204 stores the encoded information of the already decoded image signal stored in the encoded information storage memory 210. A plurality of motion vector predictor candidates derived and registered in a motion vector predictor list, which will be described later, and a second encoded bit string decoding unit out of the motion vector predictor candidates registered in the motion vector predictor list 202, a prediction motion vector corresponding to the prediction motion vector index decoded and supplied is selected, a motion vector is calculated from the difference vector decoded by the second encoded bit string decoding unit 202 and the selected prediction motion vector, The encoded information is supplied to the motion compensation prediction unit 206 and stored in the encoded information storage memory 210. To. The encoding information of the prediction block supplied / stored here is a flag predFlagL0 [xP] [yP] indicating whether to use L0 prediction and L1 prediction.
, predFlagL1 [xP] [yP], L0, L1 reference indices refIdxL0 [xP] [yP], refIdxL1 [xP]
[yP], L0, L1 motion vectors mvL0 [xP] [yP], mvL1 [xP] [yP], and the like. Where xP, yP
Is an index indicating the position of the upper left pixel of the prediction block in the picture. The prediction mode PredMode is inter prediction (MODE_INTER), and the inter prediction mode is L0 prediction (Pred_L0
), The flag predFlagL0 indicating whether to use the L0 prediction is 1, and the flag predFlagL1 indicating whether to use the L1 prediction is 0. Inter prediction mode is L1 prediction (Pred_L
In the case of 1), the flag predFlagL0 indicating whether to use the L0 prediction is 0, and the flag predFlagL1 indicating whether to use the L1 prediction is 1. Inter prediction mode is bi-prediction (Pred_B
In the case of I), the flag predFlagL0 indicating whether to use the L0 prediction and the flag predFlagL1 indicating whether to use the L1 prediction are both 1.

インター予測情報導出部205は、復号対象の予測ブロックの予測モードPredModeがイ
ンター予測(PRED_INTER)でマージモードの時に、マージ候補を導出する。符号化情報格
納メモリ115に記憶されている既に復号された予測ブロックの符号化情報を用いて、複
数のマージの候補を導出して後述するマージ候補リストに登録し、マージ候補リストに登
録された複数のマージ候補の中から第2符号化ビット列復号部202で復号され供給され
るマージインデックスに対応したマージ候補を選択し、選択されたマージ候補のL0予測
、及びL1予測を利用するかどうかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][y
P]、L0、L1の参照インデックスrefIdxL0[xP][yP], refIdxL1[xP][yP]、L0、L1の
動きベクトルmvL0[xP][yP], mvL1[xP][yP]等のインター予測情報を動き補償予測部206
に供給するとともに、符号化情報格納メモリ210に格納する。ここで、xP、yPはピクチ
ャ内での予測ブロックの左上の画素の位置を示すインデックスである。インター予測情報
導出部205の詳細な構成と動作は後述する。
The inter prediction information deriving unit 205 derives merge candidates when the prediction mode PredMode of the prediction block to be decoded is inter prediction (PRED_INTER) and in the merge mode. A plurality of merge candidates are derived and registered in a merge candidate list, which will be described later, using the encoded information of already decoded prediction blocks stored in the encoded information storage memory 115, and registered in the merge candidate list Whether a merge candidate corresponding to a merge index decoded and supplied by the second encoded bit string decoding unit 202 is selected from among a plurality of merge candidates, and whether to use the L0 prediction and the L1 prediction of the selected merge candidate PredFlagL0 [xP] [yP], predFlagL1 [xP] [y
Inter prediction of reference indices refIdxL0 [xP] [yP], refIdxL1 [xP] [yP] of P], L0, and L1, and motion vectors mvL0 [xP] [yP] and mvL1 [xP] [yP] of L0 and L1 The information is motion compensated prediction unit 206.
And stored in the encoded information storage memory 210. Here, xP and yP are indexes indicating the position of the upper left pixel of the prediction block in the picture. The detailed configuration and operation of the inter prediction information deriving unit 205 will be described later.

動き補償予測部206は、動きベクトル算出部204またはインター予測情報導出部2
05で算出されたインター予測情報を用いて復号画像メモリ211に格納されている参照
ピクチャからインター予測(動き補償予測)により予測画像信号を生成し、予測画像信号
を復号画像信号重畳部209に供給する。なお、双予測(Pred_BI)の場合は、L0予測
、L1予測の2つの動き補償予測画像信号に必要に応じて適応的に重み係数を掛け算して
重畳し、最終的な予測画像信号を生成する。
The motion compensated prediction unit 206 is a motion vector calculation unit 204 or an inter prediction information deriving unit 2.
A predicted image signal is generated by inter prediction (motion compensation prediction) from a reference picture stored in the decoded image memory 211 using the inter prediction information calculated in 05, and the predicted image signal is supplied to the decoded image signal superimposing unit 209. To do. Note that in the case of bi-prediction (Pred_BI), the final predicted image signal is generated by multiplying the two motion compensated predicted image signals of L0 prediction and L1 prediction by adaptively multiplying the weight coefficients as necessary. .

イントラ予測部207は、復号対象の予測ブロックの予測モードPredModeがイントラ予
測(PRED_INTRA)の時に、イントラ予測を行う。第2符号化ビット列復号部202で復号
された符号化情報にはイントラ予測モードが含まれており、イントラ予測モードに応じて
、復号画像メモリ211に格納されている復号済みの画像信号からイントラ予測により予
測画像信号を生成し、予測画像信号を復号画像信号重畳部209に供給する。L0予測、
及びL1予測を利用するかどうかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][yP]
を共に0に設定し、符号化情報格納メモリ210に格納する。ここで、xP、yPはピクチャ
内での予測ブロックの左上の画素の位置を示すインデックスである。
The intra prediction unit 207 performs intra prediction when the prediction mode PredMode of the prediction block to be decoded is intra prediction (PRED_INTRA). The encoded information decoded by the second encoded bit string decoding unit 202 includes an intra prediction mode, and intra prediction is performed from a decoded image signal stored in the decoded image memory 211 according to the intra prediction mode. To generate a predicted image signal and supply the predicted image signal to the decoded image signal superimposing unit 209. L0 prediction,
And predFlagL0 [xP] [yP] and predFlagL1 [xP] [yP] indicating whether to use L1 prediction
Are both set to 0 and stored in the encoded information storage memory 210. Here, xP and yP are indexes indicating the position of the upper left pixel of the prediction block in the picture.

逆量子化・逆直交変換部208は、第2符号化ビット列復号部202で復号された直交
変換・量子化された残差信号に対して逆直交変換及び逆量子化を行い、逆直交変換・逆量
子化された残差信号を得る。
The inverse quantization / inverse orthogonal transform unit 208 performs inverse orthogonal transform and inverse quantization on the orthogonal transform / quantized residual signal decoded by the second coded bit string decoding unit 202, and performs inverse orthogonal transform / An inverse quantized residual signal is obtained.

復号画像信号重畳部209は、動き補償予測部206でインター予測された予測画像信
号、またはイントラ予測部207でイントラ予測された予測画像信号と、逆量子化・逆直
交変換部208により逆直交変換・逆量子化された残差信号とを重畳することにより、復
号画像信号を復号し、復号画像メモリ211に格納する。復号画像メモリ211に格納す
る際には、復号画像に対して符号化によるブロック歪等を減少させるフィルタリング処理
を施して、復号画像メモリ211に格納されることもある。
The decoded image signal superimposing unit 209 performs the prediction image signal inter-predicted by the motion compensation prediction unit 206 or the prediction image signal intra-predicted by the intra prediction unit 207 and the inverse orthogonal transform by the inverse quantization / inverse orthogonal transform unit 208. The decoded image signal is decoded by superimposing the dequantized residual signal, and stored in the decoded image memory 211. When stored in the decoded image memory 211, the decoded image may be stored in the decoded image memory 211 by performing a filtering process that reduces block distortion or the like due to encoding.

(シンタックスについて)
次に、本実施の形態に係る動きベクトルの予測方法を備える動画像符号化装置により符
号化され、復号装置により復号される動画像のビットストリームの符号化および復号の共
通規則であるシンタックスについて説明する。
(About syntax)
Next, a syntax that is a common rule for encoding and decoding a bit stream of a moving image that is encoded by a moving image encoding device including the motion vector prediction method according to the present embodiment and decoded by the decoding device explain.

本実施の形態においてはヘッダ情報設定部117で、シーケンス単位、ピクチャ単位ま
たはスライス単位でマージ候補リストmergeCandListに登録される最大マージ候補数maxNu
mMergeCandを設定し、シンタックス要素として動画像符号化装置の第1符号化ビット列生
成部118で符号化され、動画像復号装置の第1符号化ビット列復号部212で復号され
る。最大マージ候補数maxNumMergeCandには0から5までの値を設定できるものとし、主
に動画像符号化装置の演算処理量を減らす際に、最大マージ候補数maxNumMergeCandに小
さな値を設定する。なお、最大マージ候補数maxNumMergeCandに0が設定された場合は、
規定のインター予測情報をマージ候補として用いる。本実施の形態の説明においては、最
大マージ候補数maxNumMergeCandを5として説明する。
In the present embodiment, the maximum number of merge candidates maxNu registered in the merge candidate list mergeCandList in sequence unit, picture unit, or slice unit by the header information setting unit 117
mMergeCand is set, encoded as a syntax element by the first encoded bit string generation unit 118 of the moving image encoding apparatus, and decoded by the first encoded bit string decoding unit 212 of the moving image decoding apparatus. It is assumed that a value from 0 to 5 can be set in the maximum merge candidate number maxNumMergeCand, and a small value is set in the maximum merge candidate number maxNumMergeCand mainly when reducing the processing amount of the moving picture coding apparatus. In addition, when 0 is set to the maximum number of merge candidates maxNumMergeCand,
The prescribed inter prediction information is used as a merge candidate. In the description of the present embodiment, the maximum merge candidate number maxNumMergeCand is assumed to be 5.

図10は予測ブロック単位に記述されるシンタックス規則を示す。本実施の形態では、
符号化ブロックがスキップモード(シンタックス要素skip_flag[x0][y0]が1)の場合、
予測ブロックの予測モードPredModeの値はインター予測(MODE_INTER)で、マージモード
(merge_flag[x0][y0]が1)で、分割モード(PartMode)は2N×2N分割(PART_2Nx2N
)とする。merge_flag[x0][y0]が1の場合、マージモードであることを示し、最大マージ
候補数maxNumMergeCandの値が1より大きい場合に、参照するマージ候補のリストである
マージリストのインデックスのシンタックス要素merge_idx[x0][y0]が設置される。skip_
flag[x0][y0]が1の場合、スキップモードであることを示し、最大マージ候補数maxNumMe
rgeCandの値が1より大きい場合に、参照するマージ候補のリストであるマージリストの
インデックスのシンタックス要素merge_idx[x0][y0]が設置される。
FIG. 10 shows syntax rules described in units of prediction blocks. In this embodiment,
When the coding block is in skip mode (syntax element skip_flag [x0] [y0] is 1)
The prediction block PredMode value of the prediction block is inter prediction (MODE_INTER), merge mode (merge_flag [x0] [y0] is 1), and the partition mode (PartMode) is 2N × 2N partition (PART_2Nx2N)
). When merge_flag [x0] [y0] is 1, this indicates merge mode, and when the value of the maximum merge candidate number maxNumMergeCand is greater than 1, the syntax element of the index of the merge list that is a list of merge candidates to be referenced merge_idx [x0] [y0] is installed. skip_
When flag [x0] [y0] is 1, it indicates the skip mode and the maximum number of merge candidates maxNumMe
When the value of rgeCand is greater than 1, a merge list index syntax element merge_idx [x0] [y0], which is a list of merge candidates to be referenced, is set.

予測ブロックの予測モードPredModeの値がインター予測(MODE_INTER)の場合、マージ
モードかどうかを示すmerge_flag[x0][y0]が設置される。ここで、x0、y0は輝度信号のピ
クチャ内での予測ブロックの左上の画素の位置を示すインデックスであり、merge_flag[x
0][y0]はピクチャ内の(x0, y0)に位置する予測ブロックのマージモードかどうかを示すフ
ラグである。
When the value of the prediction mode PredMode of the prediction block is inter prediction (MODE_INTER), merge_flag [x0] [y0] indicating whether the mode is the merge mode is set. Here, x0 and y0 are indexes indicating the position of the upper left pixel of the prediction block in the picture of the luminance signal, and merge_flag [x
[0] [y0] is a flag indicating whether or not the prediction block is in the merge mode at (x0, y0) in the picture.

次に、merge_flag[x0][y0]が1の場合、マージモードであることを示し、最大マージ候
補数maxNumMergeCandの値が1より大きい場合に、参照するマージ候補のリストであるマ
ージリストのインデックスのシンタックス要素merge_idx[x0][y0]が設置される。ここで
、x0、y0はピクチャ内での予測ブロックの左上の画素の位置を示すインデックスであり、
merge_idx[x0][y0]はピクチャ内の(x0, y0)に位置する予測ブロックのマージインデック
スである。マージインデックスをエントロピー符号化/復号する場合、マージ候補数が小
さい程、小さい符号量で符号化/復号することができ、少ない処理量で符号化/復号する
ことができる。図11はマージインデックスのシンタックス要素merge_idx[x0][y0]のエ
ントロピー符号(コード)の一例である。最大マージ候補数が2の場合、マージインデッ
クスが0, 1の時、マージインデックスのシンタックス要素merge_idx[x0][y0]の符号はそ
れぞれ'0'、'1'となる。最大マージ候補数が3の場合、マージインデックスが0、1、
2の時、マージインデックスのシンタックス要素merge_idx[x0][y0]の符号はそれぞれ'0
'、'10'、'11'となる。最大マージ候補数が4の場合、マージインデックスが0、1
、2、3の時、マージインデックスのシンタックス要素merge_idx[x0][y0]の符号はそれ
ぞれ'0'、'10'、'110'、'111'となる。最大マージ候補数が5の場合、マージイ
ンデックスが0、1、2、3、4の時、マージインデックスのシンタックス要素merge_id
x[x0][y0]の符号はそれぞれ'0'、'10'、'110'、'1110'、'1111'となる。
つまり、マージ候補リストmergeCandListに登録される最大マージ候補数maxNumMergeCand
がわかっている場合、最大マージ候補数maxNumMergeCandが少ない方がマージインデック
スを小さい符号量で表現可能である。本実施の形態においては、図11に示すようにマー
ジ候補数に応じて、マージインデックスのそれぞれの値を示す符号を切り替えることでマ
ージインデックスの符号量を削減する。本実施の形態においては、最大マージ候補数maxN
umMergeCandの値以上の値を持つマージインデックスは符号化、復号されることはない。
なお、最大マージ候補数maxNumMergeCandが1の場合、マージインデックスを符号化/復
号せず、マージインデックスは0である。また、最大マージ候補数が0の場合、規定のイ
ンター予測情報をマージ候補として用いるため、マージインデックスは不要である。
Next, when merge_flag [x0] [y0] is 1, it indicates merge mode. When the value of the maximum number of merge candidates maxNumMergeCand is larger than 1, the index of the merge list that is a list of merge candidates to be referred to The syntax element merge_idx [x0] [y0] is set. Here, x0 and y0 are indexes indicating the position of the upper left pixel of the prediction block in the picture,
merge_idx [x0] [y0] is the merge index of the prediction block located at (x0, y0) in the picture. When entropy encoding / decoding of a merge index is performed, the smaller the number of merge candidates is, the more encoding / decoding can be performed with a small code amount, and the encoding / decoding can be performed with a small amount of processing. FIG. 11 shows an example of the entropy code (code) of the merge index syntax element merge_idx [x0] [y0]. When the maximum number of merge candidates is 2, when the merge index is 0, 1, the codes of the merge index syntax elements merge_idx [x0] [y0] are “0” and “1”, respectively. When the maximum number of merge candidates is 3, the merge index is 0, 1,
When 2, the sign of the merge index syntax element merge_idx [x0] [y0] is 0
',' 10 ',' 11 '. If the maximum number of merge candidates is 4, the merge index is 0, 1
In the case of 2, 3 and 3, the signs of the merge index syntax elements merge_idx [x0] [y0] are “0”, “10”, “110”, and “111”, respectively. When the maximum number of merge candidates is 5, when the merge index is 0, 1, 2, 3, 4, the merge index syntax element merge_id
The codes of x [x0] [y0] are “0”, “10”, “110”, “1110”, and “1111”, respectively.
That is, the maximum number of merge candidates maxNumMergeCand registered in the merge candidate list mergeCandList
If the maximum number of merge candidates maxNumMergeCand is smaller, the merge index can be expressed with a smaller code amount. In the present embodiment, the code amount of the merge index is reduced by switching the code indicating each value of the merge index according to the number of merge candidates as shown in FIG. In the present embodiment, the maximum number of merge candidates maxN
Merge indexes with values greater than or equal to umMergeCand are not encoded or decoded.
When the maximum merge candidate number maxNumMergeCand is 1, the merge index is not encoded / decoded and the merge index is 0. Further, when the maximum number of merge candidates is 0, the specified inter prediction information is used as a merge candidate, so a merge index is unnecessary.

一方、merge_flag[x0][y0]が0の場合、マージモードでないことを示し、スライスタイ
プがBスライスの場合、インター予測モードを識別するシンタックス要素inter_pred_fla
g[x0][y0]が設置され、このシンタックス要素でL0予測(Pred_L0)、L1予測(Pred_L
1)、双予測(Pred_BI)を識別する。L0、L1ごとに、参照ピクチャを特定するための
参照インデックスのシンタックス要素ref_idx_l0[x0][y0]、ref_idx_l1[x0][y0]、動きベ
クトル検出にて求められた予測ブロックの動きベクトルと予測動きベクトルとの差分であ
る差分動きベクトルのシンタックス要素mvd_l0[x0][y0][j]、mvd_l1[x0][y0][j]が設置さ
れる。ここで、x0、y0はピクチャ内での予測ブロックの左上の画素の位置を示すインデッ
クスであり、ref_idx_l0[x0][y0]、mvd_l0[x0][y0][j]はそれぞれピクチャ内の(x0, y0)
に位置する予測ブロックのL0の参照インデックス、及び差分動きベクトルであり、ref_
idx_l1[x0][y0]、mvd_l1[x0][y0][j]はそれぞれピクチャ内の(x0, y0)に位置する予測ブ
ロックのL1の参照インデックス、及び差分動きベクトルである。また、jは差分動きベ
クトルの成分を表し、jが0はx成分を、jが1はy成分を表す。次に、参照する予測動
きベクトルの候補のリストである予測動きベクトルリストのインデックスのシンタックス
要素mvp_idx_l0[x0][y0]、mvp_idx_l1[x0][y0]が設置される。ここで、x0、y0はピクチャ
内での予測ブロックの左上の画素の位置を示すインデックスであり、mvp_idx_l0[x0][y0]
、mvp_idx_l1[x0][y0]はピクチャ内の(x0, y0)に位置する予測ブロックのL0、L1の予
測動きベクトルインデックスである。本発明の本実施の形態においてはこれらの候補数の
値を2と設定する。
On the other hand, when merge_flag [x0] [y0] is 0, it indicates that the mode is not merge mode. When the slice type is B slice, a syntax element that identifies the inter prediction mode inter_pred_fla
g [x0] [y0] is installed, and L0 prediction (Pred_L0) and L1 prediction (Pred_L) using this syntax element
1) Identify bi-prediction (Pred_BI). For each of L0 and L1, syntax elements ref_idx_l0 [x0] [y0] and ref_idx_l1 [x0] [y0] of the reference index for specifying the reference picture, the motion vector and prediction of the prediction block obtained by motion vector detection The differential motion vector syntax elements mvd_l0 [x0] [y0] [j] and mvd_l1 [x0] [y0] [j], which are the differences from the motion vector, are provided. Here, x0 and y0 are indexes indicating the position of the upper left pixel of the prediction block in the picture, and ref_idx_l0 [x0] [y0] and mvd_l0 [x0] [y0] [j] are respectively (x0 , y0)
L0 reference index of the prediction block located at, and the differential motion vector, ref_
idx_l1 [x0] [y0] and mvd_l1 [x0] [y0] [j] are the L1 reference index and the differential motion vector of the prediction block located at (x0, y0) in the picture, respectively. Further, j represents a differential motion vector component, j represents 0 as an x component, and j represents 1 as a y component. Next, syntax elements mvp_idx_l0 [x0] [y0] and mvp_idx_l1 [x0] [y0] of an index of a predicted motion vector list that is a list of predicted motion vector candidates to be referred to are set. Here, x0 and y0 are indices indicating the position of the upper left pixel of the prediction block in the picture, and mvp_idx_l0 [x0] [y0]
, Mvp_idx_l1 [x0] [y0] are prediction motion vector indexes of L0 and L1 of the prediction block located at (x0, y0) in the picture. In the present embodiment of the present invention, the value of the number of candidates is set to 2.

実施の形態に係るインター予測情報導出方法は、図1の動画像符号化装置のインター予
測情報導出部104及び図2の動画像復号装置のインター予測情報導出部205において
実施される。
The inter prediction information deriving method according to the embodiment is implemented in the inter prediction information deriving unit 104 of the video encoding device in FIG. 1 and the inter prediction information deriving unit 205 of the video decoding device in FIG.

実施の形態に係るインター予測情報導出方法を図面を用いて説明する。動きベクトルの
予測方法は、符号化ブロックを構成する予測ブロック単位に、符号化及び復号の処理の何
れでも実施される。予測ブロックの予測モードPredModeがインター予測(MODE_INTER)で
、スキップモードを含むマージモードの場合に、符号化の場合、符号化済みの予測ブロッ
クの予測モード、参照インデックス、動きベクトルを利用して符号化対象の予測ブロック
の予測モード、参照インデックス、動きベクトルを導出する際、復号の場合、復号済みの
予測ブロックの予測モード、参照インデックス、動きベクトルを利用して復号対象の予測
ブロックの予測モード、参照インデックス、動きベクトルを導出する際に実施される。
An inter prediction information derivation method according to an embodiment will be described with reference to the drawings. The motion vector prediction method is performed in any of the encoding and decoding processes for each prediction block constituting the encoding block. When the prediction mode PredMode of the prediction block is inter prediction (MODE_INTER) and the merge mode includes the skip mode, in the case of encoding, encoding is performed using the prediction mode, reference index, and motion vector of the encoded prediction block. When deriving the prediction mode, reference index, and motion vector of the target prediction block, in the case of decoding, in the case of decoding, the prediction mode, reference index, and motion vector of the prediction block to be decoded using the prediction mode, reference index, and motion vector of the decoded prediction block This is performed when an index and a motion vector are derived.

マージモードは図5、図6、図7及び図8を用いて説明した左に隣接する予測ブロック
A、上に隣接する予測ブロックB、右上に隣接する予測ブロックC、左下に隣接する予測
ブロックD、左上に隣接する予測ブロックEの5つの予測ブロックに加えて、図9を用い
て説明した異なる時間の同一位置あるいはその付近に存在する予測ブロックCol(T0
、T1のいずれか)の予測ブロックからマージ候補を導出する。動画像符号化装置のイン
ター予測情報導出部104、及び動画像復号装置のインター予測情報導出部205はそれ
らのマージ候補を符号化側と復号側で共通の規定の順序でマージ候補リストに登録し、動
画像符号化装置のインター予測情報導出部104がマージ候補リストの要素を特定するマ
ージインデックスを決定して第2符号化ビット列生成部110を経由して符号化し、動画
像復号装置のインター予測情報導出部205は第2符号化ビット列復号部202で復号さ
れたマージインデックスが供給されて、そのマージインデックスに応じた予測ブロックを
マージ候補リストから選択し、その選択されたマージ候補の予測モード、参照インデック
ス、動きベクトル等のインター予測情報を用いて、動き補償予測を行う。
The merge mode includes the prediction block A adjacent to the left, the prediction block B adjacent to the upper side, the prediction block C adjacent to the upper right, and the prediction block D adjacent to the lower left described with reference to FIGS. 5, 6, 7, and 8. In addition to the five prediction blocks of the prediction block E adjacent to the upper left, the prediction block Col (T0) existing at or near the same position at different times described with reference to FIG.
, T1)) from the prediction block. The inter prediction information deriving unit 104 of the moving image encoding device and the inter prediction information deriving unit 205 of the moving image decoding device register these merge candidates in the merge candidate list in a common order on the encoding side and the decoding side. The inter prediction information deriving unit 104 of the video encoding device determines a merge index for specifying an element of the merge candidate list, encodes it via the second encoded bit string generation unit 110, and performs inter prediction of the video decoding device. The information deriving unit 205 is supplied with the merge index decoded by the second encoded bit stream decoding unit 202, selects a prediction block corresponding to the merge index from the merge candidate list, and selects the prediction mode of the selected merge candidate, Motion compensation prediction is performed using inter prediction information such as a reference index and a motion vector.

実施の形態に係る第1の実施例のインター予測情報導出方法を図面を用いて説明する。
図12は、実施の形態に係る第1の実施例の図1の動画像符号化装置のインター予測情報
導出部104の詳細な構成を示す図である。また、図13は、実施の形態に係る第1の実
施例の図2の動画像復号装置のインター予測情報導出部205の詳細な構成を示す図であ
る。
The inter prediction information derivation method of the first example according to the embodiment will be described with reference to the drawings.
FIG. 12 is a diagram illustrating a detailed configuration of the inter prediction information deriving unit 104 of the video encoding device in FIG. 1 of the first example according to the embodiment. FIG. 13 is a diagram illustrating a detailed configuration of the inter prediction information deriving unit 205 of the video decoding device in FIG. 2 of the first example according to the embodiment.

図12及び図13の太枠線で囲まれる部分はそれぞれ、インター予測情報導出部104
及びインター予測情報導出部205を示している。
The portions surrounded by the thick frame lines in FIG. 12 and FIG.
And the inter prediction information deriving unit 205 is shown.

更に、それらの内部の太点線で囲まれる部分はそれぞれのマージ候補を導出してマージ
候補リストを構築する動画像符号化装置のマージ候補リストの構築部120及び動画像復
号装置のマージ候補リストの構築部220を示しており、実施の形態の動画像符号化装置
と対応する動画像復号装置にも同様に設置され、符号化と復号で矛盾しない同一の判定結
果を得られるようにしている。
Furthermore, the portions surrounded by the thick dotted lines inside them are the merge candidate list construction unit 120 of the moving picture coding apparatus that derives the respective merge candidates and constructs the merge candidate list, and the merge candidate list of the moving picture decoding apparatus. The construction unit 220 is shown, and is similarly installed in a video decoding device corresponding to the video encoding device of the embodiment, so that the same determination result that is consistent between encoding and decoding can be obtained.

実施の形態に係るインター予測情報導出方法においては、動画像符号化装置のマージ候
補リストの構築部120及び動画像復号装置のマージ候補リストの構築部220でのマー
ジ候補導出及びマージ候補リスト構築処理において、処理対象となる予測ブロックを含む
符号化ブロックと同じ符号化ブロックに含まれる予測ブロックを参照せずに、処理対象の
予測ブロックのマージ候補導出及びマージ候補リスト構築処理を行うものとする。この様
にすることで、符号化ブロックの分割モード(PartMode)が、2N×2N分割(PART_2Nx
2N)でない場合、すなわち、符号化ブロック内に複数の予測ブロックが存在する場合に、
符号化側で符号化ブロック内でそれぞれの予測ブロックのマージ候補導出及びマージ候補
リストの構築処理を並列に処理することが可能となる。
In the inter prediction information derivation method according to the embodiment, merge candidate derivation and merge candidate list construction processing in the merge candidate list construction unit 120 of the video encoding device and the merge candidate list construction unit 220 of the video decoding device , Merging candidate derivation and merge candidate list construction processing of the prediction block to be processed are performed without referring to a prediction block included in the same encoding block as the encoding block including the prediction block to be processed. In this way, the coding block division mode (PartMode) is 2N × 2N division (PART_2Nx
2N), that is, when there are multiple prediction blocks in the encoded block,
On the encoding side, the merge candidate derivation of each prediction block and the merge candidate list construction process can be performed in parallel within the encoded block.

符号化ブロック内でのそれぞれの予測ブロックのマージ候補リストの構築の並列処理に
ついて、図14を用いて分割モード(PartMode)毎に説明する。図14は処理対象の符号
化ブロックの分割モード(PartMode)毎に処理対象の予測ブロックに隣接する予測ブロッ
クを説明する図である。図14において、A0、B0、C0、D0、E0は分割インデッ
クスPartIdxが0の処理対象の予測ブロックのそれぞれ左側の辺に隣接する予測ブロック
A、上側の辺に隣接する予測ブロックB、右上の頂点に隣接する予測ブロックC、左下の
頂点に隣接する予測ブロックD、および左上の頂点に隣接する予測ブロックEを示し、A
1、B1、C1、D1、E1は分割インデックスPartIdxが1の処理対象の予測ブロック
のそれぞれ左側の辺に隣接する予測ブロックA、上側の辺に隣接する予測ブロックB、右
上の頂点に隣接する予測ブロックC、左下の頂点に隣接する予測ブロックD、および左上
の頂点に隣接する予測ブロックEを示し、A2、B2、C2、D2、E2は分割インデッ
クスPartIdxが2の処理対象の予測ブロックのそれぞれ左側の辺に隣接する予測ブロック
A、上側の辺に隣接する予測ブロックB、右上の頂点に隣接する予測ブロックC、左下の
頂点に隣接する予測ブロックD、および左上の頂点に隣接する予測ブロックEを示し、A
3、B3、C3、D3、E3は分割インデックスPartIdxが3の処理対象の予測ブロック
のそれぞれ左側の辺に隣接する予測ブロックA、上側の辺に隣接する予測ブロックB、右
上の頂点に隣接する予測ブロックC、左下の頂点に隣接する予測ブロックD、および左上
の頂点に隣接する予測ブロックEを示す。
The parallel processing for constructing the merge candidate list for each prediction block in the coding block will be described for each partition mode (PartMode) with reference to FIG. FIG. 14 is a diagram for explaining a prediction block adjacent to a prediction block to be processed for each division mode (PartMode) of a processing target coding block. In FIG. 14, A0, B0, C0, D0, and E0 are a prediction block A adjacent to the left side of the processing target prediction block whose partition index PartIdx is 0, a prediction block B adjacent to the upper side, and an upper right vertex. Indicates a prediction block C adjacent to A, a prediction block D adjacent to the lower left vertex, and a prediction block E adjacent to the upper left vertex, A
1, B 1, C 1, D 1, and E 1 are prediction blocks A adjacent to the left side, prediction block B adjacent to the upper side, and prediction adjacent to the upper right vertex, respectively, of the prediction block to be processed whose partition index PartIdx is 1. A block C, a prediction block D adjacent to the lower left vertex, and a prediction block E adjacent to the upper left vertex are shown. A2, B2, C2, D2, and E2 are the left sides of the prediction blocks to be processed whose partition index PartIdx is 2, respectively. A prediction block A adjacent to the upper edge, a prediction block B adjacent to the upper edge, a prediction block C adjacent to the upper right vertex, a prediction block D adjacent to the lower left vertex, and a prediction block E adjacent to the upper left vertex. A
3, B3, C3, D3, and E3 are prediction blocks A adjacent to the left side, prediction block B adjacent to the upper side, and prediction adjacent to the upper right vertex, respectively, of the prediction block to be processed whose partition index PartIdx is 3. A block C, a prediction block D adjacent to the lower left vertex, and a prediction block E adjacent to the upper left vertex are shown.

図14(b)、(c)、(d)は処理対象の符号化ブロックを上下に並ぶ2つの予測ブ
ロックに分割する分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分
割(PART_2NxnU)、2N×nD分割(PART_2NxnD)での隣接する予測ブロックを示す図で
ある。PartIdxが1の処理対象の予測ブロックに隣接する予測ブロックB1はPartIdxが0
の予測ブロックである。したがって、予測ブロックB1を参照して、PartIdxが1の予測
ブロックのマージ候補導出及びマージ候補リスト構築処理を行うには、予測ブロックB1
である同じ符号化ブロックに属するPartIdxが0の予測ブロックのマージ候補導出及びマ
ージ候補リスト構築処理が完了し、利用するマージ候補を特定した後でないと、処理を行
うことができない。したがって、実施の形態に係るインター予測情報導出方法においては
、分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU
)、2N×nD分割(PART_2NxnD)で、処理対象の予測ブロックのPartIdxが1では、Par
tIdxが0の予測ブロックである予測ブロックB1を参照せずに、PartIdxが1の予測ブロ
ックのマージ候補導出及びマージ候補リストの構築処理を行うことにより、符号化ブロッ
ク内の2つの予測ブロックのマージ候補導出及びマージ候補リストの構築処理を並列に処
理することが可能となる。
14B, 14C, and 14D show that the partition mode (PartMode) for partitioning the processing target encoded block into two prediction blocks arranged vertically is 2N × N partition (PART_2NxN), 2N × nU partition ( It is a figure which shows the adjacent prediction block in PART_2NxnU) and 2NxnD division | segmentation (PART_2NxnD). Prediction block B1 adjacent to the processing target prediction block with PartIdx of 1 has PartIdx of 0
Is a prediction block. Therefore, with reference to the prediction block B1, in order to perform merge candidate derivation and merge candidate list construction processing for a prediction block whose PartIdx is 1, the prediction block B1
After the merge candidate derivation and merge candidate list construction process for the prediction block with PartIdx of 0 belonging to the same encoded block is completed and the merge candidates to be used are specified, the process cannot be performed. Therefore, in the inter prediction information derivation method according to the embodiment, the partition mode (PartMode) is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU)
) In 2N × nD partition (PART_2NxnD), if PartIdx of the prediction block to be processed is 1, Par
Merging of two prediction blocks in an encoded block by performing merge candidate derivation of a prediction block with PartIdx of 1 and construction of a merge candidate list without referring to a prediction block B1 that is a prediction block of tIdx of 0 Candidate derivation and merge candidate list construction processing can be performed in parallel.

図14(e)、(f)、(g)は処理対象の符号化ブロックを左右に並ぶ2つの予測ブ
ロックに分割するモードを示す分割モード(PartMode)がN×2N分割(PART_Nx2N)、
nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)での隣接する予測ブロッ
クを示す図である。PartIdxが1の処理対象の予測ブロックに隣接する予測ブロックA1
はPartIdxが0の予測ブロックである。したがって、予測ブロックA1を参照して、PartI
dxが1の予測ブロックのマージ候補導出及びマージ候補リスト構築処理を行うには、予測
ブロックA1である同じ符号化ブロックに属するPartIdxが0の予測ブロックのマージ候
補導出及びマージ候補リスト構築処理が完了し、利用するマージ候補を特定した後でない
と、処理を行うことができない。したがって、実施の形態に係るインター予測情報導出方
法においては、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割
(PART_nLx2N)、nR×2N分割(PART_nRx2N)で、処理対象の予測ブロックのPartIdx
が1では、PartIdxが0の予測ブロックである予測ブロックA1を参照せずに、PartIdxが
1の予測ブロックのマージ候補導出及びマージ候補リストの構築処理を行うことにより、
符号化ブロック内のそれぞれの予測ブロックのマージ候補導出及びマージ候補リストの構
築処理を並列に処理することが可能となる。
14 (e), (f), and (g) are N × 2N division (PART_Nx2N) in which a division mode (PartMode) indicating a mode in which a coding block to be processed is divided into two prediction blocks arranged on the left and right.
It is a figure which shows the prediction block which adjoins in nLx2N division (PART_nLx2N) and nRx2N division (PART_nRx2N). Prediction block A1 adjacent to the processing target prediction block with PartIdx = 1
Is a prediction block whose PartIdx is 0. Therefore, referring to prediction block A1, PartI
In order to perform merge candidate derivation and merge candidate list construction processing for a prediction block with dx = 1, merge candidate derivation and merge candidate list construction processing for a prediction block with PartIdx 0 belonging to the same coding block that is the prediction block A1 are completed. However, the process cannot be performed unless the merge candidates to be used are specified. Therefore, in the inter prediction information deriving method according to the embodiment, the partition mode (PartMode) is N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), and nR × 2N partition (PART_nRx2N), Block PartIdx
Is 1, by referring to the prediction block A1, which is a prediction block with PartIdx of 0, and performing merge candidate derivation of the prediction block with PartIdx of 1 and construction of the merge candidate list,
The merge candidate derivation and the merge candidate list construction process for each prediction block in the encoded block can be performed in parallel.

図14(h)は処理対象の符号化ブロックを上下左右に4分割して4つの予測ブロック
とした分割モード(PartMode)がN×N分割(PART_NxN)での隣接する予測ブロックを示
す図である。PartIdxが1の処理対象の予測ブロックに隣接する予測ブロックA1はPartI
dxが0の予測ブロックである。したがって、予測ブロックA1を参照してPartIdxが1の
予測ブロックのマージ候補導出及びマージ候補リスト構築処理を行うには、予測ブロック
A1である同じ符号化ブロックに属するPartIdxが0の予測ブロックのマージ候補導出及
びマージ候補リスト構築処理が完了し、利用するマージ候補を特定した後でないと、処理
を行うことができない。したがって、実施の形態に係るインター予測情報導出方法におい
ては、分割モード(PartMode)がN×N分割(PART_NxN)で、処理対象の予測ブロックの
PartIdxが1では、PartIdxが0の予測ブロックである予測ブロックA1を参照せずに、Pa
rtIdxが1の予測ブロックのマージ候補導出及びマージ候補リストの構築処理を行うこと
により、符号化ブロック内のそれぞれの予測ブロックのマージ候補導出及びマージ候補リ
ストの構築処理を並列に処理することが可能となる。PartIdxが2の処理対象の予測ブロ
ックに隣接する予測ブロックB2はPartIdxが0の予測ブロックであり、予測ブロックC
2はPartIdxが1の予測ブロックである。したがって、予測ブロックB2及びC2を参照
してPartIdxが2の予測ブロックのマージ候補導出及びマージ候補リスト構築処理を行う
には、予測ブロックB2及びC2である同じ符号化ブロックに属するPartIdxが0及び1
の予測ブロックのマージ候補導出及びマージ候補リスト構築処理が完了し、利用するマー
ジ候補を特定した後でないと、処理を行うことができない。したがって、実施の形態に係
るインター予測情報導出方法においては、分割モード(PartMode)がN×N分割(PART_N
xN)で、処理対象の予測ブロックのPartIdxが2では、PartIdxが0及び1の予測ブロック
である予測ブロックB2及びC2を参照せずに、PartIdxが2の予測ブロックのマージ候
補導出及びマージ候補リストの構築処理を行うことにより、符号化ブロック内のそれぞれ
の予測ブロックのマージ候補導出及びマージ候補リストの構築処理を並列に処理すること
が可能となる。PartIdxが3の処理対象の予測ブロックに隣接する予測ブロックE3はPar
tIdxが0の予測ブロックであり、予測ブロックB3はPartIdxが1の予測ブロックであり
、予測ブロックA3はPartIdxが2の予測ブロックである。したがって、予測ブロックE
3、B3及びA3を参照してPartIdxが3の予測ブロックのマージ候補導出及びマージ候
補リスト構築処理を行うには、予測ブロックE3、B3及びA3である同じ符号化ブロッ
クに属するPartIdxが0、1及び2の予測ブロックのマージ候補導出及びマージ候補リス
ト構築処理が完了し、利用するマージ候補を特定した後でないと、処理を行うことができ
ない。したがって、実施の形態に係るインター予測情報導出方法においては、分割モード
(PartMode)がN×N分割(PART_NxN)で、処理対象の予測ブロックのPartIdxが3では
、PartIdxが0、1及び2の予測ブロックである予測ブロックE3、B3及びA3を参照
せずに、PartIdxが3の予測ブロックのマージ候補導出及びマージ候補リストの構築処理
を行うことにより、符号化ブロック内のそれぞれの予測ブロックのマージ候補導出及びマ
ージ候補リストの構築処理を並列に処理することが可能となる。
FIG. 14H is a diagram illustrating adjacent prediction blocks in which the partition mode (PartMode) is divided into four prediction blocks by dividing the coding block to be processed into four prediction blocks by dividing the encoded block into four prediction blocks in the vertical and horizontal directions. . The prediction block A1 adjacent to the processing target prediction block whose PartIdx is 1 is PartI
This is a prediction block in which dx is 0. Therefore, in order to perform merge candidate derivation and merge candidate list construction processing for a prediction block with PartIdx of 1 with reference to the prediction block A1, merge candidates of prediction blocks with PartIdx of 0 belonging to the same coding block that is the prediction block A1. The process cannot be performed unless the derivation and merge candidate list construction process is completed and the merge candidates to be used are specified. Therefore, in the inter prediction information derivation method according to the embodiment, the partition mode (PartMode) is N × N partition (PART_NxN), and the prediction block to be processed is
When PartIdx is 1, without referring to prediction block A1, which is a prediction block with PartIdx being 0, Pa
By performing merge candidate derivation and merge candidate list construction processing for a prediction block with an rtIdx of 1, it is possible to process merge candidate derivation and merge candidate list construction processing for each prediction block in an encoded block in parallel. It becomes. Prediction block B2 adjacent to the processing target prediction block with PartIdx of 2 is a prediction block with PartIdx of 0, and prediction block C
2 is a prediction block whose PartIdx is 1. Therefore, in order to perform merge candidate derivation and merge candidate list construction processing for a prediction block whose PartIdx is 2 with reference to the prediction blocks B2 and C2, the PartIdx belonging to the same coding block that is the prediction blocks B2 and C2 is 0 and 1
After the prediction block merge candidate derivation and merge candidate list construction processing are completed and the merge candidates to be used are specified, the processing cannot be performed. Therefore, in the inter prediction information derivation method according to the embodiment, the partition mode (PartMode) is N × N partition (PART_N
xN), when the processing target prediction block PartIdx is 2, without referring to the prediction blocks B2 and C2 which are prediction blocks of PartIdx 0 and 1, the merge candidate derivation and merge candidate list of the prediction block of PartIdx 2 By performing this construction processing, it is possible to perform in parallel the merge candidate derivation and merge candidate list construction processing for each prediction block in the encoded block. The prediction block E3 adjacent to the processing target prediction block whose PartIdx is 3 is Par
tIdx is a prediction block with 0, prediction block B3 is a prediction block with PartIdx of 1, and prediction block A3 is a prediction block with PartIdx of 2. Therefore, the prediction block E
In order to perform merge candidate derivation and merge candidate list construction processing of a prediction block with PartIdx of 3 with reference to 3, B3, and A3, PartIdx belonging to the same coding block of prediction blocks E3, B3, and A3 is 0, 1 After the merge candidate derivation and merge candidate list construction processing for the prediction blocks 1 and 2 are completed and the merge candidates to be used are specified, the processing cannot be performed. Therefore, in the inter prediction information derivation method according to the embodiment, when the partition mode (PartMode) is N × N partition (PART_NxN), and the PartIdx of the prediction block to be processed is 3, the prediction of PartIdx is 0, 1 and 2 By performing the merge candidate derivation of the prediction block with PartIdx of 3 and the construction of the merge candidate list without referring to the prediction blocks E3, B3, and A3 that are blocks, the merge candidate of each prediction block in the encoded block The derivation and merge candidate list construction processes can be processed in parallel.

図12の動画像符号化装置のインター予測情報導出部104は、マージ候補リスト生成
部130、空間マージ候補生成部131、時間マージ候補の参照インデックス導出部13
2、時間マージ候補生成部133、追加マージ候補生成部134、マージ候補制限部13
6およびインター予測情報選択部137を含む。
The inter prediction information deriving unit 104 of the moving picture coding apparatus in FIG. 12 includes a merge candidate list generating unit 130, a spatial merge candidate generating unit 131, and a temporal merge candidate reference index deriving unit 13.
2, time merge candidate generation unit 133, additional merge candidate generation unit 134, merge candidate restriction unit 13
6 and an inter prediction information selection unit 137.

図13の動画像復号装置のインター予測情報導出部205は、マージ候補リスト生成部
230、空間マージ候補生成部231、時間マージ候補の参照インデックス導出部232
、時間マージ候補生成部233、追加マージ候補生成部234、マージ候補制限部236
およびインター予測情報選択部237を含む。
The inter prediction information deriving unit 205 of the video decoding apparatus in FIG. 13 includes a merge candidate list generating unit 230, a spatial merge candidate generating unit 231, and a temporal merge candidate reference index deriving unit 232.
, Time merge candidate generation unit 233, additional merge candidate generation unit 234, merge candidate restriction unit 236
And an inter prediction information selection unit 237.

図15は本発明の実施の形態に係る第1の実施例の動画像符号化装置のインター予測情
報導出部104のマージ候補リストの構築部120及び動画像復号装置のインター予測情
報導出部205のマージ候補リストの構築部220とで共通する機能を有するマージ候補
の導出処理及びマージ候補リストの構築処理の手順を説明するフローチャートである。
以下、諸過程を順を追って説明する。なお、以下の説明においては特に断りのない限りス
ライスタイプslice_typeがBスライスの場合について説明するが、Pスライスの場合にも
適用できる。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モー
ドとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)が
ないので、L1に纏わる処理を省略することができる。なお、本実施の形態において、動
画像符号化装置および動画像復号装置において、最大マージ候補数maxNumMergeCandの値
が0の場合、図15のマージ候補の導出処理及びマージ候補リストの構築処理を省略する
ことができる。
FIG. 15 shows the merge candidate list construction unit 120 of the inter prediction information deriving unit 104 and the inter prediction information deriving unit 205 of the video decoding device of the video coding device according to the first embodiment of the present invention. 10 is a flowchart for explaining a procedure of merge candidate derivation processing and merge candidate list construction processing having functions common to the merge candidate list construction unit 220;
Hereinafter, the processes will be described in order. In the following description, a case where the slice type slice_type is a B slice will be described unless otherwise specified, but the present invention can also be applied to a P slice. However, when the slice type slice_type is a P slice, there are only L0 prediction (Pred_L0) as an inter prediction mode, and there are no L1 prediction (Pred_L1) and bi-prediction (Pred_BI), so the processing related to L1 can be omitted. In the present embodiment, in the video encoding device and the video decoding device, when the maximum merge candidate number maxNumMergeCand is 0, the merge candidate derivation processing and merge candidate list construction processing in FIG. 15 are omitted. be able to.

まず、動画像符号化装置のインター予測情報導出部104のマージ候補リスト生成部1
30及び動画像復号装置のインター予測情報導出部205のマージ候補リスト生成部23
0では、マージ候補リストmergeCandListを用意する(図15のステップS100)。マ
ージ候補リストmergeCandListはリスト構造を成し、マージ候補リスト内部の所在を示す
マージインデックスと、インデックスに対応するマージ候補を要素として格納する記憶領
域が設けられている。マージインデックスの数字は0から開始され、マージ候補リストme
rgeCandListの記憶領域に、マージ候補が格納される。以降の処理では、マージ候補リス
トmergeCandListに登録されたマージインデックスiのマージ候補となる予測ブロックは
、mergeCandList[i]で表すこととし、マージ候補リストmergeCandListとは配列表記をす
ることで区別することとする。本実施の形態においては、マージ候補リストmergeCandLis
tは少なくとも5個のマージ候補(インター予測情報)を登録することができるものとす
る。さらに、マージ候補リストmergeCandListに登録されているマージ候補数を示す変数n
umMergeCandに0を設定する。用意されたマージ候補リストmergeCandListは動画像符号化
装置のインター予測情報導出部104の空間マージ候補生成部131及び動画像復号装置
のインター予測情報導出部205の空間マージ候補生成部231にそれぞれ供給される。
First, the merge candidate list generating unit 1 of the inter prediction information deriving unit 104 of the video encoding device.
30 and the merge candidate list generation unit 23 of the inter prediction information deriving unit 205 of the video decoding device
In 0, a merge candidate list mergeCandList is prepared (step S100 in FIG. 15). The merge candidate list mergeCandList has a list structure, and is provided with a merge index indicating the location within the merge candidate list and a storage area for storing merge candidates corresponding to the index as elements. Merge index number starts from 0 and merge candidate list me
Merge candidates are stored in the storage area of rgeCandList. In the subsequent processing, a prediction block that is a merge candidate of the merge index i registered in the merge candidate list mergeCandList is represented by mergeCandList [i], and is distinguished from the merge candidate list mergeCandList by array notation. To do. In this embodiment, the merge candidate list mergeCandLis
It is assumed that t can register at least five merge candidates (inter prediction information). Furthermore, a variable n indicating the number of merge candidates registered in the merge candidate list mergeCandList
Set umMergeCand to 0. The prepared merge candidate lists mergeCandList are respectively supplied to the spatial merge candidate generation unit 131 of the inter prediction information deriving unit 104 of the video encoding device and the spatial merge candidate generation unit 231 of the inter prediction information deriving unit 205 of the video decoding device. The

動画像符号化装置のインター予測情報導出部104の空間マージ候補生成部131及び
動画像復号装置のインター予測情報導出部205の空間マージ候補生成部231では、動
画像符号化装置の符号化情報格納メモリ115または動画像復号装置の符号化情報格納メ
モリ210に格納されている符号化情報から、符号化/復号対象ブロックに隣接するそれ
ぞれの予測ブロックA,B,C,D,Eからの空間マージ候補A,B,C,D,Eを導出
して、導出された空間マージ候補をマージ候補リストmergeCandListに登録する(図15
のステップS101)。ここで、A,B,C,D,Eまたは時間マージ候補Colのいず
れかを示すNを定義する。予測ブロックNのインター予測情報が空間マージ候補Nとして
利用できるかどうかを示すフラグavailableFlagN、空間マージ候補NのL0の参照インデ
ックスrefIdxL0N及びL1の参照インデックスrefIdxL1N、L0予測が行われるかどうかを
示すL0予測フラグpredFlagL0NおよびL1予測が行われるかどうかを示すL1予測フラ
グpredFlagL1N、L0の動きベクトルmvL0N、L1の動きベクトルmvL1Nを導出する。ただ
し、本実施の形態においては処理対象となる予測ブロックを含む符号化ブロックと同じ符
号化ブロックに含まれる予測ブロックを参照せずに、マージ候補を導出するので、処理対
象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる空間マージ候補
は導出しない。ステップS101の詳細な処理手順については図16のフローチャートを
用いて後ほど詳細に説明する。マージ候補リストmergeCandListは動画像符号化装置のイ
ンター予測情報導出部104の時間マージ候補生成部133及び動画像復号装置のインタ
ー予測情報導出部205の時間マージ候補生成部233にそれぞれ供給される。
The spatial merge candidate generation unit 131 of the inter prediction information deriving unit 104 of the video encoding device and the spatial merge candidate generation unit 231 of the inter prediction information deriving unit 205 of the video decoding device store encoding information of the video encoding device. Spatial merging from each prediction block A, B, C, D, E adjacent to the encoding / decoding target block from the encoding information stored in the memory 115 or the encoding information storage memory 210 of the video decoding device Candidates A, B, C, D, and E are derived, and the derived spatial merge candidates are registered in the merge candidate list mergeCandList (FIG. 15).
Step S101). Here, N indicating any one of A, B, C, D, E and the temporal merge candidate Col is defined. A flag availableFlagN indicating whether or not the inter prediction information of the prediction block N can be used as the spatial merge candidate N, the L0 reference index refIdxL0N and the L1 reference index refIdxL1N of the spatial merge candidate N, and L0 prediction indicating whether or not L0 prediction is performed. The flag predFlagL0N and the L1 prediction flag predFlagL1N indicating whether L1 prediction is performed, the L0 motion vector mvL0N, and the L1 motion vector mvL1N are derived. However, in the present embodiment, the merge candidate is derived without referring to the prediction block included in the same encoding block as the encoding block including the prediction block to be processed, so that the code including the prediction block to be processed Spatial merge candidates included in the same coding block as the coding block are not derived. The detailed processing procedure of step S101 will be described later in detail using the flowchart of FIG. The merge candidate list mergeCandList is supplied to the temporal merge candidate generation unit 133 of the inter prediction information deriving unit 104 of the video encoding device and the temporal merge candidate generation unit 233 of the inter prediction information deriving unit 205 of the video decoding device, respectively.

続いて、動画像符号化装置のインター予測情報導出部104の時間マージ候補の参照イ
ンデックス導出部132及び動画像復号装置のインター予測情報導出部205の時間マー
ジ候補の参照インデックス導出部232では、符号化/復号対象ブロックに隣接する予測
ブロックから時間マージ候補の参照インデックスを導出して、導出された参照インデック
スを動画像符号化装置のインター予測情報導出部104の時間マージ候補生成部133及
び動画像復号装置のインター予測情報導出部205の時間マージ候補生成部233に供給
する(図15のステップS102)。ただし、本実施の形態においては処理対象となる予
測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる予測ブロックを参照せ
ずに、時間マージ候補の参照インデックスを導出する。スライスタイプslice_typeがPス
ライスで時間マージ候補のインター予測情報を用いてインター予測を行う場合は、L0予
測(Pred_L0)を行うために、L0の参照インデックスだけを導出し、スライスタイプsli
ce_typeがBスライスで時間マージ候補のインター予測情報を用いてインター予測を行う
場合は、双予測(Pred_BI)を行うために、L0とL1のそれぞれの参照インデックスを
導出する。ステップS102の詳細な処理手順については図18のフローチャートを用い
て後ほど詳細に説明する。
Subsequently, the temporal merge candidate reference index deriving unit 132 of the inter prediction information deriving unit 104 of the moving image encoding device and the temporal merge candidate reference index deriving unit 232 of the inter prediction information deriving unit 205 of the moving image decoding device perform coding. The temporal merge candidate reference index is derived from the prediction block adjacent to the encoding / decoding target block, and the derived reference index is converted into the temporal merge candidate generation unit 133 and the moving image of the inter prediction information deriving unit 104 of the moving image encoding device. It supplies to the time merge candidate production | generation part 233 of the inter prediction information derivation | leading-out part 205 of a decoding apparatus (step S102 of FIG. 15). However, in the present embodiment, the reference index of the temporal merge candidate is derived without referring to the prediction block included in the same encoded block as the encoded block including the prediction block to be processed. When the slice type slice_type is P slice and inter prediction is performed using inter prediction information of temporal merge candidates, in order to perform L0 prediction (Pred_L0), only the L0 reference index is derived, and the slice type sli
When inter prediction is performed using inter prediction information of temporal merge candidates with a ce_type of B slice, reference indexes of L0 and L1 are derived in order to perform bi-prediction (Pred_BI). The detailed processing procedure of step S102 will be described later in detail using the flowchart of FIG.

続いて、動画像符号化装置のインター予測情報導出部104の時間マージ候補生成部1
33及び動画像復号装置のインター予測情報導出部205の時間マージ候補生成部233
では、異なる時間のピクチャからの時間マージ候補を導出して、導出された時間マージ候
補をマージ候補リストmergeCandListに登録する(図15のステップS103)。時間マ
ージ候補が利用できるかどうかを示すフラグavailableFlagCol、時間マージ候補のL0予
測が行われるかどうかを示すL0予測フラグpredFlagL0ColおよびL1予測が行われるか
どうかを示すL1予測フラグpredFlagL1Col、及びL0の動きベクトルmvL0N、L1の動き
ベクトルmvL1Nを導出する。ステップS103の詳細な処理手順については図19のフロ
ーチャートを用いて後ほど詳細に説明する。マージ候補リストmergeCandListは動画像符
号化装置のインター予測情報導出部104の追加マージ候補生成部134及び動画像復号
装置のインター予測情報導出部205の追加マージ候補生成部234にそれぞれ供給され
る。
Subsequently, the temporal merge candidate generating unit 1 of the inter prediction information deriving unit 104 of the video encoding device.
33 and the temporal merge candidate generating unit 233 of the inter prediction information deriving unit 205 of the video decoding device.
Then, temporal merge candidates from pictures at different times are derived, and the derived temporal merge candidates are registered in the merge candidate list mergeCandList (step S103 in FIG. 15). A flag availableFlagCol indicating whether a temporal merge candidate is available, an L0 prediction flag predFlagL0Col indicating whether L0 prediction of the temporal merge candidate is performed, an L1 prediction flag predFlagL1Col indicating whether L1 prediction is performed, and a motion vector of L0 A motion vector mvL1N of mvL0N and L1 is derived. The detailed processing procedure of step S103 will be described later in detail using the flowchart of FIG. The merge candidate list mergeCandList is supplied to the additional merge candidate generation unit 134 of the inter prediction information derivation unit 104 of the video encoding device and the additional merge candidate generation unit 234 of the inter prediction information derivation unit 205 of the video decoding device, respectively.

続いて、動画像符号化装置のインター予測情報導出部104の追加マージ候補生成部1
34及び動画像復号装置のインター予測情報導出部205の追加マージ候補生成部234
では、マージ候補リストmergeCandList内に登録されているマージ候補数numMergeCandが
、最大マージ候補数maxNumMergeCandより小さい場合、マージ候補リストmergeCandList内
に登録されているマージ候補数numMergeCandが最大マージ候補数maxNumMergeCandを上限
として追加マージ候補を導出して、マージ候補リストmergeCandListに登録する(図15
のステップS104)。最大マージ候補数maxNumMergeCandを上限として、Pスライスで
は、異なる参照インデックスで動きベクトルが(0,0)の値を持つ予測モードがL0予
測(Pred_L0)のマージ候補を追加する。Bスライスでは、異なる参照インデックスで動
きベクトルが(0,0)の値を持つ予測モードが双予測(Pred_BI)のマージ候補を追加
する。ステップS104の詳細な処理手順については図26のフローチャートを用いて後
ほど詳細に説明する。なお、Bスライスでは、すでに登録されているマージ候補同士のL
0予測とL1予測の組み合わせを変更した予測モードが双予測(Pred_BI)のマージ候補
を導出して登録してもよい。マージ候補リストmergeCandListは動画像符号化装置のイン
ター予測情報導出部104のマージ候補制限部136及び動画像復号装置のインター予測
情報導出部205のマージ候補制限部236にそれぞれ供給される。
Subsequently, the additional merge candidate generating unit 1 of the inter prediction information deriving unit 104 of the video encoding device.
34 and an additional merge candidate generation unit 234 of the inter prediction information deriving unit 205 of the video decoding device.
Then, if the number of merge candidates numMergeCand registered in the merge candidate list mergeCandList is smaller than the maximum number of merge candidates maxNumMergeCand, the number of merge candidates numMergeCand registered in the merge candidate list mergeCandList is limited to the maximum number of merge candidates maxNumMergeCand. Additional merge candidates are derived and registered in the merge candidate list mergeCandList (FIG. 15).
Step S104). With the maximum number of merge candidates maxNumMergeCand as the upper limit, in the P slice, merge candidates whose prediction mode having a value of (0, 0) with a different reference index is L0 prediction (Pred_L0) are added. In the B slice, merge candidates whose prediction vectors having a value of (0, 0) at different reference indexes are bi-prediction (Pred_BI) are added. The detailed processing procedure of step S104 will be described later in detail using the flowchart of FIG. In the B slice, L of merge candidates that have already been registered.
The prediction mode in which the combination of the 0 prediction and the L1 prediction is changed may derive and register a merge prediction candidate for bi-prediction (Pred_BI). The merge candidate list mergeCandList is supplied to the merge candidate restriction unit 136 of the inter prediction information deriving unit 104 of the video encoding device and the merge candidate restriction unit 236 of the inter prediction information deriving unit 205 of the video decoding device, respectively.

続いて、動画像符号化装置のインター予測情報導出部104のマージ候補制限部136
及び動画像復号装置のインター予測情報導出部205のマージ候補制限部236では、マ
ージ候補リストmergeCandList内に登録されているマージ候補数numMergeCandの値が最大
マージ候補数maxNumMergeCandよりも大きい場合、マージ候補リストmergeCandList内に登
録されているマージ候補数numMergeCandの値を最大マージ候補数maxNumMergeCandに制限
する(図15のステップS106)。マージ候補リストmergeCandListは動画像符号化装
置のインター予測情報導出部104のインター予測情報選択部137及び動画像復号装置
のインター予測情報導出部205のインター予測情報選択部237にそれぞれ供給される
。ステップS106の詳細な処理手順について、図27のフローチャートを用いて説明す
る。
Subsequently, the merge candidate restriction unit 136 of the inter prediction information deriving unit 104 of the video encoding device.
In the merge candidate restriction unit 236 of the inter prediction information deriving unit 205 of the video decoding device, if the value of the merge candidate number numMergeCand registered in the merge candidate list mergeCandList is larger than the maximum merge candidate number maxNumMergeCand, the merge candidate list The number of merge candidates numMergeCand registered in mergeCandList is limited to the maximum number of merge candidates maxNumMergeCand (step S106 in FIG. 15). The merge candidate list mergeCandList is supplied to the inter prediction information selection unit 137 of the inter prediction information derivation unit 104 of the video encoding device and the inter prediction information selection unit 237 of the inter prediction information derivation unit 205 of the video decoding device, respectively. The detailed processing procedure of step S106 is demonstrated using the flowchart of FIG.

最大マージ候補数maxNumMergeCandより大きい場合(図27のステップS7101のY
ES)、マージ候補リストmergeCandList内に登録されているマージ候補数numMergeCand
の値を最大マージ候補数maxNumMergeCandに更新する(図27のステップS7102)。
ステップS7102の処理はマージ候補リストmergeCandList内のマージインデックスが(
maxNumMergeCand-1)よりも大きいすべてのマージ候補へのアクセスを禁止し、マージ候補
リストmergeCandListに登録されるマージ候補数を最大マージ候補数maxNumMergeCandに制
限することを意味する。
If it is larger than the maximum number of merge candidates maxNumMergeCand (Y in step S7101 in FIG. 27)
ES), the number of merge candidates registered in the merge candidate list mergeCandList numMergeCand
Is updated to the maximum merge candidate number maxNumMergeCand (step S7102 in FIG. 27).
In step S7102, the merge index in the merge candidate list mergeCandList is (
This means that access to all merge candidates larger than maxNumMergeCand-1) is prohibited, and the number of merge candidates registered in the merge candidate list mergeCandList is limited to the maximum number of merge candidates maxNumMergeCand.

本実施の形態においては、スライス単位でマージ候補リストmergeCandList内に登録さ
れるマージ候補数を固定した数に設定している。マージ候補リストmergeCandList内に登
録されるマージ候補数を固定する理由はマージ候補リストmergeCandList内に登録される
マージ候補数がマージ候補リストの構築状態に応じて変動すると、エントロピー復号とマ
ージ候補リストの構築に依存関係が生じ、復号側では予測ブロック毎にマージ候補リスト
を構築しマージ候補リストmergeCandList内に登録されるマージ候補数を導出してからで
ないと、マージインデックスをエントロピー復号することができず、マージインデックス
の復号に遅延が生じるとともにエントロピー復号が複雑になるためである。さらに、エン
トロピー復号が異なる時間のピクチャの予測ブロックから導出されたマージ候補Colを含
むマージ候補リストの構築状態に依存すると、別のピクチャの符号化ビット列の復号時に
エラーが発生した際に現在のピクチャの符号化ビット列もそのエラーの影響を受けて正常
なマージ候補リストmergeCandList内に登録されるマージ候補数を導出することができず
正常にエントロピー復号を続けることができない問題がある。本実施の形態の様にスライ
ス単位でマージ候補リストmergeCandList内に登録されるマージ候補数を固定した数に設
定すると、予測ブロック単位でのマージ候補リストmergeCandList内に登録されるマージ
候補数の導出が不要となり、マージ候補リストの構築と独立して、マージインデックスを
エントロピー復号することができるとともに、別のピクチャの符号化ビット列の復号時に
エラーが発生してもその影響を受けずに現在のピクチャの符号化ビット列のエントロピー
復号を続けることができる。本実施の形態においては、スライス単位でマージ候補リスト
mergeCandList内に登録されるマージ候補数を示すシンタックス要素が符号化されるもの
とし、mergeCandList内に登録されるマージ候補数を最大マージ候補数maxNumMergeCandと
定義する。
In the present embodiment, the number of merge candidates registered in the merge candidate list mergeCandList in slice units is set to a fixed number. The reason why the number of merge candidates registered in the merge candidate list mergeCandList is fixed is that if the number of merge candidates registered in the merge candidate list mergeCandList varies depending on the state of the merge candidate list construction, entropy decoding and the merge candidate list construction Dependency occurs, and on the decoding side, the merge candidate list must be constructed for each prediction block and the merge candidate number registered in the merge candidate list mergeCandList must be derived before entropy decoding of the merge index can be performed. This is because the decoding of the merge index is delayed and the entropy decoding becomes complicated. Furthermore, if entropy decoding depends on the construction state of the merge candidate list including the merge candidate Col derived from the prediction block of the picture at different times, the current picture when an error occurs when decoding the encoded bit string of another picture The encoded bit string is also affected by the error, and the number of merge candidates registered in the normal merge candidate list mergeCandList cannot be derived, and entropy decoding cannot be continued normally. When the number of merge candidates registered in the merge candidate list mergeCandList in slice units is set to a fixed number as in this embodiment, the number of merge candidates registered in the merge candidate list mergeCandList in prediction block units is derived. Independent of the construction of the merge candidate list, the merge index can be entropy-decoded, and even if an error occurs when decoding the encoded bit stream of another picture, the current picture Entropy decoding of the encoded bit string can continue. In this embodiment, a merge candidate list in units of slices
Assume that a syntax element indicating the number of merge candidates registered in mergeCandList is encoded, and the number of merge candidates registered in mergeCandList is defined as the maximum number of merge candidates maxNumMergeCand.

次に、図15のステップS101の処理手順である符号化/復号対象ブロックに隣接す
る予測ブロックNからのマージ候補Nの導出方法について詳細に説明する。図16は図1
5のステップS101の空間マージ候補導出処理手順を説明するフローチャートである。
Nには隣接する予測ブロックの領域を表すA(左側)、B(上側)、C(右上)、D(左
下)またはE(左上)が入る。なお、本実施の形態においては、隣接する5つの予測ブロ
ックから最大4つの空間マージ候補を導出する。
Next, a method for deriving the merge candidate N from the prediction block N adjacent to the encoding / decoding target block, which is the processing procedure of step S101 in FIG. 15, will be described in detail. FIG. 16 shows FIG.
It is a flowchart explaining the space merge candidate derivation | leading-out process procedure of step S101 of 5. FIG.
In N, A (left side), B (upper side), C (upper right), D (lower left), or E (upper left) representing an area of an adjacent prediction block is entered. In the present embodiment, a maximum of four spatial merge candidates are derived from five adjacent prediction blocks.

図16で、変数NをAとして符号化/復号対象の予測ブロックの左側に隣接する予測ブ
ロックAの符号化情報を調べてマージ候補Aを導出し、変数NをBとして上側に隣接する
予測ブロックBの符号化情報を調べてマージ候補Bを導出し、変数NをCとして右上側に
隣接する予測ブロックCの符号化情報を調べてマージ候補Cを導出し、変数NをDとして
左下側に隣接する予測ブロックDの符号化情報を調べてマージ候補Dを導出し、変数Nを
Eとして左上側に隣接する予測ブロックEの符号化情報を調べてマージ候補Eを導出し、
マージ候補リストに登録する(図16のステップS1101〜ステップS1118)。
In FIG. 16, the variable N is A and the encoding information of the prediction block A adjacent to the left side of the prediction block to be encoded / decoded is checked to derive the merge candidate A, and the variable N is B and the prediction block adjacent to the upper side The encoding information of B is examined to derive a merge candidate B, the variable N is set as C, the encoding information of the prediction block C adjacent on the upper right side is checked, the merge candidate C is derived, and the variable N is set as D to the lower left side. The encoding information of the adjacent prediction block D is examined to derive the merge candidate D, the variable N is set as E, the encoding information of the prediction block E adjacent to the upper left is examined, and the merge candidate E is derived,
Registration in the merge candidate list (steps S1101 to S1118 in FIG. 16).

まず、変数NがEで、フラグavailableFlagA, availableFlagB, availableFlagC, avai
lableFlagDの値を加算して合計が4の場合(図16のステップS1102のYES)、す
なわち4つの空間マージ候補が導出された場合、マージ候補EのフラグavailableFlagEを
0に設定し(図16のステップS1107)、マージ候補Eの動きベクトルmvL0E, mvL1E
の値を共に(0,0)に設定し(図16のステップS1108)、マージ候補Eのフラグ
predFlagL0E、predFlagL1Eの値を共に0に設定し(図16のステップS1109)、ステ
ップS1118に進み、本空間マージ候補導出処理を終了する。
First, the variable N is E, and the flags availableFlagA, availableFlagB, availableFlagC, avai
When the sum of the values of lableFlagD is 4 (YES in step S1102 in FIG. 16), that is, when four spatial merge candidates are derived, the flag availableFlagE of the merge candidate E is set to 0 (step in FIG. 16). S1107), motion vectors mvL0E, mvL1E of merge candidate E
Are set to (0, 0) (step S1108 in FIG. 16), and the flag of merge candidate E
Both the values of predFlagL0E and predFlagL1E are set to 0 (step S1109 in FIG. 16), the process proceeds to step S1118, and the space merge candidate derivation process is terminated.

本実施の形態においては、隣接する予測ブロックから最大で4つのマージ候補を導出す
るので、既に4つの空間マージ候補が導出された場合はそれ以上の空間マージ候補の導出
処理を行う必要がない。
In the present embodiment, a maximum of four merge candidates are derived from adjacent prediction blocks. Therefore, when four spatial merge candidates are already derived, it is not necessary to perform further spatial merge candidate derivation processing.

一方、変数NがEでないか、フラグavailableFlagA, availableFlagB, availableFlagC
, availableFlagDの値を加算して合計が4でない場合(図16のステップS1102のN
O)、すなわち4つの空間マージ候補が導出されていない場合、ステップS1103に進
む。隣接する予測ブロックNが導出対象の予測ブロックを含む符号化ブロックと同じ符号
化ブロックに含まれる場合(図16のステップS1103のYES)、マージ候補Nのフ
ラグavailableFlagNの値を0に設定し(図16のステップS1107)、マージ候補Nの
動きベクトルmvL0N, mvL1Nの値を共に(0,0)に設定し(図16のステップS1108
)、マージ候補NのフラグpredFlagL0N、predFlagL1Nの値を共に0に設定し(図16のス
テップS1109)、ステップS1118に進む。隣接する予測ブロックNが導出対象の
予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる場合(図16のステ
ップS1103のYES)、隣接する予測ブロックNを参照しないことで、予測ブロック
のマージ候補導出及びマージ候補リストの構築処理の並列処理を可能とする。
On the other hand, the variable N is not E or the flags availableFlagA, availableFlagB, availableFlagC
, availableFlagD is added and the total is not 4 (N in step S1102 of FIG. 16).
O), that is, if four spatial merge candidates are not derived, the process proceeds to step S1103. When the adjacent prediction block N is included in the same coding block as the coding block including the prediction block to be derived (YES in step S1103 in FIG. 16), the value of the flag availableFlagN of the merge candidate N is set to 0 (FIG. 16 step S1107), the values of the motion vectors mvL0N and mvL1N of the merge candidate N are both set to (0, 0) (step S1108 in FIG. 16).
) The values of the flags predFlagL0N and predFlagL1N of the merge candidate N are both set to 0 (step S1109 in FIG. 16), and the process proceeds to step S1118. When the adjacent prediction block N is included in the same encoding block as the encoding block including the prediction block to be derived (YES in step S1103 in FIG. 16), the prediction block is merged by not referring to the adjacent prediction block N. It enables parallel processing of candidate derivation and merge candidate list construction processing.

具体的には、分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割
(PART_2NxnU)または2N×nD分割(PART_2NxnD)で、処理対象の予測ブロックのPart
Idxが1で、隣接する予測ブロックBの場合が、隣接する予測ブロックNが導出対象の予
測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる場合である。この場合
、隣接する予測ブロックBはPartIdxが0の予測ブロックであるので、隣接する予測ブロ
ックBを参照しないことで、予測ブロックのマージ候補導出及びマージ候補リストの構築
処理の並列処理を可能とする。
Specifically, when the partition mode (PartMode) is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), or 2N × nD partition (PART_2NxnD), the part of the prediction block to be processed
The case where Idx is 1 and adjacent prediction block B is a case where adjacent prediction block N is included in the same encoded block as the encoded block including the prediction block to be derived. In this case, since the adjacent prediction block B is a prediction block whose PartIdx is 0, the prediction block merge candidate derivation and the merge candidate list construction process can be performed in parallel by not referring to the adjacent prediction block B. .

さらに、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PAR
T_nLx2N)またはnR×2N分割(PART_nRx2N)で、処理対象の予測ブロックのPartIdxが
1で、隣接する予測ブロックAの場合も、隣接する予測ブロックNが導出対象の予測ブロ
ックを含む符号化ブロックと同じ符号化ブロックに含まれる場合である。この場合も、隣
接する予測ブロックAはPartIdxが0の予測ブロックであるので、隣接する予測ブロック
Aを参照しないことで、予測ブロックのマージ候補導出及びマージ候補リストの構築処理
の並列処理を可能とする。
Furthermore, the partition mode (PartMode) is N × 2N partition (PART_Nx2N), nL × 2N partition (PAR
T_nLx2N) or nR × 2N division (PART_nRx2N), where the processing target prediction block PartIdx is 1 and the adjacent prediction block A is the same as the coding block including the prediction block to be derived This is a case where it is included in a coding block. Also in this case, since the adjacent prediction block A is a prediction block whose PartIdx is 0, the prediction block merge candidate derivation and the merge candidate list construction process can be performed in parallel by not referring to the adjacent prediction block A. To do.

さらに、分割モード(PartMode)がN×N分割(PART_NxN)で、処理対象の予測ブロッ
クのPartIdxが1、2または3の場合も、隣接する予測ブロックNが導出対象の予測ブロ
ックを含む符号化ブロックと同じ符号化ブロックに含まれることがある。
Furthermore, even when the partition mode (PartMode) is N × N partition (PART_NxN) and the PartIdx of the prediction block to be processed is 1, 2 or 3, an encoding block in which the adjacent prediction block N includes the prediction block to be derived May be included in the same coding block.

一方、隣接する予測ブロックNが処理対象の予測ブロックを含む符号化ブロックと同じ
符号化ブロックに含まれない場合(図16のステップS1103のNO)、符号化/復号
対象の予測ブロックに隣接する予測ブロックNを特定し、それぞれの予測ブロックNが利
用できる場合は符号化情報格納メモリ115または210から予測ブロックNの符号化情
報を取得する(図16のステップS1104)。
On the other hand, when the adjacent prediction block N is not included in the same encoding block as the encoding block including the processing target prediction block (NO in step S1103 in FIG. 16), the prediction adjacent to the prediction block to be encoded / decoded is performed. The block N is specified, and when each prediction block N can be used, the encoding information of the prediction block N is acquired from the encoding information storage memory 115 or 210 (step S1104 in FIG. 16).

隣接する予測ブロックNが利用できないか(図16のステップS1105のNO)、予
測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)である場合(図16の
ステップS1106のNO)、マージ候補NのフラグavailableFlagNの値を0に設定し(
図16のステップS1107)、マージ候補Nの動きベクトルmvL0N, mvL1Nの値を共に(
0,0)に設定し(図16のステップS1108)、マージ候補NのフラグpredFlagL0N
、predFlagL1Nの値を共に0に設定し(ステップS1109)、ステップS1118に進
む。ここで、隣接する予測ブロックNが利用できない場合とは、具体的には隣接する予測
ブロックNが符号化/復号対象スライスの外に位置する場合や、まだ符号化/復号処理順
序で後のため、符号化/復号処理が完了していない場合等が該当する。
If the adjacent prediction block N cannot be used (NO in step S1105 in FIG. 16), or the prediction mode PredMode of the prediction block N is intra prediction (MODE_INTRA) (NO in step S1106 in FIG. 16), the flag of the merge candidate N Set the value of availableFlagN to 0 (
In step S1107 in FIG. 16, the values of the motion vectors mvL0N and mvL1N of the merge candidate N are both (
0, 0) (step S1108 in FIG. 16) and a flag predFlagL0N of merge candidate N
, PredFlagL1N are both set to 0 (step S1109), and the process proceeds to step S1118. Here, when the adjacent prediction block N cannot be used, specifically, when the adjacent prediction block N is located outside the encoding / decoding target slice, or is still later in the encoding / decoding processing order. This corresponds to the case where the encoding / decoding process is not completed.

一方、隣接する予測ブロックNが導出対象の予測ブロックの符号化ブロックと同じ符号
化ブロック外で(図16のステップS1104のYES)、隣接する予測ブロックNが利
用でき(図16のステップS1105のYES)、予測ブロックNの予測モードPredMode
がイントラ予測(MODE_INTRA)でない場合(図16のステップS1106のYES)、予
測ブロックNのインター予測情報をマージ候補Nのインター予測情報とする。マージ候補
NのフラグavailableFlagNの値を1に設定し(図16のステップS1110)、マージ候
補Nの動きベクトルmvL0N, mvL1Nをそれぞれ予測ブロックNの動きベクトルmvL0N[xN][yN
], mvL1N[xN][yN]と同じ値に設定し(図16のステップS1111)、マージ候補Nの参
照インデックスrefIdxL0N, refIdxL1Nをそれぞれ予測ブロックNの参照インデックスrefI
dxL0[xN][yN], refIdxL1[xN][yN]と同じ値に設定し(図16のステップS1112)、マ
ージ候補NのフラグpredFlagL0N, predFlagL1Nをそれぞれ予測ブロックNのフラグpredFl
agL0[xN][yN], predFlagL1[xN][yN]に設定する(図16のステップS1113)。ここで
、xN、yNはピクチャ内での予測ブロックNの左上の画素の位置を示すインデックスである
On the other hand, when the adjacent prediction block N is outside the same encoding block as the encoding block of the prediction block to be derived (YES in step S1104 in FIG. 16), the adjacent prediction block N can be used (YES in step S1105 in FIG. 16). ), Prediction mode PredMode of prediction block N
Is not intra prediction (MODE_INTRA) (YES in step S1106 of FIG. 16), the inter prediction information of the prediction block N is set as inter prediction information of the merge candidate N. The value of the flag availableFlagN of the merge candidate N is set to 1 (step S1110 in FIG. 16), and the motion vectors mvL0N and mvL1N of the merge candidate N are respectively motion vectors mvL0N [xN] [yN of the prediction block N.
], mvL1N [xN] [yN] (step S1111 in FIG. 16), and the reference indexes refIdxL0N and refIdxL1N of the merge candidate N are set to the reference index refI of the prediction block N, respectively.
dxL0 [xN] [yN] and refIdxL1 [xN] [yN] are set to the same value (step S1112 in FIG. 16), and the flags predFlagL0N and predFlagL1N of the merge candidate N are respectively set to the flags predFl of the prediction block N
It is set to agL0 [xN] [yN], predFlagL1 [xN] [yN] (step S1113 in FIG. 16). Here, xN and yN are indexes indicating the position of the upper left pixel of the prediction block N in the picture.

続いて、マージ候補NのフラグpredFlagL0N, predFlagL1N、マージ候補Nの参照インデ
ックスrefIdxL0N, refIdxL1N、マージ候補Nの動きベクトルmvL0N, mvL1Nをすでに導出さ
れたマージ候補とそれぞれ比較する(図16のステップS1114)。同一マージ候補が
存在しない場合(図16のステップS1115のYES)、マージ候補Nをマージ候補リ
ストmergeCandListのマージインデックスがnumMergeCandと同じ値で示される位置に登録
し(図16のステップS1116)、マージ候補数numMergeCandに1を加算する(図16
のステップS1117)。一方、同一マージ候補が存在する場合(図16のステップS1
115のNO)、ステップS1116およびステップS1117をスキップして、ステッ
プS1118に進む。
Subsequently, the flags predFlagL0N and predFlagL1N of the merge candidate N, the reference indexes refIdxL0N and refIdxL1N of the merge candidate N, and the motion vectors mvL0N and mvL1N of the merge candidate N are respectively compared with the merge candidates already derived (step S1114 in FIG. 16). If the same merge candidate does not exist (YES in step S1115 in FIG. 16), the merge candidate N is registered at the position where the merge index of the merge candidate list mergeCandList is indicated by the same value as numMergeCand (step S1116 in FIG. 16). 1 is added to the number numMergeCand (FIG. 16).
Step S1117). On the other hand, when the same merge candidate exists (step S1 in FIG. 16).
115, NO), step S1116 and step S1117 are skipped, and the process proceeds to step S1118.

以上のステップS1102〜ステップS1117の処理をN=A,B,C,D,Eにつ
いてそれぞれ繰り返す(図16のステップS1101〜ステップS1118)。
The processes in steps S1102 to S1117 are repeated for N = A, B, C, D, and E (steps S1101 to S1118 in FIG. 16).

次に、図15のS102の時間マージ候補の参照インデックスを導出する方法について
詳細に説明する。時間マージ候補のL0とL1のそれぞれの参照インデックスを導出する
Next, a method for deriving the reference index of the time merge candidate in S102 of FIG. 15 will be described in detail. The reference indices of L0 and L1 as temporal merge candidates are derived.

本実施の形態においては、空間マージ候補の参照インデックス、即ち符号化/復号対象
ブロックに隣接する予測ブロックで利用された参照インデックスを利用して時間マージ候
補の参照インデックスを導出する。これは、時間マージ候補が選択される場合において、
符号化/復号対象の予測ブロックの参照インデックスは空間マージ候補となる符号化/復
号対象ブロックに隣接する予測ブロックの参照インデックスと高い相関を持つからである
。特に、本実施の形態においては、符号化/復号対象の予測ブロックの左の辺に隣接する
予測ブロックAの参照インデックスだけを利用する。なぜなら、空間マージ候補でもある
隣接する予測ブロックA,B,C,D,Eの中でも符号化/復号対象の予測ブロックの辺
に接している予測ブロックA,Bは、符号化/復号対象の予測ブロックの頂点のみに接し
ている予測ブロックC,D,Eよりも相関が高いからである。相対的に相関の低い予測ブ
ロックC,D,Eを利用せずに、利用する予測ブロックを予測ブロックAに限定すること
で、時間マージ候補の参照インデックスの導出による符号化効率の改善効果を得るととも
に、時間マージ候補の参照インデックス導出処理に関する演算量及びメモリアクセス量を
削減する。
In the present embodiment, the reference index of the temporal merge candidate is derived using the reference index of the spatial merge candidate, that is, the reference index used in the prediction block adjacent to the encoding / decoding target block. This is because when a time merge candidate is selected,
This is because the reference index of the prediction block to be encoded / decoded has a high correlation with the reference index of a prediction block adjacent to the block to be encoded / decoded that is a spatial merge candidate. In particular, in the present embodiment, only the reference index of the prediction block A adjacent to the left side of the prediction block to be encoded / decoded is used. This is because prediction blocks A and B that are in contact with a side of a prediction block to be encoded / decoded among adjacent prediction blocks A, B, C, D, and E that are also spatial merge candidates are predicted to be encoded / decoded. This is because the correlation is higher than prediction blocks C, D, and E that are in contact with only the vertices of the block. By limiting the prediction block to be used to the prediction block A without using the prediction blocks C, D, and E having relatively low correlation, the effect of improving the coding efficiency by deriving the reference index of the temporal merge candidate is obtained. At the same time, the calculation amount and the memory access amount related to the reference index derivation process of the temporal merge candidate are reduced.

図17は本実施の形態における時間マージ候補の参照インデックスの導出処理において
参照する隣接ブロックを示す図である。本実施の形態では、符号化ブロックの分割モード
(PartMode)に関わらず、予測ブロックの分割インデックスPartIdxに応じて、導出対象
の予測ブロックの左辺に隣接する予測ブロックを参照するかどうかを切り替える。予測ブ
ロックの分割インデックスPartIdxが0の場合は左辺に隣接する予測ブロックを参照し、
分割インデックスPartIdxが0以外の場合は隣接する予測ブロックを参照せずデフォルト
値とする。予測ブロックの分割インデックスPartIdxが0の場合はどの分割モード(PartM
ode)においても左辺に隣接する予測ブロックは必ず符号化ブロック外となるが、予測ブ
ロックの分割インデックスPartIdxが0以外の場合は分割モード(PartMode)よっては符
号化ブロック内となる。分割モード(PartMode)が2N×2N分割(PART_2Nx2N)では、
図17(a)に示すように、導出対象の予測ブロックの左に隣接する予測ブロックA0を
参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照イン
デックスの値に設定する。
FIG. 17 is a diagram illustrating adjacent blocks referred to in the time merge candidate reference index derivation process according to the present embodiment. In the present embodiment, whether or not to refer to the prediction block adjacent to the left side of the prediction block to be derived is switched according to the prediction index PartIdx of the prediction block, regardless of the coding block division mode (PartMode). When the prediction index PartIdx of the prediction block is 0, refer to the prediction block adjacent to the left side,
When the division index PartIdx is other than 0, the adjacent prediction block is not referred to and is set as a default value. If the prediction index PartIdx of the prediction block is 0, which partition mode (PartM
In (ode), the prediction block adjacent to the left side is always outside the coding block, but when the partitioning index PartIdx of the prediction block is other than 0, the prediction block is inside the coding block depending on the partition mode (PartMode). When the partition mode (PartMode) is 2N x 2N (PART_2Nx2N)
As illustrated in FIG. 17A, the prediction block A0 adjacent to the left of the prediction block to be derived is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A0.

処理対象の符号化ブロックを上下に並ぶ2つの予測ブロックに分割する分割モード(Pa
rtMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分
割(PART_2NxnD)、および処理対象の符号化ブロックを左右に並ぶ2つの予測ブロックに
分割する分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_
nLx2N)、nR×2N分割(PART_nRx2N)では、図17(b)、(c)、(d)、(e)
、(f)、(g)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロッ
クでは左に隣接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデック
スを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデ
ックスPartIdxが1の予測ブロックでは隣接する予測ブロックを参照せず、時間マージ候
補のLXの参照インデックスをデフォルト値の0に設定する。参照する予測ブロックA0
が符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロッ
クの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。
A division mode (Pa) that divides a coding block to be processed into two prediction blocks arranged vertically.
rtMode) is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD), and a partition mode that divides a coding block to be processed into two prediction blocks arranged side by side (PartMode) Is Nx2N split (PART_Nx2N), nLx2N split (PART_
nLx2N) and nR × 2N division (PART_nRx2N), FIG. 17 (b), (c), (d), (e)
, (F), (g), the prediction block with the division index PartIdx to be derived is referred to the prediction block A0 adjacent to the left, and the LX reference index of the temporal merge candidate is set to the LX of the prediction block A0. Set to the reference index value of. In a prediction block whose partition index PartIdx to be derived is 1, an adjacent prediction block is not referred to, and the LX reference index of the temporal merge candidate is set to a default value of 0. Predicted block A0 to be referenced
Is outside the coding block, it is possible to derive in parallel the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1.

処理対象の符号化ブロックを上下左右に4分割して4つの予測ブロックに分割する分割
モード(PartMode)がN×N分割(PART_NxN)では、図17(h)に示すように、導出対
象の分割インデックスPartIdxが0の予測ブロックでは左に隣接する予測ブロックA0を
参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照イン
デックスの値に設定する。導出対象の分割インデックスPartIdxが1、2および3の予測
ブロックでは隣接する予測ブロックを参照せず、時間マージ候補のLXの参照インデック
スをデフォルト値の0に設定する。参照する予測ブロックA0が符号化ブロック外にある
ので、分割インデックスPartIdxが0、1、2および3の4つの予測ブロックの時間マー
ジ候補の参照インデックスをそれぞれ並列に導出することができる。
When the division mode (PartMode) for dividing the coding block to be processed into four prediction blocks by dividing it into four prediction blocks is N × N division (PART_NxN), as shown in FIG. In the prediction block with index PartIdx of 0, the prediction block A0 adjacent on the left is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A0. In the prediction blocks whose partition indexes PartIdx to be derived are 1, 2, and 3, the adjacent prediction blocks are not referred to, and the LX reference index of the temporal merge candidate is set to a default value of 0. Since the prediction block A0 to be referred to is outside the encoded block, the reference indexes of the temporal merge candidates of the four prediction blocks whose division indexes PartIdx are 0, 1, 2, and 3 can be derived in parallel.

ただし、隣接する予測ブロックAがLX予測を行わない場合は時間マージ候補のLXの
参照インデックスの値をデフォルト値の0とする。隣接する予測ブロックAがLX予測を
行わない場合や導出対象の予測ブロックの分割インデックスPartIdxが1の場合に、時間
マージ候補のLXの参照インデックスのデフォルト値を0とする理由は、インター予測に
おいて参照インデックスの値が0に対応する参照ピクチャが最も選択される確率が高いか
らである。ただし、これに限定されず、参照インデックスのデフォルト値を0以外の値(
1、2など)としても良いし、シーケンスレベル、ピクチャレベル、またはスライスレベ
ルで符号化ストリーム内に参照インデックスのデフォルト値を示すシンタックス要素を設
置し伝送できるようにして、符号化側で選択できるようにしても良い。
However, when the adjacent prediction block A does not perform LX prediction, the value of the reference index of the LX that is a temporal merge candidate is set to 0 as a default value. The reason why the default value of the LX reference index of the temporal merge candidate is 0 when the adjacent prediction block A does not perform LX prediction or when the partition index PartIdx of the prediction block to be derived is 1 is referred to in inter prediction This is because the reference picture corresponding to the index value 0 is most likely to be selected. However, the present invention is not limited to this, and the default value of the reference index is a value other than 0 (
1 or 2), or a syntax element indicating a default value of a reference index can be installed and transmitted in the encoded stream at the sequence level, picture level, or slice level, and can be selected on the encoding side. You may do it.

図18は本実施の形態による図15のステップS102の時間マージ候補の参照インデ
ックスの導出処理手順を説明するフローチャートである。まず、分割インデックスPartId
xが0である場合(ステップS2104のYES)、符号化情報格納メモリ115または
210から導出対象の予測ブロックの左に隣接する予測ブロックAの符号化情報を取得す
る(ステップS2111)。
FIG. 18 is a flow chart for explaining the reference index derivation processing procedure of the time merge candidate in step S102 of FIG. 15 according to this embodiment. First, the split index PartId
If x is 0 (YES in step S2104), the encoding information of the prediction block A adjacent to the left of the prediction block to be derived is acquired from the encoding information storage memory 115 or 210 (step S2111).

続くステップS2113からステップS2115までの処理をL0、L1それぞれにお
いて行う(ステップS2112〜S2116)。なお、時間マージ候補のL0の参照イン
デックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際
にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、
インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予
測(Pred_BI)がないので、L1に纏わる処理を省略することができる。
The subsequent processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, if the slice type slice_type is P slice,
Since there is only L0 prediction (Pred_L0) as the inter prediction mode and no L1 prediction (Pred_L1) and bi-prediction (Pred_BI), the processing associated with L1 can be omitted.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0でない
場合(ステップS2113のYES)、時間マージ候補のLXの参照インデックスrefIdx
LXColを予測ブロックAのLXの参照インデックスrefIdxLX[xA][yA]の値と同じ値に設定
する(ステップS2114)。ここで、xA、yAはピクチャ内での予測ブロックAの左上の
画素の位置を示すインデックスである。
When the flag predFlagLX [xA] [yA] indicating whether to perform LX prediction of the prediction block A is not 0 (YES in step S2113), the reference index refIdx of the LX as a temporal merge candidate
LXCol is set to the same value as the value of the reference index refIdxLX [xA] [yA] of the LX of the prediction block A (step S2114). Here, xA and yA are indexes indicating the position of the upper left pixel of the prediction block A in the picture.

なお、本実施の形態においては、予測ブロックN(N=A,B)において、予測ブロッ
クNが符号化/復号対象のスライス外で利用できない場合や予測ブロックNが符号化/復
号順序で符号化/復号対象の予測ブロックよりも後のために符号化/復号されておらず利
用できない場合や予測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)の
場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、予測ブロックNの
L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に0である。ここで、
xN、yNはピクチャ内での予測ブロックNの左上の画素の位置を示すインデックスである。
予測ブロックNの予測モードPredModeがインター予測(MODE_INTER)で、インター予測モ
ードがL0予測(Pred_L0)の場合、予測ブロックNのL0予測を利用するかどうかを示
すフラグpredFlagL0[xN][yN]は1, L1予測を利用するかどうかを示すフラグpredFlagL1
[xN][yN]は0である。予測ブロックNのインター予測モードがL1予測(Pred_L1)の場
合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は0
, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は1である。予測ブロッ
クNのインター予測モードが双予測(Pred_BI)の場合、予測ブロックNのL0予測を利
用するかどうかを示すフラグpredFlagL0[xN][yN]、L1予測を利用するかどうかを示すフ
ラグpredFlagL1[xN][yN]は共に1である。
In the present embodiment, in the prediction block N (N = A, B), when the prediction block N cannot be used outside the slice to be encoded / decoded or the prediction block N is encoded in the encoding / decoding order. / A flag indicating whether or not to use L0 prediction when it is not encoded / decoded after the prediction block to be decoded and cannot be used, or when the prediction mode PredMode of the prediction block N is intra prediction (MODE_INTRA) Both predFlagL0 [xN] [yN] and the flag predFlagL1 [xN] [yN] indicating whether to use the L1 prediction of the prediction block N are 0. here,
xN and yN are indexes indicating the position of the upper left pixel of the prediction block N in the picture.
When the prediction mode PredMode of the prediction block N is inter prediction (MODE_INTER) and the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N is 1 , Flag predFlagL1 indicating whether to use L1 prediction
[xN] [yN] is zero. When the inter prediction mode of the prediction block N is L1 prediction (Pred_L1), the flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N is 0.
, Flag predFlagL1 [xN] [yN] indicating whether to use L1 prediction is 1. When the inter prediction mode of the prediction block N is bi-prediction (Pred_BI), a flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N, and a flag predFlagL1 [indicating whether to use the L1 prediction xN] [yN] are both 1.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0である
場合(ステップS2113のNO)、時間マージ候補のLXの参照インデックスrefIdxLX
Colをデフォルト値の0に設定する(ステップS2115)。
When the flag predFlagLX [xA] [yA] indicating whether or not to perform LX prediction of the prediction block A is 0 (NO in step S2113), the reference index refIdxLX of the LX as a temporal merge candidate
Col is set to a default value of 0 (step S2115).

L0、L1それぞれにおいてステップS2113からステップS2115までの処理を
行い(ステップS2112〜S2116)、本参照インデックス導出処理を終了する。
The processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116), and this reference index derivation processing is terminated.

一方、分割インデックスPartIdxが0でない場合(ステップS2104のNO)、続く
ステップS2121の処理をL0、L1それぞれにおいて行う(ステップS2118〜S
2122)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL
0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただ
し、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測
(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に
纏わる処理を省略することができる。
On the other hand, when the division index PartIdx is not 0 (NO in step S2104), the subsequent processing in step S2121 is performed in each of L0 and L1 (steps S2118 to S2).
2122). Note that LX is L when deriving the reference index of L0 as a temporal merge candidate.
LX is set to L1 when the L1 reference index is derived. However, when the slice type slice_type is a P slice, there are only L0 prediction (Pred_L0) as an inter prediction mode, and there are no L1 prediction (Pred_L1) and bi-prediction (Pred_BI), so the processing related to L1 can be omitted.

時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する
(ステップS2121)。
The LX reference index refIdxLXCol of the time merge candidate is set to a default value of 0 (step S2121).

L0、L1それぞれにおいてステップS2121までの処理を行い(ステップS211
8〜S2122)、本参照インデックス導出処理を終了する。
The processing up to step S2121 is performed in each of L0 and L1 (step S211).
8-S2122), this reference index derivation process is terminated.

なお、本実施の形態においては導出対象の予測ブロックの左辺に隣接する予測ブロック
を参照するかどうかを切り替えたが、左辺に隣接する予測ブロックの代わりに上辺に隣接
する予測ブロックを参照するかどうかを切り替えてもよい。
In the present embodiment, whether to refer to the prediction block adjacent to the left side of the prediction block to be derived is switched, but whether to refer to the prediction block adjacent to the upper side instead of the prediction block adjacent to the left side. May be switched.

次に、図15のS103の異なる時間のマージ候補の導出方法について詳細に説明する
。図19は図15のステップS103の時間マージ候補導出処理手順を説明するフローチ
ャートである。
Next, the method for deriving merge candidates at different times in S103 of FIG. 15 will be described in detail. FIG. 19 is a flowchart illustrating the time merge candidate derivation processing procedure in step S103 of FIG.

まず、スライス単位でスライスヘッダに記述されるスライスタイプslice_typeと時間方
向の予測動きベクトルの候補、またはマージ候補を導出する際に用いる異なる時間のピク
チャcolPicが処理対象の予測ブロックが含まれるピクチャのL0の参照リスト或いはL1
の参照リストのどちらに登録されている参照ピクチャを使用するかを示すフラグcollocat
ed_from_l0_flagにより、異なる時間のピクチャcolPicを導出する(ステップS3101
)。
First, the picture type colPic used when deriving a slice type slice_type described in the slice header in slice units and a prediction motion vector candidate in the temporal direction, or a merge candidate, a picture colPic of a picture including a prediction block to be processed is included. Reference list or L1
Flag collocat which indicates which reference picture registered in the reference list of
A picture colPic at a different time is derived from ed_from_l0_flag (step S3101).
).

図20は図19のステップS3101の異なる時間のピクチャcolPicの導出処理手順を
説明するフローチャートである。スライスタイプslice_typeがBスライスで、フラグcoll
ocated_from_l0_flagが0の場合(ステップS3201のYES、ステップS3202の
YES)、RefPicList1[0]、すなわち参照リストL1の参照インデックスが0のピクチャ
が異なる時間のピクチャcolPicとなる(ステップS3203)。そうでない場合、すなわ
ちスライスタイプslice_typeがBスライスで前述のフラグcollocated_from_l0_flagが1
の場合(ステップS3201のYES、ステップS3202のNO)、またはスライスタ
イプslice_typeがPスライスの場合(ステップS3201のNO、S3204のYES)
、RefPicList0[0]、すなわち参照リストL0の参照インデックスが0のピクチャが異なる
時間のピクチャcolPicとなる(ステップS3205)。
FIG. 20 is a flowchart for explaining the procedure for deriving the picture colPic at different times in step S3101 of FIG. Slice type slice_type is B slice, flag coll
When ocated_from_l0_flag is 0 (YES in step S3201, YES in step S3202), RefPicList1 [0], that is, a picture with a reference index 0 in the reference list L1 becomes a picture colPic at a different time (step S3203). Otherwise, that is, the slice type slice_type is B slice and the aforementioned flag collocated_from_l0_flag is 1
(YES in step S3201, NO in step S3202), or when the slice type slice_type is a P slice (NO in step S3201, YES in S3204).
, RefPicList0 [0], that is, the picture colPic of the reference list L0 whose reference index is 0 is different time (step S3205).

次に、図19のフローチャートに戻り、異なる時間の予測ブロックcolPUを導出し、符
号化情報を取得する(ステップS3102)。
Next, returning to the flowchart of FIG. 19, a prediction block colPU at a different time is derived, and encoded information is acquired (step S3102).

図21は図19のステップS3102の異なる時間のピクチャcolPicの予測ブロックco
lPUの導出処理手順を説明するフローチャートである。
FIG. 21 shows a prediction block co of a picture colPic at different time in step S3102 of FIG.
It is a flowchart explaining the derivation | leading-out process procedure of lPU.

まず、異なる時間のピクチャcolPic内で処理対象の予測ブロックと同一位置の右下(外
側)に位置する予測ブロックを異なる時間の予測ブロックcolPUとする(ステップS33
01)。この予測ブロックは図9の予測ブロックT0に相当する。
First, a prediction block located at the lower right (outside) of the same position as a processing target prediction block in a picture colPic at a different time is set as a prediction block colPU at a different time (step S33).
01). This prediction block corresponds to the prediction block T0 in FIG.

次に、異なる時間の予測ブロックcolPUの符号化情報を取得する(ステップS3302
)。異なる時間の予測ブロックcolPUのPredModeが利用できないか、異なる時間の予測ブ
ロックcolPUの予測モードPredModeがイントラ予測(MODE_INTRA)である場合(ステップ
S3303のYES、ステップS3304のYES)、異なる時間のピクチャcolPic内で
処理対象の予測ブロックと同一位置の中央左上に位置する予測ブロックを異なる時間の予
測ブロックcolPUとする(ステップS3305)。この予測ブロックは図9の予測ブロッ
クT1に相当する。
Next, the encoding information of the prediction block colPU at different times is acquired (step S3302).
). When PredMode of a prediction block colPU at a different time cannot be used, or when the prediction mode PredMode of a prediction block colPU at a different time is intra prediction (MODE_INTRA) (YES in step S3303, YES in step S3304), the picture colPic in a different time The prediction block located in the upper left center of the same position as the processing target prediction block is set as a prediction block colPU at a different time (step S3305). This prediction block corresponds to the prediction block T1 in FIG.

次に、図19のフローチャートに戻り、符号化/復号対象の予測ブロックと同位置の他
ピクチャの予測ブロックから導出されるL0の予測動きベクトルmvL0Colと時間マージ候
補Colが有効か否かを示すフラグavailableFlagL0Colを導出するとともに(ステップS
3103)、L1の予測動きベクトルmvL1Colと時間マージ候補Colが有効か否かを示
すフラグavailableFlagL1Colを導出する(ステップS3104)。さらに、フラグavaila
bleFlagL0Col またはフラグavailableFlagL1Colが1の場合に、時間マージ候補Colが有
効か否かを示すフラグavailableFlagColを1に設定する。
Next, returning to the flowchart of FIG. 19, a flag indicating whether the prediction motion vector mvL0Col of L0 derived from the prediction block of another picture at the same position as the prediction block to be encoded / decoded and the temporal merge candidate Col are valid or not. While deriving availableFlagL0Col (step S
3103), the flag availableFlagL1Col indicating whether or not the L1 motion vector predictor mvL1Col and the temporal merge candidate Col are valid is derived (step S3104). In addition, the flag availa
When bleFlagL0Col or flag availableFlagL1Col is 1, a flag availableFlagCol indicating whether the time merge candidate Col is valid is set to 1.

図22は図19のステップS3103、ステップS3104の時間マージ候補のインタ
ー予測情報の導出処理手順を説明するフローチャートである。L0またはL1で、時間マ
ージ候補の導出対象のリストをLXとし、LXを用いた予測をLX予測とする。以下、断
りのない限り、この意味で用いる。時間マージ候補のL0の導出処理であるステップS3
103として呼び出される際には、LXがL0となり、時間マージ候補のL1の導出処理
であるステップS3104として呼び出される際には、LXがL1となる。
FIG. 22 is a flowchart for explaining the procedure for deriving the inter prediction information of the temporal merge candidate in steps S3103 and S3104 in FIG. In L0 or L1, the list of time merge candidate derivation targets is LX, and the prediction using LX is LX prediction. Hereinafter, unless otherwise noted, this meaning is used. Step S3 which is a process for deriving L0 as a time merge candidate
LX becomes L0 when called as 103, and LX becomes L1 when called as step S3104, which is a process for deriving L1 as a time merge candidate.

異なる時間の予測ブロックcolPUの予測モードPredModeがイントラ予測(MODE_INTRA)
か、利用できない場合(ステップS3401のNO、ステップS3402のNO)、時間
マージ候補は存在しないものとする。フラグavailableFlagLXColとフラグpredFlagLXCol
を共に0とし(ステップS3403)、動きベクトルmvLXColを(0,0)として(ステ
ップS3404)、本時間マージ候補のインター予測情報の導出処理を終了する。
PredMode PredMode of prediction block colPU at different time is intra prediction (MODE_INTRA)
Alternatively, if it cannot be used (NO in step S3401 and NO in step S3402), it is assumed that there is no time merge candidate. Flag availableFlagLXCol and flag predFlagLXCol
Are both set to 0 (step S3403), the motion vector mvLXCol is set to (0, 0) (step S3404), and the process of deriving inter prediction information of this time merge candidate is terminated.

予測ブロックcolPUが利用できて予測モードPredModeがイントラ予測(MODE_INTRA)で
ない場合(ステップS3401のYES、ステップS3402のYES)、以下の手順で
mvColとrefIdxColとavailableFlagColを導出する。
When the prediction block colPU can be used and the prediction mode PredMode is not intra prediction (MODE_INTRA) (YES in step S3401 and YES in step S3402), the following procedure is performed.
Derives mvCol, refIdxCol, and availableFlagCol.

予測ブロックcolPUのL0予測が利用されているかどうかを示すフラグPredFlagL0[xPCo
l][yPCol]が0の場合(ステップS3405のYES)、予測ブロックcolPUの予測モード
はPred_L1であるので、動きベクトルmvColが予測ブロックcolPUのL1の動きベクトルで
あるMvL1[xPCol][yPCol]と同じ値に設定され(ステップS3406)、参照インデックス
refIdxColがL1の参照インデックスRefIdxL1[xPCol][yPCol]と同じ値に設定され(ステ
ップS3407)、リストListColがL1に設定される(ステップS3408)。ここで
、xPCol、yPColは異なる時間のピクチャcolPic内での予測ブロックcolPUの左上の画素の
位置を示すインデックスである。
Flag PredFlagL0 [xPCo indicating whether L0 prediction of prediction block colPU is used
When l] [yPCol] is 0 (YES in step S3405), since the prediction mode of the prediction block colPU is Pred_L1, the motion vector mvCol is MvL1 [xPCol] [yPCol], which is the L1 motion vector of the prediction block colPU. Set to the same value (step S3406), reference index
refIdxCol is set to the same value as the reference index RefIdxL1 [xPCol] [yPCol] of L1 (step S3407), and the list ListCol is set to L1 (step S3408). Here, xPCol and yPCol are indexes indicating the position of the upper left pixel of the prediction block colPU in the picture colPic at different times.

一方、予測ブロックcolPUのL0予測フラグPredFlagL0[xPCol][yPCol]が0でない場合
(図22のステップS3405のNO)、予測ブロックcolPUのL1予測フラグPredFlagL
1[xPCol][yPCol]が0かどうかを判定する。予測ブロックcolPUのL1予測フラグPredFlag
L1[xPCol][yPCol]が0の場合(ステップS3409のYES)、動きベクトルmvColが予
測ブロックcolPUのL0の動きベクトルであるMvL0[xPCol][yPCol]と同じ値に設定され(
ステップS3410)、参照インデックスrefIdxColがL0の参照インデックスRefIdxL0[
xPCol][yPCol]と同じ値に設定され(ステップS3411)、リストListColがL0に設定
される(ステップS3412)。
On the other hand, when the L0 prediction flag PredFlagL0 [xPCol] [yPCol] of the prediction block colPU is not 0 (NO in step S3405 in FIG. 22), the L1 prediction flag PredFlagL of the prediction block colPU.
Determine whether 1 [xPCol] [yPCol] is 0 or not. L1 prediction flag PredFlag of prediction block colPU
When L1 [xPCol] [yPCol] is 0 (YES in step S3409), the motion vector mvCol is set to the same value as MvL0 [xPCol] [yPCol], which is the L0 motion vector of the prediction block colPU (
Step S3410), the reference index RefIdxL0 [
xPCol] [yPCol] is set to the same value (step S3411), and the list ListCol is set to L0 (step S3412).

予測ブロックcolPUのL0予測フラグPredFlagL0[xPCol][yPCol]と予測ブロックcolPUの
L1予測フラグPredFlagL1[xPCol][yPCol]が共に0でない場合(ステップS3405のN
O、ステップS3409のNO)、予測ブロックcolPUのインター予測モードは双予測(P
red_BI)であるので、L0、L1の2つの動きベクトルから、一方を選択する(ステップ
S3413)。
When both the L0 prediction flag PredFlagL0 [xPCol] [yPCol] of the prediction block colPU and the L1 prediction flag PredFlagL1 [xPCol] [yPCol] of the prediction block colPU are not 0 (N in step S3405)
O, NO in step S3409), the inter prediction mode of the prediction block colPU is bi-prediction (P
red_BI), one of the two motion vectors L0 and L1 is selected (step S3413).

図23は予測ブロックcolPUのインター予測モードが双予測(Pred_BI)のときの時間マ
ージ候補のインター予測情報の導出処理手順を示すフローチャートである。
FIG. 23 is a flowchart illustrating a procedure for deriving inter prediction information of temporal merge candidates when the inter prediction mode of the prediction block colPU is bi-prediction (Pred_BI).

まず、すべての参照リストに登録されているすべてのピクチャのPOCが現在の符号化
/復号対象ピクチャのPOCより小さいかどうかを判定し(ステップS3501)、予測
ブロックcolPUのすべての参照リストであるL0及びL1に登録されているすべてのピク
チャのPOCが現在の符号化/復号対象ピクチャのPOCより小さい場合で(ステップS
3501のYES)、LXがL0、即ち符号化/復号対象ピクチャのL0の動きベクトル
の予測ベクトル候補を導出している場合(ステップS3502のYES)、予測ブロック
colPUのL0の方のインター予測情報を選択し、LXがL1、即ち符号化/復号対象ピク
チャのL1の動きベクトルの予測ベクトル候補を導出している場合(ステップS3502
のNO)、予測ブロックcolPUのL1の方のインター予測情報を選択する。一方、予測ブ
ロックcolPUのすべての参照リストL0及びL1に登録されているピクチャのPOCの少
なくとも1つが現在の符号化/復号対象ピクチャのPOCより大きい場合で(ステップS
3501のNO)、フラグcollocated_from_l0_flagが0の場合(ステップS3503の
YES)、予測ブロックcolPUのL0の方のインター予測情報を選択し、フラグcollocate
d_from_l0_flagが1の場合(ステップS3503のNO)、予測ブロックcolPUのL1の
方のインター予測情報を選択する。
First, it is determined whether or not the POC of all the pictures registered in all the reference lists is smaller than the POC of the current encoding / decoding target picture (step S3501), and L0 which is all the reference lists of the prediction block colPU. And the POC of all the pictures registered in L1 is smaller than the POC of the current picture to be encoded / decoded (step S
3501 YES), when LX is L0, that is, when a prediction vector candidate of a motion vector of L0 of the picture to be encoded / decoded is derived (YES in step S3502), a prediction block
When the inter prediction information of L0 of colPU is selected and LX is L1, that is, the prediction vector candidate of the motion vector of L1 of the encoding / decoding target picture is derived (step S3502).
NO), the inter prediction information of L1 of the prediction block colPU is selected. On the other hand, when at least one of the POCs of pictures registered in all the reference lists L0 and L1 of the prediction block colPU is larger than the POC of the current encoding / decoding target picture (step S).
3501 NO), if the flag collocated_from_l0_flag is 0 (YES in step S3503), the L0 inter prediction information of the prediction block colPU is selected, and the flag collocate
When d_from_l0_flag is 1 (NO in step S3503), the L1 inter prediction information of the prediction block colPU is selected.

予測ブロックcolPUのL0の方のインター予測情報を選択する場合(ステップのYES
、ステップS3503のYES)、動きベクトルmvColがMvL0[xPCol][yPCol]と同じ値に
設定され(ステップS3504)、参照インデックスrefIdxColがRefIdxL0[xPCol][yPCol
]と同じ値に設定され(ステップS3505)、リストListColがL0に設定される(ステ
ップS3506)。
When selecting inter prediction information for L0 of the prediction block colPU (YES in step)
In step S3503, YES, the motion vector mvCol is set to the same value as MvL0 [xPCol] [yPCol] (step S3504), and the reference index refIdxCol is set to RefIdxL0 [xPCol] [yPCol.
] Is set to the same value (step S3505), and the list ListCol is set to L0 (step S3506).

予測ブロックcolPUのL1の方のインター予測情報を選択する場合(ステップS250
2のNO、ステップS3503のNO)、動きベクトルmvColがMvL1[xPCol][yPCol]と同
じ値に設定され(ステップS3507)、参照インデックスrefIdxColがRefIdxL1[xPCol]
[yPCol]と同じ値に設定され(ステップS3508)、リストListColがL1に設定される
(ステップS3509)。
When selecting inter prediction information of L1 of the prediction block colPU (step S250)
2 NO, step S3503 NO), the motion vector mvCol is set to the same value as MvL1 [xPCol] [yPCol] (step S3507), and the reference index refIdxCol is RefIdxL1 [xPCol].
The value is set to the same value as [yPCol] (step S3508), and the list ListCol is set to L1 (step S3509).

図22に戻り、予測ブロックcolPUからインター予測情報が取得できたらフラグavailab
leFlagLXColとフラグpredFlagLXColを共に1とする(ステップS3414)。
Returning to FIG. 22, when the inter prediction information is acquired from the prediction block colPU, the flag availab
Both leFlagLXCol and flag predFlagLXCol are set to 1 (step S3414).

続いて、動きベクトルmvColをスケーリングして時間マージ候補のLXの動きベクトルm
vLXColとする(ステップS3415)。この動きベクトルのスケーリング演算処理手順を
図24及び図25を用いて説明する。
Subsequently, the motion vector mvCol is scaled so that the time merge candidate LX motion vector m
It is set as vLXCol (step S3415). The procedure for scaling the motion vector will be described with reference to FIGS.

図24は図22のステップS3415の動きベクトルのスケーリング演算処理手順を示
すフローチャートである。
FIG. 24 is a flowchart showing the motion vector scaling calculation processing procedure in step S3415 of FIG.

異なる時間のピクチャcolPicのPOCから、予測ブロックcolPUのリストListColで参照
する参照インデックスrefIdxColに対応する参照ピクチャのPOCを減算してピクチャ間
距離tdを導出する(ステップS3601)。なお、異なる時間のピクチャcolPicよりも
予測ブロックcolPUのリストListColで参照する参照ピクチャのPOCの方が表示順序で前
の場合、ピクチャ間距離tdは正の値となり、異なる時間のピクチャcolPicよりも予測ブ
ロックcolPUのリストListColで参照する参照ピクチャのPOCの方が表示順序で後の場合
、ピクチャ間距離tdは負の値となる。
td=異なる時間のピクチャcolPicのPOC−予測ブロックcolPUのリストListColで
参照する参照ピクチャのPOC
The inter-picture distance td is derived by subtracting the POC of the reference picture corresponding to the reference index refIdxCol referenced in the list ListCol of the prediction block colPU from the POC of the picture colPic at different times (step S3601). Note that when the POC of the reference picture referenced in the list Col of the prediction block colPU is earlier in the display order than the picture colPic at a different time, the inter-picture distance td is a positive value, and the prediction is more accurate than the picture colPic at a different time. When the POC of the reference picture referenced in the list ListCol of the block colPU is later in the display order, the inter-picture distance td is a negative value.
td = POC of picture colPic at different time-POC of reference picture referenced by list ListCol of prediction block colPU

現在の符号化/復号対象ピクチャのPOCから図15のステップS102で導出された
時間マージ候補のLXの参照インデックスに対応する参照ピクチャのPOCを減算してピ
クチャ間距離tbを導出する(ステップS3602)。なお、現在の符号化/復号対象ピ
クチャよりも現在の符号化/復号対象ピクチャのリストLXで参照する参照ピクチャの方
が表示順序で前の場合、ピクチャ間距離tbは正の値となり、現在の符号化/復号対象ピ
クチャのリストLXで参照する参照ピクチャの方が表示順序で後の場合、ピクチャ間距離
tbは負の値となる。
tb=現在の符号化/復号対象ピクチャのPOC−時間マージ候補のLXの参照イン
デックスに対応する参照ピクチャのPOC
The inter-picture distance tb is derived by subtracting the POC of the reference picture corresponding to the LX reference index of the temporal merge candidate derived in step S102 of FIG. 15 from the POC of the current encoding / decoding target picture (step S3602). . When the reference picture referred to in the current encoding / decoding target picture list LX is earlier in the display order than the current encoding / decoding target picture, the inter-picture distance tb becomes a positive value, When the reference picture referred to in the encoding / decoding target picture list LX is later in the display order, the inter-picture distance tb is a negative value.
tb = POC of current encoding / decoding target picture—POC of reference picture corresponding to LX reference index of temporal merge candidate

続いて、ピクチャ間距離tdとtbを比較し(ステップS3603)、ピクチャ間距離
tdとtbが等しい場合(ステップS3603のYES)、時間マージ候補のLXの動き
ベクトルmvLXColを動きベクトルmvColと同じ値に設定して(ステップS3604)、本ス
ケーリング演算処理を終了する。
mvLXCol=mvCol
Subsequently, the inter-picture distances td and tb are compared (step S3603). If the inter-picture distances td and tb are equal (YES in step S3603), the LX motion vector mvLXCol as a temporal merge candidate is set to the same value as the motion vector mvCol. After setting (step S3604), the scaling calculation process is terminated.
mvLXCol = mvCol

一方、ピクチャ間距離tdとtbが等しくない場合(ステップS3603のNO)、次
式によりmvColにスケール係数tb/tdを乗じることでスケーリング演算処理を行い(
ステップS3605)、スケーリングされた時間マージ候補のLXの動きベクトルmvLXCo
lを得る。
mvLXCol=tb / td * mvCol
On the other hand, when the inter-picture distances td and tb are not equal (NO in step S3603), scaling calculation processing is performed by multiplying mvCol by the scale factor tb / td according to the following equation (
Step S3605), LX motion vector mvLXCo of the scaled temporal merge candidate
get l.
mvLXCol = tb / td * mvCol

また、ステップS3605のスケーリング演算を整数精度の演算で行う場合の例を図2
5に示す。図25のステップS3606〜ステップS3608の処理が、図24のステッ
プS3605の処理に相当する。
Further, an example in which the scaling operation in step S3605 is performed with integer precision operation is shown in FIG.
As shown in FIG. The processing from step S3606 to step S3608 in FIG. 25 corresponds to the processing in step S3605 in FIG.

まず、図24のフローチャートと同様に、ピクチャ間距離tdとピクチャ間距離tbを
導出する(ステップS3601、ステップS3602)。
First, as in the flowchart of FIG. 24, the inter-picture distance td and the inter-picture distance tb are derived (steps S3601 and S3602).

続いて、ピクチャ間距離tdとtbを比較し(ステップS3603)、ピクチャ間距離
tdとtbが等しい場合(ステップS3603のYES)、図24のフローチャートと同
様に、時間マージ候補のLXの動きベクトルmvLXColを動きベクトルmvColと同じ値に設定
して(ステップS3604)、本スケーリング演算処理を終了する。
mvLXCol=mvCol
Subsequently, the inter-picture distances td and tb are compared (step S3603), and if the inter-picture distances td and tb are equal (YES in step S3603), the LX motion vector mvLXCol as a temporal merge candidate, as in the flowchart of FIG. Is set to the same value as the motion vector mvCol (step S3604), and this scaling calculation process is terminated.
mvLXCol = mvCol

一方、ピクチャ間距離tdとtbが等しくない場合(ステップS3603のNO)、次
式により変数txを導出する(ステップS3606)。
tx = ( 16384 + Abs( td / 2 ) ) / td
On the other hand, if the inter-picture distances td and tb are not equal (NO in step S3603), a variable tx is derived from the following equation (step S3606).
tx = (16384 + Abs (td / 2)) / td

続いて、次式によりスケール係数DistScaleFactorを導出する(ステップS3607)

DistScaleFactor = ( tb * tx + 32 ) >> 6
Subsequently, the scale coefficient DistScaleFactor is derived from the following equation (step S3607).
.
DistScaleFactor = (tb * tx + 32) >> 6

続いて、次式により、スケーリングされた時間マージ候補のLXの動きベクトルmvLXCo
lを得る(ステップS3608)。
mvLXCol = ClipMv( Sign( DistScaleFactor * mvCol ) * ( (Abs( DistScaleFactor *
mvCol ) + 127 ) >> 8 ) )
Subsequently, the LX motion vector mvLXCo of the scaled temporal merge candidate by the following equation:
l is obtained (step S3608).
mvLXCol = ClipMv (Sign (DistScaleFactor * mvCol) * ((Abs (DistScaleFactor *
mvCol) + 127) >> 8))

次に、図19のフローチャートに戻り、時間マージ候補が存在する場合(ステップS3
105のYES)、時間マージ候補をマージ候補リストmergeCandListのマージインデッ
クスがnumMergeCandと同じ値で示される位置に登録し(ステップS3106)、マージ候
補数numMergeCandに1を加算して(ステップS3107)、本時間マージ候補導出処理を
終了する。一方、時間マージ候補が存在しない場合(ステップS3105のNO)、ステ
ップS3106およびステップS3107をスキップして、本時間マージ候補導出処理を
終了する。
Next, returning to the flowchart of FIG. 19, if there is a time merge candidate (step S3).
105), the time merge candidate is registered at the position where the merge index of the merge candidate list mergeCandList has the same value as numMergeCand (step S3106), 1 is added to the number of merge candidates numMergeCand (step S3107), and this time The merge candidate derivation process ends. On the other hand, when there is no time merge candidate (NO in step S3105), step S3106 and step S3107 are skipped, and this time merge candidate derivation process ends.

次に、図12の追加マージ候補生成部134および図13の追加マージ候補生成部23
4で実施される図15のステップS104の処理手順である追加マージ候補の導出方法に
ついて詳細に説明する。図26は図15のステップS104の追加マージ候補導出処理手
順を説明するフローチャートである。
Next, the additional merge candidate generation unit 134 in FIG. 12 and the additional merge candidate generation unit 23 in FIG.
The method for deriving additional merge candidates, which is the processing procedure of step S104 in FIG. FIG. 26 is a flowchart for explaining the additional merge candidate derivation processing procedure in step S104 of FIG.

図12の追加マージ候補生成部134および図13の追加マージ候補生成部234で実
施される追加マージ候補導出処理においては、マージ候補の選択の幅を広げて、符号化効
率を向上させるために、異なる値のインター予測情報を持つ複数のマージ候補を生成し、
マージ候補リストに登録する。特に、図26の追加マージ候補導出処理においては、予測
モードと動きベクトルの値を固定し、異なる参照インデックスの値の複数のマージ候補を
生成し、マージ候補リストに登録する(図26のステップS5101〜S5119)。
In the additional merge candidate derivation process performed by the additional merge candidate generation unit 134 in FIG. 12 and the additional merge candidate generation unit 234 in FIG. 13, in order to increase the selection range of merge candidates and improve the encoding efficiency, Generate multiple merge candidates with different values of inter prediction information,
Register in the merge candidate list. In particular, in the additional merge candidate derivation process in FIG. 26, the prediction mode and the motion vector value are fixed, a plurality of merge candidates having different reference index values are generated, and registered in the merge candidate list (step S5101 in FIG. 26). ~ S5119).

まず、スライスタイプがPスライスの場合(図26のステップS5101のYES)、
参照インデックス数を示す変数numRefIdxにL0の参照インデックス数の値を設定する(
図26のステップS5102)。一方、スライスタイプがPスライスでない場合(図26
のステップS5101のNO)、すなわちスライスタイプがBスライスの場合、参照イン
デックス数を示す変数numRefIdxにL0の参照インデックス数とL1の参照インデックス
数の小さい方の値を設定する(図26のステップS5103)。続いて参照インデックス
iに0を設定する(図26のステップS5104)。
First, when the slice type is P slice (YES in step S5101 in FIG. 26),
Set the value of the reference index number of L0 to the variable numRefIdx indicating the reference index number (
Step S5102 in FIG. On the other hand, when the slice type is not P slice (FIG. 26).
26), that is, when the slice type is B slice, the smaller value of the reference index number of L0 and the reference index number of L1 is set in the variable numRefIdx indicating the reference index number (step S5103 in FIG. 26). . Subsequently, 0 is set to the reference index i (step S5104 in FIG. 26).

続いて、参照インデックスiを変更しながら、スライスタイプに応じた予測モードの動
きベクトルの値が(0,0)の追加マージ候補を導出し、マージ候補リストに登録する。
(図26のステップS5105〜S5119)。
Subsequently, while changing the reference index i, an additional merge candidate whose motion vector value in the prediction mode corresponding to the slice type is (0, 0) is derived and registered in the merge candidate list.
(Steps S5105-S5119 in FIG. 26).

まず、マージ候補数numMergeCandが最大マージ候補数maxNumMergeCandより小さい場合
(図26のステップS5106のYES)、ステップS5107に進み、マージ候補数nu
mMergeCandが最大マージ候補数maxNumMergeCandより小さくない場合(図26のステップ
S5106のNO)、本追加マージ候補導出処理を終了する。続いて、参照インデックス
iが変数numRefIdxより小さい場合(図26のステップS5107のYES)、ステップ
S5109に進み、参照インデックスiが変数numRefIdxよりより小さくない場合(図2
6のステップS5107のNO)、本追加マージ候補導出処理を終了する。
First, when the merge candidate number numMergeCand is smaller than the maximum merge candidate number maxNumMergeCand (YES in step S5106 in FIG. 26), the process proceeds to step S5107, and the merge candidate number nu.
If mMergeCand is not smaller than the maximum number of merge candidates maxNumMergeCand (NO in step S5106 in FIG. 26), the additional merge candidate derivation process is terminated. Subsequently, when the reference index i is smaller than the variable numRefIdx (YES in step S5107 in FIG. 26), the process proceeds to step S5109, and when the reference index i is not smaller than the variable numRefIdx (FIG. 2).
6 in step S5107), the additional merge candidate derivation process is terminated.

続いて、スライスタイプがPスライスの場合(図26のステップS5109のYES)
、追加マージ候補の動きベクトルmvL0Zero、mvL1Zeroに(0,0)を設定し(図26のス
テップS5110)、追加マージ候補の参照インデックスrefIdxL0Zeroに参照インデック
スiの値を設定し、refIdxL1Zeroに−1を設定し(図26のステップS5111)、追加
マージ候補のフラグpredFlagL0Zeroに1を設定し、predFlagL1Zeroに0を設定して(図2
6のステップS5112)、ステップS5116に進む。
Subsequently, when the slice type is P slice (YES in step S5109 in FIG. 26).
Then, (0, 0) is set to the motion vectors mvL0Zero and mvL1Zero of the additional merge candidate (step S5110 in FIG. 26), the value of the reference index i is set to the reference index refIdxL0Zero of the additional merge candidate, and −1 is set to refIdxL1Zero (Step S5111 in FIG. 26), 1 is set to the flag predFlagL0Zero of the additional merge candidate, and 0 is set to predFlagL1Zero (FIG. 2).
6 step S5112), the process proceeds to step S5116.

一方、スライスタイプがPスライスでない場合(図26のステップS5109のNO)
、すなわちスライスタイプがBスライスの場合、追加マージ候補の動きベクトルmvL0Zero
、mvL1Zeroに(0,0)を設定し(図26のステップS5113)、追加マージ候補の参
照インデックスrefIdxL0Zero、refIdxL1Zeroに参照インデックスiの値を設定し(図26
のステップS5114)、追加マージ候補のフラグpredFlagL0Zero、predFlagL1Zeroに1
を設定して(図26のステップS5115)、ステップS5116に進む。
On the other hand, when the slice type is not P slice (NO in step S5109 in FIG. 26).
That is, when the slice type is B slice, the motion vector mvL0Zero of the additional merge candidate
, MvL1Zero is set to (0, 0) (step S5113 in FIG. 26), and the reference index i is set to the reference indexes refIdxL0Zero and refIdxL1Zero of the additional merge candidates (FIG. 26).
In step S5114), the additional merge candidate flags predFlagL0Zero and predFlagL1Zero are set to 1.
Is set (step S5115 in FIG. 26), and the process proceeds to step S5116.

続いて、追加マージ候補をマージ候補リストmergeCandListのマージインデックスがnum
MergeCandと同じ値で示される位置に登録し(図26のステップS5116)、マージ候
補数numMergeCandに1を加算する(図26のステップS5117)。続いて、インデック
スiに1を加算し(図26のステップS5118)、ステップS5119に進む。
Then, the merge index of merge candidate list mergeCandList is num
Registration is performed at the position indicated by the same value as MergeCand (step S5116 in FIG. 26), and 1 is added to the number of merge candidates numMergeCand (step S5117 in FIG. 26). Subsequently, 1 is added to the index i (step S5118 in FIG. 26), and the process proceeds to step S5119.

以上のステップS5106〜ステップS5118の処理をそれぞれの参照インデックス
i毎にそれぞれ繰り返す(図26のステップS5105〜ステップS5119)。
The processes in steps S5106 to S5118 are repeated for each reference index i (steps S5105 to S5119 in FIG. 26).

図26では予測モードと動きベクトルの値を固定し、異なる参照インデックスの値の複
数のマージ候補を生成し、マージ候補リストに登録するものとしてしたが、異なる予測モ
ードの複数のマージ候補を生成して、マージ候補リストに登録してもよいし、異なる動き
ベクトルの値のマージ候補を生成し、マージ候補リストに登録してもよい。動きベクトル
の値を変更する場合には、例えば、(0,0)、(1,0)、(−1,0)、(0,1)
、(0,−1)の順序で動きベクトルの値を変更しながら、追加する。
In FIG. 26, the prediction mode and the motion vector value are fixed, and a plurality of merge candidates having different reference index values are generated and registered in the merge candidate list. However, a plurality of merge candidates in different prediction modes are generated. Thus, the merge candidates may be registered in the merge candidate list, or merge candidates having different motion vector values may be generated and registered in the merge candidate list. When changing the value of the motion vector, for example, (0, 0), (1, 0), (-1, 0), (0, 1)
, (0, −1) in the order of motion vectors, while changing the values.

次に、動画像符号化装置のインター予測情報導出部104のインター予測情報選択部1
37について説明する。図37は動画像符号化装置のインター予測情報導出部104のイ
ンター予測情報選択部137の処理手順を説明するフローチャートである。第1の実施例
の図12において、動画像符号化装置のインター予測情報導出部104のインター予測情
報選択部137では、マージ候補数numMergeCandが0より大きい場合(図37のステップ
S8101のYES)、マージ候補リストに登録されているマージインデックスが0から
(numMergeCand-1)の範囲内で指し示される有効なマージ候補の中から、マージ候補を選
択し、選択されたマージ候補の各予測ブロックのL0予測、及びL1予測を利用するかど
うかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][yP]、参照インデックスrefIdxL0
[xP][yP], refIdxL1[xP][yP]、動きベクトルmvL0[xP][yP], mvL1[xP][yP]等のインター予
測情報を動き補償予測部105に供給するとともに、選択されたマージ候補を特定するマ
ージインデックスを予測方法決定部107に供給する(図37のステップS8102)。
マージインデックスmergeIdxの値がマージ候補数numMergeIdxの値未満の場合、マージイ
ンデックスmergeIdxはマージ候補リストmergeCandListに登録されている有効なマージ候
補を指し示す。マージインデックスmergeIdxの値がマージ候補数numMergeIdxの値以上の
場合、マージインデックスmergeIdxはマージ候補リストmergeCandListに登録されていな
い無効なマージ候補を指し示す。なお、後述の規定を符号化側にも適用することで、マー
ジインデックスmergeIdxが無効なマージ候補を指し示す場合においても、有効なマージ候
補を選択することが可能となる。
Next, the inter prediction information selection unit 1 of the inter prediction information deriving unit 104 of the video encoding device.
37 will be described. FIG. 37 is a flowchart illustrating the processing procedure of the inter prediction information selection unit 137 of the inter prediction information deriving unit 104 of the video encoding device. In FIG. 12 of the first embodiment, in the inter prediction information selection unit 137 of the inter prediction information deriving unit 104 of the video encoding device, when the number of merge candidates numMergeCand is larger than 0 (YES in step S8101 of FIG. 37). The merge index registered in the merge candidate list is selected from valid merge candidates in the range of 0 to (numMergeCand-1), and the merge candidate is selected, and L0 of each prediction block of the selected merge candidate PredFlagL0 [xP] [yP], predFlagL1 [xP] [yP] indicating whether to use prediction and L1 prediction, reference index refIdxL0
Inter prediction information such as [xP] [yP], refIdxL1 [xP] [yP], motion vectors mvL0 [xP] [yP], mvL1 [xP] [yP] is supplied to the motion compensation prediction unit 105 and selected. The merge index that identifies the merge candidate is supplied to the prediction method determination unit 107 (step S8102 in FIG. 37).
When the value of the merge index mergeIdx is less than the value of the number of merge candidates numMergeIdx, the merge index mergeIdx indicates a valid merge candidate registered in the merge candidate list mergeCandList. When the value of the merge index mergeIdx is equal to or greater than the value of the number of merge candidates numMergeIdx, the merge index mergeIdx indicates an invalid merge candidate that is not registered in the merge candidate list mergeCandList. Note that, by applying the rules described later to the encoding side, even when the merge index mergeIdx indicates an invalid merge candidate, it is possible to select a valid merge candidate.

マージ候補の選択においては、予測方法決定部107と同様の方法を用いることができ
る。それぞれのマージ候補ごとに符号化情報及び残差信号の符号量と予測画像信号と画像
信号との間の符号化歪を導出し、最も少ない発生符号量と符号化歪となるマージ候補が決
定される。それぞれのマージ候補毎にマージモードの符号化情報であるマージインデック
スのシンタックス要素merge_idxのエントロピー符号化を行い、符号化情報の符号量を算
出する。さらに、それぞれのマージ候補毎に動き補償予測部105と同様の方法で各マー
ジ候補のインター予測情報に応じて動き補償した予測画像信号と、画像メモリ101から
供給される符号化対象の画像信号との予測残差信号を符号化した予測残差信号の符号量を
算出する。符号化情報、即ちマージインデックスの符号量と予測残差信号の符号量とが加
算された総発生符号量を算出し評価値とする。
In selecting a merge candidate, the same method as the prediction method determination unit 107 can be used. For each merge candidate, the coding information and the coding amount of the residual signal and the coding distortion between the predicted image signal and the image signal are derived, and the merge candidate that produces the least generated code amount and coding distortion is determined. The For each merge candidate, entropy coding is performed on the merge index syntax element merge_idx, which is coding information in the merge mode, and the code amount of the coding information is calculated. Further, for each merge candidate, a predicted image signal motion-compensated according to the inter prediction information of each merge candidate by the same method as the motion compensation prediction unit 105, and an encoding target image signal supplied from the image memory 101, The amount of code of the prediction residual signal obtained by encoding the prediction residual signal is calculated. Coding information, that is, the total generated code amount obtained by adding the code amount of the merge index and the code amount of the prediction residual signal is calculated as an evaluation value.

また、こうした予測残差信号を符号化後に、歪量評価の為に復号し、符号化により生じ
る元の画像信号との誤差を表す比率として符号化歪が算出される。これら総発生符号量と
符号化歪とをマージ候補毎に比較することで、少ない発生符号量と符号化歪となる符号化
情報が決定される。決定された符号化情報に対応するマージインデックスが、予測ブロッ
ク単位の第2のシンタックスパターンで表されるフラグmerge_idxとして符号化される。
尚、ここで算出される発生符号量は、符号化過程をシミュレートしたものであることが望
ましいが、簡便に近似したり、概算することも可能である。
Further, after encoding such a prediction residual signal, it is decoded for distortion amount evaluation, and the encoding distortion is calculated as a ratio representing an error from the original image signal caused by the encoding. By comparing the total generated code amount and the encoding distortion for each merge candidate, encoding information with a small generated code amount and encoding distortion is determined. A merge index corresponding to the determined encoding information is encoded as a flag merge_idx represented by a second syntax pattern in units of prediction blocks.
The generated code amount calculated here is preferably a simulation of the encoding process, but can be approximated or approximated easily.

一方、マージ候補数numMergeCandが0の場合(図37のステップS8102のNO)、
規定のスライスタイプに応じたデフォルト値のインター予測情報を動き補償予測部105
に供給する(ステップS8103〜S8105)。インター予測情報のデフォルト値は、
スライスタイプがPスライスの場合(図37のステップS8103のYES)、L0予測
(Pred_L0)で(フラグpredFlagL0[xP][yP]の値が1、predFlagL1[xP][yP]の値が0)、
L0の参照インデックスが0(参照インデックスrefIdxL0[xP][yP]の値が0、refIdxL1[x
P][yP]の値が−1)で、L0のベクトル値mvL0[xP][yP]が(0,0)とする(図37のス
テップS8104)。一方、スライスタイプがPスライスでない場合(ステップS810
3のNO)、すなわちスライスタイプがBスライスの場合、インター予測モードが双予測
(Pred_BI)で(フラグpredFlagL0[xP][yP]、predFlagL1[xP][yP]の値が共に1)、参照
インデックスが双方共に0(参照インデックスrefIdxL0[xP][yP]、refIdxL1[xP][yP]の値
が共に0)で、L0およびL1のベクトル値mvL0[xP][yP]、mvL1[xP][yP]が双方共に(0
,0)とする(ステップS8105)。なお、インター予測情報のデフォルト値は、スラ
イスタイプに係らずスライスタイプがBスライスの場合においても、L0予測(Pred_L0
)で(フラグpredFlagL0[xP][yP]の値が1、predFlagL1[xP][yP]の値が0)、L0の参照
インデックスが0(参照インデックスrefIdxL0[xP][yP]の値が0、refIdxL1[xP][yP]の値
が−1)で、L0のベクトル値mvL0[xP][yP]が(0,0)とすることもできる。
On the other hand, when the number of merge candidates numMergeCand is 0 (NO in step S8102 in FIG. 37),
The motion compensation prediction unit 105 generates inter prediction information having a default value corresponding to a prescribed slice type.
(Steps S8103 to S8105). The default value for inter prediction information is
When the slice type is P slice (YES in step S8103 in FIG. 37), the value of the flag predFlagL0 [xP] [yP] is 1 and the value of predFlagL1 [xP] [yP] is 0 in the L0 prediction (Pred_L0).
The reference index of L0 is 0 (the value of the reference index refIdxL0 [xP] [yP] is 0, refIdxL1 [x
It is assumed that the value of P] [yP] is −1) and the vector value mvL0 [xP] [yP] of L0 is (0, 0) (step S8104 in FIG. 37). On the other hand, if the slice type is not P slice (step S810)
3), that is, when the slice type is B slice, the inter prediction mode is bi-prediction (Pred_BI) (the values of the flags predFlagL0 [xP] [yP] and predFlagL1 [xP] [yP] are both 1), and the reference index Are both 0 (reference indices refIdxL0 [xP] [yP] and refIdxL1 [xP] [yP] are both 0), and L0 and L1 vector values mvL0 [xP] [yP], mvL1 [xP] [yP ] For both (0
, 0) (step S8105). The default value of the inter prediction information is the L0 prediction (Pred_L0) even when the slice type is B slice regardless of the slice type.
) (The value of the flag predFlagL0 [xP] [yP] is 1, the value of predFlagL1 [xP] [yP] is 0), the reference index of L0 is 0 (the value of the reference index refIdxL0 [xP] [yP] is 0, It is also possible that the value of refIdxL1 [xP] [yP] is −1) and the vector value mvL0 [xP] [yP] of L0 is (0, 0).

次に、動画像復号装置のインター予測情報導出部205のインター予測情報選択部23
7について説明する。図38は動画像復号装置のインター予測情報導出部205のインタ
ー予測情報選択部237の処理手順を説明するフローチャートである。第1の実施例の図
13において、動画像復号装置のインター予測情報導出部205のインター予測情報選択
部237では、マージ候補数numMergeCandが0より大きい場合(図38のステップS91
01のYES)、マージ候補リストmergeCandListに登録されているマージ候補の中から
、第2符号化ビット列復号部202から供給されたマージインデックスmergeIdxに対応す
るマージ候補を選択し、選択されたマージ候補のL0予測、及びL1予測を利用するかど
うかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][yP]、L0、L1の参照インデッ
クスrefIdxL0[xP][yP], refIdxL1[xP][yP]、L0、L1の動きベクトルmvL0[xP][yP], mv
L1[xP][yP]等のインター予測情報を動き補償予測部206に供給するとともに、符号化情
報格納メモリ210に格納する(図38のステップS9102)。
Next, the inter prediction information selection unit 23 of the inter prediction information deriving unit 205 of the video decoding device.
7 will be described. FIG. 38 is a flowchart illustrating the processing procedure of the inter prediction information selection unit 237 of the inter prediction information derivation unit 205 of the video decoding device. In FIG. 13 of the first embodiment, in the inter prediction information selection unit 237 of the inter prediction information deriving unit 205 of the video decoding device, when the number of merge candidates numMergeCand is larger than 0 (step S91 in FIG. 38).
01 YES), a merge candidate corresponding to the merge index mergeIdx supplied from the second encoded bit string decoding unit 202 is selected from the merge candidates registered in the merge candidate list mergeCandList, and the selected merge candidate PredFlagL0 [xP] [yP], predFlagL1 [xP] [yP], L0 and L1 reference indices refIdxL0 [xP] [yP], refIdxL1 [xP] [yP] indicating whether to use L0 prediction and L1 prediction ], L0, L1 motion vectors mvL0 [xP] [yP], mv
Inter prediction information such as L1 [xP] [yP] is supplied to the motion compensation prediction unit 206 and stored in the encoded information storage memory 210 (step S9102 in FIG. 38).

なお、万が一、符号化側で無効なマージ候補を指し示すマージインデックスを符号化し
た場合、復号側で無効なマージ候補を選択することになる。その場合、無効なインター予
測情報でインター予測が行われることになり、予期しない予測信号が得られる可能性があ
る。また、インター予測モードが規格外の値を示したり、参照インデックスが存在しない
参照ピクチャを指し示したりすることで、エラーが発生し、復号が異常終了する可能性も
ある。
If a merge index indicating an invalid merge candidate is encoded on the encoding side, an invalid merge candidate is selected on the decoding side. In this case, inter prediction is performed with invalid inter prediction information, and an unexpected prediction signal may be obtained. Further, when the inter prediction mode indicates a non-standard value or indicates a reference picture for which no reference index exists, an error may occur and decoding may end abnormally.

そこで、本実施の形態に係る第1の実施例では、供給されたマージインデックスmergeI
dxの値がマージ候補数numMergeIdxの値以上の場合、マージインデックスmergeIdxにマー
ジ候補数numMergeIdxの値を設定してから前記処理を行うものとする。供給されたマージ
インデックスmergeIdxの値がマージ候補数numMergeIdxの値以上の場合、符号化側で設定
されたマージインデックスmergeIdxはマージ候補リストmergeCandListに登録されていな
い無効なマージ候補を指し示す。マージインデックスmergeIdxのクリッピング処理により
、マージ候補リストmergeCandListの最後に登録されたマージ候補を得ることができる。
このマージインデックスmergeIdxのクリッピング処理を規定することで、復号側でマージ
候補リストmergeCandListに登録されていない無効なマージ候補を選択することを防ぐこ
とが可能となる。
Therefore, in the first example according to the present embodiment, the supplied merge index mergeI.
When the value of dx is equal to or greater than the value of the merge candidate number numMergeIdx, the process is performed after setting the value of the merge candidate number numMergeIdx in the merge index mergeIdx. When the value of the supplied merge index mergeIdx is equal to or greater than the value of the number of merge candidates numMergeIdx, the merge index mergeIdx set on the encoding side indicates an invalid merge candidate that is not registered in the merge candidate list mergeCandList. By the clipping process of the merge index mergeIdx, the merge candidate registered at the end of the merge candidate list mergeCandList can be obtained.
By defining the clipping process of the merge index mergeIdx, it becomes possible to prevent the decoding side from selecting an invalid merge candidate that is not registered in the merge candidate list mergeCandList.

あるいは、供給されたマージインデックスmergeIdxの値がマージ候補数numMergeIdxの
値以上の場合、マージ候補のインター予測情報を、既定の値に規定することで無効なマー
ジ候補を選択することを防ぐこともできる。この既定のマージ候補のインター予測情報は
、予測モードをL0予測、参照インデックスの値を0、動きベクトルの値を(0,0)と
する。なお、Bスライスの場合、予測モードを双予測とすることもできる。
Alternatively, when the value of the supplied merge index mergeIdx is equal to or greater than the value of the number of merge candidates numMergeIdx, it is possible to prevent the selection of invalid merge candidates by defining the inter prediction information of the merge candidates as a default value. . In the inter prediction information of the predetermined merge candidate, the prediction mode is L0 prediction, the reference index value is 0, and the motion vector value is (0, 0). In the case of a B slice, the prediction mode can be bi-prediction.

一方、マージ候補数numMergeCandが0の場合(図38のステップS9102のNO)、
規定のスライスタイプに応じたデフォルト値のインター予測情報を動き補償予測部206
に供給するとともに、符号化情報格納メモリ210に格納する。(図38のステップS9
103〜S9105)。インター予測情報のデフォルト値は、スライスタイプがPスライ
スの場合(図38のステップS9103のYES)、L0予測(Pred_L0)で(フラグpre
dFlagL0[xP][yP]の値が1、predFlagL1[xP][yP]の値が0)、L0の参照インデックスが
0(参照インデックスrefIdxL0[xP][yP]の値が0、refIdxL1[xP][yP]の値が−1)で、L
0のベクトル値mvL0[xP][yP]が(0,0)とする(図38のステップS9104)。一方
、スライスタイプがPスライスでない場合(図38のステップS9103のNO)、すな
わちスライスタイプがBスライスの場合、インター予測モードが双予測(Pred_BI)で(
フラグpredFlagL0[xP][yP]、predFlagL1[xP][yP]の値が共に1)、参照インデックスが双
方共に0(参照インデックスrefIdxL0[xP][yP]、refIdxL1[xP][yP]の値が共に0)で、L
0およびL1のベクトル値mvL0[xP][yP]、mvL1[xP][yP]が双方共に(0,0)とする(図
38のステップS9105)。なお、インター予測情報のデフォルト値は、スライスタイ
プに係らずスライスタイプがBスライスの場合においても、L0予測(Pred_L0)で(フ
ラグpredFlagL0[xP][yP]の値が1、predFlagL1[xP][yP]の値が0)、L0の参照インデッ
クスが0(参照インデックスrefIdxL0[xP][yP]の値が0、refIdxL1[xP][yP]の値が−1)
で、L0のベクトル値mvL0[xP][yP]が(0,0)とすることもできる。
On the other hand, when the number of merge candidates numMergeCand is 0 (NO in step S9102 of FIG. 38),
The inter prediction information having a default value corresponding to a prescribed slice type is converted into a motion compensation prediction unit 206.
And stored in the encoded information storage memory 210. (Step S9 in FIG. 38)
103-S9105). When the slice type is P slice (YES in step S9103 in FIG. 38), the default value of the inter prediction information is L0 prediction (Pred_L0) (flag pre
The value of dFlagL0 [xP] [yP] is 1, the value of predFlagL1 [xP] [yP] is 0), the reference index of L0 is 0 (the value of reference index refIdxL0 [xP] [yP] is 0, refIdxL1 [xP] The value of [yP] is -1) and L
The vector value mvL0 [xP] [yP] of 0 is set to (0, 0) (step S9104 in FIG. 38). On the other hand, when the slice type is not P slice (NO in step S9103 of FIG. 38), that is, when the slice type is B slice, the inter prediction mode is bi-prediction (Pred_BI) (
The values of the flags predFlagL0 [xP] [yP] and predFlagL1 [xP] [yP] are both 1), the reference indexes are both 0 (the values of the reference indices refIdxL0 [xP] [yP], refIdxL1 [xP] [yP] are Both are 0) and L
Both vector values mvL0 [xP] [yP] and mvL1 [xP] [yP] of 0 and L1 are set to (0, 0) (step S9105 in FIG. 38). Note that the default value of the inter prediction information is L0 prediction (Pred_L0) (the value of the flag predFlagL0 [xP] [yP] is 1, predFlagL1 [xP] [1] even when the slice type is B slice regardless of the slice type. yP] value is 0), L0 reference index is 0 (reference index refIdxL0 [xP] [yP] value is 0, refIdxL1 [xP] [yP] value is -1)
Thus, the vector value mvL0 [xP] [yP] of L0 can be set to (0, 0).

次に、実施の形態に係る第2の実施例のインター予測情報導出方法を図面を用いて説明
する。図28は、実施の形態に係る第2の実施例の図1の動画像符号化装置のインター予
測情報導出部104の詳細な構成を示す図である。また、図29は、実施の形態に係る第
2の実施例の図2の動画像復号装置のインター予測情報導出部205の詳細な構成を示す
図である。第2の実施例の図28のインター予測情報導出部104は第1の実施例の図1
2のインター予測情報導出部104とは有効マージ候補補充部135が追加されている点
が異なる。第2の実施例の図29のインター予測情報導出部205は第1の実施例の図1
3のインター予測情報導出部205とは有効マージ候補補充部235が追加されている点
が異なる。なお、本実施の形態において、動画像符号化装置および動画像復号装置におい
て、最大マージ候補数maxNumMergeCandの値が0の場合、図30のマージ候補の導出処理
及びマージ候補リストの構築処理を省略することができる。
Next, the inter prediction information deriving method of the second example according to the embodiment will be described with reference to the drawings. FIG. 28 is a diagram illustrating a detailed configuration of the inter prediction information deriving unit 104 of the video encoding device in FIG. 1 of the second example according to the embodiment. FIG. 29 is a diagram illustrating a detailed configuration of the inter prediction information deriving unit 205 of the video decoding device in FIG. 2 of the second example according to the embodiment. The inter prediction information deriving unit 104 of FIG. 28 of the second embodiment is the same as that of the first embodiment shown in FIG.
This is different from the second inter prediction information deriving unit 104 in that an effective merge candidate supplementing unit 135 is added. The inter prediction information deriving unit 205 of FIG. 29 of the second embodiment is the same as that of the first embodiment shown in FIG.
3 is different from the third inter prediction information deriving unit 205 in that an effective merge candidate supplementing unit 235 is added. In the present embodiment, in the video encoding device and the video decoding device, when the maximum merge candidate number maxNumMergeCand is 0, the merge candidate derivation processing and merge candidate list construction processing in FIG. 30 are omitted. be able to.

図30は本発明の実施の形態に係る第2の実施例の動画像符号化装置のインター予測情
報導出部104のマージ候補リストの構築部120及び動画像復号装置のインター予測情
報導出部205のマージ候補リストの構築部220とで共通する機能を有するマージ候補
の導出処理及びマージ候補リストの構築処理の手順を説明するフローチャートである。第
2の実施例の図30のフローチャートは、第1の実施例の図15のフローチャートとは、
ステップS105の有効マージ候補の導出処理が追加されている点が異なる。
FIG. 30 shows the merge candidate list construction unit 120 of the inter prediction information deriving unit 104 and the inter prediction information deriving unit 205 of the video decoding device in the video encoding device according to the second embodiment of the present invention. 10 is a flowchart for explaining a procedure of merge candidate derivation processing and merge candidate list construction processing having functions common to the merge candidate list construction unit 220; The flowchart of FIG. 30 of the second embodiment is different from the flowchart of FIG. 15 of the first embodiment.
The difference is that a process for deriving a valid merge candidate in step S105 is added.

動画像符号化装置のインター予測情報導出部104のマージ候補リスト生成部130及
び動画像復号装置のインター予測情報導出部205のマージ候補リスト生成部230では
、マージ候補リストmergeCandListを用意し(図30のステップS100)、動画像符号
化装置のインター予測情報導出部104の空間マージ候補生成部131及び動画像復号装
置のインター予測情報導出部205の空間マージ候補生成部231では、動画像符号化装
置の符号化情報格納メモリ115または動画像復号装置の符号化情報格納メモリ210に
格納されている符号化情報から、符号化/復号対象ブロックに隣接するそれぞれの予測ブ
ロックA,B,C,D,Eからの空間マージ候補A,B,C,D,Eを導出して、導出さ
れた空間マージ候補をマージ候補リストmergeCandListに登録し(図30のステップS1
01)、動画像符号化装置のインター予測情報導出部104の時間マージ候補の参照イン
デックス導出部132及び動画像復号装置のインター予測情報導出部205の時間マージ
候補の参照インデックス導出部232では、符号化/復号対象ブロックに隣接する予測ブ
ロックから時間マージ候補の参照インデックスを導出して、導出された参照インデックス
を動画像符号化装置のインター予測情報導出部104の時間マージ候補生成部133及び
動画像復号装置のインター予測情報導出部205の時間マージ候補生成部233に供給し
(図30のステップS102)、動画像符号化装置のインター予測情報導出部104の時
間マージ候補生成部133及び動画像復号装置のインター予測情報導出部205の時間マ
ージ候補生成部233では、異なる時間のピクチャからの時間マージ候補を導出して、導
出された時間マージ候補をマージ候補リストmergeCandListに登録し(図30のステップ
S103)、動画像符号化装置のインター予測情報導出部104の追加マージ候補生成部
134及び動画像復号装置のインター予測情報導出部205の追加マージ候補生成部23
4では、マージ候補リストmergeCandList内に登録されているマージ候補数numMergeCand
が、最大マージ候補数maxNumMergeCandより小さい場合、マージ候補リストmergeCandList
内に登録されているマージ候補数numMergeCandが最大マージ候補数maxNumMergeCandを上
限として追加マージ候補を導出して、マージ候補リストmergeCandListに登録するところ
までは(図30のステップS104)、第1の実施例と同様である。続いて、第2の実施
例では、有効マージ候補補充部135および有効マージ候補補充部235で有効なマージ
候補を補充することで、マージ候補リスト内のマージインデックスが0から(maxNumMerg
eCand-1)の値で指し示される範囲内で、無効なマージ候補を無くす(図30のステップ
S105)。マージインデックスが0から(maxNumMergeCand-1)の値で指し示される範
囲内で、無効なマージ候補を無くすことで、復号側で、無効なマージ候補が選択されるこ
となく、有効なマージ候補のみが選択されることが補償される。
A merge candidate list mergeCandList is prepared in the merge candidate list generating unit 130 of the inter prediction information deriving unit 104 of the moving image encoding device and the merge candidate list generating unit 230 of the inter prediction information deriving unit 205 of the moving image decoding device (FIG. 30). Step S100), the spatial merge candidate generating unit 131 of the inter prediction information deriving unit 104 of the video encoding device and the spatial merge candidate generating unit 231 of the inter prediction information deriving unit 205 of the video decoding device include the video encoding device. From the encoded information stored in the encoded information storage memory 115 or the encoded information storage memory 210 of the moving picture decoding apparatus, each prediction block A, B, C, D, adjacent to the encoding / decoding target block. Deriving spatial merge candidates A, B, C, D, and E from E, and deriving the derived spatial merge candidates as merge candidate lists Registered in mergeCandList (step S1 in FIG. 30).
01), the temporal merge candidate reference index deriving unit 132 of the inter prediction information deriving unit 104 of the video encoding device and the temporal merge candidate reference index deriving unit 232 of the inter prediction information deriving unit 205 of the video decoding device The temporal merge candidate reference index is derived from the prediction block adjacent to the encoding / decoding target block, and the derived reference index is converted into the temporal merge candidate generation unit 133 and the moving image of the inter prediction information deriving unit 104 of the moving image encoding device. This is supplied to the temporal merge candidate generation unit 233 of the inter prediction information deriving unit 205 of the decoding device (step S102 in FIG. 30), and the temporal merge candidate generation unit 133 and the video decoding of the inter prediction information deriving unit 104 of the video encoding device In the time merge candidate generation unit 233 of the inter prediction information derivation unit 205 of the device, A temporal merge candidate from a picture at a certain time is derived, the derived temporal merge candidate is registered in the merge candidate list mergeCandList (step S103 in FIG. 30), and the addition of the inter prediction information deriving unit 104 of the video encoding device Merge candidate generation unit 134 and additional merge candidate generation unit 23 of inter prediction information deriving unit 205 of the video decoding device
4, the number of merge candidates numMergeCand registered in the merge candidate list mergeCandList
Is smaller than the maximum number of merge candidates maxNumMergeCand, merge candidate list mergeCandList
In the first embodiment, the number of merge candidates registered in numMergeCand derives additional merge candidates up to the maximum number of merge candidates maxNumMergeCand and registers them in the merge candidate list mergeCandList (step S104 in FIG. 30). It is the same. Subsequently, in the second embodiment, valid merge candidates are supplemented by the valid merge candidate supplementing unit 135 and the valid merge candidate supplementing unit 235, so that the merge index in the merge candidate list starts from 0 (maxNumMerg
The invalid merge candidates are eliminated within the range indicated by the value of eCand-1) (step S105 in FIG. 30). By eliminating invalid merge candidates within the range indicated by the merge index from 0 to (maxNumMergeCand-1), the invalid merge candidates are not selected on the decoding side, and only valid merge candidates are selected. Being selected is compensated.

本実施の形態に係る第2の実施例の図28の有効マージ候補補充部135および図29
の有効マージ候補補充部235で実施される図30のステップS105の処理手順である
有効マージ候補の導出方法について図31のフローチャートを用いて詳細に説明する。図
31は本実施の形態に係る第2の実施例の図30のステップS105の有効マージ候補導
出処理手順を説明するフローチャートである。
The effective merge candidate supplementing unit 135 of FIG. 28 and FIG. 29 of the second example of the present embodiment.
The effective merge candidate derivation method, which is the processing procedure of step S105 of FIG. 30 performed by the effective merge candidate supplementing unit 235, will be described in detail with reference to the flowchart of FIG. FIG. 31 is a flowchart for explaining the effective merge candidate derivation processing procedure in step S105 of FIG. 30 in the second example of the present embodiment.

第2の実施例の図31の有効マージ候補導出処理においては、シンプルな処理によりマ
ージ候補リスト内のマージインデックスが0から(maxNumMergeCand-1)の値で指し示さ
れる範囲内で、無効なマージ候補が無くなるまで、有効なマージ候補をマージ候補リスト
に登録するために、同じ値のインター予測情報を持つ複数のマージ候補をマージ候補リス
トに登録する。スライスタイプに応じたインター予測モードの動きベクトルの値が(0,
0)の有効マージ候補を、マージ候補リストに登録する。(図31のステップS6101
〜S6113)。
In the valid merge candidate derivation process of FIG. 31 of the second embodiment, an invalid merge candidate within a range in which the merge index in the merge candidate list is indicated by a value from 0 to (maxNumMergeCand-1) by a simple process. In order to register valid merge candidates in the merge candidate list until there is no more, a plurality of merge candidates having the same value of inter prediction information are registered in the merge candidate list. The motion vector value of the inter prediction mode corresponding to the slice type is (0,
The valid merge candidates 0) are registered in the merge candidate list. (Step S6101 of FIG.
~ S6113).

まず、マージ候補数numMergeCandが最大マージ候補数maxNumMergeCandより小さい場合
(図31のステップS6102のYES)、ステップS6103に進み、マージ候補数nu
mMergeCandが最大マージ候補数maxNumMergeCandより小さくない場合(図31のステップ
S6102のNO)、本有効マージ候補導出処理を終了する。
First, if the number of merge candidates numMergeCand is smaller than the maximum number of merge candidates maxNumMergeCand (YES in step S6102 in FIG. 31), the process proceeds to step S6103 and the number of merge candidates nu.
If mMergeCand is not smaller than the maximum number of merge candidates maxNumMergeCand (NO in step S6102 of FIG. 31), the effective merge candidate derivation process is terminated.

続いて、スライスタイプがPスライスの場合(図31のステップS6103のYES)
、インター予測モードがL0予測(Pred_L0)で、参照インデックスが0で、ベクトル値
が(0,0)のマージ候補を有効マージ候補とする。予測も有効マージ候補の動きベクト
ルmvL0Zero、mvL1Zeroに(0,0)を設定し(図31のステップS6104)、有効マー
ジ候補の参照インデックスrefIdxL0Zeroに0を設定し、refIdxL1Zeroに−1を設定し(図
31のステップS6105)、有効マージ候補のフラグpredFlagL0Zeroに1を設定し、pr
edFlagL1Zeroに0を設定して(図31のステップS6106)、ステップS6110に進
む。
Subsequently, when the slice type is P slice (YES in step S6103 of FIG. 31).
A merge candidate having an inter prediction mode of L0 prediction (Pred_L0), a reference index of 0, and a vector value of (0, 0) is set as an effective merge candidate. For prediction, (0, 0) is set to the motion vectors mvL0Zero and mvL1Zero of the effective merge candidates (step S6104 in FIG. 31), 0 is set to the reference index refIdxL0Zero of the effective merge candidates, and −1 is set to refIdxL1Zero (FIG. 31, step S6105), the valid merge candidate flag predFlagL0Zero is set to 1, pr
edFlagL1Zero is set to 0 (step S6106 in FIG. 31), and the process proceeds to step S6110.

一方、スライスタイプがPスライスでない場合(図31のステップS6103のNO)
、すなわちスライスタイプがBスライスの場合、インター予測モードが双予測(Pred_BI
)で、参照インデックスが双方共に0でベクトル値が双方共に(0,0)のマージ候補を
有効マージ候補とする。有効マージ候補の動きベクトルmvL0Zero、mvL1 Zeroに(0,0
)を設定し(図31のステップS6107)、有効マージ候補の参照インデックスrefIdx
L0Zero、refIdxL1Zeroに参照インデックスiの値を設定し(図31のステップS6108
)、有効マージ候補のフラグpredFlagL0Zero、predFlagL1Zeroに1を設定して(図31の
ステップS6109)、ステップS6110に進む。
On the other hand, when the slice type is not P slice (NO in step S6103 of FIG. 31).
That is, when the slice type is B slice, the inter prediction mode is bi-prediction (Pred_BI
), A merge candidate having both reference indexes 0 and both vector values (0, 0) is set as an effective merge candidate. The valid merge candidate motion vectors mvL0Zero and mvL1 Zero are set to (0, 0
) Is set (step S6107 in FIG. 31), and the reference index refIdx of the valid merge candidate
The value of the reference index i is set in L0Zero and refIdxL1Zero (step S6108 in FIG. 31).
), 1 is set to the valid merge candidate flags predFlagL0Zero and predFlagL1Zero (step S6109 in FIG. 31), and the process proceeds to step S6110.

続いて、有効マージ候補をマージ候補リストmergeCandListのマージインデックスがnum
MergeCandと同じ値で示される位置に登録し(図31のステップS6110)、マージ候
補数numMergeCandに1を加算して(図31のステップS6112)、ステップS6113
に進む。
Next, the merge index of the merge candidate list mergeCandList is num
Registration is performed at the position indicated by the same value as MergeCand (step S6110 in FIG. 31), 1 is added to the number of merge candidates numMergeCand (step S6112 in FIG. 31), and step S6113 is performed.
Proceed to

以上のステップS6102〜ステップS6112の処理をマージ候補数numMergeCandが
最大マージ候補数maxNumMergeCandになるまで繰り返す(図31のステップS6101〜
ステップS6113)。以上の処理により、第2の実施例では、マージ候補リスト内のマ
ージインデックスが0から(maxNumMergeCand-1)の値で指し示される範囲内で、無効な
マージ候補を無くす。
The processes in steps S6102 to S6112 are repeated until the merge candidate number numMergeCand reaches the maximum merge candidate number maxNumMergeCand (step S6101 in FIG. 31).
Step S6113). With the above processing, in the second embodiment, invalid merge candidates are eliminated within a range in which the merge index in the merge candidate list is indicated by a value from 0 to (maxNumMergeCand-1).

第2の実施例の図28において、動画像符号化装置のインター予測情報導出部104の
インター予測情報選択部137では、第1の実施例の図12のインター予測情報選択部1
37と同様に、マージ候補数numMergeCandが0より大きい場合(図37のステップS81
01のYES)、マージ候補リストに登録されているマージ候補の中から、マージ候補を
選択し、選択されたマージ候補の各予測ブロックのL0予測、及びL1予測を利用するか
どうかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][yP]、参照インデックスrefIdx
L0[xP][yP], refIdxL1[xP][yP]、動きベクトルmvL0[xP][yP], mvL1[xP][yP]等のインター
予測情報を動き補償予測部105に供給するとともに、選択されたマージ候補を特定する
マージインデックスを予測方法決定部107に供給する(図37のステップS8102)
。ただし、第2の実施例においては、マージ候補リスト内のマージインデックスが0から
(maxNumMergeCand-1)の値で指し示される範囲内で、無効なマージ候補は存在せず、す
べて有効なマージ候補である。一方、マージ候補数numMergeCandが0の場合(ステップS
8102のNO)、規定のスライスタイプに応じたデフォルト値のインター予測情報を動
き補償予測部105に供給する(ステップS8103〜S8105)。
In FIG. 28 of the second embodiment, the inter prediction information selection unit 137 of the inter prediction information deriving unit 104 of the video encoding device uses the inter prediction information selection unit 1 of FIG. 12 of the first embodiment.
37, when the number of merge candidates numMergeCand is larger than 0 (step S81 in FIG. 37).
01 YES), a flag predFlagL0 indicating whether a merge candidate is selected from the merge candidates registered in the merge candidate list and the L0 prediction and L1 prediction of each prediction block of the selected merge candidate are used. [xP] [yP], predFlagL1 [xP] [yP], reference index refIdx
Inter prediction information such as L0 [xP] [yP], refIdxL1 [xP] [yP], motion vectors mvL0 [xP] [yP], mvL1 [xP] [yP] is supplied to the motion compensation prediction unit 105 and selected The merge index that identifies the merge candidate that has been specified is supplied to the prediction method determination unit 107 (step S8102 in FIG. 37).
. However, in the second embodiment, there is no invalid merge candidate within the range where the merge index in the merge candidate list is indicated by a value from 0 to (maxNumMergeCand-1), and all the merge candidates are valid merge candidates. is there. On the other hand, if the number of merge candidates numMergeCand is 0 (step S
8102), default value inter prediction information corresponding to the prescribed slice type is supplied to the motion compensation prediction unit 105 (steps S8103 to S8105).

一方、第2の実施例の図29において、動画像復号装置のインター予測情報導出部20
5のインター予測情報選択部237では、第1の実施例の図13のインター予測情報選択
部237と同様に、マージ候補数numMergeCandが0より大きい場合(図38のステップS
9101のYES)、マージ候補リストmergeCandListに登録されているマージ候補の中
から、第2符号化ビット列復号部202から供給されたマージインデックスmergeIdxに対
応するマージ候補を選択し、選択されたマージ候補のL0予測、及びL1予測を利用する
かどうかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][yP]、L0、L1の参照イン
デックスrefIdxL0[xP][yP], refIdxL1[xP][yP]、L0、L1の動きベクトルmvL0[xP][yP]
, mvL1[xP][yP]等のインター予測情報を動き補償予測部206に供給するとともに、符号
化情報格納メモリ210に格納する。ただし、第2の実施例においては、マージ候補リス
ト内のマージインデックスが0から(maxNumMergeCand-1)の値で指し示される範囲内で
、無効なマージ候補は存在せず、すべて有効なマージ候補である。一方、マージ候補数nu
mMergeCandが0の場合(図38のステップS9102のNO)、規定のスライスタイプに
応じたデフォルト値のインター予測情報を動き補償予測部206に供給するとともに、符
号化情報格納メモリ210に格納する。(図38のステップS9103〜S9105)。
On the other hand, in FIG. 29 of the second embodiment, the inter prediction information deriving unit 20 of the video decoding device.
In the inter prediction information selection unit 237 of 5, the merge candidate number numMergeCand is larger than 0 as in the inter prediction information selection unit 237 of FIG. 13 of the first embodiment (step S in FIG. 38).
9101), a merge candidate corresponding to the merge index mergeIdx supplied from the second encoded bit string decoding unit 202 is selected from the merge candidates registered in the merge candidate list mergeCandList. PredFlagL0 [xP] [yP], predFlagL1 [xP] [yP], L0 and L1 reference indices refIdxL0 [xP] [yP], refIdxL1 [xP] [yP] indicating whether to use L0 prediction and L1 prediction ], L0, L1 motion vectors mvL0 [xP] [yP]
, mvL1 [xP] [yP] and the like are supplied to the motion compensation prediction unit 206 and stored in the encoded information storage memory 210. However, in the second embodiment, there is no invalid merge candidate within the range where the merge index in the merge candidate list is indicated by a value from 0 to (maxNumMergeCand-1), and all the merge candidates are valid merge candidates. is there. On the other hand, the number of merge candidates nu
When mMergeCand is 0 (NO in step S9102 of FIG. 38), the inter prediction information having a default value corresponding to the prescribed slice type is supplied to the motion compensation prediction unit 206 and stored in the encoded information storage memory 210. (Steps S9103 to S9105 in FIG. 38).

次に、実施の形態に係る第3の実施例のインター予測情報導出方法を説明する。図28
は、実施の形態に係る第3の実施例の図1の動画像符号化装置のインター予測情報導出部
104の詳細な構成を示す図でもある。また、図29は、実施の形態に係る第3の実施例
の図2の動画像復号装置のインター予測情報導出部205の詳細な構成を示す図でもある
。図30は本発明の実施の形態に係る第3の実施例の動画像符号化装置のインター予測情
報導出部104のマージ候補リストの構築部120及び動画像復号装置のインター予測情
報導出部205のマージ候補リストの構築部220とで共通する機能を有するマージ候補
の導出処理及びマージ候補リストの構築処理の手順を説明するフローチャートでもある。
第3の実施例においては、第2の実施例と同様に、図28の有効マージ候補補充部135
および図29の有効マージ候補補充部235で有効なマージ候補を補充することで、マー
ジ候補リスト内のマージインデックスが0から(maxNumMergeCand-1)の値で指し示され
る範囲内で、無効なマージ候補を無くす(図30のステップS105)。マージインデッ
クスが0から(maxNumMergeCand-1)の値で指し示される範囲内で、無効なマージ候補を
無くすことで、復号側で、無効なマージ候補が選択されることなく、有効なマージ候補の
みが選択されることが補償される。ただし、第3の実施例においてはスライスタイプに関
係なく、インター予測モードがL0予測(Pred_L0)で、参照インデックスが0でベクト
ル値が(0,0)のマージ候補を有効マージ候補とする。第3の実施例は図28に示す第
2の実施例の動画像符号化装置のインター予測情報導出部104のマージ候補リストの構
築部120及び図29に示す動画像復号装置のインター予測情報導出部205のマージ候
補リストの構築部220と構成が同じである。ただし、第2の実施例とは有効マージ候補
補充部135、有効マージ候補補充部235で実施される図30のステップS105の処
理手順が異なる。
Next, the inter prediction information derivation method of the third example according to the embodiment will be described. FIG.
These are the figures which show the detailed structure of the inter prediction information derivation | leading-out part 104 of the moving image encoder of FIG. 1 of the 3rd Example which concerns on embodiment. FIG. 29 is also a diagram illustrating a detailed configuration of the inter prediction information deriving unit 205 of the video decoding device in FIG. 2 of the third example according to the embodiment. FIG. 30 shows the merge candidate list construction unit 120 of the inter prediction information deriving unit 104 and the inter prediction information deriving unit 205 of the video decoding device in the video encoding device according to the third embodiment of the present invention. It is also a flowchart explaining the procedures of merge candidate derivation processing and merge candidate list construction processing having functions common to the merge candidate list construction unit 220.
In the third embodiment, as in the second embodiment, the valid merge candidate supplementing unit 135 in FIG.
In addition, by adding valid merge candidates in the valid merge candidate supplementing unit 235 in FIG. 29, the merge candidates in the merge candidate list within the range indicated by the value of 0 to (maxNumMergeCand-1) are invalid merge candidates. Is eliminated (step S105 in FIG. 30). By eliminating invalid merge candidates within the range indicated by the merge index from 0 to (maxNumMergeCand-1), the invalid merge candidates are not selected on the decoding side, and only valid merge candidates are selected. Being selected is compensated. However, in the third embodiment, merge candidates whose inter prediction mode is L0 prediction (Pred_L0), the reference index is 0, and the vector value is (0, 0) are set as effective merge candidates regardless of the slice type. In the third embodiment, the merge candidate list construction unit 120 of the inter prediction information deriving unit 104 of the video encoding device of the second embodiment shown in FIG. 28 and the inter prediction information derivation of the video decoding device shown in FIG. The configuration is the same as the merge candidate list construction unit 220 of the unit 205. However, the processing procedure of step S105 in FIG. 30 performed by the valid merge candidate supplementing unit 135 and the valid merge candidate supplementing unit 235 is different from that of the second embodiment.

本実施の形態に係る第3の実施例の図28の有効マージ候補補充部135および図29
の有効マージ候補補充部235で実施される図30のステップS105の処理手順である
有効マージ候補の導出方法について図32のフローチャートを用いて詳細に説明する。図
32は本実施の形態に係る第3の実施例の図30のステップS105の有効マージ候補導
出処理手順を説明するフローチャートである。
The effective merge candidate supplementing unit 135 of FIG. 28 and FIG. 29 of the third example of the present embodiment.
The effective merge candidate derivation method, which is the processing procedure of step S105 of FIG. 30 performed by the effective merge candidate supplementing unit 235, will be described in detail with reference to the flowchart of FIG. FIG. 32 is a flowchart for explaining the effective merge candidate derivation processing procedure in step S105 of FIG. 30 in the third example of the present embodiment.

第3の実施例の図32の有効マージ候補導出処理においては、第2の実施例の図31の
有効マージ候補導出処理と同様にシンプルな処理によりマージ候補リスト内のマージイン
デックスが0から(maxNumMergeCand-1)の値で指し示される範囲内で、無効なマージ候
補が無くなるまで、有効なマージ候補をマージ候補リストに登録するために、同じ値のイ
ンター予測情報を持つ複数のマージ候補をマージ候補リストに登録する。ただし、第3の
実施例では、スライスタイプに関わらずインター予測モードがL0予測(Pred_L0)で、
動きベクトルの値が(0,0)の有効マージ候補を、マージ候補リストに登録する。(図
32のステップS6101〜S6113)。
In the effective merge candidate derivation process of FIG. 32 of the third embodiment, the merge index in the merge candidate list is set to 0 (maxNumMergeCand) by a simple process similar to the effective merge candidate derivation process of FIG. 31 of the second embodiment. In order to register valid merge candidates in the merge candidate list until there are no invalid merge candidates within the range indicated by the value of -1), merge candidates with the same value of inter prediction information are merge candidates. Register to the list. However, in the third embodiment, the inter prediction mode is L0 prediction (Pred_L0) regardless of the slice type.
An effective merge candidate having a motion vector value of (0, 0) is registered in the merge candidate list. (Steps S6101 to S6113 in FIG. 32).

まず、マージ候補数numMergeCandが最大マージ候補数maxNumMergeCandより小さい場合
(図32のステップS6102のYES)、ステップS6103に進み、マージ候補数nu
mMergeCandが最大マージ候補数maxNumMergeCandより小さくない場合(図32のステップ
S6102のNO)、本有効マージ候補導出処理を終了する。
First, when the number of merge candidates numMergeCand is smaller than the maximum number of merge candidates maxNumMergeCand (YES in step S6102 in FIG. 32), the process proceeds to step S6103 and the number of merge candidates nu.
If mMergeCand is not smaller than the maximum number of merge candidates maxNumMergeCand (NO in step S6102 of FIG. 32), the effective merge candidate derivation process is terminated.

続いて、インター予測モードがL0予測(Pred_L0)で、参照インデックスが0でベク
トル値が(0,0)のマージ候補を有効マージ候補とする。予測も有効マージ候補の動き
ベクトルmvL0Zero、mvL1Zeroに(0,0)を設定し(図32のステップS6104)、有
効マージ候補の参照インデックスrefIdxL0Zeroに0を設定し、refIdxL1Zeroに−1を設定
し(図32のステップS6105)、有効マージ候補のフラグpredFlagL0Zeroに1を設定
し、predFlagL1Zeroに0を設定する(図32のステップS6106)。
Subsequently, a merge candidate having an inter prediction mode of L0 prediction (Pred_L0), a reference index of 0, and a vector value of (0, 0) is set as an effective merge candidate. For prediction, (0, 0) is set to the motion vectors mvL0Zero and mvL1Zero of the effective merge candidate (step S6104 in FIG. 32), 0 is set to the reference index refIdxL0Zero of the effective merge candidate, and −1 is set to refIdxL1Zero (FIG. 32, step S6105), the valid merge candidate flag predFlagL0Zero is set to 1, and predFlagL1Zero is set to 0 (step S6106 in FIG. 32).

続いて、有効マージ候補をマージ候補リストmergeCandListのマージインデックスがnum
MergeCandと同じ値で示される位置に登録し(図32のステップS6110)、マージ候
補数numMergeCandに1を加算して(図32のステップS6112)、ステップS6113
に進む。
Next, the merge index of the merge candidate list mergeCandList is num
Registration is performed at the position indicated by the same value as MergeCand (step S6110 in FIG. 32), 1 is added to the number of merge candidates numMergeCand (step S6112 in FIG. 32), and step S6113 is performed.
Proceed to

以上のステップS6102〜ステップS6112の処理をマージ候補数numMergeCandが
最大マージ候補数maxNumMergeCandになるまで繰り返す(図32のステップS6101〜
ステップS6113)。以上の処理により、第3の実施例では、マージ候補リスト内のマ
ージインデックスが0から(maxNumMergeCand-1)の値で指し示される範囲内で、無効な
マージ候補を無くす。
The processes in steps S6102 to S6112 are repeated until the merge candidate number numMergeCand reaches the maximum merge candidate number maxNumMergeCand (step S6101 in FIG. 32).
Step S6113). Through the above processing, in the third embodiment, invalid merge candidates are eliminated within a range in which the merge index in the merge candidate list is indicated by a value from 0 to (maxNumMergeCand-1).

次に、実施の形態に係る第4の実施例のインター予測情報導出方法を説明する。図28
は、実施の形態に係る第4の実施例の図1の動画像符号化装置のインター予測情報導出部
104の詳細な構成を示す図でもある。また、図29は、実施の形態に係る第4の実施例
の図2の動画像復号装置のインター予測情報導出部205の詳細な構成を示す図でもある
。図30は本発明の実施の形態に係る第4の実施例の動画像符号化装置のインター予測情
報導出部104のマージ候補リストの構築部120及び動画像復号装置のインター予測情
報導出部205のマージ候補リストの構築部220とで共通する機能を有するマージ候補
の導出処理及びマージ候補リストの構築処理の手順を説明するフローチャートでもある。
第4の実施例においては、第2の実施例および第3の実施例と同様に、図28の有効マー
ジ候補補充部135および図29の有効マージ候補補充部235で有効なマージ候補を補
充することで、マージ候補リスト内のマージインデックスが0から(maxNumMergeCand-1
)の値で指し示される範囲内で、無効なマージ候補を無くす(図30のステップS105
)。マージインデックスが0から(maxNumMergeCand-1)の値で指し示される範囲内で、
無効なマージ候補を無くすことで、復号側で、無効なマージ候補が選択されることなく、
有効なマージ候補のみが選択されることが補償される。ただし、第4の実施例においては
最後にマージリストに登録されたマージ候補を有効マージ候補として、繰り返しマージ候
補リストに登録する。第4の実施例は図28に示す第2の実施例および第3の実施例の動
画像符号化装置のインター予測情報導出部104のマージ候補リストの構築部120及び
図29に示す動画像復号装置のインター予測情報導出部205のマージ候補リストの構築
部220と構成が同じである。ただし、第2の実施例および第3の実施例とは有効マージ
候補補充部135、有効マージ候補補充部235で実施される図30のステップS105
の処理手順が異なる。
Next, an inter prediction information derivation method according to a fourth example of the embodiment will be described. FIG.
These are figures which show the detailed structure of the inter prediction information derivation | leading-out part 104 of the moving image encoder of FIG. 1 of the 4th Example which concerns on embodiment. FIG. 29 is also a diagram illustrating a detailed configuration of the inter prediction information deriving unit 205 of the video decoding device in FIG. 2 of the fourth example according to the embodiment. FIG. 30 shows the merge candidate list construction unit 120 of the inter prediction information deriving unit 104 and the inter prediction information deriving unit 205 of the video decoding device in the video encoding device according to the fourth embodiment of the present invention. It is also a flowchart explaining the procedures of merge candidate derivation processing and merge candidate list construction processing having functions common to the merge candidate list construction unit 220.
In the fourth embodiment, as in the second and third embodiments, valid merge candidates are supplemented by the valid merge candidate supplement unit 135 in FIG. 28 and the valid merge candidate supplement unit 235 in FIG. As a result, the merge index in the merge candidate list starts from 0 (maxNumMergeCand-1
) To eliminate invalid merge candidates (step S105 in FIG. 30).
). Within the range where the merge index is indicated by the value from 0 to (maxNumMergeCand-1),
By eliminating invalid merge candidates, the decryption side does not select invalid merge candidates,
It is compensated that only valid merge candidates are selected. However, in the fourth embodiment, the merge candidate last registered in the merge list is repeatedly registered in the merge candidate list as an effective merge candidate. In the fourth embodiment, the merge candidate list construction unit 120 of the inter prediction information deriving unit 104 of the moving image coding apparatus of the second and third embodiments shown in FIG. 28 and the moving image decoding shown in FIG. The configuration is the same as the merge candidate list construction unit 220 of the inter prediction information deriving unit 205 of the apparatus. However, the second embodiment and the third embodiment are different from those in the effective merge candidate supplementing unit 135 and the effective merge candidate supplementing unit 235 in FIG.
The processing procedure is different.

本実施の形態に係る第4の実施例の図28の有効マージ候補補充部135および図29
の有効マージ候補補充部235で実施される図30のステップS105の処理手順である
有効マージ候補の導出方法について図32のフローチャートを用いて詳細に説明する。図
33は本実施の形態に係る第4の実施例の図30のステップS105の有効マージ候補導
出処理手順を説明するフローチャートである。
The effective merge candidate supplementing unit 135 of FIG. 28 and the fourth example of the fourth embodiment according to the present embodiment and FIG.
The effective merge candidate derivation method, which is the processing procedure of step S105 of FIG. 30 performed by the effective merge candidate supplementing unit 235, will be described in detail with reference to the flowchart of FIG. FIG. 33 is a flowchart for explaining the effective merge candidate derivation processing procedure in step S105 of FIG. 30 in the fourth example of the present embodiment.

第4の実施例の図33の有効マージ候補導出処理においては、第2の実施例の図31お
よび第3の実施例の図32の有効マージ候補導出処理と同様にシンプルな処理によりマー
ジ候補リスト内のマージインデックスが0から(maxNumMergeCand-1)の値で指し示され
る範囲内で、無効なマージ候補が無くなるまで、有効なマージ候補をマージ候補リストに
登録するために、同じ値のインター予測情報を持つ複数のマージ候補をマージ候補リスト
に登録する。ただし、第4の実施例では、最後にマージリストに登録されたマージ候補を
有効マージ候補として、繰り返しマージ候補リストに登録する。(図33のステップS6
101〜S6113)。
In the effective merge candidate derivation process of FIG. 33 of the fourth embodiment, the merge candidate list is obtained by a simple process similar to the effective merge candidate derivation process of FIG. 31 of the second embodiment and FIG. 32 of the third embodiment. Inter prediction information with the same value in order to register valid merge candidates in the merge candidate list until there are no invalid merge candidates within the range indicated by the merge index in the range 0 to (maxNumMergeCand-1) Register a plurality of merge candidates with the merge candidate list. However, in the fourth embodiment, the merge candidate registered last in the merge list is repeatedly registered in the merge candidate list as an effective merge candidate. (Step S6 in FIG. 33)
101-S6113).

まず、マージ候補数numMergeCandが最大マージ候補数maxNumMergeCandより小さい場合
(図33のステップS6102のYES)、ステップS6111に進み、マージ候補数nu
mMergeCandが最大マージ候補数maxNumMergeCandより小さくない場合(図33のステップ
S6102のNO)、本有効マージ候補導出処理を終了する。
First, if the number of merge candidates numMergeCand is smaller than the maximum number of merge candidates maxNumMergeCand (YES in step S6102 of FIG. 33), the process proceeds to step S6111, where the number of merge candidates nu.
If mMergeCand is not smaller than the maximum number of merge candidates maxNumMergeCand (NO in step S6102 of FIG. 33), the effective merge candidate derivation process ends.

続いて、最後にマージリストに登録されたマージ候補を有効マージ候補として、繰り返
しマージ候補リストに登録する(図33のステップS6111)。具体的には、マージ候
補リストのインデックスの値が(numMergeIdx-1)の位置に登録されているマージ候補と
インター予測モード、参照インデックス、ベクトル値が同じマージ候補が有効マージ候補
としてマージ候補リストmergeCandListのマージインデックスがnumMergeCandと同じ値で
示される位置に登録される。続いて、マージ候補数numMergeCandに1を加算して(図33
のステップS6112)、ステップS6113に進む。
Subsequently, the merge candidate finally registered in the merge list is repeatedly registered as an effective merge candidate in the merge candidate list (step S6111 in FIG. 33). Specifically, the merge candidate list mergeCandList is a merge candidate that is the same as the merge candidate registered in the position of the index (numMergeIdx-1) in the merge candidate list, the inter prediction mode, the reference index, and the vector value as the effective merge candidate. Is registered at the position indicated by the same value as numMergeCand. Subsequently, 1 is added to the number of merge candidates numMergeCand (FIG. 33).
Step S6112) and the process proceeds to Step S6113.

以上のステップS6102〜ステップS6112の処理をマージ候補数numMergeCandが
最大マージ候補数maxNumMergeCandになるまで繰り返す(図33のステップS6101〜
ステップS6113)。以上の処理により、第4の実施例では、マージ候補リスト内のマ
ージインデックスが0から(maxNumMergeCand-1)の値で指し示される範囲内で、無効な
マージ候補を無くす。
The processes in steps S6102 to S6112 are repeated until the merge candidate number numMergeCand reaches the maximum merge candidate number maxNumMergeCand (step S6101 in FIG. 33).
Step S6113). With the above processing, in the fourth embodiment, invalid merge candidates are eliminated within a range in which the merge index in the merge candidate list is indicated by a value from 0 to (maxNumMergeCand-1).

次に、実施の形態に係る第5の実施例のインター予測情報導出方法を説明する。図28
は、実施の形態に係る第4の実施例の図1の動画像符号化装置のインター予測情報導出部
104の詳細な構成を示す図でもある。また、図29は、実施の形態に係る第4の実施例
の図2の動画像復号装置のインター予測情報導出部205の詳細な構成を示す図でもある
。図30は本発明の実施の形態に係る第4の実施例の動画像符号化装置のインター予測情
報導出部104のマージ候補リストの構築部120及び動画像復号装置のインター予測情
報導出部205のマージ候補リストの構築部220とで共通する機能を有するマージ候補
の導出処理及びマージ候補リストの構築処理の手順を説明するフローチャートでもある。
第5の実施例は第4の実施例の図26の追加マージ候補の処理と図33の有効マージ候補
の処理を組み合わせた処理を行う。
Next, an inter prediction information derivation method according to a fifth example of the embodiment will be described. FIG.
These are figures which show the detailed structure of the inter prediction information derivation | leading-out part 104 of the moving image encoder of FIG. 1 of the 4th Example which concerns on embodiment. FIG. 29 is also a diagram illustrating a detailed configuration of the inter prediction information deriving unit 205 of the video decoding device in FIG. 2 of the fourth example according to the embodiment. FIG. 30 shows the merge candidate list construction unit 120 of the inter prediction information deriving unit 104 and the inter prediction information deriving unit 205 of the video decoding device in the video encoding device according to the fourth embodiment of the present invention. It is also a flowchart explaining the procedures of merge candidate derivation processing and merge candidate list construction processing having functions common to the merge candidate list construction unit 220.
In the fifth embodiment, the process of the additional merge candidate shown in FIG. 26 of the fourth embodiment and the process of the effective merge candidate shown in FIG. 33 are combined.

第5の実施例の図28の追加マージ候補生成部134および有効マージ候補補充部13
5で行われる処理の組み合わせである追加マージ候補および有効マージ候補生成ブロック
121、および図29の追加マージ候補生成部234と有効マージ候補補充部235で行
われる処理の組み合わせである追加マージ候補および有効マージ候補生成ブロック221
で実施される、図30のステップS104およびステップS105を組み合わせた処理手
順であるステップS110の追加マージ候補および有効マージ候補の導出方法について詳
細に説明する。図34は本実施の形態に係る第5の実施例の図30のステップS110の
追加マージ候補および有効マージ候補導出処理手順を説明するフローチャートである。
Additional merge candidate generation unit 134 and valid merge candidate supplementation unit 13 of FIG. 28 of the fifth embodiment.
The additional merge candidate and valid merge candidate generation block 121 that is a combination of the processes performed in step 5, and the additional merge candidate and valid combination that is a combination of the processes performed in the additional merge candidate generation unit 234 and the valid merge candidate supplement unit 235 in FIG. Merge candidate generation block 221
The method for deriving additional merge candidates and valid merge candidates in step S110, which is a processing procedure combining step S104 and step S105 in FIG. 30, will be described in detail. FIG. 34 is a flowchart for explaining the additional merge candidate and valid merge candidate derivation processing procedure in step S110 of FIG. 30 in the fifth example of the embodiment.

図34の追加マージ候補および有効マージ候補導出処理においては、マージ候補の選択
の幅を広げて、符号化効率を向上させるために、異なる値のインター予測情報を持つ複数
のマージ候補を生成し、マージ候補リストに登録するとともに、その後、リスト内のマー
ジインデックスが0から(maxNumMergeCand-1)の値で指し示される範囲内で、無効なマ
ージ候補が無くなるまで、有効なマージ候補をマージ候補リストに登録するために、同じ
値のインター予測情報を持つ複数のマージ候補をマージ候補リストに登録する(図34の
ステップS5101〜S5119)。
In the additional merge candidate and effective merge candidate derivation process of FIG. 34, in order to widen the selection range of merge candidates and improve coding efficiency, a plurality of merge candidates having different values of inter prediction information are generated, After registering in the merge candidate list, valid merge candidates are added to the merge candidate list until there is no invalid merge candidate within the range where the merge index in the list is indicated by a value from 0 to (maxNumMergeCand-1) In order to register, a plurality of merge candidates having the same value of inter prediction information are registered in the merge candidate list (steps S5101 to S5119 in FIG. 34).

まず、スライスタイプがPスライスの場合(図34のステップS5101のYES)、
参照インデックス数を示す変数numRefIdxにL0の参照インデックス数の値を設定する(
図34のステップS5102)。一方、スライスタイプがPスライスでない場合(図34
のステップS5101のNO)、すなわちスライスタイプがBスライスの場合、参照イン
デックス数を示す変数numRefIdxにL0の参照インデックス数とL1の参照インデックス
数の小さい方の値を設定する(図34のステップS5103)。続いて参照インデックス
iに0を設定する(図34のステップS5104)。
First, when the slice type is P slice (YES in step S5101 in FIG. 34),
Set the value of the reference index number of L0 to the variable numRefIdx indicating the reference index number (
Step S5102 in FIG. 34). On the other hand, when the slice type is not P slice (FIG. 34).
34), that is, when the slice type is B slice, the smaller value of the reference index number of L0 and the reference index number of L1 is set in the variable numRefIdx indicating the reference index number (step S5103 in FIG. 34). . Subsequently, 0 is set to the reference index i (step S5104 in FIG. 34).

続いて、参照インデックスiを変更しながら、スライスタイプに応じた予測モードの動
きベクトルの値が(0,0)の追加マージ候補を導出し、マージ候補リストに登録する。
(図34のステップS5105〜S5119)。
Subsequently, while changing the reference index i, an additional merge candidate whose motion vector value in the prediction mode corresponding to the slice type is (0, 0) is derived and registered in the merge candidate list.
(Steps S5105-S5119 in FIG. 34).

まず、マージ候補数numMergeCandが最大マージ候補数maxNumMergeCandより小さい場合
(図34のステップS5106のYES)、ステップS5107に進み、マージ候補数nu
mMergeCandが最大マージ候補数maxNumMergeCandより小さくない場合(図34のステップ
S5106のNO)、本追加マージ候補導出処理を終了する。
First, when the merge candidate number numMergeCand is smaller than the maximum merge candidate number maxNumMergeCand (YES in step S5106 in FIG. 34), the process proceeds to step S5107, and the merge candidate number nu.
If mMergeCand is not smaller than the maximum number of merge candidates maxNumMergeCand (NO in step S5106 in FIG. 34), the additional merge candidate derivation process is terminated.

続いて、参照インデックスiが変数numRefIdxより小さい場合(図34のステップS51
07のYES)、ステップS5109に進み、追加マージ候補の登録処理を行う。参照イ
ンデックスiが変数numRefIdxよりより小さくない場合(図34のステップS5107の
NO)、参照インデックスiに(numRefIdx-1)を設定して(図34のステップS510
8)、ステップS5109に進み、有効マージ候補の登録処理を行う。
Subsequently, when the reference index i is smaller than the variable numRefIdx (step S51 in FIG. 34).
In step S5109, additional merge candidate registration processing is performed. If the reference index i is not smaller than the variable numRefIdx (NO in step S5107 in FIG. 34), (numRefIdx-1) is set in the reference index i (step S510 in FIG. 34).
8) Proceeding to step S5109, a valid merge candidate registration process is performed.

続いて、スライスタイプがPスライスの場合(図34のステップS5109のYES)
、追加マージ候補の動きベクトルmvL0Zero、mvL1Zeroに(0,0)を設定し(図34のス
テップS5110)、追加マージ候補の参照インデックスrefIdxL0Zeroに参照インデック
スiの値を設定し、refIdxL1Zeroに−1を設定し(図34のステップS5111)、追加
マージ候補のフラグpredFlagL0Zeroに1を設定し、predFlagL1Zeroに0を設定して(図3
4のステップS5112)、ステップS5116に進む。
Subsequently, when the slice type is P slice (YES in step S5109 in FIG. 34).
Then, (0, 0) is set to the motion vectors mvL0Zero and mvL1Zero of the additional merge candidate (step S5110 in FIG. 34), the value of the reference index i is set to the reference index refIdxL0Zero of the additional merge candidate, and −1 is set to refIdxL1Zero (Step S5111 in FIG. 34), 1 is set to the flag predFlagL0Zero of the additional merge candidate, and 0 is set to predFlagL1Zero (FIG. 3).
4 step S5112), the process proceeds to step S5116.

一方、スライスタイプがPスライスでない場合(図34のステップS5109のNO)
、すなわちスライスタイプがBスライスの場合、追加マージ候補の動きベクトルmvL0Zero
、mvL1 Zeroに(0,0)を設定し(図34のステップS5113)、追加マージ候補の
参照インデックスrefIdxL0Zero、refIdxL1Zeroに参照インデックスiの値を設定し(図3
4のステップS5114)、追加マージ候補のフラグpredFlagL0Zero、predFlagL1Zeroに
1を設定して(図34のステップS5115)、ステップS5116に進む。
On the other hand, when the slice type is not P slice (NO in step S5109 in FIG. 34).
That is, when the slice type is B slice, the motion vector mvL0Zero of the additional merge candidate
, MvL1 Zero is set to (0, 0) (step S5113 in FIG. 34), and the reference index i is set to the reference indexes refIdxL0Zero and refIdxL1Zero of the additional merge candidates (FIG. 3).
4 (step S5114), the additional merge candidate flags predFlagL0Zero and predFlagL1Zero are set to 1 (step S5115 in FIG. 34), and the process proceeds to step S5116.

続いて、追加マージ候補をマージ候補リストmergeCandListのマージインデックスがnum
MergeCandと同じ値で示される位置に登録し(図34のステップS5116)、マージ候
補数numMergeCandに1を加算する(図34のステップS5117)。続いて、インデック
スiに1を加算し(図34のステップS5118)、ステップS5119に進む。
Then, the merge index of merge candidate list mergeCandList is num
Registration is performed at the position indicated by the same value as MergeCand (step S5116 in FIG. 34), and 1 is added to the number of merge candidates numMergeCand (step S5117 in FIG. 34). Subsequently, 1 is added to the index i (step S5118 in FIG. 34), and the process proceeds to step S5119.

以上のステップS5106〜ステップS5118の処理をそれぞれの参照インデックス
i毎にそれぞれ繰り返す(図34のステップS5105〜ステップS5119)。以上の
処理により、第5の実施例では、マージ候補リスト内のマージインデックスが0から(ma
xNumMergeCand-1)の値で指し示される範囲内で、無効なマージ候補を無くす。
The processes in steps S5106 to S5118 are repeated for each reference index i (steps S5105 to S5119 in FIG. 34). With the above processing, in the fifth embodiment, the merge index in the merge candidate list is changed from 0 to (ma
Remove invalid merge candidates within the range pointed to by the value of xNumMergeCand-1).

次に、実施の形態に係る第6の実施例のインター予測情報導出方法を説明する。図28
は、実施の形態に係る第6の実施例の図1の動画像符号化装置のインター予測情報導出部
104の詳細な構成を示す図でもある。また、図29は、実施の形態に係る第6の実施例
の図2の動画像復号装置のインター予測情報導出部205の詳細な構成を示す図でもある
。図30は本発明の実施の形態に係る第6の実施例の動画像符号化装置のインター予測情
報導出部104のマージ候補リストの構築部120及び動画像復号装置のインター予測情
報導出部205のマージ候補リストの構築部220とで共通する機能を有するマージ候補
の導出処理及びマージ候補リストの構築処理の手順を説明するフローチャートでもある。
第6の実施例は第2の実施例と実装方法が異なるが、復号側で同一のインター予測情報を
得ることができる。第6の実施例においては、マージ候補リスト内のすべてのインデック
スあるいは、0から(maxMergeCand-1)の値で指し示される範囲内のインター予測情報を
規定の値で初期化してから、それぞれのマージ候補導出および登録処理を行う。図28の
マージ候補リスト生成部130および図29のマージ候補リスト生成部230で、スライ
スタイプがPスライスの場合、マージ候補リスト内のすべての要素について、インター予
測モードがL0予測(Pred_L0)で、参照インデックスが0で、ベクトル値が(0,0)
の値を設定することで初期化する。スライスタイプがPスライスでない場合、すなわちス
ライスタイプがBスライスの場合、マージ候補リスト内のすべての要素について、インタ
ー予測モードが双予測(Pred_BI)で、参照インデックスが双方共に0で、ベクトル値が
双方共に(0,0)の値を設定することで初期化する。さらに、マージ候補数numMergeCa
ndに0を設定する。
Next, the inter prediction information derivation method of the sixth example according to the embodiment will be described. FIG.
These are figures which show the detailed structure of the inter prediction information derivation | leading-out part 104 of the moving image encoder of FIG. 1 of the 6th Example which concerns on embodiment. FIG. 29 is also a diagram illustrating a detailed configuration of the inter prediction information deriving unit 205 of the video decoding device in FIG. 2 of the sixth example according to the embodiment. FIG. 30 shows the merge candidate list construction unit 120 of the inter prediction information deriving unit 104 and the inter prediction information deriving unit 205 of the moving image decoding apparatus in the moving picture coding apparatus according to the sixth embodiment of the present invention. It is also a flowchart explaining the procedures of merge candidate derivation processing and merge candidate list construction processing having functions common to the merge candidate list construction unit 220.
Although the sixth embodiment is different from the second embodiment in the mounting method, the same inter prediction information can be obtained on the decoding side. In the sixth embodiment, all indexes in the merge candidate list or inter prediction information within a range indicated by a value from 0 to (maxMergeCand-1) is initialized with a specified value, and then each merge is performed. Candidate derivation and registration processing. In the merge candidate list generation unit 130 in FIG. 28 and the merge candidate list generation unit 230 in FIG. 29, when the slice type is P slice, the inter prediction mode is L0 prediction (Pred_L0) for all elements in the merge candidate list, The reference index is 0 and the vector value is (0,0)
It is initialized by setting the value of. When the slice type is not P slice, that is, when the slice type is B slice, for all elements in the merge candidate list, the inter prediction mode is bi-prediction (Pred_BI), both reference indices are 0, and both vector values are Both are initialized by setting a value of (0, 0). In addition, the number of merge candidates numMergeCa
Set nd to 0.

さらに、第6の実施例の図29の有効マージ候補補充部135および図30の有効マー
ジ候補補充部235で、初期化されたインター予測情報を有効にし、有効なマージ候補と
する。本実施の形態に係る第6の実施例の図28の有効マージ候補補充部135および図
29の有効マージ候補補充部235で実施される図30のステップS105の処理手順で
ある有効マージ候補の導出方法について図35のフローチャートを用いて詳細に説明する
。図35は本実施の形態に係る第6の実施例の図30のステップS105の初期化された
インター予測情報をマージ候補として有効にする処理手順を説明するフローチャートであ
る。最大マージ候補数maxNumMergeCandよりもマージ候補数numMergeCandのほうが小さい
場合(図35のステップS6201)、マージ候補数numMergeCandに最大マージ候補数ma
xNumMergeCandの値を設定する(図35のステップS6201)。本処理により、図29
のマージ候補リスト生成部130および図30のマージ候補リスト生成部230で初期化
されたインター予測情報を有効にし、有効マージ候補とする。
Furthermore, in the sixth embodiment, the valid merge candidate supplementing unit 135 in FIG. 29 and the valid merge candidate supplementing unit 235 in FIG. 30 validate the initialized inter prediction information and make it an effective merge candidate. Derivation of valid merge candidates, which is the processing procedure of step S105 in FIG. 30 performed by the valid merge candidate supplement unit 135 in FIG. 28 and the valid merge candidate supplement unit 235 in FIG. 29 in the sixth example according to the present embodiment. The method will be described in detail with reference to the flowchart of FIG. FIG. 35 is a flowchart for describing a processing procedure for validating the initialized inter prediction information in step S105 of FIG. 30 of the sixth example according to the present embodiment as a merge candidate. When the merge candidate number numMergeCand is smaller than the maximum merge candidate number maxNumMergeCand (step S6201 in FIG. 35), the maximum merge candidate number ma is added to the merge candidate number numMergeCand.
The value of xNumMergeCand is set (step S6201 in FIG. 35). By this processing, FIG.
The inter prediction information initialized by the merge candidate list generation unit 130 and the merge candidate list generation unit 230 of FIG. 30 is validated to be an effective merge candidate.

次に、実施の形態に係る第7の実施例のインター予測情報導出方法を説明する。図28
は、実施の形態に係る第7の実施例の図1の動画像符号化装置のインター予測情報導出部
104の詳細な構成を示す図でもある。また、図29は、実施の形態に係る第7の実施例
の図2の動画像復号装置のインター予測情報導出部205の詳細な構成を示す図でもある
。図30は本発明の実施の形態に係る第7の実施例の動画像符号化装置のインター予測情
報導出部104のマージ候補リストの構築部120及び動画像復号装置のインター予測情
報導出部205のマージ候補リストの構築部220とで共通する機能を有するマージ候補
の導出処理及びマージ候補リストの構築処理の手順を説明するフローチャートでもある。
第7の実施例は第3の実施例と実装方法が異なるが、復号側で同一のインター予測情報を
得ることができる。第7の実施例においても、第6の実施例と同様にマージ候補リスト内
のすべてのインデックスあるいは、0から(maxMergeCand-1)の値で指し示される範囲内
のインター予測情報を規定の値で初期化してから、それぞれのマージ候補導出および登録
処理を行う。ただし、第7の実施例においては、図28のマージ候補リスト生成部130
および図29のマージ候補リスト生成部230で、スライスタイプに関わらず、マージ候
補リスト内のすべての要素について、インター予測モードがL0予測(Pred_L0)で、参
照インデックスが0で、ベクトル値が(0,0)の値を設定することで初期化する。それ
以外の処理は第6の実施例と同じである。
Next, the inter prediction information derivation method of the seventh example according to the embodiment will be described. FIG.
These are figures which show the detailed structure of the inter prediction information derivation | leading-out part 104 of the moving image encoder of FIG. 1 of the 7th Example which concerns on embodiment. FIG. 29 is also a diagram illustrating a detailed configuration of the inter prediction information deriving unit 205 of the video decoding device in FIG. 2 of the seventh example according to the embodiment. FIG. 30 shows the merge candidate list construction unit 120 of the inter prediction information deriving unit 104 and the inter prediction information deriving unit 205 of the video decoding device in the video encoding device of the seventh example according to the embodiment of the present invention. It is also a flowchart explaining the procedures of merge candidate derivation processing and merge candidate list construction processing having functions common to the merge candidate list construction unit 220.
Although the seventh embodiment differs from the third embodiment in the mounting method, the same inter prediction information can be obtained on the decoding side. Also in the seventh embodiment, as in the sixth embodiment, all indexes in the merge candidate list or inter prediction information within a range indicated by a value from 0 to (maxMergeCand-1) is set to a specified value. After initialization, each merge candidate derivation and registration process is performed. However, in the seventh embodiment, the merge candidate list generation unit 130 in FIG.
29, for all elements in the merge candidate list, the inter prediction mode is L0 prediction (Pred_L0), the reference index is 0, and the vector value is (0) regardless of the slice type. , 0) to initialize. The other processes are the same as in the sixth embodiment.

以上、本実施の形態について説明した。符号化側で無効なマージ候補を指し示すマージ
インデックスを符号化した場合、復号側で無効なマージ候補を選択した場合、無効なイン
ター予測情報でインター予測が行われることになり、予期しない予測信号が得られる可能
性がある。また、インター予測モードが規格外の値を示したり、参照インデックスが存在
しない参照ピクチャを指し示したりすることで、エラーが発生し、復号が異常終了する可
能性もある。
The present embodiment has been described above. When a merge index indicating an invalid merge candidate is encoded on the encoding side, when an invalid merge candidate is selected on the decoding side, inter prediction is performed with invalid inter prediction information, and an unexpected prediction signal is generated. May be obtained. Further, when the inter prediction mode indicates a non-standard value or indicates a reference picture for which no reference index exists, an error may occur and decoding may end abnormally.

本実施の形態の第1の実施例により、符号化側で無効なマージ候補を指し示すマージイ
ンデックスを符号化しても、復号側で無効なマージ候補のインター予測情報を用いたイン
ター予測が行われることが無い。本実施の形態の規則に従った動画像符号化装置において
は、同一のインター予測情報を得ることができ、同一の予測信号を得ることができるので
、同一の復号画像を得ることができる。
According to the first example of the present embodiment, even when a merge index indicating an invalid merge candidate is encoded on the encoding side, inter prediction using inter prediction information of the invalid merge candidate is performed on the decoding side. There is no. In the moving picture coding apparatus according to the rules of the present embodiment, the same inter prediction information can be obtained and the same prediction signal can be obtained, so that the same decoded picture can be obtained.

また、本実施の形態の第2〜7の実施例により、符号化側で無効なマージ候補を指し示
すマージインデックスを選択して符号化されることがなく、復号側で無効なマージ候補の
インター予測情報を用いたインター予測が行われないことが補償され、動画像復号装置に
おいて、同一のインター予測情報を得ることができ、同一の予測信号を得ることができる
ので、同一の復号画像を得ることができる。
In addition, according to the second to seventh examples of the present embodiment, the merge index indicating an invalid merge candidate on the encoding side is not selected and encoded, and the inter prediction of the invalid merge candidate on the decoding side is performed. It is compensated that inter prediction using information is not performed, and the same inter prediction information can be obtained and the same prediction signal can be obtained in the video decoding device, so that the same decoded image is obtained. Can do.

なお、本実施の形態の第2〜5の実施例では、動画像符号化装置の有効マージ候補補充
部135および動画像復号装置の有効マージ候補補充部235において、マージ候補リス
ト内のマージインデックスが0から(maxNumMergeCand-1)の値で指し示される範囲内で
、無効なマージ候補が無くなるまで、有効なマージ候補を登録したが、少なくとも0から
(maxNumMergeCand-1)の範囲内で、無効なマージ候補が無ければよく、(maxNumMergeCa
nd-1)以上の所定の範囲まで有効なマージ候補を登録してもよい。
In the second to fifth examples of the present embodiment, the merge index in the merge candidate list is determined in the effective merge candidate supplementing unit 135 of the video encoding device and the effective merge candidate supplementing unit 235 of the video decoding device. Valid merge candidates were registered until there were no invalid merge candidates within the range indicated by the value from 0 to (maxNumMergeCand-1), but invalid merges at least within the range from 0 to (maxNumMergeCand-1) If there is no candidate, (maxNumMergeCa
nd-1) A merge candidate that is valid up to a predetermined range may be registered.

また、本実施の形態の第6〜7の実施例では、動画像符号化装置のインター予測情報導
出部104のマージ候補リストの構築部120及び動画像復号装置のインター予測情報導
出部205のマージ候補リストの構築部220において、マージ候補リスト内のマージイ
ンデックスが0から(maxNumMergeCand-1)の値で指し示される範囲内のインター予測情
報を規定の値で初期化したが、少なくとも0から(maxNumMergeCand-1)の範囲内で初期
化すればよく、(maxNumMergeCand-1)以上の所定の範囲まで初期化してもよい。
Also, in the sixth to seventh examples of the present embodiment, the merge candidate list construction unit 120 of the inter prediction information deriving unit 104 of the video encoding device and the inter prediction information deriving unit 205 of the video decoding device are merged. In the candidate list construction unit 220, the inter prediction information in the range where the merge index in the merge candidate list is indicated by a value from 0 to (maxNumMergeCand-1) is initialized with a specified value, but at least from (maxNumMergeCand -1) and may be initialized to a predetermined range equal to or greater than (maxNumMergeCand-1).

以上述べた実施の形態においては、空間マージ候補、時間マージ候補、追加マージ候補
をそれぞれ導出するものとして説明した。しかし、それぞれのマージ候補の導出処理を省
略する形態も考えられ、本発明に含まれる。また、それぞれのマージ候補の導出処理を変
更したり、新たなマージ候補の導出処理を追加する形態も考えられ、本発明に含まれる。
In the above-described embodiment, the description has been given assuming that the spatial merge candidate, the temporal merge candidate, and the additional merge candidate are derived, respectively. However, a form in which the process for deriving each merge candidate is also conceivable and is included in the present invention. Further, a mode in which each merge candidate derivation process is changed or a new merge candidate derivation process is added is also conceivable and is included in the present invention.

本実施の形態で説明した図26の追加マージ候補の導出を行う場合、Bスライスの際に
、追加マージ候補と同じインター予測情報の値を持つ有効マージ候補を補充する第2の実
施例、第6の実施例の方法よりも、追加マージ候補と異なるインター予測情報の値を持つ
L0予測の有効マージ候補を補充する第3の実施例、第7の実施例の方法の方が適してい
る。本実施の形態で説明した図26の追加マージ候補の導出を行わない場合、Bスライス
の際に、L0予測の有効マージ候補を補充する第3の実施例、第7の実施例の方法よりも
、予測効率の高い双予測の有効マージ候補を補充する第2の実施例、第6の実施例の方法
の方が適している。
In the case of deriving the additional merge candidate of FIG. 26 described in the present embodiment, the second example of supplementing the effective merge candidate having the same inter prediction information value as the additional merge candidate in the B slice, The methods of the third and seventh embodiments are more suitable than the method of the sixth embodiment, in which effective merge candidates for L0 prediction having different inter prediction information values from the additional merge candidates are supplemented. When the additional merge candidates in FIG. 26 described in the present embodiment are not derived, the methods of the third and seventh embodiments in which effective merge candidates for L0 prediction are supplemented at the time of B slices are obtained. The methods of the second embodiment and the sixth embodiment for supplementing bi-predictive effective merge candidates with high prediction efficiency are more suitable.

また、最大マージ候補数maxNumMergeCandの値が0の際にデフォルト値のインター予測
情報を規定せず、スキップモードおよびマージモードを禁止した場合、スキップモードや
マージモードのフラグは伝送するものの、スキップモードやマージモードが選択できない
ことにより、符号化効率が低下する。さらに、符号化側で禁止されたスキップモードやマ
ージモードを選択して符号化されたビットストリームを復号する場合、復号側でエラーが
発生し、復号処理が異常終了する可能性もある。
In addition, when the value of the maximum merge candidate maxNumMergeCand is 0, the default inter prediction information is not specified and skip mode and merge mode are prohibited. However, although skip mode and merge mode flags are transmitted, skip mode and merge mode flags are transmitted. Since the merge mode cannot be selected, the encoding efficiency is lowered. Furthermore, when decoding a bitstream encoded by selecting a skip mode or a merge mode that is prohibited on the encoding side, an error may occur on the decoding side, and the decoding process may end abnormally.

しかし、本実施の形態においては、最大マージ候補数maxNumMergeCandの値にかかわら
ず、最大マージ候補数maxNumMergeCandの値が0の際に、スキップモードを含むマージモ
ードを常に選択することができる。その際、スキップモードやマージモードではインター
予測情報はデフォルト値を出力する。インター予測情報のデフォルト値としては、例えば
、スライスタイプがBスライスの場合、予測モードが双予測(Pred_BI)であり、参照画
像インデックスの値が0であり、動きベクトルの値が(0,0)を規定する。そのために
、最大マージ候補数maxNumMergeCandの値が0の際にも、符号化側でスキップモードやマ
ージモードが無効な値として符号化されることがなく、復号側で規定されたデフォルト値
のインター予測情報を用いたインター予測が行われることが補償され、動画像復号装置に
おいて、同一のインター予測情報を得ることができ、同一の予測信号を得ることができる
ので、同一の復号画像を得ることができる。さらに、最大マージ候補数maxNumMergeCand
の値が0の際にも、スキップモードやマージモードが選択できるので、スキップモードや
マージモードを禁止した場合に比べて符号化効率が向上する。
However, in this embodiment, regardless of the value of the maximum merge candidate number maxNumMergeCand, when the value of the maximum merge candidate number maxNumMergeCand is 0, the merge mode including the skip mode can always be selected. At that time, in the skip mode and the merge mode, the inter prediction information outputs a default value. As default values of inter prediction information, for example, when the slice type is B slice, the prediction mode is bi-prediction (Pred_BI), the reference image index value is 0, and the motion vector value is (0, 0). Is specified. Therefore, even when the value of the maximum merge candidate number maxNumMergeCand is 0, the encoding side does not encode the skip mode or the merge mode as an invalid value, and the inter prediction of the default value defined on the decoding side Inter-prediction using information is compensated, and the same inter-prediction information can be obtained and the same prediction signal can be obtained in the video decoding device, so that the same decoded image can be obtained. it can. In addition, the maximum number of merge candidates maxNumMergeCand
Since the skip mode and the merge mode can be selected even when the value of 0 is 0, the encoding efficiency is improved as compared with the case where the skip mode or the merge mode is prohibited.

最大マージ候補数maxNumMergeCandの値が0の場合のスキップモードを含むマージモー
ドのインター予測情報はデフォルト値を用いるため、最大マージ候補数maxNumMergeCand
の値が1以上の場合と異なり、マージ候補リストを構築する処理が必要なく、マージ候補
リスト構築処理を行わない演算量の少ない符号化装置を実現することが可能になる。また
、復号側の処理もスキップモードを含むマージモードのインター予測情報にデフォルト値
を設定するだけであるため、復号側の最小限の対応で演算量の少なく符号化効率の低下を
抑制した復号装置に対応可能である。
Since the inter prediction information of the merge mode including the skip mode when the value of the maximum merge candidate number maxNumMergeCand is 0 uses the default value, the maximum number of merge candidates maxNumMergeCand
Unlike the case where the value of 1 is 1 or more, it is possible to realize an encoding apparatus that does not need a process for constructing a merge candidate list and that does not perform a merge candidate list construction process and that has a small amount of calculation. In addition, since the decoding side process only sets a default value in the inter prediction information in the merge mode including the skip mode, the decoding apparatus that reduces the amount of calculation and suppresses the decrease in the encoding efficiency with the minimum correspondence on the decoding side Can be supported.

以上述べた実施の形態の動画像符号化装置が出力する動画像の符号化ストリームは、実
施の形態で用いられた符号化方法に応じて復号することができるように特定のデータフォ
ーマットを有しており、動画像符号化装置に対応する動画像復号装置がこの特定のデータ
フォーマットの符号化ストリームを復号することができる。
The moving image encoded stream output from the moving image encoding apparatus of the embodiment described above has a specific data format so that it can be decoded according to the encoding method used in the embodiment. Therefore, the moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode the encoded stream of this specific data format.

動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有
線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に
適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符
号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネット
ワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ス
トリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。
When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted. In that case, a moving image transmitting apparatus that converts the encoded stream output from the moving image encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.

動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモ
リと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化デ
ータをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化さ
れた符号化データをネットワークを介して受信する受信部と、受信された符号化データを
バッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動
画像復号装置に提供するパケット処理部とを含む。
The moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network. Part. The moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.

以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置と
して実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッ
シュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっ
ても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムを
コンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線
のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送
のデータ放送として提供することも可能である。
The above processing relating to encoding and decoding can be realized as a transmission, storage, and reception device using hardware, and is stored in a ROM (Read Only Memory), a flash memory, or the like. It can also be realized by firmware or software such as a computer. The firmware program and software program can be recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as a data broadcast of terrestrial or satellite digital broadcasting Is also possible.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構
成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例
も本発明の範囲にあることは当業者に理解されるところである。
The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

101 画像メモリ、 117 ヘッダ情報設定部、 102 動きベクトル検出部、
103 差分動きベクトル算出部、 104 インター予測情報導出部、 105 動
き補償予測部、 106 イントラ予測部、 107 予測方法決定部、 108 残差
信号生成部、 109 直交変換・量子化部、 118 第1符号化ビット列生成部、1
10 第2符号化ビット列生成部、 111 第3符号化ビット列生成部、 112 多
重化部、 113 逆量子化・逆直交変換部、 114 復号画像信号重畳部、 115
符号化情報格納メモリ、 116 復号画像メモリ、 130 マージ候補リスト生成
部、 131 空間マージ候補生成部、 132 時間マージ候補の参照インデックス導
出部、 133 時間マージ候補生成部、 134 追加マージ候補生成部、 135
有効マージ候補補充部、 136 マージ候補制限部、 137 インター予測情報選択
部、 201 分離部、 212 第1符号化ビット列復号部、 202 第2符号化ビ
ット列復号部、 203 第3符号化ビット列復号部、 204 動きベクトル算出部、
205 インター予測情報導出部、 206 動き補償予測部、 207 イントラ予
測部、 208 逆量子化・逆直交変換部、 209 復号画像信号重畳部、 210
符号化情報格納メモリ、 211 復号画像メモリ、 230 マージ候補リスト生成部
、 231 空間マージ候補生成部、 232 時間マージ候補の参照インデックス導出
部、 233 時間マージ候補生成部、 234 追加マージ候補生成部、 235 有
効マージ候補補充部、 236 マージ候補制限部、 237 インター予測情報選択部
101 image memory, 117 header information setting unit, 102 motion vector detection unit,
103 difference motion vector calculation unit, 104 inter prediction information derivation unit, 105 motion compensation prediction unit, 106 intra prediction unit, 107 prediction method determination unit, 108 residual signal generation unit, 109 orthogonal transform / quantization unit, 118 first code Bit string generator, 1
10 second encoded bit string generation unit, 111 third encoded bit string generation unit, 112 multiplexing unit, 113 inverse quantization / inverse orthogonal transform unit, 114 decoded image signal superimposing unit, 115
Coding information storage memory, 116 decoded image memory, 130 merge candidate list generation unit, 131 spatial merge candidate generation unit, 132 time merge candidate reference index deriving unit, 133 time merge candidate generation unit, 134 additional merge candidate generation unit, 135
Valid merge candidate supplementing unit, 136 merge candidate limiting unit, 137 inter prediction information selecting unit, 201 separating unit, 212 first encoded bit sequence decoding unit, 202 second encoded bit sequence decoding unit, 203 third encoded bit sequence decoding unit, 204 motion vector calculation unit,
205 inter prediction information deriving unit 206 motion compensation prediction unit 207 intra prediction unit 208 inverse quantization / inverse orthogonal transform unit 209 decoded image signal superimposing unit 210
Encoding information storage memory, 211 decoded image memory, 230 merge candidate list generation unit, 231 spatial merge candidate generation unit, 232 time merge candidate reference index deriving unit, 233 time merge candidate generation unit, 234 additional merge candidate generation unit, 235 An effective merge candidate supplementation unit, 236 a merge candidate restriction unit, and 237 an inter prediction information selection unit;

Claims (6)

動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列を復号する動画像復号装置であって、  A moving picture decoding apparatus that decodes a coded bit string obtained by coding the moving picture using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving picture,
予め指定されたマージ候補の数を示す情報を復号する予測情報復号部と、  A prediction information decoding unit for decoding information indicating the number of merge candidates specified in advance;
復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出部と、  From the prediction block adjacent to the prediction block to be decoded, or the inter prediction information of the prediction block existing at the same position as or near the prediction block to be decoded in the decoded picture temporally different from the prediction block to be decoded, A prediction information deriving unit for deriving the merge candidate;
前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築部と、  A candidate list construction unit for constructing a merge candidate list from the derived merge candidates;
前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測部とを備える  When the number of merge candidates designated in advance is one or more, one merge candidate is selected from the merge candidates included in the merge candidate list, and the decoding target is selected according to the inter prediction information of the selected merge candidate. A motion compensation prediction unit that performs inter prediction of a prediction block and performs inter prediction of the prediction block to be decoded according to predetermined inter prediction information when the number of pre-designated merge candidates is 0.
ことを特徴とする動画像復号装置。  A moving picture decoding apparatus characterized by the above.
動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列を復号する動画像復号方法であって、  A moving picture decoding method for decoding a coded bit string obtained by coding the moving picture using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving picture,
予め指定されたマージ候補の数を示す情報を復号する予測情報復号ステップと、  A prediction information decoding step for decoding information indicating the number of merge candidates specified in advance;
復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出ステップと、  From the prediction block adjacent to the prediction block to be decoded, or the inter prediction information of the prediction block existing at the same position as or near the prediction block to be decoded in the decoded picture temporally different from the prediction block to be decoded, A prediction information deriving step for deriving the merge candidate;
前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築ステップと、  A candidate list construction step of constructing a merge candidate list from the derived merge candidates;
前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測ステップとを有する  When the number of merge candidates designated in advance is one or more, one merge candidate is selected from the merge candidates included in the merge candidate list, and the decoding target is selected according to the inter prediction information of the selected merge candidate. A motion compensation prediction step that performs inter prediction of a prediction block and performs inter prediction of the prediction block to be decoded according to predetermined inter prediction information when the number of merge candidates specified in advance is zero.
ことを特徴とする動画像復号方法。  A moving picture decoding method characterized by the above.
動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列を復号する動画像復号プログラムであって、  A moving picture decoding program for decoding a coded bit string obtained by coding the moving picture using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving picture,
予め指定されたマージ候補の数を示す情報を復号する予測情報復号ステップと、  A prediction information decoding step for decoding information indicating the number of merge candidates specified in advance;
復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出ステップと、  From the prediction block adjacent to the prediction block to be decoded, or the inter prediction information of the prediction block existing at the same position as or near the prediction block to be decoded in the decoded picture temporally different from the prediction block to be decoded, A prediction information deriving step for deriving the merge candidate;
前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築ステップと、  A candidate list construction step of constructing a merge candidate list from the derived merge candidates;
前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測ステップとをコンピュータに実行させる  When the number of merge candidates designated in advance is one or more, one merge candidate is selected from the merge candidates included in the merge candidate list, and the decoding target is selected according to the inter prediction information of the selected merge candidate. Performing inter prediction of a prediction block, and causing the computer to execute a motion compensation prediction step of performing inter prediction of the prediction block to be decoded based on predetermined inter prediction information when the number of merge candidates specified in advance is zero.
ことを特徴とする動画像復号プログラム。  A moving picture decoding program characterized by the above.
動画像が符号化された符号化ビット列を受信して復号する受信装置であって、
動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列がパケット化された符号化ストリームを受信する受信部と、
受信された前記符号化ストリームをパケット処理して元の符号化ビット列を復元する復元部と、
予め指定されたマージ候補の数を示す情報を復号する予測情報復号部と、
復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出部と、
前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築部と、
前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測部とを備える
ことを特徴とする受信装置。
A receiving device that receives and decodes an encoded bit sequence in which a moving image is encoded,
A receiving unit that receives an encoded stream in which an encoded bit string in which the moving image is encoded is packetized using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving image;
A restoration unit that packet-processes the received coded stream to restore the original coded bit string;
A prediction information decoding unit for decoding information indicating the number of merge candidates specified in advance;
From the prediction block adjacent to the prediction block to be decoded, or the inter prediction information of the prediction block existing at the same position as or near the prediction block to be decoded in the decoded picture temporally different from the prediction block to be decoded, A prediction information deriving unit for deriving the merge candidate;
A candidate list construction unit for constructing a merge candidate list from the derived merge candidates;
When the number of merge candidates designated in advance is one or more, one merge candidate is selected from the merge candidates included in the merge candidate list, and the decoding target is selected according to the inter prediction information of the selected merge candidate. A motion compensation prediction unit that performs inter prediction of a prediction block and performs inter prediction of the prediction block to be decoded according to predetermined inter prediction information when the number of merge candidates specified in advance is zero. A receiving device.
動画像が符号化された符号化ビット列を受信して復号する受信方法であって、
動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列がパケット化された符号化ストリームを受信する受信ステップと、
受信された前記符号化ストリームをパケット処理して元の符号化ビット列を復元する復元ステップと、
予め指定されたマージ候補の数を示す情報を復号する予測情報復号ステップと、
復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出ステップと、
前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築ステップと、
前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測ステップとを有する
ことを特徴とする受信方法。
A receiving method for receiving and decoding an encoded bit string in which a moving image is encoded,
A receiving step of receiving an encoded stream in which an encoded bit string obtained by encoding the moving image is packetized using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving image;
A restoration step of packet-processing the received coded stream to restore the original coded bit sequence;
A prediction information decoding step for decoding information indicating the number of merge candidates specified in advance;
From the prediction block adjacent to the prediction block to be decoded, or the inter prediction information of the prediction block existing at the same position as or near the prediction block to be decoded in the decoded picture temporally different from the prediction block to be decoded, A prediction information deriving step for deriving the merge candidate;
A candidate list construction step of constructing a merge candidate list from the derived merge candidates;
When the number of merge candidates designated in advance is one or more, one merge candidate is selected from the merge candidates included in the merge candidate list, and the decoding target is selected according to the inter prediction information of the selected merge candidate. A motion compensation prediction step of performing inter prediction of a prediction block and performing inter prediction of the prediction block to be decoded according to predetermined inter prediction information when the number of merge candidates specified in advance is zero. And the receiving method.
動画像が符号化された符号化ビット列を受信して復号する受信プログラムであって、
動画像の各ピクチャを分割したブロック単位でマージ候補のインター予測情報によるインター予測を用いて前記動画像が符号化された符号化ビット列がパケット化された符号化ストリームを受信する受信ステップと、
受信された前記符号化ストリームをパケット処理して元の符号化ビット列を復元する復元ステップと、
予め指定されたマージ候補の数を示す情報を復号する予測情報復号ステップと、
復号対象の予測ブロックに隣接する予測ブロック、または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおける前記復号対象の予測ブロックと同一位置又はその付近に存在する予測ブロックのインター予測情報から、前記マージ候補を導出する予測情報導出ステップと、
前記導出されたマージ候補からマージ候補リストを構築する候補リスト構築ステップと、
前記予め指定されたマージ候補の数が1以上の際に、前記マージ候補リストに含まれるマージ候補から1つのマージ候補を選択して、その選択されたマージ候補のインター予測情報により前記復号対象の予測ブロックのインター予測を行い、前記予め指定されたマージ候補の数が0の際に、所定のインター予測情報により前記復号対象の予測ブロックのインター予測を行う動き補償予測ステップとをコンピュータに実行させ
ことを特徴とする受信プログラム。
A receiving program that receives and decodes a coded bit string in which a moving image is coded,
A receiving step of receiving an encoded stream in which an encoded bit string obtained by encoding the moving image is packetized using inter prediction based on inter prediction information of merge candidates in units of blocks obtained by dividing each picture of the moving image;
A restoration step of packet-processing the received coded stream to restore the original coded bit sequence;
A prediction information decoding step for decoding information indicating the number of merge candidates specified in advance;
From the prediction block adjacent to the prediction block to be decoded, or the inter prediction information of the prediction block existing at the same position as or near the prediction block to be decoded in the decoded picture temporally different from the prediction block to be decoded, A prediction information deriving step for deriving the merge candidate;
A candidate list construction step of constructing a merge candidate list from the derived merge candidates;
When the number of merge candidates designated in advance is one or more, one merge candidate is selected from the merge candidates included in the merge candidate list, and the decoding target is selected according to the inter prediction information of the selected merge candidate. Performing inter prediction of a prediction block, and causing the computer to execute a motion compensation prediction step of performing inter prediction of the prediction block to be decoded according to predetermined inter prediction information when the number of merge candidates specified in advance is zero. receiving program, characterized in that that.
JP2016141164A 2012-04-12 2016-07-19 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program Active JP6206558B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012091386 2012-04-12
JP2012091386 2012-04-12

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014169251A Division JP5979189B2 (en) 2012-04-12 2014-08-22 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Publications (3)

Publication Number Publication Date
JP2017005724A JP2017005724A (en) 2017-01-05
JP2017005724A5 JP2017005724A5 (en) 2017-08-24
JP6206558B2 true JP6206558B2 (en) 2017-10-04

Family

ID=49762089

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2013083578A Active JP5633597B2 (en) 2012-04-12 2013-04-12 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2014169251A Active JP5979189B2 (en) 2012-04-12 2014-08-22 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2014169252A Active JP5979190B2 (en) 2012-04-12 2014-08-22 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2014169254A Active JP5979192B2 (en) 2012-04-12 2014-08-22 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2014169253A Active JP5979191B2 (en) 2012-04-12 2014-08-22 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2016141164A Active JP6206558B2 (en) 2012-04-12 2016-07-19 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Family Applications Before (5)

Application Number Title Priority Date Filing Date
JP2013083578A Active JP5633597B2 (en) 2012-04-12 2013-04-12 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2014169251A Active JP5979189B2 (en) 2012-04-12 2014-08-22 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2014169252A Active JP5979190B2 (en) 2012-04-12 2014-08-22 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2014169254A Active JP5979192B2 (en) 2012-04-12 2014-08-22 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2014169253A Active JP5979191B2 (en) 2012-04-12 2014-08-22 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Country Status (1)

Country Link
JP (6) JP5633597B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10205950B2 (en) 2014-02-21 2019-02-12 Panasonic Corporation Image decoding method, image encoding method, image decoding apparatus, and image encoding apparatus
JP5973526B2 (en) * 2014-02-21 2016-08-23 パナソニック株式会社 Image decoding method, image encoding method, image decoding apparatus, and image encoding apparatus
US10462479B2 (en) 2015-07-10 2019-10-29 Nec Corporation Motion picture encoding device, motion picture encoding method, and storage medium storing motion picture encoding program
US10412407B2 (en) 2015-11-05 2019-09-10 Mediatek Inc. Method and apparatus of inter prediction using average motion vector for video coding
JP2018114571A (en) 2017-01-17 2018-07-26 日特エンジニアリング株式会社 Pallet transport device and method for transporting pallet
JP6933235B2 (en) * 2018-12-13 2021-09-08 株式会社Jvcケンウッド Image decoding device, image decoding method, and image decoding program
MX2021003506A (en) 2018-12-13 2021-05-27 Jvckenwood Corp Image decoding device, image decoding method, and image decoding program.

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4600574B2 (en) * 2009-01-07 2010-12-15 日本電気株式会社 Moving picture decoding apparatus, moving picture decoding method, and program
US9485518B2 (en) * 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
WO2012164880A1 (en) * 2011-05-27 2012-12-06 パナソニック株式会社 Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
CA2834191C (en) * 2011-05-31 2019-04-09 Panasonic Corporation Video encoding method, video encoding device, video decoding method, video decoding device, and video encoding/decoding device
JP5488666B2 (en) * 2011-09-28 2014-05-14 株式会社Jvcケンウッド Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
KR101999869B1 (en) * 2011-10-19 2019-07-12 선 페이턴트 트러스트 Image encoding method, image encoding device, image decoding method, and image decoding device
WO2013108613A1 (en) * 2012-01-17 2013-07-25 パナソニック株式会社 Moving picture encoding method, moving picture decoding method, moving picture encoding device, moving picture decoding device and moving picture encoding/decoding device
CN104272560A (en) * 2012-05-01 2015-01-07 三菱电机株式会社 Rotor structure of rotary electric machine

Also Published As

Publication number Publication date
JP2014220844A (en) 2014-11-20
JP2014220846A (en) 2014-11-20
JP5979192B2 (en) 2016-08-24
JP2017005724A (en) 2017-01-05
JP5979191B2 (en) 2016-08-24
JP5633597B2 (en) 2014-12-03
JP2013236367A (en) 2013-11-21
JP2014220845A (en) 2014-11-20
JP5979189B2 (en) 2016-08-24
JP2014220847A (en) 2014-11-20
JP5979190B2 (en) 2016-08-24

Similar Documents

Publication Publication Date Title
WO2013153823A1 (en) Video encoding device, video encoding method, video encoding program, transmission device, transmission method, and transmission program, and video decoding device, video decoding method, video decoding program, receiving device, receiving method, and receiving program
JP6206558B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP6418300B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP6217820B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP6229806B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP6376260B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
WO2013065301A1 (en) Video coding device, video coding method, video coding program, transmission device, transmission method, and transmission program, as well as video decoding device, video decoding method, video decoding program, reception device, reception method, and reception program
JP2013102260A (en) Moving image decoder, moving image decoding method and moving image decoding program
JP2013098733A (en) Moving image decoder, moving image decoding method and moving image decoding program
JP2013102259A (en) Moving image encoder, moving image encoding method and moving image encoding program
JP2013098732A (en) Moving image encoder, moving image encoding method and moving image encoding program
JP2013118624A (en) Moving image encoding apparatus, moving image encoding method, moving image encoding program, transmitting apparatus, transmitting method and transmitting program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170821

R150 Certificate of patent or registration of utility model

Ref document number: 6206558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150