Nothing Special   »   [go: up one dir, main page]

JP2011259230A - Moving image decoder, moving image decoding method and moving image decoding program - Google Patents

Moving image decoder, moving image decoding method and moving image decoding program Download PDF

Info

Publication number
JP2011259230A
JP2011259230A JP2010132184A JP2010132184A JP2011259230A JP 2011259230 A JP2011259230 A JP 2011259230A JP 2010132184 A JP2010132184 A JP 2010132184A JP 2010132184 A JP2010132184 A JP 2010132184A JP 2011259230 A JP2011259230 A JP 2011259230A
Authority
JP
Japan
Prior art keywords
block
reference image
prediction
motion vector
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010132184A
Other languages
Japanese (ja)
Inventor
Motoharu Ueda
基晴 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2010132184A priority Critical patent/JP2011259230A/en
Priority to PCT/JP2011/003170 priority patent/WO2011155171A1/en
Publication of JP2011259230A publication Critical patent/JP2011259230A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for improving, while suppressing increase of an operation amount for a direct mode, efficiency of motion compensation prediction by enhancing quality of a prediction image.SOLUTION: A moving image decoder includes a standard reference image determination part 214 for selecting, when information indicating not to transmit designation information of a reference image in encoding and designation information of a motion vector in encoding is detected, a first reference image and a first motion vector value used for motion compensation processing of a decoding object block based on information used for motion compensation prediction in a block in the periphery of the decoding object block. The moving image decoder includes a reference image synthesis part for synthesizing a first reference block extracted from the first reference image and a predetermined region of at least another reference image using the first motion vector value to create a synthesized reference block. The moving image decoder includes an entropy decoding part 202 creating a decoded image by adding a prediction block to a prediction difference block decoded from the decoding object block, where the synthesized reference block is used as the prediction block.

Description

本発明は、動画像信号の復号技術に関する。   The present invention relates to a moving image signal decoding technique.

近年、デジタル化された画像及び音のコンテンツを、衛星や地上波等の放送波やネットワークを介して配信するサービスが実用化されており、膨大な情報量を持つコンテンツを効率的に記録及び伝送するための高能率符号化技術が必要となっている。動画像の高能率符号化としては、MPEG4−AVCに代表される、動画像信号の同一フレーム内で空間的に隣接する画素間の相関、及び時間的に隣接するフレーム間やフィールド間の相関を利用して情報を圧縮する方法が用いられる。   In recent years, services that deliver digital image and sound content via broadcast waves such as satellite and terrestrial waves and networks have been put into practical use, and content with a huge amount of information can be efficiently recorded and transmitted. In order to do so, a high-efficiency encoding technique is required. As high-efficiency encoding of moving images, the correlation between pixels that are spatially adjacent in the same frame of a moving image signal, and the correlation between temporally adjacent frames and fields, represented by MPEG4-AVC, are used. A method of compressing information using it is used.

MPEG4−AVCでは、時間的相関を利用した圧縮として、符号化対象フレームである対象画像に対して、既に符号化済みのフレームの局部復号画像を参照画像として用い、所定の大きさの2次元ブロック(以降、「対象ブロック」と記す)単位で、対象画像と参照画像との間での動き量(以降、「動きベクトル」と記す)を検出し、対象ブロックと動きベクトルに基づいた予測画像を生成する動き補償予測が用いられる。   In MPEG4-AVC, as a compression using temporal correlation, a local decoded image of a frame that has already been encoded is used as a reference image for a target image that is an encoding target frame, and a two-dimensional block of a predetermined size is used. A motion amount (hereinafter referred to as “motion vector”) between the target image and the reference image is detected in units (hereinafter referred to as “target block”), and a predicted image based on the target block and the motion vector is detected. The generated motion compensated prediction is used.

MPEG4−AVCでは、符号化処理の単位となる16×16画素の2次元ブロック(以降、「マクロブロック」と記す)内での、対象ブロックの大きさを可変にして対象ブロック毎の動きベクトルを用いて予測する手法、複数の参照画像を格納し予測に用いる参照画像を選択する手法、2つの参照画像と対象ブロックの間の動きベクトルを求めて動き予測画像を生成する手法を用いる事で、動き補償予測の予測精度を向上させる事が可能であり、それにより情報量の削減を実現している。   In MPEG4-AVC, the size of a target block in a 16 × 16 pixel two-dimensional block (hereinafter referred to as “macroblock”), which is a unit of encoding processing, is changed, and a motion vector for each target block is obtained. By using a method of predicting using, a method of storing a plurality of reference images and selecting a reference image used for prediction, and a method of generating a motion predicted image by obtaining a motion vector between two reference images and a target block, It is possible to improve the prediction accuracy of motion compensated prediction, thereby reducing the amount of information.

また、動き補償予測においては生成した動きベクトルを符号化伝送する必要があり、動きベクトルによる情報量の増加を防ぐために、対象ブロック周辺の復号済みのブロックに対する動きベクトルから予測される、予測動きベクトル値を用いて符号化する事で、動きベクトルを伝送しないダイレクトモードと呼ばれる動き補償予測を用いる事が可能となっている。   Also, in motion compensated prediction, it is necessary to encode and transmit the generated motion vector, and in order to prevent an increase in the amount of information due to the motion vector, a predicted motion vector predicted from the motion vector for a decoded block around the target block By encoding using values, it is possible to use motion compensated prediction called direct mode in which no motion vector is transmitted.

しかしながら、上記動きベクトルの予測は必ずしも精度良く求める事が出来ないため、特許文献1に示されるように、符号化側と復号側が共に、参照画像間で動きベクトルの検出を行い、その動きベクトルが時間的に連続している事を想定して、対象ブロックの予測動きベクトルを生成し、ダイレクトモードを構成する手法も提示されている。   However, since the prediction of the motion vector cannot always be obtained with high accuracy, as shown in Patent Document 1, both the encoding side and the decoding side detect a motion vector between reference images, and the motion vector is A method of generating a predicted motion vector of a target block and assuming a direct mode on the assumption that it is continuous in time is also presented.

特開2008−154015号公報JP 2008-154015 A

MPEG4−AVCに代表される従来の動画像符号化における動き補償予測は、以下のような課題が解決できていないために、符号化効率の向上が妨げられている。   In motion compensated prediction in conventional moving picture coding represented by MPEG4-AVC, the following problems cannot be solved, and hence improvement in coding efficiency is hindered.

一つ目の課題は、参照画像として用いる復号画像の品質が劣化することによる、動き補償予測画像の品質低下であり、特に高圧縮な符号化を施した場合に動き補償予測画像に混入した劣化成分が予測精度を悪化させると共に、劣化成分を復元するための情報を予測差分として符号化する必要があり、情報量が増加している。   The first problem is the degradation of the quality of the motion compensated predicted image due to the degradation of the quality of the decoded image used as the reference image, especially the degradation mixed in the motion compensated predicted image when high-compression encoding is performed. While the component deteriorates the prediction accuracy, it is necessary to encode information for restoring the deteriorated component as a prediction difference, and the amount of information is increasing.

二つ目の課題は、時間的・空間的に動きの連続性が少ない画像信号において、動きベクトルの予測が十分な精度でなく、ダイレクトモードを用いた際の予測画像の品質が悪く有効に機能しない点である。対象となる物体を跨いで隣接するブロックでは異なる動きを有する際にこの劣化が生じ、時間的には動きが大きい場合に予測に用いる動きベクトルが本来の対象ブロックとは動きに相当して移動した位置のブロックを想定しているためにこの劣化が生じる。また時間的に動きが変化する場合にも、同様に予測が当らず劣化が生じる。   The second problem is that the motion vector prediction is not accurate enough for image signals with little temporal and spatial motion continuity, and the predicted image quality when using the direct mode is effective. It is a point not to do. This degradation occurs when adjacent blocks have different motions across the target object, and the motion vector used for prediction when the motion is large in time has moved corresponding to the motion of the original target block This degradation occurs because a block of positions is assumed. Similarly, when the motion changes with time, the prediction is not successful and deterioration occurs.

MPEG4―AVCでは、動き補償予測に用いる参照画像を複数の参照画像より、対象となるブロック単位で切り替え可能であり、また動き補償予測を用いずに画面内で予測を行うイントラ予測を選択することも可能である。その為、隣接するブロックで動きベクトルの予測に用いる、該当する参照画像に対する隣接動きベクトルが存在しない場合が多く存在し、ダイレクトモードにおける動きベクトルの予測精度が更に低下する。   In MPEG4-AVC, a reference image used for motion compensation prediction can be switched in units of a target block from a plurality of reference images, and intra prediction that performs prediction within a screen without using motion compensation prediction is selected. Is also possible. For this reason, there are many cases where there is no adjacent motion vector for the corresponding reference image used for motion vector prediction in the adjacent block, and the motion vector prediction accuracy in the direct mode further decreases.

三つ目の課題は、2つの参照画像を用いた予測や細かいブロック単位での動き補償予測を用いた際の、動きベクトル伝送に要する符号量の増加である。2つの参照画像を用いる場合に、参照画像を加算する事による予測劣化の平滑化が行われ、劣化成分の影響を少なくする事が出来るが、それに応じた動きベクトルの伝送が必要となり符号量が増加する。また、細かいブロック単位での動き補償においても、物体の境界に応じて適切な動きを求める事が可能となり、予測画像の精度は向上するが、細かい単位での動きベクトルの伝送が必要となって符号量が増大する。   The third problem is an increase in the amount of code required for motion vector transmission when using prediction using two reference images or motion compensated prediction in units of fine blocks. When two reference images are used, prediction deterioration is smoothed by adding the reference images, and the influence of the deterioration component can be reduced. To increase. Also, in motion compensation in fine block units, it is possible to obtain appropriate motion according to the boundary of the object, and the accuracy of the predicted image is improved, but it is necessary to transmit motion vectors in fine units. The amount of code increases.

特許文献1は、上記二つ目の課題を解決するために提示された手法であるが、空間的に一様な動きをしている場合には、参照画像間で求めた動きベクトルが対象ブロックの位置を通過する動きとなる為、動きベクトルの予測精度は向上するが、空間的に一様な動きをしていない場合には、対象ブロックの情報を用いずに求めた予測動きベクトルであるために、対象ブロックと異なる動きとなり予測が十分に当らない。また、大きな動きを捉えるためには、参照画像間で広い範囲に渡る動きベクトルの検出処理が符号化装置、復号装置の両方に必要となり、演算量が大きくなる課題が生じる。   Patent Document 1 is a technique presented to solve the second problem described above. When a spatially uniform motion is present, a motion vector obtained between reference images is a target block. The motion vector prediction accuracy is improved because the motion passes through the position, but if the motion is not spatially uniform, it is the predicted motion vector obtained without using the target block information Therefore, the motion is different from that of the target block, and the prediction is not sufficient. In addition, in order to capture a large motion, a motion vector detection process over a wide range between reference images is required for both the encoding device and the decoding device, which causes a problem that the amount of calculation increases.

本発明はこうした状況に鑑みてなされたものであり、その目的は、動きベクトルを伝送しないモードにおいて、符号化装置および復号装置における演算量の増加を抑えつつ、予測画像の品質を高めて動き補償予測の効率を向上させる技術を提供することにある。   The present invention has been made in view of such a situation, and an object of the present invention is to compensate for motion compensation by improving the quality of a predicted image while suppressing an increase in the amount of calculation in an encoding device and a decoding device in a mode in which no motion vector is transmitted. It is to provide a technique for improving the efficiency of prediction.

上記課題を解決するために、本発明のある態様の動画像復号装置は、符号化時の参照画像の指定情報および符号化時の動きベクトルの指定情報を伝送しないモードであることを示すモード情報を検出するモード検出部(203)と、前記モード検出部で前記モード情報が検出された場合に、復号対象ブロックの動き補償処理に使用する第1の参照画像および第1の動きベクトル値を、復号対象ブロックの周辺ブロックでの動き補償予測に用いられた情報を元に選択する基準参照画像決定部(214)と、前記第1の動きベクトル値を用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域とを合成した合成参照ブロックを生成する参照画像合成部(215および216)と、前記合成参照ブロックを予測ブロックとして、前記予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックとを加算することにより、復号画像を生成する復号部(202)とを備える。   In order to solve the above-described problem, a moving picture decoding apparatus according to an aspect of the present invention is a mode information indicating that a reference image designation information at the time of encoding and a motion vector designation information at the time of encoding are not transmitted. A first reference image and a first motion vector value used for motion compensation processing of the decoding target block when the mode information is detected by the mode detection unit (203) A reference reference image determination unit (214) that selects based on information used for motion compensation prediction in the peripheral blocks of the decoding target block, and a first reference image extracted from the first reference image using the first motion vector value. A reference image synthesis unit (215 and 216) that generates a synthesized reference block obtained by synthesizing one reference block and a predetermined region of at least one other reference image; and the synthesized reference block The provided as the prediction block, and the prediction block by adding the prediction difference block decoded from the decoding target block, decoding section that generates a decoded image and a (202).

前記基準参照画像決定部(214)が、符号化対象ブロックの周辺ブロックで動き補償予測に使用されていない参照画像に対する動きベクトル値を、動き補償予測に使用された参照画像に対する動きベクトル値と復号画像信号を用いて算出すると共に、その算出した動きベクトル値に応じて当該動き補償予測に使用されていない参照画像を第1の参照画像の選択候補に加えるか否かを判断し、加えると判断した場合に、前記算出した動きベクトル値を当該動き補償予測に使用されていない参照画像に対する動きベクトルの候補に加えることによって、当該動き補償予測に使用されていない参照画像の頻度を増加させた上で第1の参照画像を選択すると共に、選択された第1の参照画像において候補に加えられている動きベクトル値を用いて前記第1の動きベクトル値を生成する(図12、S1202〜S1225)。   The reference reference image determination unit (214) decodes a motion vector value for a reference image that is not used for motion compensated prediction in a peripheral block of the encoding target block, and a motion vector value for a reference image used for motion compensated prediction. It is calculated using the image signal, and it is determined whether or not to add a reference image that is not used for the motion compensation prediction to the first reference image selection candidate according to the calculated motion vector value. In this case, by adding the calculated motion vector value to a motion vector candidate for a reference image that is not used for the motion compensation prediction, the frequency of the reference image that is not used for the motion compensation prediction is increased. To select the first reference image and to use the motion vector value added to the candidate in the selected first reference image Generating a first motion vector values (Fig. 12, S1202~S1225).

前記参照画像合成部(215および216)が、前記第1の参照ブロック以下の大きさのブロック単位で検出した、複数の参照画像との間の複数の第2の動きベクトル値を元に、第2の参照ブロックに用いる参照画像を選択し、前記第1の参照ブロックと前記第2の参照ブロックとを合成した合成参照ブロックを生成してその合成参照ブロックを予測ブロックとするか、前記第1の参照ブロックを予測ブロックとして利用するかの判定を行ってもよい(図13、S1303〜S1308)。   Based on a plurality of second motion vector values between a plurality of reference images detected by the reference image synthesizing unit (215 and 216) in block units having a size equal to or smaller than the first reference block. A reference image to be used for the second reference block is selected, and a synthesized reference block obtained by synthesizing the first reference block and the second reference block is generated, and the synthesized reference block is set as a prediction block, or the first It may be determined whether to use the reference block as a prediction block (FIG. 13, S1303 to S1308).

本発明の別の態様は、動画像復号方法である。この方法は、符号化時の参照画像の指定情報および符号化時の動きベクトルの指定情報を伝送しないモードであることを示すモード情報を検出するステップと、前記モード情報が検出された場合に、復号対象ブロックの動き補償処理に使用する第1の参照画像および第1の動きベクトル値を、復号対象ブロックの周辺ブロックでの動き補償予測に用いられた情報を元に選択するステップと、前記第1の動きベクトル値を用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域とを合成した合成参照ブロックを生成するステップと、前記合成参照ブロックを予測ブロックとして、前記予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックとを加算することにより、復号画像を生成するステップとを含む。   Another aspect of the present invention is a video decoding method. In this method, a step of detecting mode information indicating a mode that does not transmit the designation information of the reference image at the time of encoding and the designation information of the motion vector at the time of encoding, and when the mode information is detected, Selecting a first reference image and a first motion vector value used for motion compensation processing of a decoding target block based on information used for motion compensation prediction in a peripheral block of the decoding target block; Generating a synthesized reference block by synthesizing a first reference block extracted from a first reference image using one motion vector value and a predetermined region of at least one other reference image; and the synthesized reference block As a prediction block, a decoded image is generated by adding the prediction block and a prediction difference block decoded from the decoding target block That and a step.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、符号化する動きベクトルを削減し、符号化装置および復号装置における演算量の増加を抑えつつ、予測画像の品質を高めて動き補償予測の効率を向上させることができる。   According to the present invention, it is possible to improve the quality of motion compensated prediction by reducing the number of motion vectors to be encoded and suppressing the increase in the amount of calculation in the encoding device and the decoding device, while improving the quality of the predicted image.

本発明の実施の形態1の動画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image encoder of Embodiment 1 of this invention. 本発明の実施の形態1の動画像復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image decoding apparatus of Embodiment 1 of this invention. 本発明の実施の形態1のダイレクト動き補償予測の動作を示す概念図である。It is a conceptual diagram which shows the operation | movement of the direct motion compensation prediction of Embodiment 1 of this invention. 本発明の実施の形態1の符号化側のダイレクトモード動き補償予測の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the direct mode motion compensation prediction by the side of an encoding of Embodiment 1 of this invention. 本発明の実施の形態1の復号側のダイレクトモード動き補償予測の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the direct mode motion compensation prediction by the decoding side of Embodiment 1 of this invention. 本発明の実施の形態1の基準参照画像決定部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the reference | standard reference image determination part of Embodiment 1 of this invention. 本発明の実施の形態1における周辺ブロックの動き補償予測情報の管理形態を示す図である。It is a figure which shows the management form of the motion compensation prediction information of the surrounding block in Embodiment 1 of this invention. 本発明の実施の形態1の参照画像間動きベクトル検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the motion vector detection part between reference images of Embodiment 1 of this invention. 本発明の実施の形態1の参照画像間動きベクトル検出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the motion vector detection part between reference images of Embodiment 1 of this invention. 本発明の実施の形態1における参照画像間の動きベクトル検出範囲の一例を示す図である。FIG. 5 is a diagram showing an example of a motion vector detection range between reference images in Embodiment 1 of the present invention. 本発明の実施の形態2の動画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image encoder of Embodiment 2 of this invention. 本発明の実施の形態2の動画像復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image decoding apparatus of Embodiment 2 of this invention. 本発明の実施の形態2の基準参照画像決定部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the reference | standard reference image determination part of Embodiment 2 of this invention. 本発明の実施の形態2の参照画像間動きベクトル検出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the motion vector detection part between reference images of Embodiment 2 of this invention. 本発明の実施の形態2における対象参照画像に対する動き補償情報が存在しないブロックの補間対象を示す概念図である。It is a conceptual diagram which shows the interpolation object of the block in which the motion compensation information with respect to the object reference image in Embodiment 2 of this invention does not exist. 本発明の実施の形態2において、出力されるダイレクト動き補償予測の小ブロック単位での双方向/片方向の選択結果の一例を示す図である。In Embodiment 2 of this invention, it is a figure which shows an example of the selection result of the bidirectional | one-way in the small block unit of the output direct motion compensation prediction.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
まず、実施の形態1の動画像符号化装置を説明する。図1は、実施の形態1の動画像符号化装置の構成を示すブロック図である。
(Embodiment 1)
First, the moving picture coding apparatus according to the first embodiment will be described. FIG. 1 is a block diagram showing a configuration of the moving picture encoding apparatus according to the first embodiment.

図1に示すように、実施の形態1の動画像符号化装置は、入力端子100、入力画像バッファ101、ブロック分割部102、フレーム内予測部103、動きベクトル検出部104、動き補償予測部105、動きベクトル予測部106、基準参照画像決定部107、参照画像間動きベクトル検出部108、ダイレクト動き補償予測部109、予測モード判定部110、減算器111、直交変換部112、量子化部113、逆量子化部114、逆直交変換部115、加算器116、フレーム内復号画像メモリ117、復号参照画像メモリ118、エントロピー符号化部119、ストリームバッファ120、出力端子121及び符号量制御部122を含む。ここで、参照画像間動きベクトル検出部108およびダイレクト動き補償予測部109は、本発明の動画像符号化装置の「参照画像合成部」の実施例である。   As shown in FIG. 1, the moving picture coding apparatus according to Embodiment 1 includes an input terminal 100, an input picture buffer 101, a block division unit 102, an intra-frame prediction unit 103, a motion vector detection unit 104, and a motion compensation prediction unit 105. , Motion vector prediction unit 106, standard reference image determination unit 107, inter-reference image motion vector detection unit 108, direct motion compensation prediction unit 109, prediction mode determination unit 110, subtractor 111, orthogonal transform unit 112, quantization unit 113, An inverse quantization unit 114, an inverse orthogonal transform unit 115, an adder 116, an intra-frame decoded image memory 117, a decoded reference image memory 118, an entropy encoding unit 119, a stream buffer 120, an output terminal 121, and a code amount control unit 122 are included. . Here, the inter-reference image motion vector detection unit 108 and the direct motion compensation prediction unit 109 are examples of the “reference image synthesis unit” of the video encoding device of the present invention.

基準参照画像決定部107、及び参照画像間動きベクトル検出部108を設けた点と、この処理ブロック及びダイレクト動き補償予測部109における動作が、本発明の実施の形態1における特徴であり、他の処理ブロックに関してはMPEG4−AVC等の動画像符号化装置における符号化処理を構成する処理ブロックと同一処理が適用できる。   The point that the reference reference image determination unit 107 and the inter-reference image motion vector detection unit 108 are provided, and the operation in the processing block and the direct motion compensation prediction unit 109 are the features in Embodiment 1 of the present invention. As for the processing block, the same processing as the processing block constituting the encoding processing in the moving image encoding apparatus such as MPEG4-AVC can be applied.

入力端子100より入力されたデジタル画像信号は、入力画像バッファ101に格納される。入力画像バッファ101に格納されたデジタル画像信号は、ブロック分割部102に供給され、16×16画素で構成されるマクロブロック単位で符号化対象ブロックとして切り出される。ブロック分割部102は、切り出した符号化対象ブロックを、フレーム内予測部103、動きベクトル検出部104、動き補償予測部105、ダイレクト動き補償予測部109及び減算器111に供給する。   A digital image signal input from the input terminal 100 is stored in the input image buffer 101. The digital image signal stored in the input image buffer 101 is supplied to the block dividing unit 102, and is cut out as an encoding target block in units of macroblocks composed of 16 × 16 pixels. The block dividing unit 102 supplies the extracted encoding target block to the intra-frame prediction unit 103, the motion vector detection unit 104, the motion compensation prediction unit 105, the direct motion compensation prediction unit 109, and the subtractor 111.

フレーム内予測部103では、ブロック分割部102より入力された符号化対象ブロックと、フレーム内復号画像メモリ117に格納された、符号化対象ブロックの周辺に対して符号化が完了した領域の復号画像が入力され、フレーム内の相関性を用いた予測が行われる。例えば、符号化対象ブロックに対して、4×4画素単位、8×8画素単位、16×16画素単位で、複数の所定の方向に対して画素値を予測し、予測処理の単位と選択した方向を示す情報(イントラ予測モード)と共に予測画像を生成するイントラ予測という手法を用いて、画面内の隣接画素の相関を用いた予測を行う。予測画像及び選択したイントラ予測モードは、フレーム内予測部103より予測モード判定部110に出力される。   In the intra-frame prediction unit 103, the decoding target image input from the block division unit 102 and the decoded image of the area that has been encoded with respect to the periphery of the encoding target block, stored in the intra-frame decoding image memory 117. Is input, and prediction using correlation within the frame is performed. For example, the pixel value is predicted in a plurality of predetermined directions in units of 4 × 4 pixels, 8 × 8 pixels, and 16 × 16 pixels for the encoding target block, and is selected as a unit of prediction processing Prediction using the correlation of adjacent pixels in the screen is performed using a method called intra prediction that generates a predicted image together with information indicating the direction (intra prediction mode). The predicted image and the selected intra prediction mode are output from the intra-frame prediction unit 103 to the prediction mode determination unit 110.

動きベクトル検出部104では、ブロック分割部102より入力された符号化対象ブロックと、復号参照画像メモリ118に格納された、画面全体の符号化が完了したフレームの復号画像が参照画像として入力されて、符号化対象ブロックと参照画像との間での動き推定を行う。一般的な動き推定処理としては、画面内の同一位置より所定の移動量だけ移動させた位置の参照画像を切り出し、その画像を予測ブロックとした際の予測誤差が最も少なくなる移動量を動きベクトル値として、移動量を変化させながら求めるブロックマッチング処理が用いられる。検出された動きベクトル値は、動き補償予測部105に出力される。   In the motion vector detection unit 104, the block to be encoded input from the block division unit 102 and the decoded image of the frame that has been encoded on the entire screen and stored in the decoded reference image memory 118 are input as the reference image. Then, motion estimation is performed between the encoding target block and the reference image. As a general motion estimation process, a reference image at a position moved by a predetermined movement amount from the same position on the screen is cut out, and the movement amount that minimizes the prediction error when the image is used as a prediction block is determined as a motion vector. As a value, a block matching process that is obtained while changing the movement amount is used. The detected motion vector value is output to the motion compensation prediction unit 105.

動き補償予測部105は、動きベクトル検出部104によって求められた動きベクトル値を入力し、16×16以下の複数のブロックサイズ及び複数の参照画像に対する動き補償予測画像を、復号参照画像メモリ118より取得し、ブロック分割部102より入力された符号化対象ブロックに対して、最も符号化する差分情報が少ない予測信号を選択すると共に、最も符号化する差分情報が少ない予測信号を選択する。動き補償予測部105は、選択された動き補償予測モードと予測信号を予測モード判定部110に出力する。   The motion compensation prediction unit 105 receives the motion vector value obtained by the motion vector detection unit 104, and receives motion compensated prediction images for a plurality of block sizes of 16 × 16 or less and a plurality of reference images from the decoded reference image memory 118. The prediction signal with the least difference information to be encoded is selected and the prediction signal with the least difference information to be encoded is selected for the encoding target block acquired and input from the block dividing unit 102. The motion compensation prediction unit 105 outputs the selected motion compensation prediction mode and the prediction signal to the prediction mode determination unit 110.

動きベクトル予測部106は、周辺の符号化済みブロックの動きベクトルを用いて、予測動きベクトル値を算出し、動きベクトル検出部104、動き補償予測部105に供給する。   The motion vector prediction unit 106 calculates a predicted motion vector value using the motion vectors of the surrounding encoded blocks, and supplies the motion vector detection unit 104 and the motion compensated prediction unit 105.

前記予測動きベクトル値を用いる事で、動きベクトル検出部104は、動きベクトル予測値と動きベクトル値との差分を符号化する際に必要となる符号量を加味して、最適な動きベクトル値を検出する。同様に、動き補償予測部105は、動きベクトル予測値と動きベクトル値との差分を符号化する際に必要となる符号量を加味して、最適な動き補償予測のブロック単位と用いる参照画像及び動きベクトル値を選択する。   By using the predicted motion vector value, the motion vector detection unit 104 takes into account the amount of code necessary for encoding the difference between the motion vector predicted value and the motion vector value, and determines the optimal motion vector value. To detect. Similarly, the motion compensation prediction unit 105 takes into account the amount of code required when encoding the difference between the motion vector prediction value and the motion vector value, and the reference image used as the block unit for the optimal motion compensation prediction and Select a motion vector value.

動きベクトル予測部106は、更に格納している周辺の符号化済みブロックの動きベクトル、及び動きベクトルの対象となっている参照画像や動き補償のブロックサイズを示す情報を、基準参照画像決定部107に出力する。   The motion vector prediction unit 106 further stores the stored motion vectors of the surrounding encoded blocks, the reference image that is the target of the motion vector, and the information indicating the block size of the motion compensation, the standard reference image determination unit 107. Output to.

基準参照画像決定部107は、動きベクトル予測部106より入力された周辺の符号化済みブロックの動き補償予測情報である、動きベクトル、及び動きベクトルの対象となっている参照画像や動き補償のブロックサイズを元に、符号化対象ブロックに対して動きベクトルを予測可能な参照画像を確定すると共に、確定した参照画像に対する予測動きベクトル値を算出する機能を有する。算出した予測動きベクトル値と対応する参照画像を示す情報は、参照画像間動きベクトル検出部108に出力される。基準参照画像決定部107の詳細動作に関しては後述する。   The reference reference image determination unit 107 is a motion vector that is motion compensated prediction information of a surrounding encoded block input from the motion vector prediction unit 106, and a reference image or motion compensation block that is a target of the motion vector. Based on the size, it has a function of determining a reference image that can predict a motion vector for an encoding target block and calculating a predicted motion vector value for the determined reference image. Information indicating the reference image corresponding to the calculated predicted motion vector value is output to the inter-reference image motion vector detection unit 108. The detailed operation of the reference reference image determination unit 107 will be described later.

参照画像間動きベクトル検出部108は、基準参照画像決定部107より入力された、予測動きベクトル値と対応する参照画像を示す情報を元に、復号参照画像メモリ118より動き補償予測に用いる第1の参照ブロックを抽出する。   The inter-reference image motion vector detection unit 108 uses the decoded reference image memory 118 for the motion compensated prediction based on the information indicating the reference image corresponding to the predicted motion vector value input from the standard reference image determination unit 107. Extract reference blocks.

続いて、参照画像間動きベクトル検出部108は、抽出した第1の参照ブロックと他の参照画像との間における動きベクトルをブロックマッチング等で誤差値を算出し、その値が小さな動きベクトルを参照画像間動きベクトルとして算出する。参照画像間動きベクトル検出部108は、算出した参照画像間動きベクトルにより他の参照画像から抽出された第2の参照ブロックを第1の参照ブロックと共に、ダイレクト動き補償予測部109に出力する。参照画像間動きベクトル検出部108は、基準参照画像に対する予測動きベクトル値と、予測動きベクトル値と参照画像間動きベクトルから算出される、他の参照画像と符号化対象ブロックとの間の動きベクトル値も、ダイレクト動き補償予測部109に出力する。参照画像間動きベクトル検出部108の詳細動作に関しては後述する。   Subsequently, the inter-reference image motion vector detection unit 108 calculates an error value by block matching or the like for the motion vector between the extracted first reference block and another reference image, and refers to a motion vector having a small value. Calculated as an inter-image motion vector. The inter-reference image motion vector detection unit 108 outputs the second reference block extracted from the other reference image based on the calculated inter-reference image motion vector to the direct motion compensation prediction unit 109 together with the first reference block. The inter-reference image motion vector detection unit 108 calculates a motion vector between another reference image and the encoding target block, which is calculated from the predicted motion vector value for the reference reference image, the predicted motion vector value, and the inter-reference image motion vector. The value is also output to the direct motion compensation prediction unit 109. The detailed operation of the inter-reference image motion vector detection unit 108 will be described later.

ダイレクト動き補償予測部109は、参照画像間動きベクトル検出部108より入力された第1の参照ブロックと第2の参照ブロックを画素毎に加算平均することで、動きベクトルを伝送しないダイレクトモードに対する動き補償予測ブロックを生成し、予測モード判定部110に出力すると共に、基準参照画像に対する予測動きベクトル値と他の参照画像と符号化対象ブロックとの間の動きベクトル値も、同様に予測モード判定部110に出力する。   The direct motion compensation prediction unit 109 performs motion averaging for the direct mode in which no motion vector is transmitted by averaging the first reference block and the second reference block input from the inter-reference image motion vector detection unit 108 for each pixel. A compensated prediction block is generated and output to the prediction mode determination unit 110. Similarly, a prediction motion vector value for the reference reference image and a motion vector value between another reference image and the encoding target block are also predicted by the prediction mode determination unit. To 110.

予測モード判定部110は、フレーム内予測部103、動き補償予測部105、ダイレクト動き補償予測部109より入力された各予測手法に対する予測モードと予測画像より、ブロック分割部102より入力された符号化対象ブロックに対して、最も符号化する差分情報が少ない予測信号を選択し、選択された予測手法に対する予測画像ブロックを減算器111及び加算器116に出力すると共に、エントロピー符号化部に119に対して、付加情報としての予測モード情報と、予測モードに応じた符号化を要する情報を出力する。   The prediction mode determination unit 110 uses the prediction mode and the prediction image for each prediction method input from the intra-frame prediction unit 103, the motion compensation prediction unit 105, and the direct motion compensation prediction unit 109, and the encoding input from the block division unit 102. For the target block, a prediction signal with the least amount of difference information to be encoded is selected, a prediction image block for the selected prediction method is output to the subtractor 111 and the adder 116, and the entropy encoding unit 119 is Thus, prediction mode information as additional information and information that requires encoding according to the prediction mode are output.

予測モード判定部110は、選択した予測手法において用いられた動きベクトル及び動きベクトルの対象となっている参照画像や動き補償のブロックサイズ等の予測モード情報を、動きベクトル予測部106に出力する。出力された情報は、続く符号化対象ブロックにおける予測動きベクトル値の生成に用いられる。   The prediction mode determination unit 110 outputs, to the motion vector prediction unit 106, the motion vector used in the selected prediction method, the reference image that is the target of the motion vector, and the motion compensation block size and the like. The output information is used to generate a predicted motion vector value in the subsequent encoding target block.

減算器111は、ブロック分割部102から供給された符号化対象ブロックと、予測モード判定部110より供給された予測画像ブロックとの差分を演算し、結果を差分ブロックとして直交変換部112に供給する。   The subtractor 111 calculates the difference between the encoding target block supplied from the block dividing unit 102 and the predicted image block supplied from the prediction mode determining unit 110, and supplies the result to the orthogonal transform unit 112 as a difference block. .

直交変換部112では、差分ブロックに対して4×4画素もしくは8×8画素単位にDCT変換を行うことで、直交変換された周波数成分信号に相当するDCT係数を生成する。また、直交変換部112では、生成したDCT係数をマクロブロック単位に纏めて、量子化部113に出力する。   The orthogonal transform unit 112 generates DCT coefficients corresponding to the orthogonally transformed frequency component signal by performing DCT transform on the difference block in units of 4 × 4 pixels or 8 × 8 pixels. Further, the orthogonal transform unit 112 collects the generated DCT coefficients in units of macroblocks and outputs them to the quantization unit 113.

量子化部113においては、DCT係数を周波数成分毎に異なった値で除算することにより量子化処理を施す。量子化部113は、量子化処理されたDCT係数を、逆量子化部114及びエントロピー符号化部119に供給する。   In the quantization unit 113, the quantization process is performed by dividing the DCT coefficient by a different value for each frequency component. The quantization unit 113 supplies the quantized DCT coefficient to the inverse quantization unit 114 and the entropy encoding unit 119.

逆量子化部114は、量子化部113より入力した量子化処理されたDCT係数に対して、量子化時に除算された値を乗算することで逆量子化を行い、逆量子化された結果を復号されたDCT係数として、逆直交変換部115に出力する。   The inverse quantization unit 114 performs inverse quantization by multiplying the quantized DCT coefficient input from the quantization unit 113 by a value divided at the time of quantization, and the result of the inverse quantization is obtained. The decoded DCT coefficient is output to the inverse orthogonal transform unit 115.

逆直交変換部115においては逆DCT処理が行われ、復号された差分ブロックを生成する。逆直交変換部115は、復号された差分ブロックを加算器116に供給する。   The inverse orthogonal transform unit 115 performs inverse DCT processing to generate a decoded difference block. The inverse orthogonal transform unit 115 supplies the decoded difference block to the adder 116.

加算器116は、予測モード判定部110より供給された予測画像ブロックと、逆直交変換部115より供給される復号された差分ブロックを加算し、局部復号ブロックを生成する。加算器116で生成された局部復号ブロックは、フレーム内復号画像メモリ117及び復号参照画像メモリ118に逆ブロック変換された形で格納される。MPEG−4 AVCの場合には、局部復号ブロックが復号参照画像メモリ118に入力される手前で、ブロック毎での符号化歪が境界となって現れやすいブロック境界に対して、適応的にフィルタリングを行う処理が施される場合もある。   The adder 116 adds the prediction image block supplied from the prediction mode determination unit 110 and the decoded difference block supplied from the inverse orthogonal transform unit 115 to generate a local decoding block. The local decoded block generated by the adder 116 is stored in the intra-frame decoded image memory 117 and the decoded reference image memory 118 in a form subjected to inverse block conversion. In the case of MPEG-4 AVC, adaptive filtering is applied to a block boundary where coding distortion of each block is likely to appear as a boundary before the local decoded block is input to the decoded reference image memory 118. In some cases, processing to be performed is performed.

エントロピー符号化部119は、量子化部113より供給された量子化処理されたDCT係数と、予測モード判定部110より供給された、予測モード情報と、予測モードに応じた符号化を要する情報に対して、それぞれの情報の可変長符号化を行う。具体的には、フレーム内予測の場合にはイントラ予測モードと予測ブロックサイズ情報が、動き補償予測及び合成画像動き補償予測の場合には、予測ブロックサイズ、参照画像の指定情報、及び動きベクトルと予測動きベクトル値との差分値が、符号化を要する情報となる。可変長符号化を施した情報は符号化ビットストリームとして、エントロピー符号化部119よりストリームバッファ120に出力される。   The entropy encoding unit 119 converts the quantized DCT coefficient supplied from the quantization unit 113, the prediction mode information supplied from the prediction mode determination unit 110, and information that requires encoding according to the prediction mode. On the other hand, variable length encoding of each information is performed. Specifically, intra prediction mode and prediction block size information in the case of intra-frame prediction, and prediction block size, reference image designation information, and motion vector in the case of motion compensation prediction and synthesized image motion compensation prediction, The difference value from the predicted motion vector value is information that requires encoding. Information subjected to variable length coding is output to the stream buffer 120 from the entropy coding unit 119 as a coded bit stream.

ストリームバッファ120に蓄えられた符号化ビットストリームは、出力端子121を介して、記録媒体もしくは伝送路に出力される。符号化ビットストリームの符号量制御に関しては、符号量制御部122に、ストリームバッファ120に蓄えられている符号化ビットストリームの符号量が供給され、目標とする符号量との間で比較がとられ、目標符号量に近づけるために量子化部113の量子化の細かさ(量子化スケール)が制御される。   The encoded bit stream stored in the stream buffer 120 is output to a recording medium or a transmission path via the output terminal 121. Regarding the code amount control of the encoded bit stream, the code amount control unit 122 is supplied with the code amount of the encoded bit stream stored in the stream buffer 120 and compared with the target code amount. In order to approach the target code amount, the quantization level (quantization scale) of the quantization unit 113 is controlled.

続いて、実施の形態1の動画像符号化装置により生成された符号化ビットストリームを復号する、動画像復号装置を説明する。図2は、実施の形態1の動画像復号装置の構成図である。   Subsequently, a moving picture decoding apparatus that decodes an encoded bitstream generated by the moving picture encoding apparatus according to Embodiment 1 will be described. FIG. 2 is a configuration diagram of the moving picture decoding apparatus according to the first embodiment.

図2に示すように、実施の形態1の動画像復号装置は、入力端子200、ストリームバッファ201、エントロピー復号部202、予測モード復号部203、予測画像選択部204、逆量子化部205、逆直交変換部206、加算器207、フレーム内復号画像メモリ208、復号参照画像メモリ209、出力端子210、フレーム内予測部211、動きベクトル予測復号部212、動き補償予測部213、基準参照画像決定部214、参照画像間動きベクトル検出部215、及びダイレクト動き補償予測部216を含む。ここで、参照画像間動きベクトル検出部215およびダイレクト動き補償予測部216は、本発明の動画像復号装置の「参照画像合成部」の実施例である。   As shown in FIG. 2, the moving picture decoding apparatus according to Embodiment 1 includes an input terminal 200, a stream buffer 201, an entropy decoding unit 202, a prediction mode decoding unit 203, a prediction image selection unit 204, an inverse quantization unit 205, and an inverse. Orthogonal transformation unit 206, adder 207, intra-frame decoded image memory 208, decoded reference image memory 209, output terminal 210, intra-frame prediction unit 211, motion vector prediction decoding unit 212, motion compensation prediction unit 213, reference reference image determination unit 214, an inter-reference image motion vector detection unit 215, and a direct motion compensation prediction unit 216. Here, the inter-reference image motion vector detection unit 215 and the direct motion compensation prediction unit 216 are examples of the “reference image synthesis unit” of the video decoding device of the present invention.

基準参照画像決定部214、参照画像間動きベクトル検出部215を設けた点と、これらの処理ブロック及びダイレクト動き補償予測部216における動作が、本発明の実施の形態1における特徴であり、これらの動作は図1に示した動画像符号化装置の同じ機能ブロックと同一の動作をすることで、付加情報の伝送無しにダイレクトモードに対する動き補償予測ブロックを生成する。他の処理ブロックに関してはMPEG4−AVC等の動画像復号装置における復号処理を構成する処理ブロックと同一処理が適用できる。   The point in which the reference reference image determination unit 214 and the inter-reference image motion vector detection unit 215 are provided, and the operations in these processing blocks and the direct motion compensation prediction unit 216 are the features in Embodiment 1 of the present invention. The operation is the same as that of the same functional block of the moving picture coding apparatus shown in FIG. 1, thereby generating a motion compensated prediction block for the direct mode without transmission of additional information. For the other processing blocks, the same processing as the processing blocks constituting the decoding processing in the moving picture decoding apparatus such as MPEG4-AVC can be applied.

入力端子200より入力された符号化ビットストリームは、ストリームバッファ201に供給され、ストリームバッファ201で符号化ビットストリームの符号量変動を吸収して、フレーム等の所定単位でエントロピー復号部202に供給される。エントロピー復号部202は、ストリームバッファ201を介して入力された符号化ビットストリームより、符号化された予測モード情報と予測モードに応じた付加情報、及び量子化されたDCT係数に関して可変長復号を行い、逆量子化部205に量子化されたDCT係数を、予測モード復号部203に予測モード情報と予測モードに応じた付加情報を出力する。   The encoded bit stream input from the input terminal 200 is supplied to the stream buffer 201, and the stream buffer 201 absorbs the code amount variation of the encoded bit stream and is supplied to the entropy decoding unit 202 in a predetermined unit such as a frame. The The entropy decoding unit 202 performs variable-length decoding on the encoded prediction mode information, the additional information corresponding to the prediction mode, and the quantized DCT coefficient from the encoded bitstream input via the stream buffer 201. Then, the quantized DCT coefficient is output to the inverse quantization unit 205, and the prediction mode information and additional information corresponding to the prediction mode are output to the prediction mode decoding unit 203.

逆量子化部205、逆直交変換部206、加算器207、フレーム内復号画像メモリ208、及び復号参照画像メモリ209に関しては、本発明の実施の形態1の動画像符号化装置の局部復号処理である逆量子化部114、逆直交変換部115、加算器116、フレーム内復号画像メモリ117、復号参照画像メモリ118と同様の処理が行われる。復号参照画像メモリ209に蓄えられた復号画像は、出力端子210を介して、表示装置に復号画像信号として表示される。   Regarding the inverse quantization unit 205, the inverse orthogonal transform unit 206, the adder 207, the intra-frame decoded image memory 208, and the decoded reference image memory 209, the local decoding process of the moving image coding apparatus according to the first embodiment of the present invention. Processing similar to that of a certain inverse quantization unit 114, inverse orthogonal transform unit 115, adder 116, intra-frame decoded image memory 117, and decoded reference image memory 118 is performed. The decoded image stored in the decoded reference image memory 209 is displayed as a decoded image signal on the display device via the output terminal 210.

予測モード復号部203では、エントロピー復号部202より入力された予測モード情報と予測モードに応じた付加情報より、予測モードとして動き補償予測が選択された場合に、動きベクトル予測復号部212に対して、予測したブロック単位を示す情報である動き補償予測モードもしくはダイレクトモードを示す予測モード情報と、動き補償予測モードの場合の復号した差分ベクトル値を出力すると共に、予測画像選択部204に対して予測モード情報を出力する。また、予測モード復号部203は、復号した予測モード情報に応じて、フレーム内予測部211、動き補償予測部213、及びダイレクト動き補償予測部216に対して、選択されたことを示す情報及び予測モードに応じた付加情報を出力する。   In the prediction mode decoding part 203, when motion compensation prediction is selected as a prediction mode from the prediction mode information input from the entropy decoding part 202 and the additional information corresponding to the prediction mode, the motion vector prediction decoding part 212 The prediction mode information indicating the predicted block unit or the prediction mode information indicating the direct mode and the decoded difference vector value in the case of the motion compensation prediction mode are output and the prediction image selection unit 204 is also predicted. Output mode information. Also, the prediction mode decoding unit 203 provides information indicating that the prediction mode decoding unit 203 has selected to the intra-frame prediction unit 211, the motion compensation prediction unit 213, and the direct motion compensation prediction unit 216 according to the decoded prediction mode information. Outputs additional information according to the mode.

予測画像選択部204は、予測モード復号部203より入力された予測モード情報に応じて、フレーム内予測部211、動き補償予測部213、及びダイレクト動き補償予測部216の何れかより出力された、復号対象ブロックに対する予測画像を選択し、加算器207に出力する。   The prediction image selection unit 204 is output from any of the intra-frame prediction unit 211, the motion compensation prediction unit 213, and the direct motion compensation prediction unit 216 according to the prediction mode information input from the prediction mode decoding unit 203. A predicted image for the decoding target block is selected and output to the adder 207.

フレーム内予測部211は、復号した予測モードがフレーム内予測を示している場合に、予測モード復号部203より予測モードに応じた付加情報として、イントラ予測モードが入力され、イントラ予測モードに応じてフレーム内復号画像メモリ208に格納された、復号対象ブロックの周辺に対して復号が完了した領域の復号画像が入力され、符号化装置と同じイントラ予測モードでフレーム内の相関性を用いた予測が行なわれる。フレーム内予測部211は、予測により生成したフレーム内予測画像を、予測画像選択部204に出力する。   When the decoded prediction mode indicates intra-frame prediction, the intra-frame prediction unit 211 receives the intra prediction mode as additional information according to the prediction mode from the prediction mode decoding unit 203, and according to the intra prediction mode. The decoded image of the region where decoding is completed is input to the periphery of the decoding target block stored in the intra-frame decoded image memory 208, and prediction using the intra-frame correlation is performed in the same intra prediction mode as the encoding device. Done. The intra-frame prediction unit 211 outputs the intra-frame prediction image generated by the prediction to the prediction image selection unit 204.

動きベクトル予測復号部212は、予測モード復号部203より入力された復号した差分ベクトル値に対して、周辺の復号済みブロックの動きベクトルを用いて、符号化装置で行う方式と同じ方法で予測動きベクトル値を算出し、差分ベクトル値と予測動きベクトル値を加算した値を、復号対象ブロックの動きベクトル値として動き補償予測部213に出力する。動きベクトルは、動き補償予測モードもしくは合成画像動き補償予測モードで示される、予測処理のブロック単位に従って符号化された数だけ復号される。   The motion vector predictive decoding unit 212 uses the motion vector of the neighboring decoded block for the decoded difference vector value input from the prediction mode decoding unit 203, and performs the motion prediction using the same method as that performed by the encoding device. A vector value is calculated, and a value obtained by adding the difference vector value and the predicted motion vector value is output to the motion compensated prediction unit 213 as a motion vector value of the decoding target block. The motion vector is decoded by the number encoded according to the block unit of the prediction process indicated in the motion compensation prediction mode or the composite image motion compensation prediction mode.

動きベクトル予測復号部212は、更に格納している周辺の符号化済みブロックの動きベクトル、及び動きベクトルの対象となっている参照画像や動き補償のブロックサイズを示す情報を、基準参照画像決定部214に出力する。   The motion vector predictive decoding unit 212 further stores the stored motion vectors of the surrounding encoded blocks, the reference image that is the target of the motion vector, and information indicating the block size of motion compensation, as a reference reference image determination unit. To 214.

動き補償予測部213は、動きベクトル予測復号部212より入力された動きベクトル値より、復号参照画像メモリ209より動き補償予測画像を生成し、生成した動き補償予測画像を、予測画像選択部204に出力する。   The motion compensation prediction unit 213 generates a motion compensated prediction image from the decoded reference image memory 209 from the motion vector value input from the motion vector prediction decoding unit 212, and sends the generated motion compensation prediction image to the prediction image selection unit 204. Output.

基準参照画像決定部214は、動きベクトル予測復号部212より入力された周辺の符号化済みブロックの動き補償予測情報である、動きベクトル、及び動きベクトルの対象となっている参照画像や動き補償のブロックサイズを元に、復号対象ブロックに対して動きベクトルを予測可能な参照画像を確定すると共に、確定した参照画像に対する予測動きベクトル値を算出する機能を有する。算出した予測動きベクトル値と対応する参照画像を示す情報は、参照画像間動きベクトル検出部215に出力される。   The reference reference image determination unit 214 is the motion compensation prediction information of the surrounding encoded blocks input from the motion vector prediction decoding unit 212, the motion vector, the reference image that is the target of the motion vector, and motion compensation. Based on the block size, it has a function of determining a reference image that can predict a motion vector for a decoding target block and calculating a predicted motion vector value for the determined reference image. Information indicating the reference image corresponding to the calculated predicted motion vector value is output to the inter-reference image motion vector detection unit 215.

参照画像間動きベクトル検出部215は、基準参照画像決定部214より入力された、予測動きベクトル値と対応する参照画像を示す情報を元に、復号参照画像メモリ209より動き補償予測に用いる第1の参照ブロックを抽出する。   The inter-reference image motion vector detection unit 215 uses the decoded reference image memory 209 for the first motion compensation prediction based on information indicating the reference image corresponding to the predicted motion vector value input from the standard reference image determination unit 214. Extract reference blocks.

続いて、参照画像間動きベクトル検出部215は、抽出した第1の参照ブロックと他の参照画像との間における動きベクトルをブロックマッチング等で誤差値を算出し、その値が小さな動きベクトルを参照画像間動きベクトルとして算出する。参照画像間動きベクトル検出部215は、算出した参照画像間動きベクトルにより他の参照画像から抽出された第2の参照ブロックを第1の参照ブロックと共に、ダイレクト動き補償予測部216に出力する。参照画像間動きベクトル検出部215は、基準参照画像に対する予測動きベクトル値と、予測動きベクトル値と参照画像間動きベクトルから算出される、他の参照画像と符号化対象ブロックとの間の動きベクトル値も、ダイレクト動き補償予測部216に出力する。基準参照画像決定部214と参照画像間動きベクトル検出部215の詳細動作は、実施の形態1の動画像符号化装置における、基準参照画像決定部107及び参照画像間動きベクトル検出部108と対をなすものであり、詳細動作に関しては後述する。   Subsequently, the inter-reference image motion vector detection unit 215 calculates an error value by block matching or the like for the motion vector between the extracted first reference block and another reference image, and refers to a motion vector having a small value. Calculated as an inter-image motion vector. The inter-reference image motion vector detection unit 215 outputs the second reference block extracted from the other reference images based on the calculated inter-reference image motion vector together with the first reference block to the direct motion compensation prediction unit 216. The inter-reference image motion vector detecting unit 215 calculates a motion vector between another reference image and the encoding target block, which is calculated from the predicted motion vector value for the reference reference image, the predicted motion vector value, and the inter-reference image motion vector. The value is also output to the direct motion compensation prediction unit 216. Detailed operations of the reference reference image determination unit 214 and the inter-reference image motion vector detection unit 215 are paired with the reference reference image determination unit 107 and the inter-reference image motion vector detection unit 108 in the moving image encoding apparatus of the first embodiment. The detailed operation will be described later.

ダイレクト動き補償予測部216は、参照画像間動きベクトル検出部215より入力された第1の参照ブロックと第2の参照ブロックを画素毎に加算平均することで、動きベクトルを伝送しないダイレクトモードに対する動き補償予測ブロックを生成し、予測画像選択部204に出力すると共に、基準参照画像に対する予測動きベクトル値と他の参照画像と符号化対象ブロックとの間の動きベクトル値を動きベクトル予測復号部212に出力する。出力された情報は、続く復号対象ブロックにおける予測動きベクトル値の生成に用いられる。   The direct motion compensation prediction unit 216 averages the first reference block and the second reference block input from the inter-reference image motion vector detection unit 215 for each pixel, thereby performing motion for the direct mode in which no motion vector is transmitted. A compensated prediction block is generated and output to the prediction image selection unit 204, and a motion vector value between a prediction motion vector value for the reference reference image and another reference image and the current block is encoded to the motion vector prediction decoding unit 212. Output. The output information is used to generate a predicted motion vector value in the subsequent decoding target block.

以下、実施の形態1の動画像符号化装置と動画像復号装置において動作する、合成した参照画像による動き補償予測の予測画像生成方法を、図3を用いて説明を行う。   Hereinafter, a motion compensation prediction prediction image generation method using a synthesized reference image, which operates in the video encoding device and the video decoding device according to Embodiment 1, will be described with reference to FIG.

図3(c)は、ダイレクト動き補償予測を示す概念図である。図3(a)と図3(b)は、MPEG4−AVCにおいて用いられている複数参照画像を用いた動き補償予測の概念図である。   FIG. 3C is a conceptual diagram showing direct motion compensation prediction. FIGS. 3A and 3B are conceptual diagrams of motion compensation prediction using a plurality of reference images used in MPEG4-AVC.

図3(a)は、双方向予測と呼ばれている2つの参照画像に対して符号化対象ブロックとの間で動きベクトルを検出し、それぞれの参照画像に対する動きベクトルを伝送すると共に、2つの動きベクトルで示される参照ブロックの平均値を予測画像とする手法である。2つの参照画像を合成することで、時間方向の動き適応フィルタとしての符号化劣化成分の除去機能と、符号化対象物の微少な輝度変化成分を平均化により追従する機能とを持った予測画像を生成できる。   FIG. 3 (a) detects a motion vector between two reference pictures called bi-directional prediction and a coding target block, transmits a motion vector for each reference picture, In this method, the average value of reference blocks indicated by motion vectors is used as a predicted image. A prediction image having a function of removing an encoding degradation component as a motion adaptive filter in the time direction by synthesizing two reference images and a function of following a minute luminance change component of an encoding object by averaging. Can be generated.

MPEG4―AVCにおいては、複数毎の復号された参照画像を格納しておき、所定のブロック単位に予測に用いる参照画像の番号と動きベクトルを伝送することで、適応的に参照画像を選択している。図3(a)の場合には、参照画像として4枚の復号画像が確保されており、参照画像1と参照画像3を用いて2つの予測画像を取得し、双方向予測を行う場合を示している。動きベクトルとしては、mvL0及びmvL1が予測動きベクトルとの差分値を取られ伝送される。   In MPEG4-AVC, a plurality of decoded reference images are stored, and a reference image number and a motion vector used for prediction are transmitted in a predetermined block unit to adaptively select the reference image. Yes. In the case of FIG. 3A, four decoded images are secured as reference images, and two prediction images are acquired using the reference image 1 and the reference image 3, and bidirectional prediction is performed. ing. As the motion vectors, mvL0 and mvL1 take the difference value from the predicted motion vector and are transmitted.

図3(b)は、時間ダイレクトモードと呼ばれている、動きベクトルの伝送なしに2つの参照画像を用いた予測を行う手法である。時間ダイレクトモードにおいては、アンカーブロックと呼ばれる、符号化対象画像より時間的に後に再生される時間的に直近の参照画像(ここでは参照画像3を示す)の、符号化対象ブロックと同位置にあるブロックが参照画像2からの動き補償予測で生成されている場合に、その動きが時間的に連続していることを想定して、参照画像2と参照画像3の間の動きベクトルmvColより符号化対象ブロックと参照画像2の間の動きベクトル値mvL0、及び符号化対象ブロックと参照画像3の間の動きベクトル値mvL1を生成し、その動きベクトルにより双方向予測を行う構成となる。   FIG. 3B is a technique called “temporal direct mode” that performs prediction using two reference images without transmission of motion vectors. In the temporal direct mode, an anchor block, which is a temporally closest reference image (referred to as reference image 3 here) reproduced after the encoding target image, is located at the same position as the encoding target block. When a block is generated by motion compensated prediction from the reference image 2, it is encoded from a motion vector mvCol between the reference image 2 and the reference image 3 on the assumption that the motion is temporally continuous. A motion vector value mvL0 between the target block and the reference image 2 and a motion vector value mvL1 between the encoding target block and the reference image 3 are generated, and bidirectional prediction is performed using the motion vector.

時間ダイレクトモードにおいては、動きベクトルmvL0、mvL1を伝送することなく、2つの参照画像を合成した予測画像を生成できるが、図3b)で示されるように、mvColが大きい場合に、mvColで表される動きが符号化対象ブロックから空間的に離れた位置の動きを示しているため、空間的な動きの連続性の無い場合には適切なmvL0、mvL1を算出できない。   In the temporal direct mode, a prediction image obtained by synthesizing two reference images can be generated without transmitting the motion vectors mvL0 and mvL1, but when mvCol is large as shown in FIG. 3b), it is expressed by mvCol. Therefore, when there is no spatial motion continuity, appropriate mvL0 and mvL1 cannot be calculated.

また、動きベクトルmvL0、mvL1は、時間的かつ連続している場合の動きに限定して暗黙に生成されており、時間的に動きベクトル値の連続性が少ない場合にも、適切な動きベクトルを生成できず、時間ダイレクトモードは空間的及び時間的に動きが一様である限定された条件でなければ有効に機能しない。   Further, the motion vectors mvL0 and mvL1 are implicitly generated only when the motion is temporally continuous, and an appropriate motion vector can be selected even when the motion vector value is less continuous in time. It cannot be generated, and the temporal direct mode does not function effectively unless it is limited in terms of spatial and temporal movement.

特許文献1に示される方法は、上記時間ダイレクトモードの品質を向上させる目的で、符号化側と復号側が共に参照画像間で符号化対象ブロックを中心に対称位置に存在するブロックでの動きを検出しmvColを作り直すことで、符号化対象ブロックの位置を通る時間連続性のある動きベクトルを生成する手法であるが、時間的な連続性に関しては時間ダイレクトモードと同様に動きが一様である限定でmvL0、mvL1が生成され、時間的に連続性の少ない場合には、時間ダイレクトモードと同様に有効に機能しない。   In the method disclosed in Patent Document 1, for the purpose of improving the quality of the above-described temporal direct mode, both the encoding side and the decoding side detect motion in a block existing at a symmetrical position around the encoding target block between reference images. This is a method of generating a motion vector having temporal continuity passing through the position of the encoding target block by recreating mvCol, but the temporal continuity is limited in that the motion is uniform as in the temporal direct mode. In the case where mvL0 and mvL1 are generated and the temporal continuity is small, it does not function effectively like the temporal direct mode.

本発明のダイレクト動き補償予測の予測構成は、図3(c)で示されるように、複数存在する参照画像より基準参照画像(図3(c)では参照画像3)を確定させ、基準参照画像に対する符号化対象ブロックとの間の予測動きベクトル値を算出してmvL0とする。続いて、基準参照画像の動きベクトルmvL0で示された参照ブロックに対して、他の参照画像(図3(c)では参照画像1)に対する参照画像間での動きベクトル検出を符号化側と復号側で共に行い、参照画像間動きベクトルmvInterRefより,符号化対象ブロックと参照画像1の間の動きベクトル値mvL1を算出し、動きベクトルmvL0、mvL1を用いて2つの参照画像を用いた双方向予測を行う構成を取る。   As shown in FIG. 3C, the prediction configuration of the direct motion compensated prediction according to the present invention determines a reference reference image (reference image 3 in FIG. 3C) from a plurality of existing reference images, and sets the reference reference image. The predicted motion vector value between the current block and the current block is calculated as mvL0. Subsequently, with respect to the reference block indicated by the motion vector mvL0 of the standard reference image, motion vector detection between reference images for another reference image (reference image 1 in FIG. 3C) is performed on the encoding side and decoding. The motion vector value mvL1 between the encoding target block and the reference image 1 is calculated from the inter-reference image motion vector mvInterRef, and bi-directional prediction using two reference images using the motion vectors mvL0 and mvL1 Take the configuration to do.

空間的・時間的に連続性が保たれていない画像に対する動きベクトルの暗黙的算出として、周辺の復号済み動き補償予測情報を用いて最も参照画像として適切に動きベクトルが予測出来る参照画像を選定する機能を有する点と、基準とした参照画像及び動きベクトルで示された予測画像ブロックに対して、符号化・復号双方で他の参照画像の同一部分を参照画像間の動きベクトルを検出する事で追跡し、他方の動きベクトル値を暗黙的に算出させる点が、本発明の実施の形態の動画像符号化装置、動画像復号装置におけるダイレクト動き補償予測手法のポイントであり、これにより空間的・時間的な連続性の少ない動画像信号においてもより適切な双方向予測を動きベクトルの伝送を伴うことなく実現し、符号化効率を大幅に向上可能である。   As an implicit calculation of motion vectors for images that are not spatially and temporally continuous, a reference image that can predict a motion vector most appropriately is selected as a reference image using peripheral decoded motion compensation prediction information. By detecting the motion vector between the reference images for the same part of the other reference images for both the encoding and decoding of the prediction image block indicated by the reference image and the motion vector as a reference point with the function The point of tracking and implicitly calculating the other motion vector value is the point of the direct motion compensated prediction method in the moving picture coding apparatus and the moving picture decoding apparatus according to the embodiment of the present invention. Even in video signals with little temporal continuity, more appropriate bi-directional prediction can be realized without the transmission of motion vectors, and encoding efficiency can be greatly improved.

実施の形態1の符号化装置及び復号装置における、ダイレクト動き補償予測の処理手順を示すフローチャートを図4A、図4Bに示し、予測処理の流れを説明する。図4Aが符号化側、図4Bが復号側である。   4A and 4B are flowcharts showing the direct motion compensated prediction processing procedures in the encoding device and decoding device of Embodiment 1, and the flow of prediction processing will be described. 4A is the encoding side, and FIG. 4B is the decoding side.

符号化側では、最初に符号化対象ブロックに対する基準参照画像を確定する(S400)。
続いて、基準参照画像に対する予測動きベクトル値を算出する(S401)。続いて、予測動きベクトル値を動きベクトル値mvL0とし、符号化対象ブロックの画面内位置よりmvL0分移動させた位置の基準参照画像を取得し、第1の予測ブロックを生成する(S402)。
On the encoding side, first, a reference reference image for an encoding target block is determined (S400).
Subsequently, a predicted motion vector value for the standard reference image is calculated (S401). Subsequently, the motion vector value mvL0 is used as the predicted motion vector value, and a reference reference image at a position moved by mvL0 from the in-screen position of the encoding target block is acquired to generate a first predicted block (S402).

続いて、第1の予測ブロックに対して、他の参照画像との間で動きベクトルの検出を行い、参照画像間動きベクトル値mvInterRefを算出する(S403)。他の参照画像の選択に関しては、所定単位で明示的に指定する方法や、暗黙的に符号化対象ブロックを跨いだ時間的位置にある、符号化対象ブロックに最も近接している参照画像を取得する方法を用いることが可能である。実施の形態1においては、基準参照画像に対する他方の参照画像を示す情報(以降参照IDと記す)が画面単位の情報としてMPEG4−AVCにおけるスライスヘッダと同様の単位で伝送されるものとする。   Subsequently, a motion vector is detected between the first prediction block and another reference image, and an inter-reference image motion vector value mvInterRef is calculated (S403). Regarding the selection of other reference images, the method of explicitly specifying in a predetermined unit or the reference image closest to the encoding target block that is in the temporal position across the encoding target block is acquired. It is possible to use the method to do. In the first embodiment, it is assumed that information indicating the other reference image with respect to the standard reference image (hereinafter referred to as a reference ID) is transmitted in units similar to the slice header in MPEG4-AVC as information in units of screens.

参照画像間動きベクトル値mvInterRefより、第1の予測ブロックの画面内位置よりmvInterRef分移動させた位置の他の参照画像を取得し、第2の予測ブロックを生成する(S404)。符号化対象ブロックと第2の予測ブロックの間の動きを示す動きベクトル値mvL1に関しては、暗黙的に作られる値であるため動き補償予測の為に算出する必要はないが、後続する符号化対象ブロックの予測ベクトルを生成するための情報として用いる為に作成する。具体的には、mvL0とmvInterRefを加算する事でmvL1を算出する(S405)。
mvL1=mvL0+mvInterRef
尚、動きベクトル値は水平・垂直の2成分あり、それぞれの値を上記式で算出することになる。
From the inter-reference image motion vector value mvInterRef, another reference image moved by mvInterRef from the position in the screen of the first prediction block is acquired, and a second prediction block is generated (S404). The motion vector value mvL1 indicating the motion between the encoding target block and the second prediction block is an implicitly generated value and does not need to be calculated for motion compensated prediction. Created for use as information for generating a block prediction vector. Specifically, mvL1 is calculated by adding mvL0 and mvInterRef (S405).
mvL1 = mvL0 + mvInterRef
The motion vector value has two components, horizontal and vertical, and each value is calculated by the above formula.

最後に、第1の予測ブロックと第2の予測ブロックを画素毎に加算平均し、双方向予測を行った予測ブロックを、ダイレクト動き補償予測ブロックとして、動きベクトル値mvL0、mvL1と共に出力する(S406)。   Finally, the first prediction block and the second prediction block are averaged for each pixel, and the prediction block subjected to bi-directional prediction is output as a direct motion compensation prediction block together with the motion vector values mvL0 and mvL1 (S406). ).

復号側では、復号対象ブロックがダイレクト動き補償予測モードであった場合に(S410:YES)、最初に復号対象ブロックに対する基準参照画像を確定する(S411)。   On the decoding side, when the decoding target block is in the direct motion compensation prediction mode (S410: YES), first, a reference reference image for the decoding target block is determined (S411).

続いて、符号化側と同様に処理を施して行き、基準参照画像に対する予測動きベクトル値を算出し(S412)、予測動きベクトル値を動きベクトル値mvL0として第1の予測ブロックを生成し(S413)、第1の予測ブロックに対して、他の参照画像との間で動きベクトルの検出を行い、参照画像間動きベクトル値mvInterRefを算出し(S414)、参照画像間動きベクトル値mvInterRefより、第2の予測ブロックを生成し(S415)、mvL0とmvInterRefを加算する事でmvL1を算出する(S416)。   Subsequently, processing is performed in the same manner as on the encoding side, a predicted motion vector value for the reference reference image is calculated (S412), and a first predicted block is generated using the predicted motion vector value as the motion vector value mvL0 (S413). ), For the first prediction block, a motion vector is detected with another reference image, a motion vector value mvInterRef between reference images is calculated (S414), and the motion vector value mvInterRef between reference images is 2 prediction blocks are generated (S415), and mvL1 is calculated by adding mvL0 and mvInterRef (S416).

最後に、第1の予測ブロックと第2の予測ブロックを画素毎に加算平均し、双方向予測を行った予測ブロックを、ダイレクト動き補償予測ブロックとして、動きベクトル値mvL0、mvL1と共に出力する(S417)。   Finally, the first prediction block and the second prediction block are added and averaged for each pixel, and the prediction block subjected to bidirectional prediction is output as a direct motion compensated prediction block together with the motion vector values mvL0 and mvL1 (S417). ).

これらの動作は参照画像として復号済みの画像信号が使われているため、符号化側と復号側で全く同じ動作を行うことが出来、動きベクトル値mvL0、mvInterRef及びmvL1を伝送することなく、復号側で再現できる。   Since the decoded image signal is used as the reference image for these operations, the same operation can be performed on the encoding side and the decoding side, and the decoding is performed without transmitting the motion vector values mvL0, mvInterRef, and mvL1. Can be reproduced on the side.

次に、基準参照画像決定部107、214及び図4の処理フローチャートのS400、S411によって動作する、基準参照画像決定処理の動作を図5のフローチャートを用いて説明する。符号化側と復号側では同一の動作を行うため、以下の説明は共通の機能として実現される。   Next, the operation of the standard reference image determination process that operates according to the standard reference image determination units 107 and 214 and S400 and S411 of the process flowchart of FIG. 4 will be described with reference to the flowchart of FIG. Since the same operation is performed on the encoding side and the decoding side, the following description is realized as a common function.

基準参照画像決定部107、214では、最初に符号化対象ブロック(復号装置の場合は復号対象ブロック)の周辺ブロックにおいて用いられた動き補償予測の動きベクトル値、参照ID、動き補償のブロックサイズ情報を取得する(S500)。   In the reference reference image determination units 107 and 214, first, motion compensation prediction motion vector values, reference IDs, and motion compensation block size information used in the peripheral blocks of the encoding target block (decoding target block in the case of a decoding device). Is acquired (S500).

次に、符号化対象ブロックに隣接する動き補償予測情報を、動き補償予測ブロックサイズをあわせた形で格納する(S501)。具体的な振る舞いを図6を用いて説明する。図6(a)が、符号化対象ブロックと隣接する復号済みブロックとの関係である。ダイレクト動き補償予測の予測ブロックサイズを16×16とすると、符号化処理が16×16のマクロブロック単位で左から右、上から下に向かって行われているため、左(A)、上(B)、右上(C)、左上(D)の4マクロブロックに対する動き補償予測情報が隣接するブロックの情報となる。   Next, the motion compensation prediction information adjacent to the encoding target block is stored in a form in which the motion compensation prediction block size is combined (S501). Specific behavior will be described with reference to FIG. FIG. 6A shows the relationship between the encoding target block and the adjacent decoded block. If the prediction block size of direct motion compensated prediction is 16 × 16, the encoding process is performed from left to right and from top to bottom in units of 16 × 16 macroblocks, so left (A), top ( The motion compensated prediction information for the four macroblocks B), upper right (C), and upper left (D) is adjacent block information.

それぞれのマクロブロックは、様々なブロックサイズで動き補償が行われており、図6(b)で示されるように、マクロブロックより小さな単位で動き補償予測されたマクロブロックにおいては、複数の動き補償予測情報が存在する。   Each macroblock is motion-compensated with various block sizes. As shown in FIG. 6B, a plurality of motion compensations are performed in a macroblock that is motion-compensated and predicted in units smaller than the macroblock. Predictive information exists.

実施の形態1における、基準参照画像決定処理においては動き補償予測の情報に対してブロックサイズで重みを付けて評価する構成を取り、最小の動き補償予測ブロックに対する符号化対象に隣接したブロック位置毎に、その部分の動き補償に用いられた動き補償予測情報を格納する。MPEG4―AVCの動き補償予測においては、サブマクロブロック内での適応動き補償ブロックサイズを用いる場合には最小4×4画素単位、用いない場合には最小8×8画素単位となる。以降の説明は8×8画素が最小の動き補償予測ブロックサイズである場合で説明されるが、4×4画素の場合も同様の処理で実現出来る。   In the standard reference image determination process according to the first embodiment, a configuration is adopted in which the motion compensated prediction information is weighted and evaluated by the block size, and each block position adjacent to the encoding target for the minimum motion compensated prediction block is taken. The motion compensation prediction information used for the motion compensation of that portion is stored. In motion compensation prediction of MPEG4-AVC, a minimum 4 × 4 pixel unit is used when the adaptive motion compensation block size in the sub macroblock is used, and a minimum 8 × 8 pixel unit is used when the adaptive motion compensation block size is not used. The following description will be given in the case where 8 × 8 pixels are the minimum motion compensation prediction block size, but the same processing can be realized in the case of 4 × 4 pixels.

図6(b)のような周辺ブロックの動き補償予測が行われた場合に、格納する動き補償予測情報が図6(c)に示す。動き補償予測は1つの参照画像のみを用いて行う片方向予測と、2つの参照画像を用いて行う双方向予測があり、片方向予測の場合には同一位置の動き補償予測情報として1つの動きベクトル値と1つの参照IDを格納する。一方双方向予測の場合には、2つの動きベクトル値と2つの参照IDを格納する。   FIG. 6C shows the motion compensation prediction information to be stored when the motion compensation prediction of the neighboring blocks as shown in FIG. 6B is performed. Motion compensated prediction includes unidirectional prediction performed using only one reference image and bidirectional prediction performed using two reference images. In the case of unidirectional prediction, one motion is used as motion compensated prediction information at the same position. A vector value and one reference ID are stored. On the other hand, in the case of bidirectional prediction, two motion vector values and two reference IDs are stored.

図6(c)に示した一例では、符号化対象ブロックに対して左が16×8ブロック、上が8×16ブロック、右上が8×8ブロック、左上が16×16ブロックの構成となっており、上のマクロブロックは第1参照のみで片方向予測が行われており、左上のマクロブロックでは第2参照のみで片方向予測が行われている。   In the example shown in FIG. 6C, the encoding target block has a configuration of 16 × 8 blocks on the left, 8 × 16 blocks on the top, 8 × 8 blocks on the top right, and 16 × 16 blocks on the top left. The upper macroblock is unidirectionally predicted only by the first reference, and the upper left macroblock is unidirectionally predicted only by the second reference.

このケースでは、左マクロブロックの動き補償予測情報として第1参照に対するmvA1、mvA2及びそれぞれの参照ID、第2参照に対するmvA1、mvA2及びそれぞれの参照IDが格納され、上マクロブロックの動き補償予測情報として第1参照に対するmvB1、mvB2及びそれぞれの参照ID、右上マクロブロックの動き補償予測情報として第1参照に対するmvC3及び参照ID、第2参照に対するmvC3及び参照ID、左上マクロブロックの動き補償予測情報として第2参照に対するmvD及び参照IDの、合計9個の動き補償予測情報が格納される。   In this case, mvA1, mvA2 and the respective reference IDs for the first reference are stored as the motion compensation prediction information of the left macroblock, and the mvA1, mvA2 and the respective reference IDs for the second reference are stored. MvB1, mvB2 and their respective reference IDs for the first reference, mvC3 and reference ID for the first reference as motion compensation prediction information for the upper right macroblock, mvC3 and reference ID for the second reference, and motion compensation prediction information for the upper left macroblock A total of nine pieces of motion compensation prediction information of mvD and reference ID for the second reference are stored.

続いて、格納した動き補償予測情報の参照IDを参照画像別に集計し、最も多い参照画像を算出する(S502)。左や上のマクロブロックで16×16画素の動き補償予測が選択されていた場合などは、最小の動き補償予測ブロックに分割した際に同じ動き補償予測が格納されており、動き補償予測のブロックサイズに応じて、情報に重み付けがなされることになる。また、第1参照と第2参照に関しては、区別をつけずに集計し、最終的に動きベクトルが指し示している参照画像毎の適用回数をカウントする。   Subsequently, the reference IDs of the stored motion compensation prediction information are totaled for each reference image, and the most reference images are calculated (S502). For example, when motion compensation prediction of 16 × 16 pixels is selected in the left or upper macroblock, the same motion compensation prediction is stored when the motion compensation prediction block is divided into the smallest motion compensation prediction blocks. The information is weighted according to the size. Further, the first reference and the second reference are aggregated without distinction, and the number of times of application for each reference image finally indicated by the motion vector is counted.

実施の形態1においては、最も多い参照画像が1つである場合(S503:YES)には、その参照画像を基準参照画像として選択する(S504)。最も多い参照画像が複数であった場合には(S503:NO)、参照画像がより符号化対象ブロックに近い参照画像を優先的に選択し、距離も等しい場合には時間的に先行して符号化された参照画像の方が予測符号化を施した回数が少ないと判断して選択する(S505)。   In the first embodiment, when there is one reference image having the largest number (S503: YES), the reference image is selected as a standard reference image (S504). If there are a plurality of reference images (S503: NO), the reference image is preferentially selected as a reference image closer to the encoding target block, and if the distance is equal, the code is preceded in time. It is determined that the converted reference image has a smaller number of times of predictive encoding (S505).

尚、最も多い参照画像が複数であった場合に、参照画像が符号化を施された際の量子化値を符号化側・復号側で取得し、より細かく量子化を施されている参照画像が品質が良いと判断して優先的に選択することも可能であり、実施の形態1における基準参照画像決定処理の一つの派生例となる。周辺領域で最も多く動き補償予測として参照されている参照画像が、参照画像の品質及び符号化対象ブロックが存在する画像との時間相関が高いものとして、信頼性が高いと判断している点が、実施の形態1における、基準参照画像決定処理のポイントであり、動きベクトルの予測候補として用いることが可能な情報も多く取得でき、動きベクトルの予測精度も高くなる。   In addition, when there are a plurality of reference images, the quantization value when the reference image is encoded is acquired on the encoding side / decoding side, and the reference image is subjected to finer quantization. However, it can be preferentially selected based on the judgment that the quality is good, which is one derivation example of the standard reference image determination processing in the first embodiment. The reference image that is most frequently referred to as motion compensated prediction in the peripheral region is judged to have high reliability as the reference image quality and the temporal correlation with the image in which the block to be encoded exists are high. In the first embodiment, it is a point of the standard reference image determination process, a large amount of information that can be used as a motion vector prediction candidate can be acquired, and the motion vector prediction accuracy is increased.

続いて、選択された基準参照画像に対する予測動きベクトル値を算出する処理を行う。最初に、基準参照画像が参照IDとなっている動き補償予測情報が3つ以上である場合(S506:YES)には、その動き補償予測における動きベクトル値の水平・垂直の中央値を算出(S509)する。中央値を算出する手法は、MPEG4−AVCにおける予測ベクトル値生成手法と同じであるが、動きベクトル値に重みを付けて領域が大きな動きベクトルの優先度を向上させている点と、予測に適した情報が多く取得できている参照画像で行っていることによる精度向上により、従来の予測動きベクトルよりも高精度な予測が可能となる。偶数の動きベクトルが取得された場合(S507:YES)には、中央の2つの動きベクトル値の平均から最も離れている動きベクトル値を除外した(S508)後に中央値を取得(S509)する。   Subsequently, a process of calculating a predicted motion vector value for the selected standard reference image is performed. First, when there are three or more pieces of motion compensated prediction information whose standard reference image is the reference ID (S506: YES), the horizontal and vertical median values of the motion vector values in the motion compensated prediction are calculated ( S509). The method for calculating the median is the same as the method for generating a predicted vector value in MPEG4-AVC, but is suitable for prediction because the motion vector value is weighted to improve the priority of a motion vector having a large area. As a result of the improvement in accuracy by using a reference image for which a large amount of information can be acquired, it is possible to perform prediction with higher accuracy than the conventional motion vector predictor. If an even-numbered motion vector is acquired (S507: YES), the median value is acquired (S509) after excluding the motion vector value farthest from the average of the two central motion vector values (S508).

基準参照画像が参照IDとなっている動き補償予測情報が2つ以下である場合(S506:NO)には、2つの場合に(S510:YES)動きベクトル値の平均値を算出(S511)し、1つの場合には(S510:NO)その動きベクトル値を予測動きベクトル値とする(S512)。   When the motion compensation prediction information whose reference ID is the reference reference image is two or less (S506: NO), the average value of the motion vector values is calculated (S511) in two cases (S510: YES). In one case (S510: NO), the motion vector value is set as a predicted motion vector value (S512).

このようにして、算出された参照ID及び予測動きベクトル値を、参照画像間動きベクトル検出部108、215に出力し(S513)、基準参照画像決定処理が終了する。   In this way, the calculated reference ID and predicted motion vector value are output to the inter-reference image motion vector detection units 108 and 215 (S513), and the standard reference image determination process ends.

続いて、参照画像間動きベクトル検出部108、215及び図4の処理フローチャートのS403、S414によって動作する、参照画像間動きベクトル検出処理の説明を、図7に示す参照画像間動きベクトル検出部の内部構成図及び、図8に示す処理フローチャートを用いて行う。   Subsequently, the inter-reference image motion vector detecting unit shown in FIG. 7 will be described with reference to the inter-reference image motion vector detecting process, which operates according to the inter-reference image motion vector detecting units 108 and 215 and S403 and S414 in the processing flowchart of FIG. This is performed using the internal configuration diagram and the processing flowchart shown in FIG.

参照画像間動きベクトル検出部108は、基準参照画像取得部700、動きベクトル検出範囲設定部701、基準参照画像メモリ702、参照画像取得部703、及びブロックマッチング評価部704から構成される。   The inter-reference image motion vector detection unit 108 includes a standard reference image acquisition unit 700, a motion vector detection range setting unit 701, a standard reference image memory 702, a reference image acquisition unit 703, and a block matching evaluation unit 704.

最初に、基準参照画像取得部700が基準参照画像決定部107より入力された基準参照画像の参照ID及び予測動きベクトル値mvL0を元に、復号参照画像メモリ118より、基準参照画像の符号化対象ブロックからmvL0移動したの画像ブロックを切り出し、第1の参照ブロックを取得する(S800)。取得した参照ブロックは、基準参照画像メモリ702に格納される。   First, based on the reference ID and the predicted motion vector value mvL0 of the reference reference image input from the reference reference image determination unit 107, the reference reference image acquisition unit 700 encodes the reference reference image from the decoded reference image memory 118. The image block that has moved mvL0 from the block is cut out, and the first reference block is acquired (S800). The acquired reference block is stored in the standard reference image memory 702.

続いて、動きベクトル検出範囲設定部701は、基準参照画像決定部107より入力された基準参照画像の参照ID及び予測動きベクトル値mvL0を元に、第2参照画像の参照IDを確定する(S801)。前記したように、実施の形態1においては、基準参照画像に対する他方の参照IDが画面単位の情報としてMPEG4−AVCにおけるスライスヘッダと同様の単位で伝送する構成を取り、対応する情報を参照することで、第2参照画像の参照IDを確定できる。   Subsequently, the motion vector detection range setting unit 701 determines the reference ID of the second reference image based on the reference ID of the standard reference image and the predicted motion vector value mvL0 input from the standard reference image determination unit 107 (S801). ). As described above, in the first embodiment, the other reference ID for the standard reference image is transmitted in units similar to the slice header in MPEG4-AVC as information in units of screens, and the corresponding information is referred to. Thus, the reference ID of the second reference image can be determined.

続いて、基準参照画像と第2参照画像の間で検出する、参照画像間動きベクトルの検出範囲を設定する(S802)。検出範囲に関しては、第1の参照ブロックに対して、第2参照画像の全領域を動きベクトル検出範囲にとることも可能であり、符号化装置と復号装置と同じ定義で検出処理を行うことで機能するが、参照画像間の動きベクトル検出における演算量を減らすために、図9で示すような検出範囲の設定を行う。   Subsequently, a detection range of the inter-reference image motion vector to be detected between the standard reference image and the second reference image is set (S802). Regarding the detection range, it is also possible to take the entire area of the second reference image as the motion vector detection range for the first reference block, and by performing detection processing with the same definition as the encoding device and the decoding device. Although functioning, in order to reduce the amount of calculation in detecting a motion vector between reference images, a detection range as shown in FIG. 9 is set.

図9は、実施の形態1における参照画像間の動きベクトル検出範囲の一例である。符号化対象画像の入力時刻をPoc_Cur、基準参照画像の入力時刻をPoc_Ref1、第2参照画像の入力時刻をPoc_Ref2とすると、符号化対象ブロックに対する基準参照画像からの動きベクトルmvL0に対して、第2参照画像の探索範囲を符号化対象ブロックの位置を基準にすると、探索中心位置を
α=mvL0×(Poc_Cur−Poc_Ref2)/(Poc_Cur−Poc_Ref1)
で表されるように、時間的に動きが連続していることを想定した場合の符号化対象ブロックと第2参照画像の間の動きベクトル予測値に設定する。
FIG. 9 is an example of a motion vector detection range between reference images in the first embodiment. If the input time of the encoding target image is Poc_Cur, the input time of the standard reference image is Poc_Ref1, and the input time of the second reference image is Poc_Ref2, the second motion vector mvL0 from the standard reference image for the encoding target block is When the search range of the reference image is based on the position of the encoding target block, the search center position is α = mvL0 × (Poc_Cur−Poc_Ref2) / (Poc_Cur−Poc_Ref1).
As shown in the above, the motion vector prediction value between the encoding target block and the second reference image when it is assumed that the motion is temporally continuous is set.

しかしながら、カメラの動きや物体の動き等、時間的に連続な変化ではない状況も多いため、探索位置を中心として特定の領域に関して動きベクトルを探索することで、適切な第2参照画像の参照ブロックを取得できるようにする。図9に示した一例においては、特定の領域として、±8画素の領域を指定している。   However, since there are many situations that are not temporally continuous changes, such as camera movements and object movements, an appropriate reference block of the second reference image can be obtained by searching for a motion vector for a specific region with the search position as the center. To be able to get In the example shown in FIG. 9, an area of ± 8 pixels is designated as the specific area.

参照画像取得部703は、動きベクトル検出範囲設定部701より指定された動きベクトルの検出範囲における第2参照画像の参照ブロックを、復号参照画像メモリ118より取得し(S803)、ブロックマッチング評価部704に出力する。   The reference image acquisition unit 703 acquires the reference block of the second reference image in the motion vector detection range specified by the motion vector detection range setting unit 701 from the decoded reference image memory 118 (S803), and the block matching evaluation unit 704. Output to.

ブロックマッチング評価部704では、基準参照画像メモリ702に格納された第1の参照ブロックと、参照画像取得部703より入力された第2参照画像の参照ブロックとの間で画素毎の誤差総和を算出し、より総和が少ない参照ブロックと参照ブロックを取得した際の動きベクトル値を格納する(S804)。   The block matching evaluation unit 704 calculates an error sum for each pixel between the first reference block stored in the standard reference image memory 702 and the reference block of the second reference image input from the reference image acquisition unit 703. Then, a reference block having a smaller total sum and a motion vector value when the reference block is acquired are stored (S804).

すべての動きベクトルの検出範囲に対して、画素毎の誤差総和を算出した(S805:YES)後で、保存されている参照ブロックを第2の参照ブロックとし、動きベクトル値を参照画像間動きベクトル値mvInterRefとする(S806)。   After calculating the total error for each pixel for all the motion vector detection ranges (S805: YES), the stored reference block is set as the second reference block, and the motion vector value is set as the inter-reference image motion vector. The value mvInterRef is set (S806).

参照画像間動きベクトルの検出精度に関しても、符号化装置と復号装置において同じ検出精度の動きベクトル検出を暗黙に行う手法を適用可能であるが、フレーム単位や用いられる参照画像毎に動きベクトルの検出精度を符号化情報として伝送する手法を用いることも可能である。ここでは、暗黙の設定として1/4画素精度の検出精度とする。算出した参照画像間動きベクトル値mvInterRefは、mvL0、第1の参照ブロック及び第2の参照ブロックと共に、ダイレクト動き補償予測部109に出力される(S807)。   Regarding the detection accuracy of motion vectors between reference images, it is possible to apply a method of implicitly detecting motion vectors with the same detection accuracy in the encoding device and the decoding device, but detection of motion vectors for each frame or reference image used. It is also possible to use a technique of transmitting accuracy as encoded information. Here, as an implicit setting, the detection accuracy is 1/4 pixel accuracy. The calculated inter-reference image motion vector value mvInterRef is output to the direct motion compensation prediction unit 109 together with mvL0, the first reference block, and the second reference block (S807).

実施の形態1における動画像符号化装置及び動画像復号装置においては、符号化対象ブロックの周辺ブロックにおける符号化済みの動き補償予測情報を元に、予測に適した参照画像を選択する機能を、符号化側・復号側共に有することで、暗黙的に生成する動きベクトルの精度と、用いる参照画像をより適切なものとすることができると共に、求めた参照画像を基準参照画像として抽出した予測ブロックと、他の参照画像との間での動きベクトルを検出し、検出した動きベクトルを用いて双方向予測を行う機能を、符号化側・復号側共に有することで、動きベクトル等の付加情報を伝送せずに、時間的に動きの変化を伴う動画像信号に対する予測効率を向上させることが出来、符号化効率を向上させることが可能となる。   In the moving image encoding device and the moving image decoding device in Embodiment 1, a function of selecting a reference image suitable for prediction based on the motion compensated prediction information that has been encoded in the peripheral blocks of the encoding target block, By having both the encoding side and the decoding side, the accuracy of the motion vector that is implicitly generated and the reference image to be used can be made more appropriate, and the prediction block in which the obtained reference image is extracted as the standard reference image And a function to perform bi-directional prediction using the detected motion vector on both the encoding side and the decoding side, so that additional information such as a motion vector can be obtained. Without transmission, it is possible to improve the prediction efficiency for a moving image signal accompanied by a temporal change in motion, and to improve the coding efficiency.

(実施の形態2)
次に、実施の形態2の動画像符号化装置及び動画像復号装置を説明する。実施の形態2においても、動画像符号化装置及び動画像復号装置の構成は実施の形態1と同様の構成を取るが、図10及び図11に示すように、基準参照画像決定部107、214が復号参照画像メモリ118、209より参照画像信号を、フレーム内復号画像メモリ117、208より隣接するフレーム内復号信号を参照画像決定処理に用いるために入力される点が異なる。
(Embodiment 2)
Next, a video encoding device and a video decoding device according to Embodiment 2 will be described. Also in the second embodiment, the configurations of the moving image encoding device and the moving image decoding device are the same as those of the first embodiment, but as shown in FIGS. 10 and 11, the reference reference image determination units 107 and 214 are used. Is different in that the reference image signal is input from the decoded reference image memories 118 and 209 and the adjacent intra-frame decoded signal from the intra-frame decoded image memories 117 and 208 is used for the reference image determination process.

処理においては、参照画像決定処理及び参照画像間動きベクトル検出処理が異なる動作を行うため、図12に実施の形態2における参照画像決定処理の処理フローチャートを、図13に実施の形態2における参照画像間動きベクトル検出処理の処理フローチャートを示し、実施の形態2の動作を説明する。尚、実施の形態1と同様に、これらの機能は符号側・復号側で同様の処理が行われることにより機能するため、共通の構成として説明する。   In the process, since the reference image determination process and the inter-reference image motion vector detection process perform different operations, FIG. 12 shows a process flowchart of the reference image determination process in the second embodiment, and FIG. 13 shows a reference image in the second embodiment. A process flowchart of the inter-motion vector detection process is shown, and the operation of the second embodiment will be described. Note that, as in the first embodiment, these functions function by performing similar processing on the encoding side and decoding side, and therefore will be described as a common configuration.

実施の形態2は、実施の形態1における参照画像の確定精度を更に高めるために、符号化対象ブロックの周辺ブロックで用いられた動き補償予測情報に対して、使用していない参照画像に対する動きベクトルの結果を、空間的・時間的に隣接した動きベクトル情報を用いた場合に良好な動き補償予測が可能であったか否かを、復号画像間で動き補償予測を行い評価する機能を有する。   In the second embodiment, in order to further improve the accuracy of determining the reference image in the first embodiment, the motion vector for the reference image that is not used with respect to the motion compensated prediction information used in the peripheral blocks of the encoding target block. As a result, it is possible to evaluate whether or not satisfactory motion compensation prediction was possible when using motion vector information spatially and temporally adjacent to each other by performing motion compensation prediction between decoded images.

これにより、周辺ブロックの各参照画像に対してより多くの予測参照可能な動きベクトルを算出することが出来、動き補償予測情報の重要度をより適切に反映させた参照画像と、予測動きベクトル値が選択可能となる。   As a result, it is possible to calculate more motion vectors that can be referenced for prediction for each reference image of the peripheral block, and a reference image that more appropriately reflects the importance of motion compensated prediction information, and a predicted motion vector value Can be selected.

更に、実施の形態2は、基準参照画像から取得される第1の参照ブロックと複数の他の参照画像との間での動きベクトルを検出した際の参照画像間の誤差評価値を元に、どの参照画像を双方向予測に用いるかの判定と、参照ブロックの大きさよりも細かい単位で双方向予測を行うか否かの判定を行う機能を有する。   Furthermore, the second embodiment is based on the error evaluation value between reference images when detecting a motion vector between the first reference block acquired from the standard reference image and a plurality of other reference images. It has a function of determining which reference image is used for bidirectional prediction and determining whether bidirectional prediction is performed in units smaller than the size of the reference block.

これにより、シーンチェンジなどの画面変化や物体が隠れる場合の伴う動画像信号に対して部分的に適した参照画像の情報を用いて、付加情報無しに細かい単位での双方向予測を行うことが可能となる。   This makes it possible to perform bi-directional prediction in small units without additional information, using reference image information that is partially suitable for moving image signals accompanying screen changes such as scene changes or when objects are hidden. It becomes possible.

最初に参照画像決定処理の説明を行う。図12のフローチャートに示すように、実施の形態2においても実施の形態1と同様に最初に符号化対象ブロック(復号装置の場合は復号対象ブロック)の周辺ブロックにおいて用いられた動き補償予測の動きベクトル値、参照ID、動き補償のブロックサイズ情報を取得し(S1200)、符号化対象ブロックに隣接する動き補償予測情報を、動き補償予測ブロックサイズをあわせた形で格納する(S1201)。   First, reference image determination processing will be described. As shown in the flowchart of FIG. 12, in the second embodiment as well, the motion compensated prediction motion first used in the peripheral block of the encoding target block (decoding target block in the case of a decoding device) is the same as in the first embodiment. Vector values, reference IDs, and motion compensation block size information are acquired (S1200), and motion compensation prediction information adjacent to the block to be encoded is stored in a form in which the motion compensation prediction block size is combined (S1201).

続いて、参照画像毎に対象となる動き補償予測情報が格納されている場合(S1202:YES)は、上記動き補償予測情報が確定され、参照IDで示される参照画像の情報として使用される(S1203)。   Subsequently, when motion compensation prediction information as a target is stored for each reference image (S1202: YES), the motion compensation prediction information is determined and used as information of a reference image indicated by a reference ID ( S1203).

対象となる動き補償予測情報が格納されていない場合(S1202:NO)には、該当する隣接ブロックの更に周辺のブロックにおける動き補償情報において、該当する参照IDの参照画像が使用されたブロックを探す処理を行う。   If the target motion compensation prediction information is not stored (S1202: NO), a search is made for a block in which the reference image of the corresponding reference ID is used in the motion compensation information in a block further adjacent to the corresponding adjacent block. Process.

具体的には、図14に示すように、対象となる参照画像に対する動き補償情報が存在しないブロックの周辺のブロックが該当する参照IDの参照画像を用いている場合(S1204:YES)には、隣接するブロックの動きベクトル値を候補ベクトル値とする(S1205)。また、対象ブロックが他の参照IDの参照画像を用いている場合(S1206:YES)には、参照IDの中で最も対象となる参照画像に近い参照IDにおける動きベクトル値を符号化対象ブロックとの距離比率に応じて縮小・拡大した値を候補ベクトル値とする(S1207)。   Specifically, as shown in FIG. 14, when a block around the block that does not have motion compensation information for the target reference image uses a reference image with the corresponding reference ID (S1204: YES), The motion vector value of the adjacent block is set as a candidate vector value (S1205). When the target block uses a reference image of another reference ID (S1206: YES), the motion vector value in the reference ID closest to the reference image that is the target in the reference ID is defined as the encoding target block. The value reduced or enlarged according to the distance ratio is set as a candidate vector value (S1207).

具体的には、図14において動き補償情報が指し示す参照画像RefBの入力時刻をPoc_RefB、対象参照画像RefAの入力時刻をPoc_RefA、符号化対象ブロックの入力時刻をPoc_Curとした際に、RefBに対する動きベクトル値がmvRefBの場合に、
mvRefA_cand=mvRefB×(Poc_Cur−Poc_RefA)/(Poc_Cur−Poc_RefB)
で、候補ベクトル値が算出される。
Specifically, when the input time of the reference image RefB indicated by the motion compensation information in FIG. 14 is Poc_RefB, the input time of the target reference image RefA is Poc_RefA, and the input time of the encoding target block is Poc_Cur, the motion vector for RefB If the value is mvRefB,
mvRefA_cand = mvRefB × (Poc_Cur−Poc_RefA) / (Poc_Cur−Poc_RefB)
Thus, a candidate vector value is calculated.

続いて、候補ベクトルが算出できた対象参照画像のブロックに対して、参照画像メモリ、フレーム内復号画像メモリより、参照画像及びフレーム内復号画像を取得し候補ベクトルを用いて、周辺ブロックを動き補償予測した際の誤差値を算出する(S1208)。候補ベクトル値は複数取りうるが、全てに対して誤差値を評価し、最も誤差値が少ない候補動きベクトル値を仮動きベクトル値とする(S1209)。   Subsequently, for the block of the target reference image for which the candidate vector can be calculated, the reference image and the intra-frame decoded image are obtained from the reference image memory and the intra-frame decoded image memory, and the motion compensation is performed on the peripheral blocks using the candidate vector. An error value at the time of prediction is calculated (S1208). Although a plurality of candidate vector values can be taken, error values are evaluated for all, and the candidate motion vector value having the smallest error value is set as a temporary motion vector value (S1209).

次に、この仮動きベクトル値が信頼出来る周辺の動きベクトル値であるか否かを判断する為に、誤差値を閾値αと比較し、αよりも小さい場合(S1210:YES)には、仮動きベクトル値を動き補償予測情報として確定し、対象となる参照画像の動きベクトルとして格納する(S1211)。一方、誤差値が閾値α以上である場合(S1210:NO)には、仮動きベクトル値は動き補償予測情報として採用せず、対象となる参照画像に対する情報は無いと判断する(S1212)。   Next, in order to determine whether or not the temporary motion vector value is a reliable peripheral motion vector value, the error value is compared with a threshold value α. If the error value is smaller than α (S1210: YES), The motion vector value is determined as motion compensation prediction information and stored as a motion vector of the target reference image (S1211). On the other hand, when the error value is greater than or equal to the threshold value α (S1210: NO), the temporary motion vector value is not adopted as the motion compensation prediction information, and it is determined that there is no information on the target reference image (S1212).

閾値αに関しては、固定値を暗黙の値(例:2×ブロックサイズ)もしくはスライス単位の情報として伝送することも可能であるが、対象となっているブロックが本来動き補償予測された際の誤差値を復号画像を用いて算出し、その値と比較して例えば4/3以下であれば、信頼できるものと判断させることも可能である。   Regarding the threshold value α, it is possible to transmit a fixed value as an implicit value (eg, 2 × block size) or information in units of slices, but an error when the target block is originally motion compensated predicted. If the value is calculated using the decoded image and compared with the value, for example, 4/3 or less, it can be determined that the value is reliable.

すべての隣接するブロックと参照IDに対して、上記候補ベクトルの評価と動き補償予測情報の補間が終了したら(S1213:YES)、実施の形態1と同様の処理である、格納した動き補償予測情報の参照IDを参照画像別に集計し、最も多い参照画像を算出する(S1214)。第1参照と第2参照に関しても、区別をつけずに集計し、最終的に動きベクトルが指し示している参照画像毎の適用回数をカウントする。   When the evaluation of the candidate vectors and the interpolation of the motion compensated prediction information are completed for all adjacent blocks and reference IDs (S1213: YES), the stored motion compensated prediction information, which is the same process as in the first embodiment. Are counted by reference image, and the most reference images are calculated (S1214). The first reference and the second reference are also aggregated without distinction, and finally the number of times of application for each reference image indicated by the motion vector is counted.

実施の形態2においても、実施の形態1と同様に最も多い参照画像が1つである場合(S1215:YES)には、その参照画像を基準参照画像として選択する(S1216)。最も多い参照画像が複数であった場合には(S1216:NO)、参照画像がより符号化対象ブロックに近い参照画像を優先的に選択し、距離も等しい場合には時間的に先行して符号化された参照画像の方が予測符号化を施した回数が少ないと判断して選択する(S1217)。   Also in the second embodiment, when the number of reference images is the largest as in the first embodiment (S1215: YES), the reference image is selected as a standard reference image (S1216). If there are a plurality of reference images (S1216: NO), the reference image is preferentially selected as a reference image closer to the encoding target block, and if the distance is equal, the code is preceded in time. It is determined that the converted reference image has a smaller number of times of predictive encoding (S1217).

選択された基準参照画像に対する予測動きベクトル値を算出する処理も実施の形態1と同様であるが、採用された候補ベクトル値が格納されているため、より多くの動きベクトル値より適した予測ベクトルが算出できる。最初に、基準参照画像が参照IDとなっている動き補償予測情報が3つ以上である場合(S1218:YES)には、その動き補償予測における動きベクトル値の水平・垂直の中央値を算出(S1221)する。偶数の動きベクトルが取得された場合(S1219:YES)には、中央の2つの動きベクトル値の平均から最も離れている動きベクトル値を除外した(S1220)後に中央値を取得(S1221)する。   The process of calculating a predicted motion vector value for the selected reference reference image is the same as that in the first embodiment, but since the adopted candidate vector values are stored, a predicted vector suitable for more motion vector values. Can be calculated. First, when there are three or more pieces of motion compensated prediction information whose standard reference image is a reference ID (S1218: YES), the horizontal and vertical median values of the motion vector values in the motion compensated prediction are calculated ( S1221). If an even-numbered motion vector is acquired (S1219: YES), the motion vector value farthest from the average of the two central motion vector values is excluded (S1220), and then the median value is acquired (S1221).

基準参照画像が参照IDとなっている動き補償予測情報が2つ以下である場合(S1218:NO)には、2つの場合に(S1222:YES)動きベクトル値の平均値を算出(S1223)し、1つの場合には(S1222:NO)その動きベクトル値を予測動きベクトル値とする(S1224)。   When the motion compensation prediction information whose reference ID is the reference reference image is two or less (S1218: NO), the average value of the motion vector values is calculated (S1223) in two cases (S1222: YES). In one case (S1222: NO), the motion vector value is set as a predicted motion vector value (S1224).

このようにして、算出された参照ID及び予測動きベクトル値を、参照画像間動きベクトル検出部108、215に出力し(S1225)、基準参照画像決定処理を終了する。   In this way, the calculated reference ID and predicted motion vector value are output to the inter-reference image motion vector detection units 108 and 215 (S1225), and the standard reference image determination process is terminated.

次に、参照画像間動きベクトル検出処理の説明を行う。図13のフローチャートに示すように、実施の形態2においても実施の形態1と同様に、基準参照画像取得部700が基準参照画像決定部107より入力された基準参照画像の参照ID及び予測動きベクトル値mvL0を元に、復号参照画像メモリ118より、基準参照画像の符号化対象ブロックからmvL0移動したの画像ブロックを切り出し、第1の参照ブロックを取得する(S1300)。取得した参照ブロックは、基準参照画像メモリ702に格納される。   Next, reference inter-motion vector detection processing will be described. As shown in the flowchart of FIG. 13, in the second embodiment as well, in the same manner as in the first embodiment, the reference ID and predicted motion vector of the reference reference image input from the reference reference image determination unit 107 by the reference reference image acquisition unit 700. Based on the value mvL0, the image block moved mvL0 from the coding target block of the standard reference image is extracted from the decoded reference image memory 118, and the first reference block is acquired (S1300). The acquired reference block is stored in the standard reference image memory 702.

続いて、動きベクトル検出範囲設定部701は、基準参照画像決定部107より入力された基準参照画像の参照ID及び予測動きベクトル値mvL0を元に、複数の参照可能な参照画像に対する基準参照画像との間の参照画像間動きベクトルの検出範囲を設定する(S1301)。検出手法は、実施の形態1と同様に行うことが可能であるが、複数の参照画像に対して行う点が異なる処理となる。   Subsequently, the motion vector detection range setting unit 701, based on the reference ID and the predicted motion vector value mvL0 of the standard reference image input from the standard reference image determination unit 107, The detection range of the motion vector between the reference images is set (S1301). The detection method can be performed in the same manner as in the first embodiment, but is different in that it is performed on a plurality of reference images.

参照画像取得部703は、全ての参照画像に対して動きベクトル検出範囲設定部701より指定された、該当する参照画像における動きベクトルの検出範囲における参照ブロックを、復号参照画像メモリ118より取得し(S1302)、ブロックマッチング評価部704に出力する。   The reference image acquisition unit 703 acquires, from the decoded reference image memory 118, the reference blocks in the motion vector detection range in the corresponding reference image specified by the motion vector detection range setting unit 701 for all reference images ( S1302) and output to the block matching evaluation unit 704.

ブロックマッチング評価部704では、基準参照画像メモリ702に格納された第1の参照ブロックと、参照画像取得部703より入力された該当する参照画像の参照ブロックとの間で画素毎の誤差総和をブロックサイズよりも小さな単位毎に算出し、小さな単位別により総和が少ない参照ブロックと参照ブロックを取得した際の動きベクトル値を格納する(S1303)。実施の形態2においては、第1の参照ブロックのブロックサイズを16×16画素、上記ブロックサイズよりも小さな単位を4×4画素とし、16個の小ブロックサイズに対して、各参照画像に対する参照画像間動きベクトル値mvInterRefとブロックマッチングにおける誤差評価値が格納される。   The block matching evaluation unit 704 blocks the error sum for each pixel between the first reference block stored in the standard reference image memory 702 and the reference block of the corresponding reference image input from the reference image acquisition unit 703. The calculation is performed for each unit smaller than the size, and the reference block having a small sum by the small unit and the motion vector value when the reference block is acquired are stored (S1303). In the second embodiment, the block size of the first reference block is 16 × 16 pixels, the unit smaller than the block size is 4 × 4 pixels, and reference to each reference image is performed for 16 small block sizes. An inter-image motion vector value mvInterRef and an error evaluation value in block matching are stored.

全ての参照画像に対して参照画像間の動きベクトルの検出が終了したら(S1304:YES)、4×4ブロック毎に全ての参照画像の誤差評価値を比較し、最も小さな値をとる参照画像を第2の参照画像と確定する(S1305)。この場合の誤差評価値に関しては、ブロックマッチング時の誤差評価値をそのまま使用しても可能であるが、誤差のDC成分を除去した誤差値において比較することも可能であり、その場合には微妙なDCの変化を生かした双方向予測信号を生成できる。   When the detection of motion vectors between reference images is completed for all reference images (S1304: YES), the error evaluation values of all reference images are compared for each 4 × 4 block, and the reference image having the smallest value is determined. The second reference image is determined (S1305). Regarding the error evaluation value in this case, it is possible to use the error evaluation value at the time of block matching as it is, but it is also possible to make a comparison with the error value from which the DC component of the error is removed. It is possible to generate a bidirectional prediction signal that makes use of a change in DC.

続いて、上記算出された第2の参照画像における誤差評価値が閾値β(例:100)より大きな場合(S1306:YES)には、物体の見え隠れなどにより部分的に双方向予測に適した信号を生成出来なかったと判断して、第2の参照画像を選択せずに片方向予測とする(S1307)。   Subsequently, when the calculated error evaluation value in the second reference image is larger than the threshold β (eg, 100) (S1306: YES), a signal that is partially suitable for bidirectional prediction due to the visibility of the object or the like It is determined that the second reference image is not selected, and one-way prediction is performed (S1307).

このようにして、4×4ブロック単位にそれぞれ最適な参照画像及び双方向・片方向の判定を行った結果としては、図15の一例で示されるようなブロック形状に即した参照画像及び動きベクトル値を生成することが可能となる。基準となる参照画像の参照ブロックに対して、部分毎に適切な予測画像が合成される構成が実現できる。   As a result of performing the optimum reference image and bidirectional / one-way determination for each 4 × 4 block in this way, the reference image and motion vector conforming to the block shape as shown in the example of FIG. A value can be generated. It is possible to realize a configuration in which an appropriate predicted image is synthesized for each part with respect to a reference block of a reference image serving as a reference.

これらの処理を全ての4×4ブロックに対して行ったら(S1308:YES)、4×4ブロック単位での参照IDと参照画像間動きベクトル値mvInterRef、及び片方向予測か双方向予測かを示す情報を元に第2の参照ブロックを生成する(S1309)。   If these processes are performed for all 4 × 4 blocks (S1308: YES), the reference ID and the inter-reference image motion vector value mvInterRef in units of 4 × 4 blocks, and unidirectional prediction or bidirectional prediction are shown. A second reference block is generated based on the information (S1309).

片方向予測を行うブロックに対する第2の参照ブロックの画像はダイレクト動き補償予測部で使用されないが、例えば第1の参照ブロックの同一の画素データを格納しておけば、平均値をブロック内の全ての値に施した場合でも片方向予測の予測ブロックが生成出きる。   The image of the second reference block for the block for which unidirectional prediction is performed is not used in the direct motion compensation prediction unit. For example, if the same pixel data of the first reference block is stored, the average value is calculated for all the blocks in the block. Even when applied to the value of, a unidirectional prediction block can be generated.

最後に、4×4ブロック単位での参照IDと参照画像間動きベクトル値mvInterRef、及び片方向予測か双方向予測かを示す情報を、mvL0、第1の参照ブロック及び第2の参照ブロックと共に、ダイレクト動き補償予測部109に出力する(S1310)。   Finally, the reference ID and reference image motion vector value mvInterRef in units of 4 × 4 blocks, and information indicating unidirectional prediction or bi-directional prediction, together with mvL0, the first reference block, and the second reference block, It outputs to the direct motion compensation prediction part 109 (S1310).

実施の形態2における動画像符号化装置及び動画像復号装置によれば、符号化対象ブロックの周辺ブロックで用いられた動き補償予測情報に対して、使用していない参照画像に対する動きベクトルの結果を、空間的・時間的に隣接した動きベクトル情報で復号画像を使って評価する機能を、符号化側・復号側共に有することで、動き補償予測情報の重要度をより適切に反映させた参照画像の選択手法を実現でき、実施の形態1における基準参照画像決定処理の精度を向上させ、その結果を用いて生成されるダイレクトモードの動き補償予測効率を更に向上できる。   According to the moving picture coding apparatus and the moving picture decoding apparatus in the second embodiment, the motion vector result for the reference image that is not used is obtained with respect to the motion compensated prediction information used in the peripheral blocks of the coding target block. A reference image that more appropriately reflects the importance of motion compensated prediction information by having a function to evaluate using the decoded image with spatially and temporally adjacent motion vector information on both the encoding side and the decoding side The accuracy of the standard reference image determination process in Embodiment 1 can be improved, and the direct mode motion compensation prediction efficiency generated using the result can be further improved.

更に、実施の形態2においては、基準になる参照画像の動き補償予測ブロックに対して、複数の参照画像との間で参照画像間の動きベクトル検出を行い、誤差評価値を元に双方向予測を行う他方の参照画像の確定と双方向予測を行うか否かの判定を行う機能を、符号化側・復号側共に有することで、シーンチェンジなどの画面変化や物体が隠れる場合の伴う動画像信号に対して適した参照画像の情報のみを用いた動き補償予測信号を、付加情報無しに生成することを可能とし、ダイレクトモードの動き補償予測効率を更に向上できる。   Furthermore, in Embodiment 2, motion vector detection between reference images is performed between a plurality of reference images for a motion compensated prediction block of a reference image serving as a reference, and bi-directional prediction is performed based on error evaluation values. A video that accompanies a screen change such as a scene change or when an object is hidden by having both the encoding side and the decoding side have a function of determining whether the other reference image is to be determined and performing bidirectional prediction. It is possible to generate a motion compensated prediction signal using only reference image information suitable for the signal without additional information, and the motion compensation prediction efficiency in the direct mode can be further improved.

以上述べた本発明の各実施の形態によれば、符号化対象ブロックの周辺ブロックにおける符号化済みの動き補償予測情報を元に、予測に適した参照画像を選択する機能(符号107、215、図5参照)を、符号化側・復号側共に有することで、動きベクトル情報を伝送せずに動き補償予測を行うダイレクトモードに適した参照画像を付加情報無く認識できるため、予測効率を向上させることが出来、符号化効率を向上させた動画像符号化を実現できる。   According to each embodiment of the present invention described above, a function of selecting a reference image suitable for prediction (reference numerals 107, 215, 5)) on both the encoding side and the decoding side, a reference image suitable for the direct mode in which motion compensation prediction is performed without transmitting motion vector information can be recognized without additional information, so that prediction efficiency is improved. Therefore, it is possible to realize moving picture coding with improved coding efficiency.

また、各実施の形態によれば、基準になる参照画像の動き補償予測ブロックに対して、他の参照画像との間での動きベクトルを検出し(符号108、215、図7、図8参照)、検出した動きベクトルを元に他の参照画像の動き補償予測ブロックを生成し双方向予測を行う機能(符号109、216参照)を、符号化側・復号側共に有することで、動きベクトル情報を伝送せずに時間的に動きの変化を伴う動画像信号に対する予測効率を向上させることが出来、符号化効率を向上させた動画像符号化を実現できる。   In addition, according to each embodiment, a motion vector between another reference image is detected for a motion compensated prediction block of a reference image serving as a reference (see reference numerals 108, 215, FIG. 7, and FIG. 8). ), By generating a motion compensated prediction block of another reference image based on the detected motion vector and performing bi-directional prediction (see reference numerals 109 and 216) on both the encoding side and the decoding side, motion vector information Therefore, it is possible to improve the prediction efficiency for a moving image signal accompanied by a temporal change in motion without transmitting the image, and to realize moving image coding with improved coding efficiency.

さらに、実施の形態2によれば、基準になる参照画像の動き補償予測ブロックに対して、複数の他の参照画像との間での動きベクトルを検出した際の参照画像間の誤差評価値を元に、双方向予測を行う他方の参照画像の確定と双方向予測を行うか否かの判定を行う機能(図13のS1303〜S1308参照)を、符号化側・復号側共に有することで、シーンチェンジなどの画面変化や物体が隠れる場合の伴う動画像信号に対して適した参照画像の情報のみを用いた動き補償予測信号を、付加情報無しに生成することが出来、符号化効率を向上させた動画像符号化を実現できる。   Furthermore, according to the second embodiment, an error evaluation value between reference images when a motion vector between a plurality of other reference images is detected with respect to a motion compensated prediction block of a reference image serving as a reference is obtained. Based on the fact that both the encoding side and the decoding side have a function (see S1303 to S1308 in FIG. 13) for determining whether to perform bi-prediction and determination of the other reference image for bi-directional prediction, A motion compensated prediction signal that uses only reference image information suitable for moving image signals accompanying screen changes such as scene changes or when objects are hidden can be generated without additional information, improving coding efficiency. It is possible to realize the encoded video encoding.

さらに、実施の形態2によれば、符号化対象ブロックの周辺ブロックで用いられた動き補償予測情報に対して、使用していない参照画像に対する動きベクトルの結果を、空間的・時間的に隣接した動きベクトル情報で復号画像を使って評価する機能(図12のS1202〜S1213参照)を、符号化側・復号側共に有することで、動き補償予測情報の重要度をより適切に反映させた参照画像を選択することが可能となり、ダイレクトモードの予測効率を更に向上できる。   Furthermore, according to the second embodiment, the motion vector results for the reference images that are not used are spatially and temporally adjacent to the motion compensated prediction information used in the peripheral blocks of the encoding target block. A reference image that more appropriately reflects the importance of motion compensated prediction information by having a function of evaluating a motion vector information using a decoded image (see S1202 to S1213 in FIG. 12) on both the encoding side and the decoding side. Can be selected, and the prediction efficiency of the direct mode can be further improved.

尚、第1、第2、第3、第4、第5の実施の形態として提示した、動画像符号化装置、及び動画像復号装置は、物理的にはCPU(中央処理装置)、メモリなどの記録装置、ディスプレイ等の表示装置、及び伝送路への通信手段を具備したコンピュータで実現することが可能であり、提示した各々の機能を具備する手段を、コンピュータ上のプログラムとして実現し、実行することが可能である。また、プログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星デジタル放送のデータ放送として提供することも可能である。   The moving picture encoding apparatus and moving picture decoding apparatus presented as the first, second, third, fourth, and fifth embodiments are physically a CPU (central processing unit), a memory, and the like. Can be realized by a computer equipped with a recording device, a display device such as a display, and a communication means to the transmission path, and the means having each presented function is realized as a program on the computer and executed. Is possible. In addition, the program can be provided by being recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as data broadcasting of terrestrial or satellite digital broadcasting. is there.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

101 入力画像バッファ、 102 ブロック分割部、 103 フレーム内予測部、 104 動きベクトル検出部、 105 動き補償予測部、 106 動きベクトル予測部、 107 基準参照画像決定部、 108 参照画像間動きベクトル検出部、 109 ダイレクト動き補償予測部、 110 予測モード判定部、 111 減算器、 112 直交変換部、 113 量子化部、 114 逆量子化部、 115 逆直交変換部、 116 加算器、 117 フレーム内復号画像メモリ、 118 復号参照画像メモリ、 119 エントロピー符号化部、 120 ストリームバッファ、 122 符号量制御部、 201 ストリームバッファ、 202 エントロピー復号部、 203 予測モード復号部、 204 予測画像選択部、 205 逆量子化部、 206 逆直交変換部、 207 加算器、 208 フレーム内復号画像メモリ、 209 復号参照画像メモリ、 211 フレーム内予測部、 212 動きベクトル予測復号部、 213 動き補償予測部、 214 基準参照画像決定部、 215 参照画像間動きベクトル検出部、 216 ダイレクト動き補償予測部、 700 基準参照画像取得部、 701 動きベクトル検出範囲設定部、 702 基準参照画像メモリ、 703 参照画像取得部、 704 ブロックマッチング評価部。   101 input image buffer, 102 block division unit, 103 intra-frame prediction unit, 104 motion vector detection unit, 105 motion compensation prediction unit, 106 motion vector prediction unit, 107 reference reference image determination unit, 108 inter-reference image motion vector detection unit, 109 direct motion compensation prediction unit, 110 prediction mode determination unit, 111 subtractor, 112 orthogonal transform unit, 113 quantization unit, 114 inverse quantization unit, 115 inverse orthogonal transform unit, 116 adder, 117 intra-frame decoded image memory, 118 Decoding Reference Image Memory, 119 Entropy Coding Unit, 120 Stream Buffer, 122 Code Quantity Control Unit, 201 Stream Buffer, 202 Entropy Decoding Unit, 203 Prediction Mode Decoding Unit, 204 Predicted Image Selection Unit, 205 Quantization unit, 206 inverse orthogonal transform unit, 207 adder, 208 intra-frame decoded image memory, 209 decoded reference image memory, 211 intra-frame prediction unit, 212 motion vector prediction decoding unit, 213 motion compensation prediction unit, 214 reference reference image Determination unit, 215 inter-reference image motion vector detection unit, 216 direct motion compensation prediction unit, 700 standard reference image acquisition unit, 701 motion vector detection range setting unit, 702 standard reference image memory, 703 reference image acquisition unit, 704 block matching evaluation Department.

Claims (5)

符号化時の参照画像の指定情報および符号化時の動きベクトルの指定情報を伝送しないモードであることを示すモード情報を検出するモード検出部と、
前記モード検出部で前記モード情報が検出された場合に、復号対象ブロックの動き補償処理に使用する第1の参照画像および第1の動きベクトル値を、復号対象ブロックの周辺ブロックでの動き補償予測に用いられた情報を元に選択する基準参照画像決定部と、
前記第1の動きベクトル値を用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域とを合成した合成参照ブロックを生成する参照画像合成部と、
前記合成参照ブロックを予測ブロックとして、前記予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックとを加算することにより、復号画像を生成する復号部とを備えることを特徴とする動画像復号装置。
A mode detection unit for detecting mode information indicating a mode in which the designation information of the reference image at the time of encoding and the specification information of the motion vector at the time of encoding are not transmitted;
When the mode information is detected by the mode detection unit, the first reference image and the first motion vector value used for the motion compensation process of the decoding target block are used as the motion compensation prediction in the peripheral blocks of the decoding target block. A reference reference image determination unit that selects based on the information used in
A reference image synthesizing unit that generates a synthesized reference block obtained by synthesizing the first reference block extracted from the first reference image using the first motion vector value and a predetermined region of at least one other reference image; ,
A moving picture decoding apparatus comprising: a decoding unit that generates a decoded image by adding the prediction block and a prediction difference block decoded from the decoding target block using the synthesized reference block as a prediction block .
前記基準参照画像決定部が、符号化対象ブロックの周辺ブロックで動き補償予測に使用されていない参照画像に対する動きベクトル値を、動き補償予測に使用された参照画像に対する動きベクトル値と復号画像信号を用いて算出すると共に、その算出した動きベクトル値に応じて当該動き補償予測に使用されていない参照画像を第1の参照画像の選択候補に加えるか否かを判断し、加えると判断した場合に、前記算出した動きベクトル値を当該動き補償予測に使用されていない参照画像に対する動きベクトルの候補に加えることによって、当該動き補償予測に使用されていない参照画像の頻度を増加させた上で第1の参照画像を選択すると共に、選択された第1の参照画像において候補に加えられている動きベクトル値を用いて前記第1の動きベクトル値を生成するとすることを特徴とする請求項1に記載の動画像復号装置。   The reference reference image determination unit obtains a motion vector value for a reference image that is not used for motion compensated prediction in a peripheral block of the encoding target block, a motion vector value for the reference image used for motion compensated prediction, and a decoded image signal. And determining whether or not to add a reference image that is not used for motion compensation prediction to the first reference image selection candidate according to the calculated motion vector value. Adding the calculated motion vector value to a motion vector candidate for a reference image that is not used in the motion compensated prediction, thereby increasing the frequency of the reference image that is not used in the motion compensated prediction. And the first motion image using the motion vector value added to the candidate in the selected first reference image. Video decoding apparatus according to claim 1, characterized in that the generating vector values. 前記参照画像合成部が、前記第1の参照ブロック以下の大きさのブロック単位で検出した、複数の参照画像との間の複数の第2の動きベクトル値を元に、第2の参照ブロックに用いる参照画像を選択し、前記第1の参照ブロックと前記第2の参照ブロックとを合成した合成参照ブロックを生成してその合成参照ブロックを予測ブロックとするか、前記第1の参照ブロックを予測ブロックとして利用するかの判定を行うことを特徴とする請求項1に記載の動画像復号装置。   Based on a plurality of second motion vector values between a plurality of reference images detected by the reference image synthesizing unit in units of blocks having a size equal to or smaller than the first reference block, a second reference block is obtained. A reference image to be used is selected, and a combined reference block is generated by combining the first reference block and the second reference block, and the combined reference block is used as a prediction block, or the first reference block is predicted. The moving picture decoding apparatus according to claim 1, wherein it is determined whether to use as a block. 符号化時の参照画像の指定情報および符号化時の動きベクトルの指定情報を伝送しないモードであることを示すモード情報を検出するステップと、
前記モード情報が検出された場合に、復号対象ブロックの動き補償処理に使用する第1の参照画像および第1の動きベクトル値を、復号対象ブロックの周辺ブロックでの動き補償予測に用いられた情報を元に選択するステップと、
前記第1の動きベクトル値を用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域とを合成した合成参照ブロックを生成するステップと、
前記合成参照ブロックを予測ブロックとして、前記予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックとを加算することにより、復号画像を生成するステップとを含むことを特徴とする動画像復号方法。
Detecting mode information indicating a mode in which the designation information of the reference image at the time of encoding and the designation information of the motion vector at the time of encoding are not transmitted;
When the mode information is detected, the first reference image and the first motion vector value used for the motion compensation process of the decoding target block are used for the motion compensation prediction in the peripheral blocks of the decoding target block. A step to select based on
Generating a synthesized reference block obtained by synthesizing the first reference block extracted from the first reference image using the first motion vector value and a predetermined region of at least one other reference image;
A moving picture decoding method comprising: generating a decoded image by adding the prediction block and a prediction difference block decoded from the decoding target block using the synthesized reference block as a prediction block.
符号化時の参照画像の指定情報および符号化時の動きベクトルの指定情報を伝送しないモードであることを示すモード情報を検出する機能と、
前記モード情報が検出された場合に、復号対象ブロックの動き補償処理に使用する第1の参照画像および第1の動きベクトル値を、復号対象ブロックの周辺ブロックでの動き補償予測に用いられた情報を元に選択する機能と、
前記第1の動きベクトル値を用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域とを合成した合成参照ブロックを生成する機能と、
前記合成参照ブロックを予測ブロックとして、前記予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックとを加算することにより、復号画像を生成する機能とをコンピュータに実現させることを特徴とする動画像復号プログラム。
A function for detecting mode information indicating a mode that does not transmit designation information of a reference image at the time of encoding and designation information of a motion vector at the time of encoding;
When the mode information is detected, the first reference image and the first motion vector value used for the motion compensation process of the decoding target block are used for the motion compensation prediction in the peripheral blocks of the decoding target block. A function to select based on
A function of generating a synthesized reference block obtained by synthesizing the first reference block extracted from the first reference image using the first motion vector value and a predetermined region of at least one other reference image;
A moving image characterized by causing a computer to realize a function of generating a decoded image by adding the prediction block and a prediction difference block decoded from the decoding target block using the synthesized reference block as a prediction block Decryption program.
JP2010132184A 2010-06-09 2010-06-09 Moving image decoder, moving image decoding method and moving image decoding program Pending JP2011259230A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010132184A JP2011259230A (en) 2010-06-09 2010-06-09 Moving image decoder, moving image decoding method and moving image decoding program
PCT/JP2011/003170 WO2011155171A1 (en) 2010-06-09 2011-06-06 Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010132184A JP2011259230A (en) 2010-06-09 2010-06-09 Moving image decoder, moving image decoding method and moving image decoding program

Publications (1)

Publication Number Publication Date
JP2011259230A true JP2011259230A (en) 2011-12-22

Family

ID=45474912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010132184A Pending JP2011259230A (en) 2010-06-09 2010-06-09 Moving image decoder, moving image decoding method and moving image decoding program

Country Status (1)

Country Link
JP (1) JP2011259230A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013162273A1 (en) * 2012-04-24 2013-10-31 엘지전자 주식회사 Method and apparatus for processing video signal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048711A (en) * 2002-05-22 2004-02-12 Matsushita Electric Ind Co Ltd Method for coding and decoding moving picture and data recording medium
JP2004129191A (en) * 2002-10-04 2004-04-22 Lg Electronics Inc Direct mode motion vector calculation method for b picture
JP2008092352A (en) * 2006-10-03 2008-04-17 Ntt Docomo Inc Image predictive coder, image predictive coding method, image predictive coding program, image prediction decoder, image predictive decoding method, and image predictive decoding program
JP2008154015A (en) * 2006-12-19 2008-07-03 Hitachi Ltd Decoding method and coding method
WO2009126260A1 (en) * 2008-04-11 2009-10-15 Thomson Licensing Methods and apparatus for template matching prediction (tmp) in video encoding and decoding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048711A (en) * 2002-05-22 2004-02-12 Matsushita Electric Ind Co Ltd Method for coding and decoding moving picture and data recording medium
JP2004129191A (en) * 2002-10-04 2004-04-22 Lg Electronics Inc Direct mode motion vector calculation method for b picture
JP2008092352A (en) * 2006-10-03 2008-04-17 Ntt Docomo Inc Image predictive coder, image predictive coding method, image predictive coding program, image prediction decoder, image predictive decoding method, and image predictive decoding program
JP2008154015A (en) * 2006-12-19 2008-07-03 Hitachi Ltd Decoding method and coding method
WO2009126260A1 (en) * 2008-04-11 2009-10-15 Thomson Licensing Methods and apparatus for template matching prediction (tmp) in video encoding and decoding

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013162273A1 (en) * 2012-04-24 2013-10-31 엘지전자 주식회사 Method and apparatus for processing video signal
US9349192B2 (en) 2012-04-24 2016-05-24 Lg Electronics Inc. Method and apparatus for processing video signal

Similar Documents

Publication Publication Date Title
US10110902B2 (en) Method and apparatus for encoding/decoding motion vector
US8428136B2 (en) Dynamic image encoding method and device and program using the same
US8204127B2 (en) Method and apparatus for encoding and decoding image by using multiple reference-based motion prediction
KR101227601B1 (en) Method for interpolating disparity vector and method and apparatus for encoding and decoding multi-view video
US11917157B2 (en) Image encoding/decoding method and device for performing PROF, and method for transmitting bitstream
KR101388902B1 (en) Techniques for motion estimation
JP2011147049A (en) Image processing apparatus and method, and program
JP2012089905A (en) Image encoder and image encoding method, and image decoder and image decoding method
US20230199175A1 (en) Method and device for subpicture-based image encoding/decoding, and method for transmitting bitstream
WO2011070730A1 (en) Video coding device and video decoding device
WO2012056924A1 (en) Image processing device and image processing method
JP2011259230A (en) Moving image decoder, moving image decoding method and moving image decoding program
JP6036972B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP5737384B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
WO2011155171A1 (en) Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program
WO2012090425A1 (en) Moving image encoding device, moving image encoding method, and moving image encoding program, as well as moving image decoding device, moving image decoding method, and moving image decoding program
JP2011259229A (en) Moving image encoder, moving image encoding method and moving image encoding program
JP2012138838A (en) Moving image decoding apparatus, moving image decoding method and moving image decoding program
KR20130088096A (en) Method and apparatus for encoding and decoding motion vector
JP2012138837A (en) Moving image encoding apparatus, moving image encoding method and moving image encoding program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140408