Nothing Special   »   [go: up one dir, main page]

WO2012090425A1 - 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム - Google Patents

動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム Download PDF

Info

Publication number
WO2012090425A1
WO2012090425A1 PCT/JP2011/007065 JP2011007065W WO2012090425A1 WO 2012090425 A1 WO2012090425 A1 WO 2012090425A1 JP 2011007065 W JP2011007065 W JP 2011007065W WO 2012090425 A1 WO2012090425 A1 WO 2012090425A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
reference image
prediction
unit
synthesis
Prior art date
Application number
PCT/JP2011/007065
Other languages
English (en)
French (fr)
Inventor
上田 基晴
英樹 竹原
博哉 中村
和美 荒蔭
智 坂爪
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2010290986A external-priority patent/JP2012138838A/ja
Priority claimed from JP2010290985A external-priority patent/JP2012138837A/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2012090425A1 publication Critical patent/WO2012090425A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Definitions

  • the present invention relates to a video signal encoding and decoding technique.
  • High-efficiency coding of moving images includes the correlation between pixels that are spatially adjacent in the same frame of a moving image signal, and the correlation between temporally adjacent frames and fields, as represented by MPEG4-AVC. A method of compressing information using it is used.
  • a local decoded image of an already encoded frame is used as a reference image for a target image that is a target frame to be encoded, and a two-dimensional block having a predetermined size is used.
  • a motion amount (hereinafter referred to as “motion vector”) between the target image and the reference image is detected in units (hereinafter referred to as “target block”), and a predicted image based on the target block and the motion vector is detected.
  • the generated motion compensated prediction is used.
  • the size of a target block in a 16 ⁇ 16 pixel two-dimensional block (hereinafter referred to as “macroblock”), which is a unit of encoding processing, is made variable, and a motion vector for each target block is obtained.
  • motion compensated prediction it is necessary to encode and transmit the generated motion vector, and in order to prevent an increase in the amount of information due to the motion vector, a predicted motion vector predicted from the motion vector for a decoded block around the target block By encoding using values, it is possible to use motion compensated prediction called direct mode in which no motion vector is transmitted.
  • both the encoding side and the decoding side detect a motion vector between reference images, and the motion vector is A method of generating a predicted motion vector of a target block and assuming a direct mode on the assumption that it is continuous in time is also presented.
  • the first problem is the degradation of the quality of the motion compensated predicted image due to the degradation of the quality of the decoded image used as the reference image, especially the degradation mixed in the motion compensated predicted image when high-compression encoding is performed. While the component deteriorates the prediction accuracy, it is necessary to encode information for restoring the deteriorated component as a prediction difference, and the amount of information is increasing.
  • the second problem is that the motion vector prediction is not accurate enough for image signals with little temporal and spatial motion continuity, and the predicted image quality when using the direct mode is effective. It is a point not to do. This degradation occurs when adjacent blocks have different motions across the target object, and the motion vector used for prediction when the motion is large in time has moved corresponding to the motion of the original target block This degradation occurs because a block of positions is assumed. Similarly, when the motion changes with time, the prediction is not successful and deterioration occurs.
  • the third problem is an increase in the amount of code required for motion vector transmission when using prediction using two reference images or motion compensated prediction in units of fine blocks.
  • prediction deterioration is smoothed by adding the reference images, and the influence of the deterioration component can be reduced.
  • To increase Also, in motion compensation in fine block units, it is possible to obtain appropriate motion according to the boundary of the object, and the accuracy of the predicted image is improved, but it is necessary to transmit motion vectors in fine units.
  • the amount of code increases.
  • Patent Document 1 is a technique presented to solve the second problem described above.
  • a motion vector obtained between reference images is a target block.
  • the motion vector prediction accuracy is improved because the motion passes through the position, but if the motion is not spatially uniform, it is the predicted motion vector obtained without using the target block information Therefore, the motion is different from that of the target block, and the prediction is not sufficient.
  • motion vector detection processing over a wide range between reference images is required for both the encoding device and the decoding device, which causes a problem that the amount of calculation increases.
  • the present invention provides a technique for improving the efficiency of motion compensated prediction by improving the quality of a predicted image while suppressing an increase in the amount of calculation in the encoding device and decoding device without increasing the motion vector to be transmitted.
  • the purpose is to do.
  • a moving image encoding device includes a motion vector detection unit (117) that detects a motion vector from a first reference image for an encoding target block; A first reference image synthesizing unit that generates a first synthesized reference block by synthesizing a first reference block extracted from the first reference image using a motion vector and a predetermined region of at least one other reference image; 121), a reference image synthesis parameter storage unit (122) for storing information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit, and an encoding stored in the reference image synthesis parameter storage unit Based on the information necessary for generating the synthesized reference block of the completed region, the second synthesized reference block synthesized by specifying the predetermined region of the reference image used for synthesis with the second reference block is generated.
  • the encoding part which encodes the prediction difference block which subtracted from the encoding object block is provided.
  • a highly efficient prediction block using inter-reference image motion vector detection can be generated without performing additional motion vector transmission, and the second reference image synthesis motion compensation prediction can be performed.
  • the apparatus includes a motion vector detection unit (117) that detects a motion vector from a first reference image with respect to an encoding target block, and a first extracted from the first reference image using the motion vector.
  • the first reference image synthesizing unit (121) that generates a first synthesized reference block obtained by synthesizing the reference block and a predetermined region of at least one other reference image, and the synthesized reference block calculated by the first reference image synthesizing unit.
  • a reference image synthesis parameter storage unit (122) that stores information necessary for generation, and a second reference based on information necessary for generating a synthesized reference block of an encoded region stored in the reference image synthesis parameter storage unit.
  • a second reference image synthesizing unit (123) for generating a second synthesized reference block obtained by identifying and synthesizing a predetermined region of the reference image used for synthesis with the block;
  • a reference image synthesis selection unit (1224) for inputting information necessary for generating a synthesized reference block of the encoded region stored in the meter storage unit and determining a synthesis method for the second reference image synthesis unit;
  • a reference image synthesis selection unit needs a correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the encoding target block and the synthesized reference block for the encoded region.
  • An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated.
  • the first prediction image and the motion compensated prediction image are output as the motion compensated prediction image, so that the reference image synthesis motion compensation can be appropriately performed only when the continuity is maintained.
  • Prediction can be made to function, and a more accurate motion compensated prediction image can be generated and encoding efficiency can be improved without giving additional information.
  • the apparatus includes a motion vector detection unit (117) that detects a motion vector from a first reference image with respect to an encoding target block, and a first extracted from the first reference image using the motion vector.
  • a first reference image synthesizing unit (121) that generates a first synthesized reference block by synthesizing a predetermined area of the reference block and at least one other reference image, and a synthesized reference block generation calculated by the first reference image synthesizing unit
  • a reference image synthesis parameter storage unit (122) for storing information necessary for the second reference block, and a second reference block based on information necessary for generating a synthesized reference block for the encoded region stored in the reference image synthesis parameter storage unit.
  • a second reference image synthesis unit (123) that generates a second synthesized reference block that is synthesized by specifying a predetermined area of the reference image and a reference image synthesis parameter storage unit.
  • a reference image synthesis selection unit (1224) that inputs the information necessary for generating the synthesized reference block of the encoded region and determines a synthesis method for the second reference image synthesis unit, and includes a second reference image synthesis Or a first reference image synthesis unit has a function of generating a third synthesized reference block obtained by synthesizing the second reference block and a predetermined region of at least one other reference image, and the reference image synthesis selection unit A correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the encoding target block, and a plurality generated using information necessary for generating the synthesized reference block for the encoded region And comparing the correlation values between the reference blocks and outputting the second synthesized reference block from the second reference image synthesizer, or from the second reference image
  • An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated. If there is no continuity, a third predicted image is generated by calculating inter-reference image motion vector information between the first predicted image and the second reference image.
  • the moving image decoding apparatus includes a motion vector decoding unit (212) that decodes a motion vector for a decoding target block from an encoded stream, and a first extracted from the first reference image using the motion vector.
  • the first reference image composition unit (215) that generates a first synthesized reference block obtained by synthesizing the reference block and the predetermined region of at least one other reference image, and the synthesized reference calculated by the first reference image synthesis unit
  • the reference image synthesis parameter storage unit (216) that stores information necessary for block generation and the information necessary for generating the synthesized reference block of the decoded area stored in the reference image synthesis parameter storage unit are used as the second reference.
  • a second reference image synthesis unit (217) that generates a second synthesized reference block obtained by identifying and synthesizing a predetermined area of the reference image used for synthesis with the block.
  • a prediction mode decoding unit (203) that decodes prediction mode selection information selected from a plurality of prediction blocks including at least a first combined reference block and a second combined reference block as a decoding target block from the encoded stream.
  • a decoding unit that generates a decoded image by adding the prediction block selected by the prediction mode selection information and the prediction difference block decoded from the decoding target block.
  • a highly efficient prediction block using inter-reference image motion vector detection can be generated without performing additional motion vector transmission, and the second reference image synthesis motion compensation prediction can be performed.
  • This apparatus includes a motion vector decoding unit (212) that decodes a motion vector for a decoding target block from an encoded stream, a first reference block extracted from a first reference image using a motion vector, and at least one other
  • a first reference image synthesis unit (215) that generates a first synthesized reference block obtained by synthesizing predetermined areas of two reference images, and information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit is stored.
  • the reference image used for combining with the second reference block based on the information necessary for generating the combined reference block of the decoded area stored in the reference image combining parameter storage unit (216) and the reference image combining parameter storage unit The second reference image synthesis unit (217) that generates a second synthesized reference block that is synthesized by specifying a predetermined area of A prediction mode decoding unit (203) for decoding prediction mode selection information selected from a plurality of prediction blocks in which the target block includes at least a first synthesized reference block and a second synthesized reference block; and reference image synthesis parameter storage
  • a reference image synthesis selection unit (1318) that inputs information necessary for generating a synthesized reference block of a decoded area stored in the unit and determines a synthesis method for the second reference image synthesis unit, and includes a reference image synthesis Generated using a correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the decoding target block and information necessary for generating the synthesized reference block
  • a function for selecting at least one of a plurality of blocks including at least a first combined reference block and a second combined reference block or a second reference block as a prediction block based on prediction mode selection information.
  • a decoding unit is provided that generates a decoded image by adding a prediction block selected from the prediction blocks and a prediction difference block decoded from the decoding target block.
  • An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated.
  • the first prediction image and the motion compensated prediction image are output as the motion compensated prediction image, so that the reference image synthesis motion compensation can be appropriately performed only when the continuity is maintained.
  • Prediction can be made to function, and a more accurate motion compensated prediction image can be generated and encoding efficiency can be improved without giving additional information.
  • the apparatus includes a motion vector decoding unit (212) that decodes a motion vector for a decoding target block from an encoded stream, a first reference block extracted from the first reference image using a motion vector, A first reference image synthesis unit (215) that generates a first synthesized reference block obtained by synthesizing a predetermined region of at least one reference image, and information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit.
  • the reference image synthesis parameter storage unit (216) to be stored and the information necessary for generating the synthesized reference block of the decoded area stored in the reference image synthesis parameter storage unit are used for synthesis with the second reference block.
  • a second reference image synthesis unit (217) that generates a second synthesized reference block that is synthesized by specifying a predetermined region of the reference image, and an encoded stream.
  • a prediction mode decoding unit (203) that decodes prediction mode selection information in which a decoding target block is selected from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block; and reference image synthesis
  • a reference image synthesis selection unit (1318) for inputting information necessary for generating a synthesized reference block of the decoded area stored in the parameter storage unit and determining a synthesis method for the second reference image synthesis unit;
  • a second reference image synthesis unit or the first reference image synthesis unit has a function of generating a third synthesized reference block obtained by synthesizing the second reference block and a predetermined region of at least one other reference image; Correlation values between a plurality of reference blocks generated by the image synthesis selection unit using information necessary for generating a synthesis reference block for the decoding target
  • An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated. If there is no continuity, a third predicted image is generated by calculating inter-reference image motion vector information between the first predicted image and the second reference image.
  • the present invention it is possible to improve the quality of motion-compensated prediction by improving the quality of a predicted image while suppressing an increase in the amount of calculation in the encoding device / decoding device.
  • FIG. 1 is a configuration diagram showing the configuration of the moving picture encoding apparatus according to the first embodiment.
  • the moving picture coding apparatus includes an input terminal 100, an input picture buffer 101, a block division unit 102, a subtractor 103, an orthogonal transformation unit 104, a quantization unit 105, and an inverse quantization.
  • Unit 106 inverse orthogonal transform unit 107, adder 108, intra-frame decoded image memory 109, decoded reference image memory 110, entropy encoding unit 111, stream buffer 112, output terminal 113, code amount control unit 114, prediction mode determination unit 115, intra-frame prediction unit 116, motion vector detection unit 117, motion compensation prediction unit 118, motion vector prediction unit 119, inter-reference image motion vector detection unit 120, first reference image synthesis motion compensation prediction unit 121, reference image synthesis parameter
  • the storage unit 122 and the second reference image synthesis motion compensation prediction unit 123 are configured.
  • the digital image signal input from the input terminal 100 is stored in the input image buffer 101.
  • the digital image signal stored in the input image buffer 101 is supplied to the block dividing unit 102, and is cut out as an encoding target block in units of blocks composed of horizontal N pixels ⁇ vertical M pixels.
  • the block dividing unit 102 extracts the encoded target block from the intra-frame prediction unit 116, the motion vector detection unit 117, the motion compensation prediction unit 118, the first reference image synthesis motion compensation prediction unit 121, and the second reference image synthesis motion compensation. This is supplied to the prediction unit 123 and the subtracter 103.
  • the subtractor 103 calculates a difference between the encoding target block supplied from the block dividing unit 102 and the predicted image block supplied from the prediction mode determining unit 115, and supplies the result to the orthogonal transform unit 104 as a difference block. .
  • the operation of the prediction mode determination unit 115 will be described later.
  • the orthogonal transform unit 104 generates DCT coefficients corresponding to the orthogonally transformed frequency component signal by performing DCT transform on the difference block in a predetermined unit.
  • the unit for performing DCT conversion is a 4 ⁇ 4 pixel unit or an 8 ⁇ 8 pixel unit. Further, the orthogonal transform unit 104 collects the generated DCT coefficients in units of encoding target blocks and outputs them to the quantization unit 105.
  • the quantization unit 105 performs quantization processing by dividing the DCT coefficient by a different value for each frequency component.
  • the quantization unit 105 supplies the quantized DCT coefficient to the inverse quantization unit 106 and the entropy coding unit 111.
  • the inverse quantization unit 106 performs inverse quantization by multiplying the quantized DCT coefficient input from the quantization unit 105 by a value divided at the time of quantization, and the result of the inverse quantization is obtained.
  • the decoded DCT coefficient is output to the inverse orthogonal transform unit 107.
  • the inverse orthogonal transform unit 107 performs inverse DCT processing to generate a decoded difference block.
  • the inverse orthogonal transform unit 107 supplies the decoded difference block to the adder 108.
  • the adder 108 adds the prediction image block supplied from the prediction mode determination unit 115 and the decoded difference block supplied from the inverse orthogonal transform unit 107 to generate a local decoding block.
  • the local decoded block generated by the adder 108 is stored in the intra-frame decoded image memory 109 and the decoded reference image memory 110 in a form subjected to inverse block conversion.
  • adaptive filtering is applied to block boundaries where coding distortion for each block tends to appear as a boundary. In some cases, processing to be performed is performed.
  • the entropy encoding unit 111 receives the quantized DCT coefficient supplied from the quantization unit 105, the prediction mode information supplied from the prediction mode determination unit 115, and additional information that needs to be transmitted according to the prediction mode. In contrast, variable-length coding of each piece of information is performed. Specifically, in the case of intra-frame prediction, the intra prediction mode and the prediction block size information are used. In the case of motion compensated prediction and reference image synthesized image motion compensated prediction, the prediction block size, reference image designation information, and motion are used. The difference value between the vector and the predicted motion vector value is information that requires encoding. The information subjected to variable length coding is output as a coded bit stream from the entropy coding unit 111 to the stream buffer 112.
  • the encoded bit stream stored in the stream buffer 112 is output to a recording medium or a transmission path via an output terminal 113.
  • the code amount control unit 114 is supplied with the code amount of the encoded bit stream stored in the stream buffer 112 and compared with the target code amount. In order to approach the target code amount, the fineness of quantization (quantization scale) of the quantization unit 105 is controlled.
  • the prediction mode determination unit 115 is a prediction mode for each prediction method input from the intra-frame prediction unit 116, the motion compensation prediction unit 118, the first reference image synthesis motion compensation prediction unit 121, and the second reference image synthesis motion compensation prediction unit 123. From the prediction block, the prediction signal with the least difference information to be encoded is selected for the encoding target block input from the block dividing unit 102, and the subtraction unit 103 adds the prediction image block for the selected prediction method. To the entropy coding unit 111, the motion vector prediction unit 119, and the reference image synthesis parameter storage unit 122, the prediction mode information as additional information and the information that needs to be transmitted according to the prediction mode. Output. Regarding the motion vector value, difference information from the prediction vector value calculated by the motion vector prediction unit 119 described later is sent to the entropy encoding unit 111 and encoded.
  • the intra-frame prediction unit 116 the decoding target image input from the block division unit 102 and the decoded image of the area that has been encoded with respect to the periphery of the encoding target block, stored in the intra-frame decoding image memory 109. Is input, and prediction using correlation within the frame is performed.
  • pixel values are predicted in a plurality of predetermined directions in units of 4 ⁇ 4 pixels, 8 ⁇ 8 pixels, and 16 ⁇ 16 pixels for the encoding target block, and prediction processing is performed.
  • the prediction using the correlation between adjacent pixels in the screen is performed using a method called intra prediction that generates a prediction block together with information indicating the unit and the selected direction (intra prediction mode).
  • the predicted image block and the selected intra prediction mode are output from the intra-frame prediction unit 116 to the prediction mode determination unit 115.
  • an encoding target block input from the block division unit 102 and a decoded image of a frame that has been encoded on the entire screen and stored in the decoded reference image memory 110 are input as a reference image. Then, motion estimation is performed between the encoding target block and the reference image.
  • a reference image at a position moved by a predetermined movement amount from the same position on the screen is cut out, and the movement amount that minimizes the prediction error when the image is used as a prediction block is determined as a motion vector.
  • a block matching process that is obtained while changing the movement amount is used.
  • an absolute value sum of errors (SAD), a sum of squares of error (SSE), or the like is used, and further evaluation is performed by taking into account the amount of code of additional information such as a motion vector.
  • SAD absolute value sum of errors
  • SSE sum of squares of error
  • the detected motion vector value is output to the motion compensation prediction unit 118 and the inter-reference image motion vector detection unit 120.
  • the motion compensation prediction unit 118 receives the motion vector value obtained by the motion vector detection unit 117, and obtains motion compensation prediction images for a plurality of block sizes and a plurality of reference images that are equal to or less than the encoding target block, and the motion vector detection unit 117.
  • the prediction block with the least difference information to be encoded is selected and the difference information to be encoded is the least with respect to the encoding target block acquired from the decoded reference image memory 110 via and input from the block dividing unit 102 Select a prediction block.
  • the motion compensation prediction unit 118 outputs the selected motion compensation prediction mode, the motion vector value, and the prediction block to the prediction mode determination unit 115.
  • the motion vector prediction unit 119 calculates a predicted motion vector value using the motion vectors of the surrounding encoded blocks, and sends the motion vector detection unit 117, the motion compensation prediction unit 118, and the first reference image synthesis motion compensation prediction unit 121 to each other. Supply.
  • the motion vector detection unit 117 uses the predicted motion vector value to detect an optimal motion vector value in consideration of the code amount necessary for encoding the difference between the motion vector predicted value and the motion vector value. To do.
  • the motion compensation prediction unit 118 takes into account the amount of code required when encoding the difference between the motion vector prediction value and the transmitted motion vector value, and is used as a block unit for optimal motion compensation prediction. Select image and motion vector values.
  • the inter-reference image motion vector detection unit 120 extracts the first reference block from the reference image corresponding to the motion vector, from the motion vector input from the motion vector detection unit 117.
  • the inter-reference image motion vector detection unit 120 calculates an error value by block matching or the like for the motion vector between the extracted first reference block and another reference image, and uses the motion vector having the small value as the inter-reference image motion. Calculate as a vector.
  • the inter-reference image motion vector detection unit 120 calculates a motion vector value for generating the first reference block and a motion vector value between the other reference image and the encoding target block calculated based on the inter-reference image motion vector. It outputs to the 1st reference image synthetic
  • the first reference image synthesis motion compensation prediction unit 121 includes a motion vector value input from the inter-reference image motion vector detection unit 120, and another reference image calculated based on the inter-reference image motion vector and an encoding target block.
  • the first prediction block and the second prediction block are acquired from the decoded reference image memory 110 based on the motion vector values of the two, and a reference image synthesis motion compensation prediction block is generated by synthesizing these prediction blocks.
  • the first reference image synthesis motion compensation prediction unit 121 also calculates the difference between the motion vector prediction value and the motion vector value to be transmitted for the encoding target block input from the block division unit 102.
  • a motion vector value to be used as a block unit for optimal reference image synthesis motion compensation prediction is selected in consideration of a code amount necessary for encoding.
  • the first reference image synthesis motion compensation prediction unit 121 outputs the selected motion compensation prediction mode, the motion vector value, and the prediction block to the prediction mode determination unit 115, and other reference images calculated from the inter-reference image motion vector. And a motion vector value between the encoding target block and the encoding target block are output to the reference image synthesis parameter storage unit 122. Details of the operation of the first reference image synthesis motion compensation prediction unit 121 will be described later.
  • the reference image synthesis parameter storage unit 122 is input from the first reference image synthesis motion compensation prediction unit 121, and a motion vector value between another reference image calculated from the inter-reference image motion vector and the encoding target block.
  • Prediction mode information as additional information input from the prediction mode determination unit 115, information that needs to be transmitted according to the prediction mode, and second reference image synthesis input from the second reference image synthesis motion compensation prediction unit 123
  • Parameters necessary for reference image synthesis prediction for motion compensated prediction are stored, and necessary for reference image synthesis prediction in the encoded peripheral blocks of the target block for the second reference image synthesis motion compensation prediction unit 123.
  • Output parameters are stored, and necessary for reference image synthesis prediction in the encoded peripheral blocks of the target block for the second reference image synthesis motion compensation prediction unit 123.
  • the second reference image synthesis motion compensation prediction unit 123 performs the encoding in the peripheral blocks that have been encoded of the encoding target block input from the reference image synthesis parameter storage unit 122 with respect to the encoding target block input from the block division unit 102.
  • the first prediction block and the second prediction block are obtained from the decoded reference image memory 110 using the parameters used for the reference image synthesis, and a reference image synthesis motion compensation prediction block is generated by synthesizing these prediction blocks. To do.
  • the second reference image synthesis motion compensation prediction unit 123 outputs the selected motion compensation prediction mode and the prediction block to the prediction mode determination unit 115. Since the prediction block generated by the second reference image synthesis motion compensation prediction unit 123 is generated from the peripheral information of the decoded block, a motion vector is not transmitted as additional information.
  • the second reference image synthesis motion compensation prediction unit 123 outputs a parameter used for reference image synthesis used in the selected motion compensation prediction mode to the reference image synthesis parameter storage unit 122. Details of the operation of the second reference image synthesis motion compensation prediction unit 123 will be described later.
  • FIG. 2 is a configuration diagram of the moving picture decoding apparatus according to the first embodiment.
  • the moving picture decoding apparatus includes an input terminal 200, a stream buffer 201, an entropy decoding unit 202, a prediction mode decoding unit 203, a prediction image selection unit 204, an inverse quantization unit 205, and an inverse.
  • the detection unit 214 includes a first reference image synthesis motion compensation prediction unit 215, a reference image synthesis parameter storage unit 216, and a second reference image synthesis motion compensation prediction unit 217.
  • the reference inter-motion vector detection unit 214, the first reference image synthesis motion compensation prediction unit 215, the reference image synthesis parameter storage unit 216, and the second reference image synthesis motion compensation prediction unit 217 are provided, and in these processing blocks
  • the operation is a feature of the decoding apparatus according to the first embodiment of the present invention. These operations are paired with the same functional block of the moving picture coding apparatus shown in FIG. 1 to generate a motion compensated prediction block with reduced transmission of additional information.
  • the same processing as the processing blocks constituting the decoding processing in the moving image decoding apparatus such as MPEG4-AVC can be applied.
  • the encoded bit stream input from the input terminal 200 is supplied to the stream buffer 201, and the stream buffer 201 absorbs the code amount variation of the encoded bit stream and is supplied to the entropy decoding unit 202 in a predetermined unit such as a frame.
  • the entropy decoding unit 202 performs variable-length decoding on the encoded prediction mode information, the additional information corresponding to the prediction mode, and the quantized DCT coefficient from the encoded bitstream input via the stream buffer 201. Then, the quantized DCT coefficient is output to the inverse quantization unit 205, and the prediction mode information and additional information corresponding to the prediction mode are output to the prediction mode decoding unit 203.
  • the inverse quantization unit 205 the inverse orthogonal transform unit 206, the adder 207, the intra-frame decoded image memory 208, and the decoded reference image memory 209
  • the local decoding process of the moving image coding apparatus Processing similar to that of a certain inverse quantization unit 106, inverse orthogonal transform unit 107, adder 108, intra-frame decoded image memory 109, and decoded reference image memory 110 is performed.
  • the decoded image stored in the decoded reference image memory 209 is displayed as a decoded image signal on the display device via the output terminal 210.
  • the motion vector prediction decoding part 212 when motion compensation prediction is selected as a prediction mode from the prediction mode information input from the entropy decoding part 202 and the additional information corresponding to the prediction mode, the motion vector prediction decoding part 212 The information indicating the predicted block unit, the information indicating the motion compensation prediction mode, the first reference image synthesis motion compensation prediction mode, the second reference image synthesis motion compensation prediction mode, and the decoded difference vector value are output and predicted. Prediction mode information is output to the image selection unit 204 and the reference image synthesis parameter storage unit 216.
  • the prediction mode decoding unit 203 also determines the intra-frame prediction unit 211, the motion compensation prediction unit 213, the first reference image synthesis motion compensation prediction unit 215, and the second reference image synthesis motion compensation prediction according to the decoded prediction mode information. Information indicating the selection and additional information according to the prediction mode are output to the unit 217.
  • the prediction image selection unit 204 according to the prediction mode information input from the prediction mode decoding unit 203, the intra-frame prediction unit 211, the motion compensation prediction unit 213, the first reference image synthesis motion compensation prediction unit 215, and the second reference
  • the predicted image for the decoding target block output from any of the image synthesis motion compensation prediction unit 217 is selected and output to the adder 207.
  • the intra-frame prediction unit 211 receives the intra prediction mode as additional information according to the prediction mode from the prediction mode decoding unit 203, and according to the intra prediction mode.
  • the decoded image of the region where decoding is completed is input to the periphery of the decoding target block stored in the intra-frame decoded image memory 208, and prediction using the intra-frame correlation is performed in the same intra prediction mode as the encoding device. Done.
  • the intra-frame prediction unit 211 outputs the intra-frame prediction block generated by the prediction to the predicted image selection unit 204.
  • the motion vector predictive decoding unit 212 uses the motion vector of the neighboring decoded block for the decoded difference vector value input from the prediction mode decoding unit 203, and performs the motion prediction using the same method as that performed by the encoding device.
  • a value obtained by calculating a vector value and adding the difference vector value and the predicted motion vector value is used as a motion vector value of the decoding target block, as a motion compensated prediction unit 213, a reference image motion vector detection unit 214, and a reference image synthesis parameter storage unit.
  • the motion vectors are decoded by the number encoded according to the block unit of the prediction process indicated in the motion compensation prediction mode or the first reference image synthesized image motion compensation prediction mode.
  • the motion compensated prediction unit 213 generates a motion compensated prediction block from the decoded reference image memory 209 from the motion vector value input from the motion vector predictive decoding unit 212, and sends the generated motion compensated prediction block to the predicted image selection unit 204. Output.
  • the inter-reference image motion vector detection unit 214 extracts a first reference block used for motion compensated prediction from the decoded reference image memory 209 from the motion vector value input from the motion vector prediction decoding unit 212. Subsequently, an error value is calculated by block matching or the like for the motion vector between the extracted first reference block and another reference image, and a motion vector having a small value is calculated as a motion vector between reference images.
  • the inter-reference image motion vector detection unit 214 generates a motion vector value between the motion vector value for generating the first reference block and another reference image calculated from the inter-reference image motion vector and the encoding target block. The value is output to the first reference image synthesis motion compensation prediction unit 215.
  • the first reference image synthesis motion compensation prediction unit 215 includes a motion vector value input from the inter-reference image motion vector detection unit 214 and between another reference image calculated based on the inter-reference image motion vector and the encoding target block.
  • the first prediction block and the second prediction block are obtained from the decoded reference image memory 209 based on the motion vector values of the two, and a reference image synthesis motion compensation prediction block is generated by synthesizing these prediction blocks.
  • the generated reference image synthesis motion compensation prediction block is output to the prediction image selection unit 204.
  • the first reference image synthesis motion compensation prediction unit 215 outputs a motion vector value between another reference image and a decoding target block calculated by the inter-reference image motion vector to the reference image synthesis parameter storage unit 216. . Details of the operation of the first reference image synthesis motion compensation prediction unit 215 will be described later.
  • the reference image synthesis parameter storage unit 216 receives a motion vector value between another reference image calculated from the inter-reference image motion vector and the decoding target block, which is input from the first reference image synthesis motion compensation prediction unit 215, Prediction mode information as additional information input from the prediction mode decoding unit 203, motion vector information input from the motion vector prediction decoding unit 212, and a second reference input from the second reference image synthesis motion compensation prediction unit 217 Parameters necessary for the reference image synthesis prediction for the image synthesis motion compensation prediction are stored, and the second reference image synthesis motion compensation prediction unit 217 stores the parameters necessary for the reference image synthesis prediction in the decoded peripheral block of the decoding target block. Output parameters.
  • the second reference image synthesis motion compensation prediction unit 217 uses the parameters used for reference image synthesis in the decoded peripheral blocks of the decoding target block input from the reference image synthesis parameter storage unit 216, and uses the parameters used for reference image synthesis from the decoded reference image memory 209. 1 prediction block and 2nd prediction block are acquired, and a reference image synthetic
  • the generated reference image synthesis motion compensation prediction block is output to the prediction image selection unit 204.
  • the second reference image synthesis motion compensation prediction unit 217 outputs a parameter used for reference image synthesis used in the selected motion compensation prediction mode to the reference image synthesis parameter storage unit 216. Details of the operation of the second reference image synthesis motion compensation prediction unit 217 will be described later.
  • FIGS. 3b) and 3c) are conceptual diagrams showing reference image synthesis motion compensation prediction in the invention.
  • FIG. 3a) is a conceptual diagram of bidirectional motion compensated prediction using two reference images used in MPEG4-AVC.
  • FIG. 3a detects a motion vector between two reference images with a target block, transmits a motion vector for each reference image, and averages the reference blocks indicated by the two motion vectors.
  • a prediction image having a function of removing an encoding degradation component as a motion adaptive filter in the time direction by synthesizing two reference images and a function of following a minute luminance change component of an encoding object by averaging. can be generated.
  • a plurality of decoded reference images are stored, and a reference image number and a motion vector used for prediction are transmitted in a predetermined block unit to adaptively select the reference image.
  • a reference image number and a motion vector used for prediction are transmitted in a predetermined block unit to adaptively select the reference image.
  • four decoded images are secured as reference images, and two prediction images are acquired using the reference image 1 and the reference image 3, and bidirectional prediction is performed.
  • mvL0 and mvL1 are transmitted after taking a difference value from the predicted motion vector.
  • a reference image serving as a reference is specified, a motion vector is detected, and a reference image between the first reference block acquired using the motion vector mvL0 and another reference image
  • mvInterRef a method of generating the motion mvL1 between the encoding target image and another reference image without transmitting the motion vector is adopted.
  • mvL1 can be generated by performing similar processing using the transmitted motion vector mvL0.
  • Patent Document 1 evaluates an error value of a block that is symmetrical with an encoding target block between two reference images when the motion of an object in an adjacent image across the encoding target image is uniform. By doing so, it is a method to generate mvL0 and mvL1 without transmitting motion vectors, but it is effective when mvL0 and mvL1 are generated with a limited motion and there is little continuity in time Therefore, it is impossible to generate a prediction block with a sufficiently small prediction error. Also, a large motion search range is required to generate an appropriate motion for an image with a large motion, and the amount of calculation required for motion search processing in the encoding device / decoding device increases.
  • the parameters necessary for the reference image synthesis motion compensation prediction used in the encoded / decoded block are used on the decoding side.
  • a second reference image synthesis motion compensation prediction process that calculates a motion vector between reference pictures without using a motion vector detection process and performs a reference image synthesis motion compensation prediction, motion continuity is spatially reduced.
  • a motion vector generated using motion vector detection between reference images in a small area can be applied in a wider range, greatly increasing the amount of computation required for motion vector detection in a decoding device.
  • intra-frame prediction is performed (S400), and in a frame for which inter-frame prediction is performed, a first motion vector is detected between the encoding target block and the decoded reference image (S401).
  • One-way and two-way motion compensation prediction which is a conventional motion compensation prediction, is performed using a motion vector (S402).
  • a second motion vector is calculated between the first prediction block generated using the first motion vector and a plurality of reference images (S403).
  • the first reference image synthesis motion compensation prediction is performed using the first motion vector and the calculated second motion vector (S404). Subsequently, the second reference image synthesis motion compensation prediction is performed using the first motion vector and the second motion vector calculated in the decoded peripheral block (S405).
  • Information to be recorded includes information indicating an optimal prediction block, reference image information used for motion compensation prediction, and a motion vector.
  • the prediction mode information is decoded, and when the prediction mode is the intra-frame prediction mode (S410: YES), intra-frame prediction is performed (S411). If not (S410: NO), if the prediction mode is the second reference image synthesis motion compensation prediction mode (S412: YES), decoding is performed with the decoded peripheral blocks recorded in the reference image synthesis parameter storage unit. The second reference image synthesis motion compensation prediction is performed using the first motion vector and the second motion vector (S413).
  • the prediction mode is not the second reference image synthesis motion compensation prediction mode (S412: NO)
  • the prediction mode is not the first reference image synthesis motion compensation prediction mode (S414: NO)
  • the conventional motion compensation prediction process is performed. Is performed, and motion compensation prediction of one-way or bidirectional prediction is performed using the decoded first motion vector (S415).
  • the prediction mode is the first reference image synthesis motion compensation prediction mode (S414: YES)
  • the second prediction is performed between the first prediction block generated using the decoded first motion vector and the plurality of reference images.
  • a motion vector is calculated (S416).
  • the calculated second motion vector and first motion vector first reference image synthesis motion compensation prediction is performed (S417).
  • the prediction block generated by these prediction processes is output as the prediction image information at the time of decoding (S418), and the parameters necessary for generating the selected prediction block are used for the decoding process of the subsequent decoding block. It is recorded in the reference image synthesis parameter storage unit (S419).
  • an inter-reference image motion vector detection unit 120 in FIG. 1, 214 in FIG. 2
  • a first reference image synthesis motion compensation prediction unit 121 in FIG. 1, 215 in FIG. 2
  • the encoding side first determines a standard reference image for the encoding target block (S500). Since the reference image can be selectively specified by transmitting information indicating the reference image to the predictable reference image at the time of encoding, all the reference images are set as the standard reference image and the subsequent processing is performed. It is possible to generate an optimal prediction block.
  • the first motion vector value mvL0 base for the standard reference image detected by the motion vector detection unit (117 in FIG. 1) is input (S501).
  • a motion vector value used for normal motion compensation prediction is input, but it is also possible to input a motion vector value specified by another method.
  • a prediction block using mvL0 rounded which is a value obtained by rounding mvL0 base to integer pixel precision, is generated (S502).
  • the inter-reference image motion vector value mvInterRef is calculated between the prediction block generated in this way and another reference image (S503). Details of this processing will be described in the description of the inter-reference image motion vector detection unit (120 in FIG. 1 and 214 in FIG. 2). Here, by adding the generated mvL0edrounded and mvInterRef, mvL1 base serving as a reference for the second motion vector is calculated (S504).
  • the information for the accuracy of the motion vector transmitted at the time of encoding can be used as information for increasing the accuracy of the multi-reference image prediction block.
  • the motion in the range that becomes 0 when rounded to integer pixel precision as a phase shift vector phase vector
  • a prediction error value with respect to the encoding target block is calculated as a prediction block that is generated and the average of which is a candidate (S505).
  • both horizontal and vertical can be transmitted in addition to the motion vector value within the range of -1 / 2 ⁇ phase vector ⁇ 1/2.
  • each prediction error value is calculated.
  • the phase vector can be reproduced as the difference between the transmitted mvL0 and the mvL0 rounded rounded to integer pixel precision.
  • the first motion vector value mvL0 and the second motion vector value mvL1 in the first reference image synthesis motion compensated prediction block are obtained by adding the motion vector value obtained by adding the phase vector that takes the minimum prediction error value to mvL0 rounded and mvL1 base.
  • the first reference image synthesis motion compensated prediction only the output mvL0 information is transmitted as a motion vector value, the mvL1 information is not transmitted, and is generated by detecting the inter-reference image motion vector on the decoding side. It becomes the composition to do.
  • a reference reference image for the encoding target block is determined (S510).
  • the decoded prediction mode is the first reference image synthesis motion compensated prediction
  • information specifying the reference image is decoded as information indicating the unidirectional prediction of the normal motion compensated prediction. Can be confirmed.
  • the first motion vector value mvL0 decoded for the standard reference image is input from the motion vector prediction decoding unit (212 in FIG. 2) (S511), and the value mvL0vrounded by rounding mvL0 to integer pixel precision. Is used to generate a prediction block (S512).
  • the inter-reference image motion vector value mvInterRef is calculated between the prediction block generated in this way and another reference image (S513). This process is the same as the motion vector detection between reference images on the encoding side.
  • mvL0 rounded and mvInterRef mvL1 base serving as a reference for the second motion vector is calculated (S514).
  • mvL0 rounded which is a reference for obtaining the inter-reference image motion vector value
  • mvL0 rounded is an integer pixel. It is possible to perform image synthesis motion compensated prediction, and when using a motion vector value with the same accuracy as that of the finally transmitted motion vector as mvL0 rounded, the phase vector is fixed to 0. The motion vector value cannot be detected in consideration of the error evaluation at the time of synthesizing the reference image on the encoding side, but the inter-reference image motion vector detection is performed based on the prediction block with high accuracy. Is called.
  • mvL0 rounded is an integer pixel, it is not necessary to perform a filtering process for generating a prediction block with a small pixel precision on the first prediction block when detecting a motion vector between reference images.
  • a motion vector value can be generated in consideration of an error evaluation at the time of synthesizing a reference image on the encoding side.
  • the inter-reference image motion vector detection unit (120 in FIG. 1 and 214 in FIG. 2) includes a standard reference image acquisition unit 600, a motion vector detection range setting unit 601, a standard reference image memory 602, a reference image acquisition unit 603, and block matching.
  • the evaluation unit 604 is configured.
  • MvL0 rounded is calculated from the decoded reference image memory (110 in FIG. 1, 209 in FIG. 2), and the image block at the position moved mvL0 rounded from the encoding target block of the standard reference image is cut out, and the first reference block is extracted.
  • the acquired reference block is stored in the standard reference image memory 602.
  • the motion vector detection range setting unit 601 determines the reference ID of the second reference image, and sets a detection range of the inter-reference image motion vector that is detected between the standard reference image and the second reference image ( S801).
  • the other reference ID for the reference reference image it is possible to adopt a configuration in which information is transmitted in units similar to the slice header in MPEG4-AVC as information in units of screens.
  • a configuration is adopted in which the reference ID of the second reference image is implicitly determined for each reference ID of the reference image.
  • the detection range it is also possible to take the entire area of the second reference image as the motion vector detection range for the first reference block, and by performing detection processing with the same definition as the encoding device and the decoding device. Although functioning, in order to reduce the amount of calculation in detecting a motion vector between reference images, a detection range as shown in FIG. 7 is set.
  • FIG. 7 is an example of a motion vector detection range between reference images in the first embodiment.
  • the input time of the encoding target image is Poc Cur
  • the input time of the standard reference image is Poc Ref1
  • the input time of the second reference image is Poc Ref2
  • the motion vector prediction value between the encoding target block and the second reference image when it is assumed that the motion is temporally continuous is set.
  • an appropriate reference block of the second reference image can be obtained by searching for a motion vector for a specific region with the search position as the center. To be able to get In the example shown in FIG. 7, an area of ⁇ 8 pixels is specified as the specific area.
  • the reference image acquisition unit 603 obtains the reference block of the second reference image in the motion vector detection range designated by the motion vector detection range setting unit 601 from the decoded reference image memory (110 in FIG. 1, 209 in FIG. 2). Obtain (S802) and output to the block matching evaluation unit 604.
  • the block matching evaluation unit 604 calculates an error sum for each pixel between the first reference block stored in the standard reference image memory 602 and the reference block of the second reference image input from the reference image acquisition unit 603. Then, a reference block having a smaller total sum and a motion vector value when the reference block is acquired are stored (S803).
  • evaluation is performed using evaluation values such as SAD and SSE as in the case of a normal motion vector detection unit. However, since a motion vector value derived by detecting a motion vector between reference images is not transmitted during encoding. The evaluation is made without considering the code amount of the motion vector.
  • the stored reference block is set as the second reference block, and the motion vector value is set as the inter-reference image motion vector.
  • the value is mvInterRef (S805).
  • the calculated inter-reference image motion vector value mvInterRef is sent to the first reference image synthesis motion compensation prediction unit (121 in FIG. 1, 215 in FIG. 2) together with mvL0, mvL0 rounded, the first reference block, and the second reference block. It is output (S806).
  • Embodiment 1 Next, the operation of the second reference image synthesis motion compensated prediction in Embodiment 1 will be described using the flowchart of FIG. As a block of the encoding / decoding device, a reference image synthesis parameter storage unit (122 in FIG. 1, 216 in FIG. 2) and a second reference image synthesis motion compensation prediction unit (123 in FIG. 1, 217 in FIG. 2) are used. The detailed operation will be described.
  • reference image synthesis parameters for the decoded block above the encoding target block are acquired (S900).
  • the decoded block adjacent to the encoding target block has a relationship as shown in FIG. 10a), and the parameter at the position B is acquired as the upper block.
  • Information as shown in FIG. 10b) is stored as parameters.
  • basic prediction mode / reference image synthesis mode / motion vector information (two) and synthesis mode motion vector information are stored.
  • a prediction mode indicating the number of motion vectors predicted and transmitted by a prediction motion vector as intra prediction or motion compensated prediction is stored.
  • a flag indicating whether or not the reference image synthesis motion compensation prediction is used is stored.
  • unidirectional prediction is set as the basic prediction mode. (To transmit only one motion vector)
  • a reference image ID for specifying the used reference image and a motion vector value are stored, and as the synthesis mode motion vector information, a motion vector generated in the reference image synthesis motion compensation and not transmitted as encoded information is stored. Stores the value.
  • the reference image synthesis motion compensation is configured to use motion vectors for two reference images, one motion vector is stored for each target block as synthesis mode motion vector information. However, when three or more reference images are used, two or more motion vectors are stored.
  • the prediction mode of the acquired decoded image synthesis parameter is the intra-frame prediction mode (S901: YES)
  • the second reference image synthesis motion compensation prediction referring to the upper decoded block is invalid, and the prediction block is Not generated.
  • the prediction mode is not the intra-frame prediction mode (S901: NO)
  • the parameter reference image synthesis mode is not On (S902: NO)
  • the motion vector is used as the parameter prediction mode to perform one-way or two-way.
  • a motion compensated prediction block is generated (S903).
  • a bi-directional motion compensated prediction block is generated using the stored motion vector and synthesis mode motion vector information (S904).
  • a prediction block having the same condition as the result obtained by applying the same process as the multiple composite image motion compensation calculated in the upper part to the encoding target block is generated.
  • the prediction error evaluation value extended above is calculated between the prediction block generated by these and the encoding target block (S905).
  • the reference image synthesis parameter for the decoded block at the left of the encoding target block is acquired (S906).
  • the parameter at position A is acquired as the left block.
  • the prediction block generation using the information on the left part is also performed by the same process.
  • the prediction mode of the acquired decoded image synthesis parameter is the intra-frame prediction mode (S907: YES)
  • the upper decoded block is referred to.
  • the second reference image synthesis motion compensated prediction is invalid and a prediction block is not generated.
  • the prediction mode is not the intra-frame prediction mode (S907: NO)
  • the parameter reference image synthesis mode is not On (S908: NO)
  • a motion compensated prediction block is generated using a motion vector as the parameter prediction mode.
  • the parameter reference image synthesis mode is On (S908: YES)
  • a bidirectional motion compensated prediction block is generated using the stored motion vector and synthesis mode motion vector information (S910). .
  • a prediction error evaluation value extended ⁇ left is calculated with respect to the prediction block generated as described above with respect to the encoding target block (S911).
  • both prediction error evaluation values extended above and extended left are compared, a prediction block with a smaller evaluation value is selected, and output along with information indicating the direction left flag (S912).
  • the prediction block in the generated direction is output.
  • the second decoded image synthesis motion compensated prediction is , Not used in the encoding target block.
  • a motion compensated prediction block is generated using a motion vector as the parameter prediction mode (S922), and the parameter reference image synthesis mode is On. If there is (S921: YES), a bidirectional motion compensated prediction block is generated using the stored motion vector and synthesized mode motion vector information (S923). The selected prediction block is output (S924), and the reference image synthesis parameter in the selected direction is output to the reference image synthesis parameter storage unit (S925), and the second reference image synthesis motion compensation prediction process for the decoding target block is performed. finish.
  • the selectable adjacent decoded blocks are two points, the upper part and the left part. However, it is also possible to select by adding a direction, and the upper left part (D) or FIG. It is also possible to perform the second reference image synthesis motion compensation prediction by selecting when the upper right part (C) or the like is a decoded block.
  • Intra prediction, motion compensation prediction, first reference image synthesis motion compensation prediction, and second reference image synthesis motion compensation prediction generated according to the first embodiment take into account additional information necessary for decoding a prediction block in the encoding device. Then, the prediction mode determination unit 115 performs selection based on the code amount and the distortion amount due to encoding.
  • information indicating the second reference image synthesis motion compensated prediction is encoded as On / Off bit information, and in the case of On, information indicating the direction in which the reference image synthesis parameter of the decoded block is taken over. The left flag is encoded when there are multiple candidates.
  • information indicating the second reference image synthesis motion compensation prediction is encoded as Off, and information indicating intra prediction / unidirectional prediction / bidirectional prediction is encoded as the basic prediction mode.
  • On / Off information is sent as reference image synthesis mode information.
  • the reference image synthesis mode information is On, the first reference image synthesis motion compensation prediction is performed, and when it is Off, the conventional motion compensation prediction is performed.
  • one motion vector is encoded together with information indicating a reference image in the case of unidirectional prediction and two motion vectors in the case of bidirectional prediction.
  • compensation prediction only one reference motion vector is encoded together with information indicating a reference image.
  • FIG. 11 shows a conceptual diagram of the selection results of the first and second reference image synthesis motion compensation predictions generated by the encoding device / decoding device of Embodiment 1, and the effects thereof will be described.
  • the prediction part that has multiple reference images for the background part has the target prediction area.
  • the motion vector detection between the reference images can be acquired without transmitting an effective motion vector by the first reference image synthesis motion compensation prediction and an effective prediction block can be generated, the first reference image synthesis motion compensation prediction is performed. Selected.
  • the parameter generated in the first reference image synthesis motion compensated prediction functions effectively in an adjacent block, and therefore indicates that the parameter is extended.
  • the second reference image synthesized motion compensated prediction that can generate the reference image synthesized motion compensated prediction block is selected by transmitting only the information indicating the direction.
  • a prediction block is configured by the first reference image synthesis motion compensation prediction and the second reference image synthesis motion compensation prediction of the remaining region.
  • a highly efficient prediction block can be generated, and by using the second reference image synthesized motion compensated prediction, a highly efficient predicted block can be extended with less information and decoded.
  • the apparatus it is possible to drastically reduce a region in which the inter-reference image motion vector detection necessary for performing the reference image synthesis motion compensation prediction is performed, and it is possible to greatly reduce the amount of calculation.
  • FIG. 12 is a configuration diagram showing the configuration of the video encoding device according to the second embodiment
  • FIG. 13 is a configuration diagram showing the configuration of the video decoding device according to the second embodiment.
  • the moving picture coding apparatus includes an input terminal 100, an input picture buffer 101, a block division unit 102, a subtractor 103, an orthogonal transformation unit 104, a quantization unit 105, and an inverse quantization.
  • Unit 106 inverse orthogonal transform unit 107, adder 108, intra-frame decoded image memory 109, decoded reference image memory 110, entropy encoding unit 111, stream buffer 112, output terminal 113, code amount control unit 114, prediction mode determination unit 115, intra-frame prediction unit 116, motion vector detection unit 117, motion compensation prediction unit 118, motion vector prediction unit 119, inter-reference image motion vector detection unit 120, first reference image synthesis motion compensation prediction unit 121, reference image synthesis parameter Storage unit 122, second reference image synthesis motion compensation prediction unit 123, and reference image synthesis selection unit 122 It consists of.
  • the moving picture decoding apparatus includes an input terminal 200, a stream buffer 201, an entropy decoding unit 202, a prediction mode decoding unit 203, a prediction image selection unit 204, and an inverse quantization unit.
  • inter-frame motion detection unit 214 the first reference image synthesis motion compensation prediction unit 215, the reference image synthesis parameter storage unit 216, the second reference image synthesis motion compensation prediction unit 217, and the reference image synthesis selection unit 1318 are configured.
  • the point that the reference image composition selection unit 1318 is provided and the operation in this processing block are the characteristics of the decoding apparatus according to the second embodiment of the present invention.
  • the other processing blocks perform the same operation as in the first embodiment. Is called. Whether the reference image synthesis selection unit (1224, 1318) has the same function in encoding / decoding, and generates a prediction block using a reference image synthesis parameter from an adjacent block without transmission of additional information when paired It has a function of determining whether or not.
  • FIGS. 14A and 14B show a flowchart of the reference image composition selection process in Embodiment 2, and the operation will be described.
  • the operation of S1414 to S1421 performed by the reference image composition selection unit 1224 is added.
  • the prediction block from the two reference images is generated using the stored motion vector and the synthesis mode motion vector, and the two prediction blocks generated The error value between them is calculated as extended interref error (S1414).
  • the evaluation value in this case the sum of errors such as SAD and SSE is used as in the evaluation in the inter-reference image motion vector detection unit.
  • a bidirectional motion compensated prediction block is generated using the vector and the composite mode motion vector information (S904).
  • the threshold value ⁇ for example, when the error evaluation is SAD, a value such that the average error is 4 (4 ⁇ the number of pixels of the block) can be taken, but the quantization value at the time of encoding, interref, By switching ⁇ according to the magnitude of error, it is possible to more effectively determine continuity with adjacent blocks.
  • the prediction block from the two reference images is generated using the stored motion vector and the synthesis mode motion vector, and the two prediction blocks generated are generated.
  • An extended interref error is calculated as an error value between them (S1426), prediction blocks from two reference images are generated for adjacent blocks, and an error evaluation value interref error between the two reference images is calculated (S1427).
  • extended interref error> interref error + ⁇ (threshold) S1428: YES
  • a one-way motion compensated prediction block is generated (S1429). Otherwise (S1428: NO), a bidirectional motion compensated prediction block is generated using the stored motion vector and synthesized mode motion vector information ( S923).
  • Embodiment 2 by using the first and second reference image synthesis motion compensated prediction in Embodiment 1, a highly efficient prediction block is encoded with a small amount of information, and the inter-reference image motion vector in the decoding apparatus is used.
  • an error value between the first predicted image and the second predicted image in the referenced decoded adjacent block In addition to the effect of greatly reducing the calculation amount of detection, in the second reference image synthesis motion compensated prediction, an error value between the first predicted image and the second predicted image in the referenced decoded adjacent block, and encoding
  • the error value of the first prediction image and the second prediction image for the decoding target block is calculated and the error value for the encoding / decoding target block is sufficiently larger than the error value of the referenced decoded block.
  • To generate a motion compensated prediction image composed of only the first prediction image for the encoding / decoding target block Determines the continuity of the motion compensation prediction image to generate a more accurate motion compensated prediction image without using the additional information it is possible to improve the coding
  • FIG. 15A and FIG. 15B show a flowchart of the reference image composition selection process in Embodiment 3, and the operation will be described.
  • the operation of S1522-S1525 is added to the operation of the flowchart (S900-S913, S1414-S1421) in the second embodiment instead of S1417, S1421. Become.
  • the operations of S1530-S1531 are added to the operations of the flowcharts (S920-S925, S1426-S1429) in the second embodiment instead of S1429.
  • the second motion vector is detected between reference images from the first prediction block generated from the motion vector (S1522), and the first A reference image synthesis motion compensation prediction block is generated using the prediction block and the second prediction block (S1523).
  • the reference image synthesis selection unit 1224 may be provided, but the first reference image synthesis motion compensation prediction unit 121 has a function, and by giving an instruction from the reference image synthesis selection unit 1224, It is also possible to calculate a reference image synthesis motion compensation prediction block.
  • Embodiment 3 by using the first and second reference image synthesized motion compensated prediction in Embodiment 1, a highly efficient prediction block is encoded with a small amount of information, and the inter-reference image motion vector in the decoding device
  • the error value between the first predicted image and the second predicted image in the referenced decoded adjacent block When the error value of the first prediction image and the second prediction image for the decoding target block is calculated and the error value for the encoding / decoding target block is sufficiently larger than the error value in the referenced decoded block, It is determined that there is no continuity, and motion vector information between the first predicted image and the second reference image for the encoding / decoding target block is calculated.
  • the moving picture encoding apparatus and moving picture decoding apparatus presented as the first, second, and third embodiments are physically a CPU (central processing unit), a recording device such as a memory, and a display device such as a display.
  • a computer having a communication means for a transmission path, and the means having each of the presented functions can be realized as a program on the computer and executed.
  • the program can be provided by being recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as data broadcasting of terrestrial or satellite digital broadcasting. is there.
  • DESCRIPTION OF SYMBOLS 100 Input terminal 101 Input image buffer 102 Block division part 103 Subtractor 104 Orthogonal transformation part 105 Quantization part 106 Inverse quantization part 107 Inverse orthogonal transformation part 108 Adder 109 In-frame decoded image memory 110 Decoded reference image memory 111 Entropy encoding Unit 112 stream buffer 113 output terminal 114 code amount control unit 115 prediction mode determination unit 116 intra-frame prediction unit 117 motion vector detection unit 118 motion compensation prediction unit 119 motion vector prediction unit 120 inter-picture motion vector detection unit 121 first reference image Synthetic motion compensation prediction unit 122 Reference image synthesis parameter storage unit 123 Second reference image synthesis motion compensation prediction unit 200 Input terminal 201 Stream buffer 202 Entropy decoding unit 203 Prediction mode decoding unit 204 Predicted image selection unit 205 Inverse amount Conversion unit 206 Inverse orthogonal transform unit 207 Adder 208 Intra-frame decoded image memory 209 Decoded reference image memory 210 Output terminal 211 Intra
  • the present invention can be used for a video signal encoding technique.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 動きベクトル検出部は、符号化対象ブロックに対して第1の参照画像からの動きベクトルを検出する。第1参照画像合成部は、動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する。第2参照画像合成部は、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する。符号化部は、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックより選択された予測ブロックを、符号化対象ブロックより減算した予測差分ブロックを符号化する。

Description

動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
 本発明は、動画像信号の符号化及び復号技術に関する。
 近年、デジタル化された画像及び音のコンテンツを、衛星や地上波等の放送波やネットワークを介して配信するサービスが実用化されており、膨大な情報量を持つコンテンツを効率的に記録及び伝送するための高能率符号化技術が必要となっている。動画像の高能率符号化としては、MPEG4-AVCに代表される、動画像信号の同一フレーム内で空間的に隣接する画素間の相関、及び時間的に隣接するフレーム間やフィールド間の相関を利用して情報を圧縮する方法が用いられる。
 MPEG4-AVCでは、時間的相関を利用した圧縮として、符号化対象フレームである対象画像に対して、既に符号化済みのフレームの局部復号画像を参照画像として用い、所定の大きさの2次元ブロック(以降、「対象ブロック」と記す)単位で、対象画像と参照画像との間での動き量(以降、「動きベクトル」と記す)を検出し、対象ブロックと動きベクトルに基づいた予測画像を生成する動き補償予測が用いられる。
MPEG4-AVCでは、符号化処理の単位となる16×16画素の2次元ブロック(以降、「マクロブロック」と記す)内での、対象ブロックの大きさを可変にして対象ブロック毎の動きベクトルを用いて予測する手法、複数の参照画像を格納し予測に用いる参照画像を選択する手法、2つの参照画像と対象ブロックの間の動きベクトルを求めて動き予測画像を生成する手法を用いる事で、動き補償予測の予測精度を向上させる事が可能であり、それにより情報量の削減を実現している。
 また、動き補償予測においては生成した動きベクトルを符号化伝送する必要があり、動きベクトルによる情報量の増加を防ぐために、対象ブロック周辺の復号済みのブロックに対する動きベクトルから予測される、予測動きベクトル値を用いて符号化する事で、動きベクトルを伝送しないダイレクトモードと呼ばれる動き補償予測を用いる事が可能となっている。
 しかしながら、上記動きベクトルの予測は必ずしも精度良く求める事が出来ないため、特許文献1に示されるように、符号化側と復号側が共に、参照画像間で動きベクトルの検出を行い、その動きベクトルが時間的に連続している事を想定して、対象ブロックの予測動きベクトルを生成し、ダイレクトモードを構成する手法も提示されている。
特開2008-154015号公報
 MPEG4-AVCに代表される従来の動画像符号化における動き補償予測は、以下のような課題が解決できていないために、符号化効率の向上が妨げられている。
 一つ目の課題は、参照画像として用いる復号画像の品質が劣化することによる、動き補償予測画像の品質低下であり、特に高圧縮な符号化を施した場合に動き補償予測画像に混入した劣化成分が予測精度を悪化させると共に、劣化成分を復元するための情報を予測差分として符号化する必要があり、情報量が増加している。
 二つ目の課題は、時間的・空間的に動きの連続性が少ない画像信号において、動きベクトルの予測が十分な精度でなく、ダイレクトモードを用いた際の予測画像の品質が悪く有効に機能しない点である。対象となる物体を跨いで隣接するブロックでは異なる動きを有する際にこの劣化が生じ、時間的には動きが大きい場合に予測に用いる動きベクトルが本来の対象ブロックとは動きに相当して移動した位置のブロックを想定しているためにこの劣化が生じる。また時間的に動きが変化する場合にも、同様に予測が当らず劣化が生じる。
 三つ目の課題は、2つの参照画像を用いた予測や細かいブロック単位での動き補償予測を用いた際の、動きベクトル伝送に要する符号量の増加である。2つの参照画像を用いる場合に、参照画像を加算する事による予測劣化の平滑化が行われ、劣化成分の影響を少なくする事が出来るが、それに応じた動きベクトルの伝送が必要となり符号量が増加する。
 また、細かいブロック単位での動き補償においても、物体の境界に応じて適切な動きを求める事が可能となり、予測画像の精度は向上するが、細かい単位での動きベクトルの伝送が必要となって符号量が増大する。
 特許文献1は、上記二つ目の課題を解決するために提示された手法であるが、空間的に一様な動きをしている場合には、参照画像間で求めた動きベクトルが対象ブロックの位置を通過する動きとなる為、動きベクトルの予測精度は向上するが、空間的に一様な動きをしていない場合には、対象ブロックの情報を用いずに求めた予測動きベクトルであるために、対象ブロックと異なる動きとなり予測が十分に当らない。また、大きな動きを捉えるためには、参照画像間で広い範囲に渡る動きベクトルの検出処理が符号化装置、復号化装置の両方に必要となり、演算量が大きくなる課題が生じる。
 そこで、本発明は、伝送する動きベクトルを増加させず、符号化装置および復号化装置における演算量の増加を抑えつつ、予測画像の品質を向上させて動き補償予測の効率を向上させる技術を提供することを目的とする。
 上記課題を解決するために、本発明のある態様の動画像符号化装置は、符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部(117)と、動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する、第1参照画像合成部(121)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(122)と、参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(123)を具備し、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックより、符号化対象ブロックに対する予測ブロックを選択し、予測ブロックを符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備える。
 第1参照画像合成動き補償予測を用いることにより、参照画像間動きベクトル検出を用いた高効率な予測ブロックを、追加の動きベクトル伝送を行わずに生成できると共に、第2参照画像合成動き補償予測を用いることにより、少ない情報で高効率な予測ブロックを延長できると共に、復号装置において参照画像合成動き補償予測を行うために必要な参照画像間動きベクトル検出を機能させる領域を大幅に小さくすることが出来、演算量を大きく削減できる効果も有する。
 本発明の別の態様もまた、動画像符号化装置である。この装置は、符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部(117)と、動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する、第1参照画像合成部(121)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(122)と、参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(123)と、参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部(1224)を具備し、参照画像合成選択部が、符号化対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、符号化済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、第2参照画像合成部からの出力を、第2の合成参照ブロックと第2の参照ブロックで選択する機能(S1414-S1417、S1418-S1421)を有し、少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第2の参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備える。
 参照した隣接ブロックにおける第1の予測画像と第2の予測画像間の誤差値と、符号化対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、参照画像間の連続性の有無を判断し、連続性がなくなった場合には、第1の予測画像とを動き補償予測画像として出力することで、連続性が保たれている場合にのみ適切に参照画像合成動き補償予測を機能させることができ、付加情報を与えずに、より正しい動き補償予測画像を生成し符号化効率を向上させることができる。
 本発明の別の態様もまた、動画像符号化装置である。この装置は、符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部(117)と、動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部(121)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(122)と、参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(123)と、参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部(1224)を具備し、第2参照画像合成部もしくは第1参照画像合成部が、第2の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第3の合成参照ブロックを生成する機能を有し、参照画像合成選択部が、符号化対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、符号化済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、第2参照画像合成部から第2の合成参照ブロックを出力するか、第2参照画像合成部もしくは第1参照画像合成部から、第3の合成参照ブロックを出力するかを選択する機能(S1414-S1416、S1522-S1523、S1418-S1420、S1524-S1525)を有することを特徴とし、少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第3の合成参照ブロックを含む複数の予測ブロックより、符号化対象ブロックに対する予測ブロックを選択し、予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備える。
 参照した隣接ブロックにおける第1の予測画像と第2の予測画像間の誤差値と、符号化対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、参照画像間の連続性の有無を判断し、連続性がなくなった場合には、第1の予測画像と第2の参照画像の間での参照画像間動きベクトル情報を算出することで第3の予測画像を生成し、第1の予測画像と第3の予測画像を合成することにより、合成動き補償予測画像を生成することで、必要な場合にのみ再度復号側動きベクトル算出型の動き補償予測をおこなうことができ、演算量の増加を抑えつつ、付加情報を用いずに符号化効率をより向上させることができる。
 本発明のある態様の動画像復号装置は、符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部(212)と、動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部(215)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(216)と、参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報により、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(217)と、符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部(203)を具備し、予測モード選択情報により選択された予測ブロックと、復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備える。
 第1参照画像合成動き補償予測を用いることにより、参照画像間動きベクトル検出を用いた高効率な予測ブロックを、追加の動きベクトル伝送を行わずに生成できると共に、第2参照画像合成動き補償予測を用いることにより、少ない情報で高効率な予測ブロックを延長できると共に、復号装置において参照画像合成動き補償予測を行うために必要な参照画像間動きベクトル検出を機能させる領域を大幅に小さくすることが出来、演算量を大きく削減できる効果も有する。
 本発明の別の態様もまた、動画像復号装置である。この装置は、符号化ストリームより復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部(212)と、動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部(215)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(216)と、参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(217)と、符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部(203)と、参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部(1318)を具備し、参照画像合成選択部が、復号対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、復号済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、第2参照画像合成部からの出力を、第2の合成参照ブロックと第2の参照ブロックで選択する機能(S1426-S1429)を有することを特徴とし、予測モード選択情報より、予測ブロックとして少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第2の参照ブロックを含む複数の予測ブロックより選択された予測ブロックと、復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備える。
 参照した隣接ブロックにおける第1の予測画像と第2の予測画像間の誤差値と、符号化対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、参照画像間の連続性の有無を判断し、連続性がなくなった場合には、第1の予測画像とを動き補償予測画像として出力することで、連続性が保たれている場合にのみ適切に参照画像合成動き補償予測を機能させることができ、付加情報を与えずに、より正しい動き補償予測画像を生成し符号化効率を向上させることができる。
 本発明の別の態様もまた、動画像復号装置である。この装置は、符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部(212)と、動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部(215)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(216)と、参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(217)と、符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部(203)と、参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部(1318)を具備し、第2参照画像合成部もしくは前記第1参照画像合成部が、前記第2の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第3の合成参照ブロックを生成する機能を有し、参照画像合成選択部が、復号対象ブロックに対する合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、復号済領域に対する合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、第2参照画像合成部から第2の合成参照ブロックを出力するか、第2参照画像合成部もしくは第1参照画像合成部から、第3の合成参照ブロックを出力するかを選択する機能(S1426-S1428、S1530-S1531)を有することを特徴とし、予測モード選択情報より、予測ブロックとして少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第3の合成参照ブロックを含む複数の予測ブロックより選択された予測ブロックと、復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備える。
 参照した隣接ブロックにおける第1の予測画像と第2の予測画像間の誤差値と、符号化対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、参照画像間の連続性の有無を判断し、連続性がなくなった場合には、第1の予測画像と第2の参照画像の間での参照画像間動きベクトル情報を算出することで第3の予測画像を生成し、第1の予測画像と第3の予測画像を合成することにより、合成動き補償予測画像を生成することで、必要な場合にのみ再度復号側動きベクトル算出型の動き補償予測をおこなうことができ、演算量の増加を抑えつつ、付加情報を用いずに符号化効率をより向上させることができる。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、符号化装置・復号化装置における演算量の増加を抑えつつ、予測画像の品質を高めて動き補償予測の効率を向上させることができる。
本発明の実施の形態1における動画像符号化装置の構成図である。 本発明の実施の形態1における動画像復号装置の構成図である。 本発明における参照画像合成動き補償予測の動作を示す概念図である。 本発明の実施の形態1における予測ブロック生成処理のフローチャートである。 本発明の実施の形態1における第1参照画像合成動き補償予測の処理フローチャートである。 本発明の実施の形態1における参照画像間動きベクトル検出部の構成図である。 本発明の実施の形態1における参照画像間の動きベクトル検出範囲の一例を示す図である。 本発明の実施の形態1における参照画像間動きベクトル検出部の処理フローチャートである。 本発明の実施の形態1における第2参照画像合成動き補償予測の処理フローチャートである。 本発明の実施の形態1における参照画像合成パラメータ格納部の管理形態を示す図である。 本発明の実施の形態1における第1、第2参照画像合成動き補償の選択結果の概念図である。 本発明の実施の形態2における動画像符号化装置の構成図である。 本発明の実施の形態2における動画像復号装置の構成図である。 本発明の実施の形態2における符号化側の参照画像合成選択処理のフローチャートである。 本発明の実施の形態2における復号側の参照画像合成選択処理のフローチャートである。 本発明の実施の形態3における符号化側の参照画像合成選択処理のフローチャートである。 本発明の実施の形態3における復号側の参照画像合成選択処理のフローチャートである。
 以下に、発明を実施するための形態について図面を参照して説明する。
 (実施の形態1)
 まず、実施の形態1の動画像符号化装置を説明する。図1は、実施の形態1の動画像符号化装置の構成を示す構成図である。
 図1に示すように、実施の形態1の動画像符号化装置は、入力端子100、入力画像バッファ101、ブロック分割部102、減算器103、直交変換部104、量子化部105、逆量子化部106、逆直交変換部107、加算器108、フレーム内復号画像メモリ109、復号参照画像メモリ110、エントロピー符号化部111、ストリームバッファ112、出力端子113、符号量制御部114、予測モード判定部115、フレーム内予測部116、動きベクトル検出部117、動き補償予測部118、動きベクトル予測部119、参照画像間動きベクトル検出部120、第1参照画像合成動き補償予測部121、参照画像合成パラメータ格納部122、および第2参照画像合成動き補償予測部123から構成される。
 参照画像間動きベクトル検出部120、第1参照画像合成動き補償予測部121、参照画像合成パラメータ格納部122、および第2参照画像合成動き補償予測部123を設けた点と、この処理ブロックにおける動作が、本発明の実施の形態1における特徴であり、他の処理ブロックに関してはMPEG4-AVC等の動画像符号化装置における符号化処理を構成する処理ブロックと同一処理が適用できる。
 入力端子100より入力されたデジタル画像信号は、入力画像バッファ101に格納される。入力画像バッファ101に格納されたデジタル画像信号は、ブロック分割部102に供給され、水平N画素×垂直M画素で構成されるブロック単位で符号化対象ブロックとして切り出される。NおよびMの値は、複数の予め設定可能な画素数より選択的に構成することも可能であるが、実施の形態1における説明ではN=16、M=16で固定であるとする。ブロック分割部102は、切り出した符号化対象ブロックを、フレーム内予測部116、動きベクトル検出部117、動き補償予測部118、第1参照画像合成動き補償予測部121、第2参照画像合成動き補償予測部123、および減算器103に供給する。
 減算器103は、ブロック分割部102から供給された符号化対象ブロックと、予測モード判定部115より供給された予測画像ブロックとの差分を演算し、結果を差分ブロックとして直交変換部104に供給する。予測モード判定部115の動作に関しては後述する。
 直交変換部104では、差分ブロックに対して所定単位でDCT変換を行うことで、直交変換された周波数成分信号に相当するDCT係数を生成する。実施の形態1における説明では、DCT変換を施す単位は4×4画素もしくは8×8画素単位であるとする。また、直交変換部104では、生成したDCT係数を符号化対象ブロック単位に纏めて、量子化部105に出力する。
 量子化部105においては、DCT係数を周波数成分毎に異なった値で除算することにより量子化処理を施す。量子化部105は、量子化処理されたDCT係数を、逆量子化部106及びエントロピー符号化部111に供給する。
 逆量子化部106は、量子化部105より入力した量子化処理されたDCT係数に対して、量子化時に除算された値を乗算することで逆量子化を行い、逆量子化された結果を復号されたDCT係数として、逆直交変換部107に出力する。
 逆直交変換部107においては逆DCT処理が行われ、復号された差分ブロックを生成する。逆直交変換部107は、復号された差分ブロックを加算器108に供給する。
 加算器108は、予測モード判定部115より供給された予測画像ブロックと、逆直交変換部107より供給される復号された差分ブロックを加算し、局部復号ブロックを生成する。加算器108で生成された局部復号ブロックは、フレーム内復号画像メモリ109及び復号参照画像メモリ110に逆ブロック変換された形で格納される。MPEG-4 AVCの場合には、局部復号ブロックが復号参照画像メモリ110に入力される手前で、ブロック毎での符号化歪が境界となって現れやすいブロック境界に対して、適応的にフィルタリングを行う処理が施される場合もある。
 エントロピー符号化部111は、量子化部105より供給された量子化処理されたDCT係数と、予測モード判定部115より供給された、予測モード情報と、予測モードに応じて伝送が必要な付加情報に対して、それぞれの情報の可変長符号化を行う。具体的には、フレーム内予測の場合にはイントラ予測モードと予測ブロックサイズ情報が、動き補償予測及び参照画像合成画像動き補償予測の場合には、予測ブロックサイズ、参照画像の指定情報、及び動きベクトルと予測動きベクトル値との差分値が、符号化を要する情報となる。可変長符号化を施した情報は符号化ビットストリームとして、エントロピー符号化部111よりストリームバッファ112に出力される。
 ストリームバッファ112に蓄えられた符号化ビットストリームは、出力端子113を介して、記録媒体もしくは伝送路に出力される。符号化ビットストリームの符号量制御に関しては、符号量制御部114に、ストリームバッファ112に蓄えられている符号化ビットストリームの符号量が供給され、目標とする符号量との間で比較がとられ、目標符号量に近づけるために量子化部105の量子化の細かさ(量子化スケール)が制御される。
 予測モード判定部115は、フレーム内予測部116、動き補償予測部118、第1参照画像合成動き補償予測部121、第2参照画像合成動き補償予測部123より入力された各予測手法に対する予測モードと予測ブロックより、ブロック分割部102より入力された符号化対象ブロックに対して、最も符号化する差分情報が少ない予測信号を選択し、選択された予測手法に対する予測画像ブロックを減算器103及び加算器108に出力すると共に、エントロピー符号化部111、動きベクトル予測部119および参照画像合成パラメータ格納部122に対して、付加情報としての予測モード情報と、予測モードに応じて伝送が必要な情報を出力する。動きベクトル値に関しては、後述する動きベクトル予測部119で算出された予測ベクトル値との差分情報がエントロピー符号化部111に送られ符号化される。
 フレーム内予測部116では、ブロック分割部102より入力された符号化対象ブロックと、フレーム内復号画像メモリ109に格納された、符号化対象ブロックの周辺に対して符号化が完了した領域の復号画像が入力され、フレーム内の相関性を用いた予測が行われる。MPEG4-AVCの場合には符号化対象ブロックに対して、4×4画素単位、8×8画素単位、16×16画素単位で、複数の所定の方向に対して画素値を予測し、予測処理の単位と選択した方向を示す情報(イントラ予測モード)と共に予測ブロックを生成するイントラ予測という手法を用いて、画面内の隣接画素の相関を用いた予測を行う。予測画ブロック及び選択したイントラ予測モードは、フレーム内予測部116より予測モード判定部115に出力される。
 動きベクトル検出部117では、ブロック分割部102より入力された符号化対象ブロックと、復号参照画像メモリ110に格納された、画面全体の符号化が完了したフレームの復号画像が参照画像として入力されて、符号化対象ブロックと参照画像との間での動き推定を行う。一般的な動き推定処理としては、画面内の同一位置より所定の移動量だけ移動させた位置の参照画像を切り出し、その画像を予測ブロックとした際の予測誤差が最も少なくなる移動量を動きベクトル値として、移動量を変化させながら求めるブロックマッチング処理が用いられる。予測誤差の評価値としては、誤差の絶対値総和(SAD)や誤差の二乗総和(SSE)等が用いられ、更に動きベクトル等の付加情報の符号量と加味して評価することで、より符号化された場合に効率に良い動きベクトルを算出できる。検出された動きベクトル値は、動き補償予測部118および参照画像間動きベクトル検出部120に出力される。
 動き補償予測部118は、動きベクトル検出部117によって求められた動きベクトル値を入力し、符号化対象ブロック以下の複数のブロックサイズ及び複数の参照画像に対する動き補償予測画像を、動きベクトル検出部117経由で復号参照画像メモリ110より取得し、ブロック分割部102より入力された符号化対象ブロックに対して、最も符号化する差分情報が少ない予測ブロックを選択すると共に、最も符号化する差分情報が少ない予測ブロックを選択する。動き補償予測部118は、選択された動き補償予測モード、動きベクトル値と予測ブロックを予測モード判定部115に出力する。
 動きベクトル予測部119は、周辺の符号化済みブロックの動きベクトルを用いて予測動きベクトル値を算出し、動きベクトル検出部117、動き補償予測部118および第1参照画像合成動き補償予測部121に供給する。
 前記予測動きベクトル値を用いて、動きベクトル検出部117は、動きベクトル予測値と動きベクトル値との差分を符号化する際に必要となる符号量を加味して、最適な動きベクトル値を検出する。同様に、動き補償予測部118は、動きベクトル予測値と伝送する動きベクトル値との差分を符号化する際に必要となる符号量を加味して、最適な動き補償予測のブロック単位と用いる参照画像及び動きベクトル値を選択する。
 参照画像間動きベクトル検出部120は、動きベクトル検出部117より入力された動きベクトルより、動きベクトルと対応する参照画像から第1の参照ブロックを抽出する。参照画像間動きベクトル検出部120は、抽出した第1の参照ブロックと他の参照画像との間における動きベクトルをブロックマッチング等で誤差値を算出し、その値が小さな動きベクトルを参照画像間動きベクトルとして算出する。参照画像間動きベクトル検出部120は、第1の参照ブロックを生成する動きベクトル値と、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値を、第1参照画像合成動き補償予測部121に出力する。
 第1参照画像合成動き補償予測部121は、参照画像間動きベクトル検出部120より入力された動きベクトル値および、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値を元に、復号参照画像メモリ110より第1の予測ブロックおよび第2の予測ブロックを取得し、これらの予測ブロックを合成することで参照画像合成動き補償予測ブロックを生成する。第1参照画像合成動き補償予測部121も動き補償予測部118と同様に、ブロック分割部102より入力された符号化対象ブロックに対して、動きベクトル予測値と伝送する動きベクトル値との差分を符号化する際に必要となる符号量を加味して、最適な参照画像合成動き補償予測のブロック単位と用いる動きベクトル値を選択する。
 第1参照画像合成動き補償予測部121は、選択された動き補償予測モード、動きベクトル値と予測ブロックを予測モード判定部115に出力するとともに、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値を、参照画像合成パラメータ格納部122に出力する。第1参照画像合成動き補償予測部121の動作の詳細に関しては後述する。
 参照画像合成パラメータ格納部122は、第1参照画像合成動き補償予測部121より入力された、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値と、予測モード判定部115より入力された付加情報としての予測モード情報と、予測モードに応じて伝送が必要な情報、および第2参照画像合成動き補償予測部123より入力される第2参照画像合成動き補償予測に対する参照画像合成予測に必要なパラメータを格納すると共に、第2参照画像合成動き補償予測部123に対して、符号化対象ブロックの符号化済周辺ブロックにおける、参照画像合成予測に必要なパラメータを出力する。
 第2参照画像合成動き補償予測部123は、ブロック分割部102より入力された符号化対象ブロックに対して、参照画像合成パラメータ格納部122より入力される符号化対象ブロックの符号化済周辺ブロックにおける、参照画像合成に用いるパラメータを用いて、復号参照画像メモリ110より第1の予測ブロックおよび第2の予測ブロックを取得し、これらの予測ブロックを合成することで参照画像合成動き補償予測ブロックを生成する。
 第2参照画像合成動き補償予測部123は、選択された動き補償予測モードと予測ブロックを予測モード判定部115に出力する。第2参照画像合成動き補償予測部123で生成される予測ブロックに対しては、復号済のブロックの周辺情報より生成されるため、付加情報として動きベクトルは伝送されない。
 また、第2参照画像合成動き補償予測部123は、選択された動き補償予測モードにおいて用いられる参照画像合成に用いるパラメータを参照画像合成パラメータ格納部122に出力する。第2参照画像合成動き補償予測部123の動作の詳細に関しては後述する。
 続いて、実施の形態1の動画像符号化装置により生成された符号化ビットストリームを復号する、動画像復号装置を説明する。図2は、実施の形態1の動画像復号装置の構成図である。
 図2に示すように、実施の形態1の動画像復号装置は、入力端子200、ストリームバッファ201、エントロピー復号部202、予測モード復号部203、予測画像選択部204、逆量子化部205、逆直交変換部206、加算器207、フレーム内復号画像メモリ208、復号参照画像メモリ209、出力端子210、フレーム内予測部211、動きベクトル予測復号部212、動き補償予測部213、参照画像間動きベクトル検出部214、第1参照画像合成動き補償予測部215、参照画像合成パラメータ格納部216、および第2参照画像合成動き補償予測部217から構成される。
 参照画像間動きベクトル検出部214、第1参照画像合成動き補償予測部215、参照画像合成パラメータ格納部216、および第2参照画像合成動き補償予測部217を設けた点と、これらの処理ブロックにおける動作が、本発明の実施の形態1の復号装置における特徴である。これらの動作は図1に示した動画像符号化装置の同じ機能ブロックと対になることで、付加情報の伝送を削減させた動き補償予測ブロックを生成する。他の処理ブロックに関してはMPEG4-AVC等の動画像復号装置における復号処理を構成する処理ブロックと同一処理が適用できる。
 入力端子200より入力された符号化ビットストリームは、ストリームバッファ201に供給され、ストリームバッファ201で符号化ビットストリームの符号量変動を吸収して、フレーム等の所定単位でエントロピー復号部202に供給される。エントロピー復号部202は、ストリームバッファ201を介して入力された符号化ビットストリームより、符号化された予測モード情報と予測モードに応じた付加情報、及び量子化されたDCT係数に関して可変長復号を行い、逆量子化部205に量子化されたDCT係数を、予測モード復号部203に予測モード情報と予測モードに応じた付加情報を出力する。
 逆量子化部205、逆直交変換部206、加算器207、フレーム内復号画像メモリ208、及び復号参照画像メモリ209に関しては、本発明の実施の形態1の動画像符号化装置の局部復号処理である逆量子化部106、逆直交変換部107、加算器108、フレーム内復号画像メモリ109、復号参照画像メモリ110と同様の処理が行われる。復号参照画像メモリ209に蓄えられた復号画像は、出力端子210を介して、表示装置に復号画像信号として表示される。
 予測モード復号部203では、エントロピー復号部202より入力された予測モード情報と予測モードに応じた付加情報より、予測モードとして動き補償予測が選択された場合に、動きベクトル予測復号部212に対して、予測したブロック単位を示す情報である動き補償予測モード、第1参照画像合成動き補償予測モード、第2参照画像合成動き補償予測モードを示す情報と、復号した差分ベクトル値を出力すると共に、予測画像選択部204、および参照画像合成パラメータ格納部216に対して予測モード情報を出力する。また、予測モード復号部203は、復号した予測モード情報に応じて、フレーム内予測部211、動き補償予測部213、第1参照画像合成動き補償予測部215、および第2参照画像合成動き補償予測部217に対して、選択されたことを示す情報及び予測モードに応じた付加情報を出力する。
 予測画像選択部204は、予測モード復号部203より入力された予測モード情報に応じて、フレーム内予測部211、動き補償予測部213、第1参照画像合成動き補償予測部215、および第2参照画像合成動き補償予測部217の何れかより出力された、復号対象ブロックに対する予測画像を選択し、加算器207に出力する。
 フレーム内予測部211は、復号した予測モードがフレーム内予測を示している場合に、予測モード復号部203より予測モードに応じた付加情報として、イントラ予測モードが入力され、イントラ予測モードに応じてフレーム内復号画像メモリ208に格納された、復号対象ブロックの周辺に対して復号が完了した領域の復号画像が入力され、符号化装置と同じイントラ予測モードでフレーム内の相関性を用いた予測が行なわれる。フレーム内予測部211は、予測により生成したフレーム内予測ブロックを、予測画像選択部204に出力する。
 動きベクトル予測復号部212は、予測モード復号部203より入力された復号した差分ベクトル値に対して、周辺の復号済みブロックの動きベクトルを用いて、符号化装置で行う方式と同じ方法で予測動きベクトル値を算出し、差分ベクトル値と予測動きベクトル値を加算した値を、復号対象ブロックの動きベクトル値として動き補償予測部213、参照画像間動きベクトル検出部214、および参照画像合成パラメータ格納部216に出力する。動きベクトルは、動き補償予測モードもしくは第1参照画像合成画像動き補償予測モードで示される、予測処理のブロック単位に従って符号化された数だけ復号される。
 動き補償予測部213は、動きベクトル予測復号部212より入力された動きベクトル値より、復号参照画像メモリ209より動き補償予測ブロックを生成し、生成した動き補償予測ブロックを、予測画像選択部204に出力する。
 参照画像間動きベクトル検出部214は、動きベクトル予測復号部212より入力された動きベクトル値より、復号参照画像メモリ209より動き補償予測に用いる第1の参照ブロックを抽出する。続いて、抽出した第1の参照ブロックと他の参照画像との間における動きベクトルをブロックマッチング等で誤差値を算出し、その値が小さな動きベクトルを参照画像間動きベクトルとして算出する。
 続いて、参照画像間動きベクトル検出部214は、第1の参照ブロックを生成する動きベクトル値と、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値を、第1参照画像合成動き補償予測部215に出力する。
 第1参照画像合成動き補償予測部215は、参照画像間動きベクトル検出部214より入力された動きベクトル値および、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値を元に、復号参照画像メモリ209より第1の予測ブロックおよび第2の予測ブロックを取得し、これらの予測ブロックを合成することで参照画像合成動き補償予測ブロックを生成する。生成した参照画像合成動き補償予測ブロックは、予測画像選択部204に出力される。
 また、第1参照画像合成動き補償予測部215は、参照画像間動きベクトルにより算出された他の参照画像と復号対象ブロックとの間の動きベクトル値を、参照画像合成パラメータ格納部216に出力する。第1参照画像合成動き補償予測部215の動作の詳細に関しては後述する。
 参照画像合成パラメータ格納部216は、第1参照画像合成動き補償予測部215より入力された、参照画像間動きベクトルにより算出された他の参照画像と復号対象ブロックとの間の動きベクトル値と、予測モード復号部203より入力された付加情報としての予測モード情報と、動きベクトル予測復号部212より入力された動きベクトル情報、および第2参照画像合成動き補償予測部217より入力される第2参照画像合成動き補償予測に対する参照画像合成予測に必要なパラメータを格納すると共に、第2参照画像合成動き補償予測部217に対して、復号対象ブロックの復号済周辺ブロックにおける、参照画像合成予測に必要なパラメータを出力する。
 第2参照画像合成動き補償予測部217は、参照画像合成パラメータ格納部216より入力される復号対象ブロックの復号済周辺ブロックにおける、参照画像合成に用いるパラメータを用いて、復号参照画像メモリ209より第1の予測ブロックおよび第2の予測ブロックを取得し、これらの予測ブロックを合成することで参照画像合成動き補償予測ブロックを生成する。生成した参照画像合成動き補償予測ブロックは、予測画像選択部204に出力される。
 また、第2参照画像合成動き補償予測部217は、選択された動き補償予測モードにおいて用いられる参照画像合成に用いるパラメータを参照画像合成パラメータ格納部216に出力する。第2参照画像合成動き補償予測部217の動作の詳細に関しては後述する。
 以下、実施の形態1の動画像符号化装置と動画像復号装置において動作する、参照画像合成動き補償予測の予測画像生成動作を、図3の概念図を用いて説明を行う。
 図3b)および図3c)が、発明における参照画像合成動き補償予測を示す概念図である。図3a)は、MPEG4-AVCにおいて用いられている2つの参照画像を用いた双方向動き補償予測の概念図となる。
 図3a)は、2つの参照画像に対して符号化対象ブロックとの間で動きベクトルを検出し、それぞれの参照画像に対する動きベクトルを伝送すると共に、2つの動きベクトルで示される参照ブロックの平均値を予測画像とする手法である。2つの参照画像を合成することで、時間方向の動き適応フィルタとしての符号化劣化成分の除去機能と、符号化対象物の微少な輝度変化成分を平均化により追従する機能とを持った予測画像を生成できる。
 MPEG4―AVCにおいては、複数毎の復号された参照画像を格納しておき、所定のブロック単位に予測に用いる参照画像の番号と動きベクトルを伝送することで、適応的に参照画像を選択している。図3a)の場合には、参照画像として4枚の復号画像が確保されており、参照画像1と参照画像3を用いて2つの予測画像を取得し、双方向予測を行う場合を示している。
動きベクトルとしては、mvL0及びmvL1が予測動きベクトルとの差分値を取られ伝送される。
 これに対して、図3b)では、基準となる参照画像を特定し動きベクトルを検出し、その動きベクトルmvL0を用いて取得した第1の参照ブロックと、他の参照画像との間の参照画像間動きベクトルmvInterRefを求めることにより、符号化対象画像と他の参照画像の間の動きmvL1を動きベクトルの伝送無しに生成する手法をとる。復号側では、伝送された動きベクトルmvL0を用いて同様の処理を行うことで、mvL1を生成出来る。
 特許文献1に示される方法は、符号化対象画像を跨ぐ隣接画像における物体の動きが一様である場合に、2つの参照画像間で符号化対象ブロックと対称位置になるブロックの誤差値を評価することで、動きベクトルを伝送せずにmvL0とmvL1を生成する手法であるが、動きが一様である限定でmvL0、mvL1が生成され、時間的に連続性の少ない場合には有効に機能しないため、十分に予測誤差の少ない予測ブロックを生成することが出来ない。また、動きの大きな画像に対して、適切な動きを生成するためには大きな動き探索範囲が必要となり、符号化装置・復号装置における動き探索処理に要する演算量が増大する。
 図3b)の構成においては、符号化対象ブロックの予測ブロックとして適切な参照ブロックを伝送するmvL0より取得し、生成された予測画像ブロックに対して、符号化・復号の双方で、他の参照画像の同一領域を参照画像間の動きベクトルを検出することで追跡し、他方の動きベクトル値を暗黙的に算出させることで、符号化対象ブロックの予測に適した動きベクトルを少ない探索範囲で取得することが可能となり、これにより空間的・時間的な連続性の少ない動画像信号においても、適切な双方向予測を動きベクトルの伝送を伴うことなく実現し、符号化効率を大幅に向上可能である。
 また、図3c)の構成のように、予測画像を生成するための参照画像を3枚以上にして、それぞれの動きベクトルmvL1,mvL2を参照画像間の動きベクトルを検出することで生成することも可能であり、多くの参照画像を用いて合成することで、符号化歪や変形を伴った動きによる予測画像の効率低下を低減した予測を、図3b)と同様に、1つの動きベクトルの伝送により実現でき、さらに符号化効率を向上させることが可能である。
 本発明においては、上記参照画像合成動き補償予測による符号化効率の向上に加えて、符号化・復号済ブロックにおいて用いられた参照画像合成動き補償予測に必要なパラメータを用いて、復号側での参照画像間動きベクトルを動きベクトル検出処理を用いずに算出して参照画像合成動き補償予測を行う、第2の参照画像合成動き補償予測処理を導入することにより、空間的に動きの連続性がある画像に対して、小さい領域で参照画像間の動きベクトル検出を用いて生成された動きベクトルを、より広い範囲で適応されることができ、復号装置における動きベクトル検出に必要な演算量を大幅に削減すると共に、より少ない動きベクトルの伝送で、予測画像の効率を向上させた符号化を実現することが可能となる。
 次に、実施の形態1における予測ブロック生成処理の動作を図4のフローチャートを用いて説明する。
 符号化側においては、フレーム内予測を行う(S400)と共に、フレーム間予測を行うフレームにおいては、符号化対象ブロックと復号参照画像間で第1の動きベクトルを検出し(S401)、第1の動きベクトルを用いて従来の動き補償予測である、片方向および双方向の動き補償予測を行う(S402)。続いて、第1の動きベクトルを用いて生成した第1の予測ブロックと複数参照画像間で第2の動きベクトルを算出する(S403)。
 第1の動くベクトルと算出した第2の動きベクトルを用いて、第1の参照画像合成動き補償予測を行う(S404)。続いて、復号済周辺ブロックで算出された第1の動きベクトルと第2の動きベクトルを用いて、第2の参照画像合成動き補償予測を行う(S405)。
 これらの処理により求められた、フレーム内予測/片方向・双方向動き補償予測/第1の参照画像合成動き補償予測/第2の参照画像合成動き補償予測より、それぞれの予測に必要な付加情報を加味した符号量と、符号化歪より算出した誤差評価値を元に、最適な予測ブロックを選択して、出力する(S406)。
 最後に、選択された予測ブロックの生成に必要なパラメータを参照画像合成パラメータ格納部に記録する(S407)。記録すべき情報としては、最適な予測ブロックを示す情報と動き補償予測に用いられる参照画像情報、および動きベクトルとなる。
 復号側においては予測モード情報を復号し、予測モードがフレーム内予測モードである場合(S410:YES)には、フレーム内予測を行う(S411)。そうでない場合に(S410:NO)予測モードが第2の参照画像合成動き補償予測モードである場合(S412:YES)には、参照画像合成パラメータ格納部に記録された復号済周辺ブロックで復号された第1の動きベクトルと第2の動きベクトルを用いて、第2の参照画像合成動き補償予測を行う(S413)。
 予測モードが第2の参照画像合成動き補償予測モードでない場合(S412:NO)、予測モードが第1の参照画像合成動き補償予測モードでない場合(S414:NO)には、従来の動き補償予測処理がおこなわれ、復号した第1の動きベクトルを用いて片方向もしくは双方向予測の動き補償予測が行われる(S415)。予測モードが第1の参照画像合成動き補償予測モードである場合(S414:YES)には、復号した第1の動きベクトルを用いて生成した第1の予測ブロックと複数参照画像間で第2の動きベクトルを算出する(S416)。そして、算出された第2の動きベクトルと第1の動きベクトルを用いて、第1の参照画像合成動き補償予測が行われる(S417)。
 これらの予測処理により生成された予測ブロックが復号時の予測画像情報として出力される(S418)と共に、後続する復号ブロックの復号処理に用いるために、選択された予測ブロックの生成に必要なパラメータを参照画像合成パラメータ格納部に記録する(S419)。
 次に、実施の形態1における第1参照画像合成動き補償予測処理の動作を図5のフローチャートを用いて説明する。符号化・復号装置のブロックとしては、参照画像間動きベクトル検出部(図1の120、図2の214)および第1参照画像合成動き補償予測部(図1の121、図2の215)によって行われる詳細動作の説明となる。
 符号化側では、最初に符号化対象ブロックに対する基準参照画像を確定する(S500)。符号化時には予測可能な参照画像に対して、参照画像を示す情報を伝送することで選択的に参照画像を指定できるため、すべての参照画像を基準参照画像に設定して、以降の処理を動作させ最適な予測ブロックを生成することが可能である。
 続いて、動きベクトル検出部(図1の117)により検出された基準参照画像に対する第1の動きベクトル値mvL0 baseを入力する(S501)。実施例としては、通常の動き補償予測に用いられる動きベクトル値を入力させているが、別途他の手法で特定された動きベクトル値を入力することも可能である。
 次に、mvL0 baseを整数画素精度に丸めこんだ値である、mvL0 roundedを用いた予測ブロックを生成する(S502)。例えば、入力された動きベクトル値mvL0 baseが1/4画素精度であった場合には、mvL0 roundedを以下のように計算で求める。
mvL0 rounded=(mvL0 base +2)>>2 (水平・垂直別々に演算)
 このようにして生成された予測ブロックと、他の参照画像との間で参照画像間動きベクトル値mvInterRefを算出する(S503)。この処理の詳細は、参照画像間動きベクトル検出部(図1の120、図2の214)に対する説明で行う。ここで、生成されたmvL0 roundedとmvInterRefを加算することで、第2の動きベクトルの基準となるmvL1 baseを算出する(S504)。
 S502によりmvL0 baseを整数画素精度に丸めこんだため、符号化時に伝送する動きベクトルの精度分の情報が複数参照画像予測ブロックの精度を高くするための情報として用いることが可能となる。整数画素精度に丸めこむと0になる範囲の動きを位相シフトベクトルphase vectorとして定義し、phase vectorをmvL0 roundedとmvL1 baseそれぞれに加算した動きベクトル値を用いて、2つの参照画像より予測ブロックを生成し、その加算平均を候補とする予測ブロックとして、符号化対象ブロックとの予測誤差値を算出する(S505)。
 具体的には、phase vectorは1/4画素精度である場合には、水平・垂直共に-1/2≦phase vector<1/2の範囲内で、動きベクトル値と加算して伝送できるため、この範囲内でphase vectorを移動させて、それぞれの予測誤差値を算出する。復号時にはphase vectorは伝送されたmvL0と整数画素精度に丸めこまれたmvL0 roundedの差分として再現できる。
 最後に、最小の予測誤差値をとるphase vectorをmvL0 roundedおよびmvL1 baseに加算した動きベクトル値を第1参照画像合成動き補償予測ブロックにおける第1の動きベクトル値mvL0および第2の動きベクトル値mvL1として、mvL0,mvL1より双方向予測された予測ブロックと共に出力する(S506)。第1参照画像合成動き補償予測の場合には、出力されたmvL0の情報のみが動きベクトル値として伝送され、mvL1の情報は伝送されず、復号側で参照画像間動きベクトル検出を行うことで生成する構成となる。
 復号側における第1参照画像合成動き補償予測の動作は、最初に符号化対象ブロックに対する基準参照画像を確定する(S510)。これは復号された予測モードが第1参照画像合成動き補償予測の場合には、通常の動き補償予測の片方向予測を示す情報として参照画像を指定する情報が復号され、その情報により基準参照画像を確定できる。
 続いて、基準参照画像に対して復号された第1の動きベクトル値mvL0を動きベクトル予測復号部(図2の212)より入力し(S511)、mvL0を整数画素精度に丸めこんだ値mvL0 roundedを用いて予測ブロックを生成する(S512)。
 このようにして生成された予測ブロックと、他の参照画像との間で参照画像間動きベクトル値mvInterRefを算出する(S513)。この処理は符号化側における参照画像間動きベクトル検出と同じ動作となる。ここで、生成されたmvL0 roundedとmvInterRefを加算することで、第2の動きベクトルの基準となるmvL1 baseを算出する(S514)。
 次に、mvL0とmvL0 roundedの差分をphase vectorとして算出する(S515)。算出したphase vectorをmvL1 baseに加算することでmvL1が算出される(S516)。最後に、算出されたmvL0とmvL1を用いて、双方向予測された予測ブロックをmvL0,mvL1と共に出力する(S517)。
 実施の形態1における第1参照画像合成動き補償予測において、参照画像間動きベクトル値を求める基準となるmvL0 roundedに関しては整数画素としているが、最終的に伝送される精度以下であれば同様の参照画像合成動き補償予測を施すことは可能であり、最終的に伝送される動きベクトルの精度と同じ精度の動きベクトル値をmvL0 roundedとして用いる場合には、phase vectorが0に固定になるため、符号化側におけるS505の処理が施されなくなり、符号化側での参照画像合成時の誤差評価を加味した動きベクトル値検出ができないが、精度の良い予測ブロックを元に参照画像間動きベクトル検出が行われる。
 実施の形態1においては、mvL0 roundedは整数画素としているため、参照画像間動きベクトル検出時に第1の予測ブロックに対して、少数画素精度の予測ブロックを生成するためのフィルタリング処理を行わなくて良い利点と、符号化側での参照画像合成時の誤差評価を加味した動きベクトル値が生成できる利点がある。
 続いて、符号化・復号における第1参照画像合成動き補償予測処理に用いられる、参照画像間動きベクトル検出部(図1の120、図2の214)の説明を、図6に示す構成図および図8に示す処理フローチャートを用いて行う。
 参照画像間動きベクトル検出部(図1の120、図2の214)は、基準参照画像取得部600、動きベクトル検出範囲設定部601、基準参照画像メモリ602、参照画像取得部603、及びブロックマッチング評価部604から構成される。
 最初に、基準参照画像取得部600が動きベクトル検出部(図1の117)もしくは動きベクトル予測復号部(図2の212)より入力された、基準参照画像の参照ID及び動きベクトル値mvL0を元にmvL0 roundedを算出し、復号参照画像メモリ(図1の110、図2の209)より、基準参照画像の符号化対象ブロックからmvL0 rounded移動した位置の画像ブロックを切り出し、第1の参照ブロックを取得する(S800)。取得した参照ブロックは、基準参照画像メモリ602に格納される。
 続いて、動きベクトル検出範囲設定部601は、第2参照画像の参照IDを確定して、基準参照画像と第2参照画像の間で検出する、参照画像間動きベクトルの検出範囲を設定する(S801)。基準参照画像に対する他方の参照IDに対しては、画面単位の情報としてMPEG4-AVCにおけるスライスヘッダと同様の単位で伝送する構成を取ることも可能であるが、実施の形態1においては、第1参照画像の参照ID毎に暗黙で第2参照画像の参照IDを確定する構成をとる。
 検出範囲に関しては、第1の参照ブロックに対して、第2参照画像の全領域を動きベクトル検出範囲にとることも可能であり、符号化装置と復号装置と同じ定義で検出処理を行うことで機能するが、参照画像間の動きベクトル検出における演算量を減らすために、図7で示すような検出範囲の設定を行う。
 図7は、実施の形態1における参照画像間の動きベクトル検出範囲の一例である。符号化対象画像の入力時刻をPoc Cur、基準参照画像の入力時刻をPoc Ref1、第2参照画像の入力時刻をPoc Ref2とすると、符号化対象ブロックに対する基準参照画像からの動きベクトルmvL0 roundedに対して、第2参照画像の探索範囲を符号化対象ブロックの位置を基準にすると、探索中心位置を
α=mvL0 rounded×(Poc Cur - Poc Ref2)/(Poc Cur - Poc Ref1)で表されるように、時間的に動きが連続していることを想定した場合の符号化対象ブロックと第2参照画像の間の動きベクトル予測値に設定する。
 しかしながら、カメラの動きや物体の動き等、時間的に連続な変化ではない状況も多いため、探索位置を中心として特定の領域に関して動きベクトルを探索することで、適切な第2参照画像の参照ブロックを取得できるようにする。図7に示した一例においては、特定の領域として、±8画素の領域を指定している。
 参照画像取得部603は、動きベクトル検出範囲設定部601より指定された、動きベクトルの検出範囲における第2参照画像の参照ブロックを、復号参照画像メモリ(図1の110、図2の209)より取得し(S802)、ブロックマッチング評価部604に出力する。
 ブロックマッチング評価部604では、基準参照画像メモリ602に格納された第1の参照ブロックと、参照画像取得部603より入力された第2参照画像の参照ブロックとの間で画素毎の誤差総和を算出し、より総和が少ない参照ブロックと参照ブロックを取得した際の動きベクトル値を格納する(S803)。ブロックマッチング手法としては、通常の動きベクトル検出部と同様に、SADやSSE等の評価値で評価されるが、参照画像間動きベクトル検出で導出される動きベクトル値は、符号化時に伝送されないため、動きベクトルの符号量は考慮しないで評価する。
 すべての動きベクトルの検出範囲に対して、画素毎の誤差総和を算出した(S804:YES)後で、保存されている参照ブロックを第2の参照ブロックとし、動きベクトル値を参照画像間動きベクトル値mvInterRefとする(S805)。
 参照画像間動きベクトルの検出精度に関しても、符号化装置と復号装置において同じ検出精度の動きベクトル検出を暗黙に行う手法を適用可能であるが、フレーム単位や用いられる参照画像毎に動きベクトルの検出精度を符号化情報として伝送する手法を用いることも可能である。ここでは、暗黙の設定として1/4画素精度の検出精度とする。算出した参照画像間動きベクトル値mvInterRefは、mvL0、mvL0 rounded、第1の参照ブロック及び第2の参照ブロックと共に、第1参照画像合成動き補償予測部(図1の121、図2の215)に出力される(S806)。
 次に、実施の形態1における第2参照画像合成動き補償予測の動作を図9のフローチャートを用いて説明する。符号化・復号装置のブロックとしては、参照画像合成パラメータ格納部(図1の122、図2の216)および第2参照画像合成動き補償予測部(図1の123、図2の217)によって行われる詳細動作の説明となる。
 符号化側においては、最初に符号化対象ブロックの上部の復号済ブロックに対する参照画像合成パラメータを取得する(S900)。符号化対象ブロックと隣接する復号済ブロックは、図10a)に示されるような関係にあり、上部のブロックとしてはBの位置のパラメータを取得することになる。パラメータとしては、図10b)にあるような情報が格納される。実施の形態1においては、基本予測モード/参照画像合成モード/動きベクトル情報(2本)、合成モード動きベクトル情報が格納される。
 基本予測モードとしては、イントラ予測もしくは、動き補償予測として予測動きベクトルにより予測され伝送される動きベクトルの数を示す予測モードが格納される。参照画像合成モードとしては、参照画像合成動き補償予測を用いたか否かを示すフラグが格納される。参照画像合成モードがOnの場合には、基本予測モードとしては片方向予測が設定される。(1本の動きベクトルのみを伝送する為)
 動きベクトル情報としては、用いた参照画像を特定する参照画像IDと動きベクトル値が格納され、合成モード動きベクトル情報としては、参照画像合成動き補償において生成された、符号化情報として伝送されない動きベクトル値が格納される。実施の形態1においては、参照画像合成動き補償では2つの参照画像に対する動きベクトルを用いる構成になっているので、合成モード動きベクトル情報としては、対象ブロック単位に1本の動きベクトルが格納されるが、3つ以上の参照画像を用いる場合には、2本以上の動きベクトルが格納される。
 次に、取得した復号画像合成パラメータの予測モードがフレーム内予測モードである場合(S901:YES)は、上部の復号済ブロックを参照した第2参照画像合成動き補償予測は無効となり、予測ブロックは生成されない。予測モードがフレーム内予測モードでない場合(S901:NO)に、パラメータの参照画像合成モードがOnでない場合(S902:NO)には、パラメータの予測モードとして動きベクトルを用いて片方向もしくは双方向の動き補償予測ブロックを生成する(S903)。
 パラメータの参照画像合成モードがOnである場合(S902:YES)は、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S904)。この結果は、上部で算出された複数合成画像動き補償と同じ処理が、符号化対象ブロックにおいて施された結果と同じ条件の予測ブロックを生成することになる。
 これらにより生成された予測ブロックに対して、符号化対象ブロックとの間で予測誤差評価値extended aboveが計算される(S905)。
 続いて、符号化対象ブロックの左部の復号済ブロックに対する参照画像合成パラメータを取得する(S906)。図10a)において、左部のブロックとしてはAの位置のパラメータを取得することになる。
 左部の情報を用いた予測ブロック生成も同様の処理で行われ、取得した復号画像合成パラメータの予測モードがフレーム内予測モードである場合(S907:YES)は、上部の復号済ブロックを参照した第2参照画像合成動き補償予測は無効となり、予測ブロックは生成されない。予測モードがフレーム内予測モードでない場合(S907:NO)に、パラメータの参照画像合成モードがOnでない場合(S908:NO)には、パラメータの予測モードとして動きベクトルを用いて動き補償予測ブロックを生成し(S909)、パラメータの参照画像合成モードがOnである場合(S908:YES)は、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S910)。
これらにより生成された予測ブロックに対して、符号化対象ブロックとの間で予測誤差評価値extended leftが算出される(S911)。
上部・左部の予測ブロックが生成される場合には、双方の予測誤差評価値extended aboveとextended leftを比較し、評価値の小さな方向の予測ブロックを選択し、方向を示す情報left flagと共に出力する(S912)。どちらか片方の予測ブロックのみが生成された場合には、生成された方向の予測ブロックが出力され、どちらの方向の予測ブロックも生成されなかった場合には、第2復号画像合成動き補償予測は、その符号化対象ブロックでは用いられない。
次に、復号側の処理を説明する。復号側では、上部・左部の予測モードの両方がイントラ予測の場合には、第2参照画像合成動き補償予測処理を機能させない為、上部・左部のいずれかイントラ予測でないブロックである場合に、有効なブロックが1つの場合にはこの方向を示す情報が、有効なブロックが2つの場合には符号化された方向を示す情報としてleft flagが復号され、それにより指定された方向の参照画像合成パラメータを取得する(S920)。
取得したパラメータの参照画像合成モードがOnでない場合(S921:NO)には、パラメータの予測モードとして動きベクトルを用いて動き補償予測ブロックを生成し(S922)、パラメータの参照画像合成モードがOnである場合(S921:YES)は、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S923)。選択された予測ブロックを出力する(S924)と共に、選択された方向の参照画像合成パラメータを参照画像合成パラメータ格納部に出力し(S925)、復号対象ブロックに対する第2参照画像合成動き補償予測処理が終了する。
上記フローチャートにおいては、選択可能な隣接する復号済ブロックを上部と左部の2点としたが、方向を追加して選択することも可能であり、図10b)に示す、左上部(D)や右上部(C)等が復号済ブロックである場合に選択させて、第2参照画像合成動き補償予測を行うことも可能である。
 実施の形態1により生成された、イントラ予測、動き補償予測、第1参照画像合成動き補償予測、第2参照画像合成動き補償予測は、符号化装置において予測ブロックの復号に必要な付加情報を加味して、符号量と符号化による歪量による選択が予測モード判定部115で行われる。実施の形態1においては、第2参照画像合成動き補償予測を示す情報がOn/Offビットの情報として符号化され、Onの場合には復号済ブロックの参照画像合成パラメータを引き継いだ方向を示す情報であるleft flagが、複数の候補がある場合に符号化される。
 第2参照画像合成動き補償予測でない場合には、第2参照画像合成動き補償予測を示す情報がOffとして符号化され、基本予測モードとしてイントラ予測/片方向予測/双方向予測を示す情報が符号化され、片方向予測の場合には参照画像合成モード情報としてOn/Off情報が送られる。参照画像合成モード情報がOnの場合は、第1参照画像合成動き補償予測が行われ、Offの場合には従来の動き補償予測が行われる。また、従来の動き補償予測の場合には片方向予測の場合には1本、双方向予測の場合には2本の動きベクトルが参照画像を示す情報と共に符号化され、第1参照画像合成動き補償予測の場合には、基準となる1本の動きベクトルのみが参照画像を示す情報と共に符号化される。
 図11に、実施の形態1の符号化装置・復号装置により生成された第1および第2の参照画像合成動き補償予測の選択結果の概念図を示し、その効果を説明する。
 時間と共に物体が動いている場合に、背景部分に関しては複数の参照画像が対象となる予測領域を持っているため、符号化歪が微小部分の時間変化を平均化させる双方向予測が有効に機能するが、第1参照画像合成動き補償予測により参照画像間の動きベクトル検出により有効な動きベクトルを伝送することなく取得でき、有効な予測ブロックが生成できるため、第1参照画像合成動き補償予測が選択される。
 また、動きが空間的に連続性を保っている場合には、第1参照画像合成動き補償予測において生成されたパラメータは、隣接するブロックにおいても有効に機能するため、延長することを示す情報と方向を示す情報のみの伝送で、参照画像合成動き補償予測ブロックを生成できる、第2参照画像合成動き補償予測が選択される。
 背景と動物体の重なり部分等で、複数の参照画像からの予測が十分に機能しない場合等に、通常の動き補償予測やフレーム内予測が適応的に選択されるが、大部分は小さな領域の第1参照画像合成動き補償予測と、残りの領域の第2参照画像合成動き補償予測で予測ブロックが構成される。
 第1参照画像合成動き補償予測を用いることにより、高効率な予測ブロックを生成できると共に、第2参照画像合成動き補償予測を用いることにより、少ない情報で高効率な予測ブロックを延長できると共に、復号装置において参照画像合成動き補償予測を行うために必要な参照画像間動きベクトル検出を機能させる領域を大幅に小さくすることが出来、演算量を大きく削減できる効果も有する。
(実施の形態2)
 次に、実施の形態2の動画像符号化装置および動画像復号装置を説明する。図12は、実施の形態2の動画像符号化装置の構成を示す構成図、図13は実施の形態2の動画像復号装置の構成を示す構成図である。
 図12に示すように、実施の形態2の動画像符号化装置は、入力端子100、入力画像バッファ101、ブロック分割部102、減算器103、直交変換部104、量子化部105、逆量子化部106、逆直交変換部107、加算器108、フレーム内復号画像メモリ109、復号参照画像メモリ110、エントロピー符号化部111、ストリームバッファ112、出力端子113、符号量制御部114、予測モード判定部115、フレーム内予測部116、動きベクトル検出部117、動き補償予測部118、動きベクトル予測部119、参照画像間動きベクトル検出部120、第1参照画像合成動き補償予測部121、参照画像合成パラメータ格納部122、第2参照画像合成動き補償予測部123、および参照画像合成選択部1224から構成される。
 参照画像合成選択部1224を設けた点と、この処理ブロックにおける動作が、本発明の実施の形態2における特徴であり、他の処理ブロックに関しては実施の形態1と同様の動作が行われる。
 同様に、図13に示すように、実施の形態2の動画像復号装置は、入力端子200、ストリームバッファ201、エントロピー復号部202、予測モード復号部203、予測画像選択部204、逆量子化部205、逆直交変換部206、加算器207、フレーム内復号画像メモリ208、復号参照画像メモリ209、出力端子210、フレーム内予測部211、動きベクトル予測復号部212、動き補償予測部213、参照画像間動きベクトル検出部214、第1参照画像合成動き補償予測部215、参照画像合成パラメータ格納部216、第2参照画像合成動き補償予測部217、および参照画像合成選択部1318から構成される。
 参照画像合成選択部1318を設けた点と、この処理ブロックにおける動作が、本発明の実施の形態2の復号装置における特徴であり、他の処理ブロックに関しては実施の形態1と同様の動作が行われる。参照画像合成選択部(1224、1318)は符号化・復号で同じ機能を有し、対になることで付加情報の伝送なく、隣接ブロックからの参照画像合成パラメータを用いて予測ブロックを生成するか否かの判断を行う機能を有する。
 続いて、図14A、図14Bに実施の形態2における参照画像合成選択処理のフローチャートを示し、その動作を説明する。符号化側においては、実施の形態1におけるフローチャート(S900-S913)の動作に加えて、参照画像合成選択部1224で行われる、S1414-S1421の動作が追加される。
 参照画像合成モードがOnである場合(S902:YES)、格納された動きベクトルと合成モード動きベクトルを用いて、2つの参照画像からの予測ブロックをそれぞれ生成すし、生成された2つの予測ブロックの間の誤差値をextended interref errorを算出する(S1414)。この場合の評価値としては、参照画像間動きベクトル検出部における評価と同様にSADやSSE等の誤差総和を用いる。
 続いて、上隣接ブロックに対して、2つの参照画像からの予測ブロックを生成し、2つの参照画像間の誤差評価値interref errorを算出する(S1415)。この誤差評価値に関しては、上隣接ブロックの予測ブロックを生成する際に、interref errorを算出し、参照画像合成パラメータとして格納しておくことも可能であるが、実施の形態2においては、隣接ブロックとして用いられる際に算出する処理構成にしている。
 そして、extended interref errorとinterref errorを比較することで、隣接ブロックとの特性変化を評価する。具体的には、
extended interref error > interref error + α(閾値)の場合には(S1416:YES)、隣接ブロックで生成された参照画像間動きベクトルに関しての連続性が少ないとして、格納された動きベクトル値のみを用いて、片方向動き補償予測ブロックを生成する(S1417)。
 一方、上記条件を満たさない場合(S1416:NO)は、隣接ブロックで生成された参照画像間動きベクトルに関する連続性は保たれているとして、実施の形態1の場合と同様に、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S904)。閾値αに関しては、一例としては誤差評価がSADの場合に平均誤差が4であるような値(4×ブロックの画素数)をとることが出来るが、符号化する際の量子化値や、interref errorの大きさでαを切り替えることで、より効果的に隣接ブロックとの連続性を判断することが可能となる。
 符号化側においては、左側の隣接ブロックに対しても同様に、参照画像合成モードがOnである場合(S908:YES)、格納された動きベクトルと合成モード動きベクトルを用いて、2つの参照画像からの予測ブロックをそれぞれ生成し、生成された2つの予測ブロックの間の誤差値をextended interref errorを算出し(S1418)、隣接ブロックに対して2つの参照画像からの予測ブロックを生成し、2つの参照画像間の誤差評価値interref errorを算出し(S1419)、
extended interref error > interref error + α(閾値)の場合には(S1420:YES)、隣接ブロックで生成された参照画像間動きベクトルに関しての連続性が少ないとして、格納された動きベクトル値のみを用いて、片方向動き補償予測ブロックを生成し(S1421)、そうでない場合(S1420:NO)には、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S910)。
 復号側においても、実施の形態1に対して、同様の判断が参照画像合成選択処理に加わる構成となる。復号側においては、実施の形態1におけるフローチャート(S920-S925)の動作に加えて、参照画像合成選択部1318で行われる、S1426-S1429の動作が追加される。
 参照画像合成モードがOnである場合(S921:YES)、格納された動きベクトルと合成モード動きベクトルを用いて、2つの参照画像からの予測ブロックをそれぞれ生成し、生成された2つの予測ブロックの間の誤差値をextended interref errorを算出し(S1426)、隣接ブロックに対して2つの参照画像からの予測ブロックを生成し、2つの参照画像間の誤差評価値interref errorを算出し(S1427)、
extended interref error > interref error + α(閾値)の場合には(S1428:YES)、隣接ブロックで生成された参照画像間動きベクトルに関しての連続性が少ないとして、格納された動きベクトル値のみを用いて、片方向動き補償予測ブロックを生成し(S1429)、そうでない場合(S1428:NO)には、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S923)。
 実施の形態2においては、実施の形態1における第1および第2の参照画像合成動き補償予測を用いることによる、高効率な予測ブロックを少ない情報で符号化しつつ、復号装置における参照画像間動きベクトル検出の演算量を大きく削減できる効果に加えて、第2参照画像合成動き補償予測において、参照した復号済隣接ブロックにおける第1の予測画像と第2の予測画像の間の誤差値と、符号化/復号対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、符号化/復号対象ブロックに対する誤差値が参照した復号済ブロックにおける誤差値より十分大きな場合には参照画像間の連続性がなくなったと判断し、符号化/復号対象ブロックに対して第1の予測画像のみで構成される動き補償予測画像を生成することで、動き補償予測画像の連続性を判定し、付加情報を用いずにより正しい動き補償予測画像を生成し符号化効率を向上させることが可能となる。
(実施の形態3)
 次に、実施の形態3の動画像符号化装置および動画像復号装置を説明する。実施の形態3においては、動画像符号化装置の構成および動画像復号装置の構成は、実施の形態2と同じであり、参照画像合成選択部(図12:1224、図13:1318)の動作が異なる形態となっている。図15A、図15Bに実施の形態3における参照画像合成選択処理のフローチャートを示し、その動作を説明する。
 実施の形態3における、符号化側においては、実施の形態2におけるフローチャート(S900-S913、S1414-S1421)の動作に対して、S1417、S1421の代わりに、S1522-S1525の動作が加わった構成となる。復号側においては、実施の形態2におけるフローチャート(S920-S925、S1426-S1429)の動作に対して、S1429の代わりにS1530-S1531の動作が追加される。
 符号化側においては、上隣接ブロックに対して、
extended interref error > interref error + α(閾値)の場合には(S1416:YES)、動きベクトルより生成した第1の予測ブロックより参照画像間で第2の動きベクトルを検出し(S1522)、第1の予測ブロックと第2の予測ブロックを用いて、参照画像合成動き補償予測ブロックを生成する(S1523)。
 これらの処理は、第1の参照画像合成動き補償予測と同等の処理であるが、符号化側においても復号側と同じ処理を施すことで、特定された第1の動きベクトルから第2の動きベクトルを算出することになり、図5b)の処理フローチャートにおいて説明されている処理が施される。
 上記処理に関しては、参照画像合成選択部1224に具備する事も可能であるが、第1参照画像合成動き補償予測部121に機能を有し、参照画像合成選択部1224より指示をあたえることで、参照画像合成動き補償予測ブロックを算出させることも可能である。
 符号化側においては、左側の隣接ブロックに対しても同様に、
extended interref error > interref error + α(閾値)の場合には(S1420:YES)、動きベクトルより生成した第1の予測ブロックより参照画像間で第2の動きベクトルを検出し(S1524)、第1の予測ブロックと第2の予測ブロックを用いて、参照画像合成動き補償予測ブロックを生成する(S1525)。
 復号側においても、同様の処理が実施の形態2に対して追加され、拡張された方向の隣接ブロックに対して、
extended interref error > interref error + α(閾値)の場合には(S1428:YES)、動きベクトルより生成した第1の予測ブロックより参照画像間で第2の動きベクトルを検出し(S1530)、第1の予測ブロックと第2の予測ブロックを用いて、参照画像合成動き補償予測ブロックを生成する(S1531)。
 実施の形態3においては、実施の形態1における第1および第2の参照画像合成動き補償予測を用いることによる、高効率な予測ブロックを少ない情報で符号化しつつ、復号装置における参照画像間動きベクトル検出の演算量を大きく削減できる効果に加えて、第2参照画像合成動き補償予測において、参照した復号済隣接ブロックにおける第1の予測画像と第2の予測画像間の誤差値と、符号化/復号対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、符号化/復号対象ブロックに対する誤差値が参照した復号済ブロックにおける誤差値より十分大きな場合には参照画像間の連続性がなくなったと判断し、符号化/復号対象ブロックに対する第1の予測画像と第2の参照画像の間での動きベクトル情報を算出し、第3の予測画像を生成し、第1の予測画像と第3の予測画像を合成することにより、動き補償予測画像を生成することで、動き補償予測画像の連続性を適応的に判断し必要な場合にのみ再度復号側動きベクトル算出型の動き補償予測をおこなうことが出来、演算量の増加を抑えつつ、付加情報を用いずにより適切な動き補償予測画像を生成し符号化効率を向上させることを可能とする。
 尚、実施の形態1、2、3として提示した、動画像符号化装置、及び動画像復号化装置は、物理的にはCPU(中央処理装置)、メモリなどの記録装置、ディスプレイ等の表示装置、及び伝送路への通信手段を具備したコンピュータで実現することが可能であり、提示した各々の機能を具備する手段を、コンピュータ上のプログラムとして実現し、実行することが可能である。また、プログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星デジタル放送のデータ放送として提供することも可能である。
 以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
100 入力端子
101 入力画像バッファ
102 ブロック分割部
103 減算器
104 直交変換部
105 量子化部
106 逆量子化部
107 逆直交変換部
108 加算器
109 フレーム内復号画像メモリ
110 復号参照画像メモリ
111 エントロピー符号化部
112 ストリームバッファ
113 出力端子
114 符号量制御部
115 予測モード判定部
116 フレーム内予測部
117 動きベクトル検出部
118 動き補償予測部
119 動きベクトル予測部
120 参照画像間動きベクトル検出部
121 第1参照画像合成動き補償予測部
122 参照画像合成パラメータ格納部
123 第2参照画像合成動き補償予測部
200 入力端子
201 ストリームバッファ
202 エントロピー復号部
203 予測モード復号部
204 予測画像選択部
205 逆量子化部
206 逆直交変換部
207 加算器
208 フレーム内復号画像メモリ
209 復号参照画像メモリ
210 出力端子
211 フレーム内予測部
212 動きベクトル予測復号部
213 動き補償予測部
214 参照画像間動きベクトル検出部
215 第1参照画像合成動き補償予測部
216 参照画像合成パラメータ格納部
217 第2参照画像合成動き補償予測部
600 基準参照画像取得部
601 動きベクトル検出範囲設定部
602 基準参照画像メモリ
603 参照画像取得部
604 ブロックマッチング評価部
1224 参照画像合成選択部
1318 参照画像合成選択部
 本発明は、動画像信号の符号化技術に利用できる。

Claims (10)

  1.  符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部と、
     前記動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部を具備し、
     少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、
     前記予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備えることを特徴とする動画像符号化装置。
  2.  符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部と、
     前記動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部と、
     前記参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部を具備し、
     前記参照画像合成選択部が、符号化対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、符号化済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、前記第2参照画像合成部からの出力を、前記第2の合成参照ブロックと前記第2の参照ブロックで選択する機能を有し、
     少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第2の参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、
     前記予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備えることを特徴とする動画像符号化装置。
  3.  符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部と、
     前記動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部と、
     前記参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部を具備し、
     第2参照画像合成部もしくは第1参照画像合成部が、前記第2の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第3の合成参照ブロックを生成する機能を有し、
     前記参照画像合成選択部が、符号化対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、符号化済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、前記第2参照画像合成部から前記第2の合成参照ブロックを出力するか、前記第2参照画像合成部もしくは前記第1参照画像合成部から、前記第3の合成参照ブロックを出力するかを選択する機能を有し、
     少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第3の合成参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、
     前記予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備えることを特徴とする動画像符号化装置。
  4.  符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出するステップと、
     前記動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成するステップと、
     前記合成参照ブロック生成に必要な情報を格納するステップと、
     格納された符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成するステップを具備し、
     少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、
     前記予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化するステップを備えることを特徴とする動画像符号化方法。
  5.  符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する機能と、
     前記動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する機能と、
     前記合成参照ブロック生成に必要な情報を格納する機能と、
     格納された符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する機能を具備し、
     少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、
     前記予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する機能を備えることを特徴とする動画像符号化プログラム。
  6.  符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部と、
     前記動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部と、
     符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部を具備し、
     前記予測モード選択情報により選択された予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備えることを特徴とする動画像復号装置。
  7.  符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部と、
     前記動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部と、
     符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部と、
     前記参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部を具備し、
     前記参照画像合成選択部が、復号対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、復号済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、前記第2参照画像合成部からの出力を、前記第2の合成参照ブロックと前記第2の参照ブロックで選択する機能を有し、
     前記予測モード選択情報より、予測ブロックとして少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第2の参照ブロックを含む複数の予測ブロックより選択された予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備えることを特徴とする動画像復号装置。
  8.  符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部と、
     前記動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部と、
     符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部と、
     前記参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部を具備し、
     前記第2参照画像合成部もしくは前記第1参照画像合成部が、前記第2の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第3の合成参照ブロックを生成する機能を有し、
     前記参照画像合成選択部が、復号対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、復号済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、前記第2参照画像合成部から前記第2の合成参照ブロックを出力するか、前記第2参照画像合成部もしくは前記第1参照画像合成部から、前記第3の合成参照ブロックを出力するかを選択する機能を有し、
     前記予測モード選択情報より、予測ブロックとして少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第3の合成参照ブロックを含む複数の予測ブロックより選択された予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備えることを特徴とする動画像復号装置。
  9.  符号化ストリームより、復号対象ブロックに対する動きベクトルを復号するステップと、
     前記動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成するステップと、
     前記合成参照ブロック生成に必要な情報を格納するステップと、
     格納された復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成するステップと、
     符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号するステップを具備し、
     前記予測モード選択情報により選択された予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成するステップを備えることを特徴とする動画像復号方法。
  10.  符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する機能と、
     前記動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する機能と、
     前記合成参照ブロック生成に必要な情報を格納する機能と、
     格納された復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する機能と、
     符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する機能を具備し、
     前記予測モード選択情報により選択された予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する機能を備えることを特徴とする動画像復号プログラム。
PCT/JP2011/007065 2010-12-27 2011-12-19 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム WO2012090425A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010290986A JP2012138838A (ja) 2010-12-27 2010-12-27 動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP2010-290985 2010-12-27
JP2010290985A JP2012138837A (ja) 2010-12-27 2010-12-27 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
JP2010-290986 2010-12-27

Publications (1)

Publication Number Publication Date
WO2012090425A1 true WO2012090425A1 (ja) 2012-07-05

Family

ID=46382566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/007065 WO2012090425A1 (ja) 2010-12-27 2011-12-19 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム

Country Status (1)

Country Link
WO (1) WO2012090425A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104301700A (zh) * 2013-07-20 2015-01-21 浙江大学 图像块边界位置确定方法和装置
CN111050177A (zh) * 2018-10-15 2020-04-21 腾讯科技(深圳)有限公司 视频编码、视频解码方法、装置、计算机设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092352A (ja) * 2006-10-03 2008-04-17 Ntt Docomo Inc 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP2008154015A (ja) * 2006-12-19 2008-07-03 Hitachi Ltd 復号化方法および符号化方法
WO2009110672A1 (en) * 2008-03-04 2009-09-11 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding an image by using consecutive motion estimation
WO2009126260A1 (en) * 2008-04-11 2009-10-15 Thomson Licensing Methods and apparatus for template matching prediction (tmp) in video encoding and decoding
WO2010095559A1 (ja) * 2009-02-20 2010-08-26 ソニー株式会社 画像処理装置および方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092352A (ja) * 2006-10-03 2008-04-17 Ntt Docomo Inc 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP2008154015A (ja) * 2006-12-19 2008-07-03 Hitachi Ltd 復号化方法および符号化方法
WO2009110672A1 (en) * 2008-03-04 2009-09-11 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding an image by using consecutive motion estimation
WO2009126260A1 (en) * 2008-04-11 2009-10-15 Thomson Licensing Methods and apparatus for template matching prediction (tmp) in video encoding and decoding
WO2010095559A1 (ja) * 2009-02-20 2010-08-26 ソニー株式会社 画像処理装置および方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOTOHARU UEDA: "TEl.a: Implementation report of Refinement Motion Compensation using DMVD on TMuC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/ SC29/WG11 3RD MEETING, 7 October 2010 (2010-10-07), GUANGZHOU, CN *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104301700A (zh) * 2013-07-20 2015-01-21 浙江大学 图像块边界位置确定方法和装置
CN104301700B (zh) * 2013-07-20 2017-12-01 浙江大学 图像块边界位置确定方法和装置
CN111050177A (zh) * 2018-10-15 2020-04-21 腾讯科技(深圳)有限公司 视频编码、视频解码方法、装置、计算机设备和存储介质
WO2020078211A1 (zh) * 2018-10-15 2020-04-23 腾讯科技(深圳)有限公司 视频编码、视频解码方法、装置、计算机设备和存储介质
CN111050177B (zh) * 2018-10-15 2021-07-20 腾讯科技(深圳)有限公司 视频编码、视频解码方法、装置、计算机设备和存储介质
US11445205B2 (en) 2018-10-15 2022-09-13 Tencent Technology (Shenzhen) Company Limited Video encoding method and apparatus, video decoding method and apparatus, computer device, and storage medium

Similar Documents

Publication Publication Date Title
JP5081305B2 (ja) フレーム間予測符号化の方法および装置
JP5368631B2 (ja) 画像符号化方法、装置、及びプログラム
TWI571108B (zh) 動畫像編碼裝置、動畫像解碼裝置、動畫像編碼方法及動畫像解碼方法
TWI551123B (zh) A motion picture predictive coding apparatus, a motion picture prediction decoding apparatus, a motion picture prediction coding method, a motion picture prediction decoding method, a motion picture prediction coding program, and a motion picture prediction decoding program
JP2004048552A (ja) 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
WO2011121942A1 (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム
JP5560009B2 (ja) 動画像符号化装置
WO2012098845A1 (ja) 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
CN114208169A (zh) 用于色度分量的图像解码方法及其装置
WO2012090425A1 (ja) 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2009049969A (ja) 動画像符号化装置及び方法並びに動画像復号化装置及び方法
JP5479648B1 (ja) 画像符号化方法及び画像復号化方法
JP5444497B2 (ja) 画像符号化方法及び画像復号化方法
JP2012138838A (ja) 動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP5304708B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
JP2012138837A (ja) 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
JP5571262B2 (ja) 画像符号化方法及び画像復号化方法
JP5304709B2 (ja) 動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2011091498A (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、及び動画像復号化方法
JP5946980B1 (ja) 画像復号化方法
JP5750191B2 (ja) 画像復号化方法
JP6181242B2 (ja) 画像復号化方法
JP5951915B2 (ja) 画像復号化方法
JP6549516B2 (ja) 映像符号化装置、映像符号化方法及び映像符号化プログラム
JP5911982B2 (ja) 画像復号化方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11852803

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11852803

Country of ref document: EP

Kind code of ref document: A1