Nothing Special   »   [go: up one dir, main page]

WO2019107997A1 - Method and device for processing video signal - Google Patents

Method and device for processing video signal Download PDF

Info

Publication number
WO2019107997A1
WO2019107997A1 PCT/KR2018/015031 KR2018015031W WO2019107997A1 WO 2019107997 A1 WO2019107997 A1 WO 2019107997A1 KR 2018015031 W KR2018015031 W KR 2018015031W WO 2019107997 A1 WO2019107997 A1 WO 2019107997A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
mode
predicted value
current block
intra
Prior art date
Application number
PCT/KR2018/015031
Other languages
French (fr)
Korean (ko)
Inventor
허진
유선미
이령
임재현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2019107997A1 publication Critical patent/WO2019107997A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Definitions

  • the present invention relates to a video processing method, and more particularly, to a video signal processing method using intra prediction and an apparatus therefor.
  • a method for decoding a video signal based on an Intra Mirror Prediction (IMP) mode comprising dividing a current block into two blocks, The current block is divided in the vertical direction based on the IMP mode being the vertical direction mode, and the current block is divided in the horizontal direction based on the IMP mode of the current block being the horizontal mode; Obtaining mode information indicating an intra prediction direction of the current block; Obtaining a predicted value of a first block among the two blocks based on the acquired mode information and a reference sample of a neighboring block adjacent to the current block; Obtaining a predicted value of a second block among the two blocks based on a predicted value of the specific block; And reconstructing the current block based on the obtained predicted value.
  • IMP Intra Mirror Prediction
  • an apparatus for decoding a video signal based on an Intra Mirror Prediction (IMP) mode comprising: a memory; And a processor coupled in operation to the memory, wherein the processor divides the current block into two blocks, and based on the IMP mode of the current block being in a vertical direction mode, the current block is divided vertically , The current block is divided horizontally based on the IMP mode of the current block being a horizontal direction mode; Acquiring mode information indicating an intra prediction direction of the current block; Obtain a predicted value of a first block among the two blocks based on the acquired mode information and a reference sample of a neighboring block adjacent to the current block; Obtain a predicted value of a second block among the two blocks based on the predicted value of the specific block; And reconstruct the current block based on the obtained predicted value.
  • IMP Intra Mirror Prediction
  • the predicted value of the second block may be generated by symmetrically copying the predicted value of the first block.
  • the predicted value of the second block may be generated using a weighted sum based on the predicted value of the first block and the reference samples of the neighboring block adjacent to the current block.
  • the first block is a right block of the two blocks and the second block is a right block of the two blocks
  • the predicted value of the right block is generated based on the reference samples of the upper neighboring block or the upper right neighboring block adjacent to the current block and the predicted value of the left block is generated symmetrically As shown in FIG.
  • the first block is the left block of the two blocks and the second block is the left block of the two blocks, based on the mode information indicating the upper left direction and the IMP mode of the current block being the vertical direction mode.
  • the predicted value of the left block is generated based on the reference samples of the upper neighbor block, the upper left neighbor block, or the left neighbor block adjacent to the current block, and the predicted value of the right block is generated based on the predicted value of the left block, Can be generated by symmetrically copying in units of units.
  • the first block is the bottom block of the two blocks and the second block is the bottom block of the two blocks, based on the mode information indicating the left bottom direction and the IMP mode of the current block being the horizontal mode.
  • a predicted value of the lower block is generated based on a reference sample of a left neighboring block or a lower left neighboring block adjacent to the current block, and the predicted value of the upper block is a symmetric As shown in FIG.
  • the first block is an upper block of the two blocks and the second block is an upper block of the two blocks, based on the mode information indicating a left upper direction and the IMP mode of the current block being a horizontal direction mode.
  • a predicted value of the upper block is generated based on a reference sample of a left neighbor block, a left upper neighbor block, or an upper neighbor block adjacent to the current block, and the predicted value of the lower block is a predicted value of the upper block, Can be generated by symmetrically copying in units of units.
  • the first block is an upper block among the two blocks and the second block is an upper block and the second block is an upper block and a lower block, respectively, based on the mode information indicating a right upper direction and the IMP mode of the current block being a horizontal direction mode.
  • the predicted value of the upper block is generated based on the reference samples of the upper neighbor block or the upper right neighbor block adjacent to the current block and the predicted value of the lower block is a symmetric As shown in FIG.
  • the first block is the left block of the two blocks and the second block is the leftmost block of the two blocks, based on the mode information indicating the lower left direction and the IMP mode of the current block being the vertical direction mode.
  • the predicted value of the left block is generated based on the reference samples of the left neighboring block or the left lower neighboring block adjacent to the current block and the predicted value of the right block is calculated symmetrically As shown in FIG.
  • the current block may be divided into a first block and a second block.
  • a video signal can be efficiently processed.
  • coding efficiency and prediction performance can be improved by performing intra prediction without dividing the current block into sub-blocks.
  • Figure 1 illustrates an encoder for encoding a video signal.
  • Figure 2 illustrates a decoder for decoding a video signal.
  • Figure 3 illustrates a segmented structure of a coding unit.
  • Figure 4 illustrates a quadtree-binary tree of the partitioning structure of a coding unit.
  • FIG. 6 illustrates a signaling method for intra prediction mode.
  • Figure 7 illustrates an extended intra prediction mode.
  • FIG. 8 illustrates an MPM candidate for an extended intra-prediction mode.
  • FIG 11 and 12 illustrate various cases in which the intra-mirror prediction mode of the present invention can be applied.
  • FIG. 13 illustrates a comparison between the intra-mirror prediction mode of the present invention and the existing intra-prediction mode.
  • FIG. 14 illustrates an embodiment according to the intra-mirror prediction mode of the present invention.
  • FIG 16 illustrates an intra-mirror prediction method for the horizontal direction mode of the present invention.
  • FIG 17 illustrates other examples of the intra-mirror prediction method of the present invention.
  • FIG. 19 illustrates a flowchart of a method for performing intra prediction according to the intra-mirror prediction mode of the present invention.
  • FIG. 21 illustrates an image processing apparatus to which the present invention can be applied.
  • a video signal refers to an image signal or a sequence of pictures that is perceptible to the eye, but the video signal is referred to herein as a sequence of bits representing a coded picture or a bit corresponding to a bit sequence Stream.
  • a picture can refer to an array of samples and can be referred to as a frame, an image, or the like. More specifically, a picture may refer to a two-dimensional array of samples or a two-dimensional sample array. A sample may refer to the smallest unit of a picture and may be referred to as a pixel, a picture element, a pel, or the like.
  • the sample may include a luminance (luma) component and / or a chrominance (chroma, color difference) component.
  • coding may be used to refer to encoding, or may be collectively referred to as encoding / decoding.
  • the picture may comprise at least one slice, and the slice may comprise at least one block.
  • the slice may be configured to include an integer number of blocks for purposes such as parallel processing, resynchronization of decoding if the bitstream is corrupted due to data loss, etc., and each slice may be coded independently of each other.
  • a block may include at least one sample and may refer to an array of samples.
  • a block may have a size less than or equal to a picture.
  • a block may be referred to as a unit.
  • a picture that is currently coded (encoded or decoded) is referred to as a current picture, and a block that is currently coded (encoded or decoded) may be referred to as a current block.
  • various blocks constituting the picture may exist.
  • a coding tree unit CTU a coding block CB (or a coding unit CU), a prediction block PB (or a prediction unit PU), a transform block TB Conversion unit TU
  • ITU-T International Telecommunication Union Telecommunication Standardization Sector
  • HEVC High Efficiency Video Coding
  • the coding tree block refers to the most basic unit of a picture and can be divided into quad-tree type coding blocks to improve the coding efficiency according to the texture of the picture.
  • the coding block may refer to a basic unit for performing coding, and intra coding or inter coding may be performed on a coding block basis.
  • Intra-coding may refer to performing coding using intra-prediction, and intra-prediction may refer to performing prediction using samples included in the same picture or slice.
  • Intercoding may refer to performing coding using inter prediction, and inter prediction may refer to performing prediction using samples included in pictures that are different from the current picture.
  • Blocks coded using intra coding or blocks coded in intra prediction mode may be referred to as intra blocks, and blocks coded using inter coding or blocks coded in inter prediction mode may be referred to as inter blocks.
  • a coding mode using intra prediction can be referred to as an intra mode, and a coding mode using inter prediction can be referred to as an inter mode.
  • the prediction block may refer to a basic unit for performing prediction.
  • the same prediction can be applied to one prediction block.
  • the same motion vector can be applied to one prediction block.
  • the conversion block may refer to a basic unit for performing the conversion.
  • the conversion may refer to the operation of converting the samples of the pixel domain (or of the spatial domain or of the time domain) into the transform coefficients of the frequency domain (or transform coefficient domain), or vice versa.
  • the operation of converting the transform coefficients of the frequency domain (or transform coefficient domain) into samples of the pixel domain (or spatial domain or time domain) may be referred to as inverse transform.
  • the transform may include discrete cosine transform (DCT), discrete cosine transform (DST), Fourier transform, and the like.
  • DCT discrete cosine transform
  • DST discrete cosine transform
  • the prediction block and / or the transform block may be set to the same size as the coding block, in which case prediction may be performed and / or conversion may be performed on a coding block basis.
  • a coding tree block may be mixed with a coding tree unit (CTU), a coding block (CB) may be mixed with a coding unit (CU), and a prediction block , And the conversion block PB can be mixed with the conversion unit PU.
  • CTU coding tree unit
  • CB coding block
  • CU coding unit
  • PU prediction block
  • the conversion block PB can be mixed with the conversion unit PU.
  • FIG. 1 shows a schematic block diagram of an encoder in which the encoding of a video signal is performed, in which the present invention is applied.
  • the encoder 100 includes an image divider 110, a transform unit 120, a quantization unit 130, an inverse quantization unit 140, an inverse transform unit 150, a filtering unit 160, A picture buffer (DPB) 170, an inter prediction unit 180, an intra prediction unit 185, and an entropy encoding unit 190.
  • an image divider 110 a transform unit 120, a quantization unit 130, an inverse quantization unit 140, an inverse transform unit 150, a filtering unit 160, A picture buffer (DPB) 170, an inter prediction unit 180, an intra prediction unit 185, and an entropy encoding unit 190.
  • DPB picture buffer
  • the image divider 110 may divide an input image (or a picture, a frame) input to the encoder 100 into one or more processing units.
  • the processing unit may be a coding tree unit (CTU), a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
  • CTU coding tree unit
  • CU coding unit
  • PU prediction unit
  • TU transform unit
  • the encoder 100 may generate a residual signal by subtracting the prediction signal output from the inter prediction unit 180 or the intra prediction unit 185 from the input image signal, 120.
  • the conversion unit 120 may perform a conversion based on the residual signal to generate a transform coefficient.
  • the transform technique may include at least one of Discrete Cosine Transform (DCT), Discrete Sine Transform (DST), Karhunen-Loeve Transform (KLT), Graph-Based Transform (GBT), or Conditionally Non-linear Transform . More specifically, an integer-based DCT having a size of 4 ⁇ 4 to 32 ⁇ 32 can be used, and 4 ⁇ 4, 8 ⁇ 8, 16 ⁇ 16, and 32 ⁇ 32 transforms can be used. GBT refers to the transformation obtained from this graph when graphing the relationship information between pixels.
  • the CNT means a transform obtained by generating a prediction signal using all previously reconstructed pixels and obtaining based thereon.
  • the conversion process may be applied to a pixel block having the same size of a square, or to a block having a variable size other than a square.
  • the quantization unit 130 quantizes the transform coefficients and transmits the quantized transform coefficients to the entropy encoding unit 190.
  • the entropy encoding unit 190 entropy-codes the quantized signal and outputs the quantized signal as a bitstream.
  • entropy encoding may be performed based on fixed length coding (FLC), variable length coding (VLC), or arithmetic coding. More specifically, context-based adaptive binary arithmetic coding (CABAC) based on arithmetic coding, Exp-Golomb coding based on variable length coding, and fixed length coding can be applied.
  • FLC fixed length coding
  • VLC variable length coding
  • CABAC context-based adaptive binary arithmetic coding
  • Exp-Golomb coding based on variable length coding
  • fixed length coding fixed length coding
  • the quantized signal output from the quantization unit 130 may be used to generate a prediction signal.
  • the quantized signal can be reconstructed by applying inverse quantization and inverse transformation through the inverse quantization unit 140 and the inverse transform unit 150 in the loop.
  • the restored signal can be generated by adding the restored residual signal to the prediction signal output from the inter prediction unit 180 or the intra prediction unit 185.
  • the filtering unit 160 applies filtering to the restored signal and outputs the restored signal to the playback apparatus or the decoded picture buffer 170.
  • filtering for example, a deblocking filter, a sample adaptive offset (SAO) filter may be applied.
  • SAO sample adaptive offset
  • the filtered signal transmitted to the decoded picture buffer 170 may be used as a reference picture in the inter-prediction unit 180. As described above, not only the picture quality but also the coding efficiency can be improved by using the filtered picture as a reference picture in the inter prediction mode.
  • the decoded picture buffer 170 may store the filtered picture for use as a reference picture in the inter prediction unit 180.
  • the inter-prediction unit 180 performs temporal prediction and / or spatial prediction to remove temporal redundancy and / or spatial redundancy with reference to the reconstructed picture. At this time, in order to reduce the amount of motion information transmitted in the inter prediction mode, motion information can be predicted based on the correlation of motion information between the neighboring block and the current block.
  • the intra predictor 185 can predict the current block by referring to samples in the vicinity of the current block.
  • the intraprediction unit 185 may perform the following procedure to perform intraprediction. First, a reference sample necessary for generating a prediction signal can be prepared. Then, a prediction signal can be generated using the prepared reference sample. Thereafter, the prediction mode is encoded. At this time, reference samples can be prepared through reference sample padding and / or reference sample filtering. Since the reference samples have undergone prediction and reconstruction processes, quantization errors may exist. Therefore, a reference sample filtering process can be performed for each prediction mode used for intraprediction to reduce such errors.
  • the prediction signal generated through the inter prediction unit 180 or the intra prediction unit 185 may be used to generate a reconstructed signal or may be used to generate a residual signal.
  • Fig. 2 shows a schematic block diagram of a decoder in which decoding of a video signal is performed, according to an embodiment to which the present invention is applied.
  • the decoder 200 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, a filtering unit 240, a decoded picture buffer (DPB) 250 ), An inter-prediction unit 260, and an intra-prediction unit 265.
  • the reconstructed video signal output through the decoder 200 can be reproduced through the reproduction apparatus.
  • the decoder 200 may receive the signal output from the encoder 100 of FIG. 1, and the received signal may be entropy-decoded through the entropy decoding unit 210.
  • the inverse quantization unit 220 obtains a transform coefficient from the entropy-decoded signal using the quantization step size information.
  • the inverse transform unit 230 performs inverse transform based on the inversely quantized transform coefficients to obtain a residual signal.
  • the restored signal is generated by adding the obtained residual signal to the prediction signal output from the inter-prediction unit 260 or the intra-prediction unit 265.
  • the filtering unit 240 applies filtering to the restored signal and outputs the restored signal to the playback apparatus or the decoded picture buffer unit 250.
  • the filtered signal transmitted to the decoding picture buffer unit 250 may be used as a reference picture in the inter prediction unit 260.
  • the embodiments described in the filtering unit 160, the inter-prediction unit 180 and the intra-prediction unit 185 of the encoder 100 respectively include the filtering unit 240 of the decoder, the inter-prediction unit 260, The same can be applied to the intra prediction unit 265.
  • 3 is a diagram for explaining a division structure of a coding unit.
  • the encoder and the decoder can divide one image (or picture) into a rectangular Coding Tree Unit (CTU) unit and perform encoding and decoding in units of CTU.
  • CTU Coding Tree Unit
  • One CTU can be partitioned based on a quadtree (QT) structure. For example, one CTU can be divided into four units, each of which has a square shape and whose length is reduced by half. This division of the QT structure can be performed recursively.
  • QT quadtree
  • the root node of the QT may be associated with a CTU.
  • the QT may be divided until it reaches a leaf node, and the leaf node may be referred to as a coding unit (CU).
  • the CTU corresponds to the root node and has the smallest depth (i.e., level 0) value. Depending on the characteristics of the input image, the CTU may not be divided. In this case, the CTU corresponds to the CU.
  • the CTU can be divided into QT forms, with the result that lower nodes having a depth of level 1 can be created.
  • a node that is not further divided in a child node having a depth of level 1 corresponds to a CU.
  • CU (a), CU (b), and CU (j) corresponding to nodes a, b, and j in FIG. 3B are once partitioned in the CTU and have a level 1 depth.
  • information indicating whether or not the CU is divided may be transmitted to the decoder.
  • the information may be defined as a segmentation flag, and may be expressed as syntax information "split_cu_flag ".
  • the split flag may be included in all CUs except for the minimum size CU. For example, when the value of the division flag is '1', the corresponding CU is divided into four CUs again. If the value of the division flag is '0', the corresponding CU is not divided any more, .
  • the CU division process is described as an example.
  • the QT structure described above can be applied to the division process of a transform unit (TU) as a basic unit for performing a transformation.
  • TU transform unit
  • the TU may be hierarchically partitioned from the CU to be coded into a QT structure.
  • a CU may correspond to a root node of a tree for a transformation unit (TU).
  • the TUs divided from the CUs can be further divided into smaller lower TUs.
  • the size of the TU may be set to any one of 32x32, 16x16, 8x8, and 4x4, but the present invention is not limited thereto. In case of a high resolution image, the size of the TU may be increased or varied.
  • information indicating whether the TU is divided may be communicated to the decoder.
  • the information may be defined as a split conversion flag, and may be represented by syntax information "split_transform_flag ".
  • 4 is a diagram for explaining a quadtree-binary tree among the division structure of the coding unit.
  • the encoder and the decoder can divide one image (or picture) into a rectangular Coding Tree Unit (CTU) unit and perform encoding and decoding in units of CTU.
  • CTU Coding Tree Unit
  • one CTU can be partitioned based on a quadtree and binary tree (BT) structure.
  • BT binary tree
  • one CTU can be divided into four units, each of which has a square shape, the length of each side is reduced by half, or divided into two units, each of which has a rectangular shape and whose width or height length is reduced by half.
  • This division of the QT BT structure can be performed recursively.
  • the root node of the QT may be associated with a CTU.
  • the QT can be partitioned until it reaches the QT leaf node, and the leaf node of the QT can be partitioned into BT and can be partitioned until it reaches the BT leaf node.
  • the CTU corresponds to a root node and has the smallest depth (i.e., level 0) value.
  • the CTU may not be divided. In this case, the CTU corresponds to the CU.
  • the CTU can be divided into QT types, and QT leaf nodes can be divided into BT types.
  • child nodes having a depth of level n can be generated.
  • a node that is no longer subdivided (ie, a leaf node) in a child node having a depth of level n corresponds to a CU.
  • information indicating whether or not the CU is divided may be transmitted to the decoder.
  • the information may be defined as a segmentation flag, and may be expressed as syntax information "split_cu_flag ".
  • information indicating whether or not to be divided into BT at the QT leaf node may be transmitted to the decoder.
  • the information may be defined as a BT fragment flag, and may be represented by syntax information " bt_split_flag ".
  • the BT split shape can be transmitted to the decoder such that it is divided into a rectangular shape having a half-size width or a rectangular shape having a half-height height.
  • the information may be defined as a BT split mode and may be expressed as syntax information " bt_split_mode ".
  • the intra prediction mode indicates various prediction modes depending on the value.
  • the value of the intra-prediction mode may correspond to the intra-prediction mode as illustrated in Table 1. [
  • INTRA_PLANAR indicates an intraplanar prediction mode.
  • INTRA_DC indicates an intra DC (Direct Current) prediction mode, and indicates a mode for obtaining a predicted value of a current block by using an average of restoration samples of the left neighboring block and restoration samples of the upper neighboring block.
  • INTRA_ANGULAR2 to INTRA_ANGULAR34 represent intra-angular prediction modes and indicate a mode for obtaining a predicted value of a current sample using a reconstructed sample of a neighboring block located in a direction of a specific angle with respect to a current sample in the current block (e.g., 5). If there is no actual sample in the direction of a specific angle, interpolation or padding may be performed on the neighboring reconstructed samples to generate a virtual sample for the corresponding direction to obtain a predicted sample.
  • Intra prediction mode can be derived for each coding block, but intra prediction can be performed on a coding block or a transform block basis.
  • a reconstructed sample existing in a neighboring block of a current block in the current picture for intra prediction can be referred to, and a sample to be referred to for intra prediction can be referred to as a reference sample.
  • the prediction of the current block is performed based on the prediction mode induced.
  • the reference sample used for prediction and the concrete prediction method may be different.
  • the encoder and decoder can determine if neighboring samples of the current block can be used for prediction and construct reference samples to use for prediction. For example, if the size of the current block is nSxnS, the neighbor samples of the current block in intra prediction are nS reference samples adjacent to the left (or left boundary) of the current block, bottom-left , NS reference samples adjacent to the top (or top boundary) of the current block, nS reference samples adjacent to the top-right, top (left top) of the current block (top -left) can be used as a reference sample. If some of the surrounding samples of the current processing block are not available, the encoder and decoder may perform interpolation or padding based on samples not available with the available samples to construct reference samples for prediction have. Filtering of the reference samples may be performed based on the intra prediction mode.
  • the encoder and decoder may generate predicted values for the current block based on the intra prediction mode and the reference samples. Specifically, the encoder determines an intra-prediction mode using reference samples or filtered reference samples based on bit-rate-distortion (RD) optimization, and encodes the syntax information indicating the determined intra-prediction mode into a bitstream A prediction value for the current block is generated based on the determined intra prediction mode, and the current block is encoded using the generated prediction value.
  • the decoder can restore the current block based on the intra prediction mode and the predicted value generated after generating the prediction value for the current block based on the reference samples. That is, the decoder can generate a prediction value for the current block based on the intra prediction mode derived in the intra prediction mode derivation step, the reference samples obtained through the reference sample construction step, and the reference sample filtering step.
  • FIG. 6 illustrates a signaling method for intra prediction mode.
  • a current block and a neighboring block to be coded may have similar image characteristics.
  • the intra prediction mode there is a high probability that the current block and the neighboring block have the same or similar intra prediction modes.
  • the encoder or decoder may use the prediction mode of the neighboring block to encode or derive the prediction mode of the current block.
  • the encoder can confirm or derive the prediction mode of the neighboring block (S610).
  • the prediction mode of the current block can be determined based on the prediction mode of the left neighboring block and the prediction mode of the upper neighboring block, and the prediction mode of the neighboring block can be determined as MPM (Most Probable Mode).
  • the MPM may refer to a mode used for improving the coding efficiency in consideration of the similarity between the current block and the neighboring block in intra prediction mode coding. Deciding on an MPM may also be expressed as listing up the MPM (most probable modes) candidate (or MPM list).
  • the encoder can check whether the prediction mode of the left neighboring block and the prediction mode of the upper neighboring block are the same (S620).
  • the first MPM may be set to the prediction mode of the left neighbor block
  • the second MPM may be set to the prediction mode of the upper neighbor block
  • the third MPM may be set to any one of an intra-plane mode, an intra-DC mode, and an intra-vertical mode (S630).
  • the encoder can check whether the prediction mode of the left neighboring block is smaller than 2 (S640).
  • the first MPM can be set to the intra plane mode
  • the second MPM can be set to the intra DC mode
  • the third MPM can be set to the intra vertical mode (S650).
  • the first MPM may be set to the prediction mode of the left neighbor block
  • the second MPM may be set to (prediction mode -1 of the left neighbor block)
  • the third MPM may be set to (prediction mode of the left neighboring block +1) (S660).
  • the encoder can determine whether the optimal intra prediction mode to be applied to the current block belongs to the MPM candidate configured in advance. If the intra prediction mode of the current block belongs to the MPM candidate, the encoder can encode the MPM flag and the MPM index into a bit stream.
  • the MPM flag may indicate whether the intra prediction mode of the current block is derived from the surrounding intra prediction block (i. E., The intra prediction mode of the current block falls within the MPM).
  • the MPM index may indicate which MPM mode is applied as the intra prediction mode of the current block among the MPM candidates.
  • the encoder can encode the intra-prediction mode of the current block into a bitstream.
  • Figure 7 illustrates an extended intra prediction mode.
  • the intra-plane prediction mode (INTRA_PLANAR) and the intra-DC prediction mode (INTRA_DC) in the extended intra-prediction mode are the same as those of the intra-plane prediction mode and the intra-prediction mode.
  • the newly added 32 directional modes can be applied to all block sizes and can be applied to intra coding of luminance components and chrominance components.
  • FIG. 8 illustrates an MPM candidate for an extended intra-prediction mode.
  • the number of intra prediction modes is increased to 67, the number of MPM (Most Probable Mode) derived from neighboring blocks is increased from 3 to 6 and the method of constructing the MPM list can be changed for efficient coding of the intra prediction mode .
  • the method of constructing the MPM list based on the six MPM candidates proceeds largely in the following three steps.
  • An MPM list containing six MPM candidates is first generated using the surrounding intra prediction mode.
  • the neighboring blocks (AL, A, AR, L, BL) of the current intraprediction block i.e., current block
  • the neighboring blocks (AL, A, AR, L, BL) of the current intraprediction block are searched to determine the intra prediction mode as six MPM candidate lists .
  • duplicate inspection is performed to exclude the same intra prediction mode, and a new intra prediction mode is added to the six MPM candidate lists.
  • the search order of neighboring blocks can be proceeded in the order of L -> A -> intra-plane prediction mode -> intra DC prediction mode -> BL -> AR -> AL. If the six MPM candidate lists are completed using the surrounding intra prediction mode, the candidate list generation process is terminated.
  • a candidate list is constructed using the derived intra-prediction mode.
  • the derived intra-prediction mode is generated by adding -1 or +1 to the intra-prediction mode already existing in the candidate list, and the generated intra-prediction mode is added to the candidate list. At this time, duplicate checking is performed to exclude the same mode, and added to the candidate list when the mode is a new mode.
  • the candidate list is finally constructed using the default intra prediction mode.
  • the default intra prediction mode it may be one of ⁇ Vertical, Horizontal, Intra_Angular2, Diagonal ⁇ modes.
  • the extended intra-prediction mode Vertical indicates an intra-vertical prediction mode (e.g., Intra_Angular50), Horizontal indicates an intra-horizontal prediction mode (e.g., Intra_Angular18), and Diagonal indicates a diagonal intra-prediction mode (e.g. Intra_Angular34 or Intra_Angular66) . Perform duplicate checking in order and add to the candidate list.
  • a predictor (predictor or predicted block) of the current block is generated using a total of 35 prediction methods.
  • prediction using the neighboring reference samples e.g., upper neighbor reference samples, upper right neighbor reference samples, upper left neighbor sample, left neighbor reference samples, lower left reference samples
  • a predicted value of the current block is generated by copying the predicted sample generated along the predicted direction.
  • the intraprediction value generation method copies a predicted sample generated according to a prediction direction, and thus has a shape as shown in FIG. 9 (a) It is difficult to accurately predict the block. Therefore, as illustrated in FIG. 9 (b), in the case of a block having a shape that advances in one direction and is bent in another direction in the middle, the block is divided into smaller blocks, and prediction is performed. In this case, overhead bits such as mode information for each block may be generated, resulting in a problem of poor coding efficiency.
  • information indicating whether the intra-prediction mode is derived from the surrounding intra-predicted block e.g., MPM flag
  • the intra- E.g., MPM index
  • an intra-prediction mode indicating the intra-prediction mode of the corresponding block if the intra- Information can be signaled through the bitstream. Therefore, when the current block is divided into four blocks, syntax information for signaling the intra-prediction mode of each block is needed more. Therefore, in the example of FIG. 11, the same / similar prediction performance is achieved without dividing the current block The coding efficiency for the current block can be improved at least four times.
  • Intra Mirror Prediction (IMP) method is proposed in which predicted values can be efficiently generated without performing block division on a block having a shape that is turned in one direction illustrated in FIG. 9 and is bent in another direction do.
  • Figure 10 shows another problem of intra prediction according to the prior art.
  • FIG. 10 when different prediction directions exist in one block, it is difficult to generate accurate prediction blocks in the existing intra prediction mode.
  • different intra prediction mode components e.g., an intra-vertical prediction mode and an intra-horizontal prediction mode
  • each block blocks 1 & cir &
  • overhead bits such as mode information for each of the divided blocks may be generated, which may result in a problem of poor coding efficiency.
  • VHMP Vertical-Horizontal Merge Prediction
  • the method 1 of the present invention proposes a method of generating a predicted value by using a reference sample when encoding / decoding is performed in the intra-mirror prediction mode.
  • the proposed intra-mirror prediction method can efficiently encode / decode a block whose prediction direction is reversed in the middle as in the example of FIG. 9 (a), but it can be used limitedly as shown in FIG.
  • FIG 11 illustrates various cases in which the intra-mirror prediction mode of the present invention can be applied.
  • prediction values can be generated using the intra-mirror prediction method in the case of the example of FIG. 11 (a) and the example of FIG. 11 (c) in which a broken block is attached to a usable reference sample.
  • the effect of the intra-mirror prediction method is reduced, The intra-mirror prediction method may not be applied.
  • FIG. 9 can be specifically shown as shown in FIG. In Fig. 12, one rectangle represents one pixel. That is, FIG. 12 corresponds to a case where an intermediate-folded block is attached to the upper reference sample as shown in FIG. 11 (a).
  • FIG. 12 corresponds to a case where an intermediate-folded block is attached to the upper reference sample as shown in FIG. 11 (a).
  • FIG. 12 corresponds to a case where an intermediate-folded block is attached to the upper reference sample as shown in FIG. 11 (a).
  • FIG. 12 corresponds to a case where an intermediate-folded block is attached to the upper reference sample as shown in FIG. 11 (a).
  • FIG. 12 corresponds to a case where an intermediate-folded block is attached to the upper reference sample as shown in FIG. 11 (a).
  • FIG. 12 corresponds to a case where an intermediate-folded block is attached to the upper reference sample as shown in FIG. 11 (a).
  • FIG. 12 corresponds to a case where an intermediate-folded block
  • FIG. 13 illustrates a comparison between the intra-mirror prediction mode of the present invention and the existing intra-prediction mode.
  • FIG. 13A it is assumed that the current block performs intra prediction in the direction of the arrow, but the present invention can be applied to the same or similar case even when another intra-angle prediction mode is applied.
  • 13 (b) illustrates predicted values obtained by applying existing intra-prediction based on the intra-angle prediction mode corresponding to the arrow direction shown in FIG. 13 (a), and FIG. 13 (c) The predicted values obtained by applying the intra-mirror prediction method are illustrated.
  • prediction is performed as shown in FIG. 13 (b) by performing the intra prediction in the direction of the arrow with respect to the intermediate folded block as in the example of FIG.
  • the predicted value generated in Fig. 13 (b) is much different from the block in Fig. 13 (a). That is, if the existing intra prediction method is applied to the example of FIG. 12, prediction can not be performed accurately.
  • the current block is divided into smaller blocks and intra prediction is performed again.
  • prediction values are generated by applying the intra-mirror prediction method according to the method 1 of the present invention.
  • the prediction values generated using the intra-mirror prediction method are the same when they are compared with the block of FIG. 13 (a).
  • 11A and 11C when the intra-mirror prediction method can be used, if the intra-mirror prediction method is used, (Or a reduction in coding efficiency) while increasing prediction accuracy.
  • FIG. 14 illustrates an embodiment according to the intra-mirror prediction mode of the present invention.
  • the current block may have a size of 2Nx2N.
  • N 4 and the intra-angle prediction mode in the arrow direction is applied, but the present invention is not limited thereto.
  • (Eg, I, J, K, L, and H) of the top neighboring block adjacent to the current block and the reconstructed samples (eg, E, F, M, N, O, P) may be used as a reference sample.
  • restoration samples e.g., Q
  • a reconstructed sample e.g., R, S, T, U, V, W, X, Y
  • a reference sample e.g., R, S, T, U, V, W, X, Y
  • the current block When the intra-mirror prediction mode of the present invention is applied, the current block may be divided vertically or horizontally.
  • the current block In the case where the current block is divided in the vertical direction, the current block may be bisected by rectangular blocks having a larger vertical size.
  • the current block is divided into rectangular blocks, .
  • a case in which the current block is divided in the vertical direction to apply the intra-mirror prediction mode is referred to as a vertical direction mode
  • a case in which the current block is divided in the horizontal direction to apply the intra-mirror prediction mode is referred to as a horizontal direction mode. Therefore, the vertical direction mode of the present invention is different from the conventional intra vertical prediction mode (e.g., the intra prediction mode 26 of FIG. 5, INTRA_ANGULAR 26), and the horizontal direction mode of the present invention is an intra- (E.g., the 10th intra prediction mode in FIG. 5, INTRA_ANGULAR10).
  • Syntax information indicating whether the intra-mirror prediction mode is applied to the current block can be signaled through the bitstream. And / or syntax information indicating whether the intra-mirror prediction mode of the current block is the vertical direction mode or the horizontal direction mode can be signaled through the bit stream.
  • the prediction mode of the current block when the prediction mode of the current block is the vertical direction mode, the current block (e.g., 2Nx2N) is divided into two Nx2N (vertically bisected), and the right block (e.g., Nx2N) can be generated using the existing intra prediction method. More specifically, when the prediction mode of the current block is the vertical direction mode and the intra-angle prediction mode in the upper right diagonal direction is applied to the right block of the current block, the prediction value for the right block of the current block is . ≪ / RTI >
  • a predicted value can be generated by symmetrically copying a predicted value of a right block (for example, Nx2N) already generated for a left block (e.g., Nx2N) of the current block.
  • the method of symmetrically copying the predicted value of the right block will be described in detail with reference to FIG. 15 and FIG.
  • the intra-mirror prediction for the vertical direction mode copies symmetrically the predicted sample values of the predicted right block to the left block. More specifically, in the case of the vertical direction mode, predicted values obtained on the basis of the existing intraprediction method are copied symmetrically to different blocks in units of columns to generate predicted values of the other partial blocks. For example, as illustrated in FIG. 15, first, the sample value of the first column of the right block is copied to the first column of the left block. Copy the sample value for column 2 in the right block to column 2 in the left block. In this way, the sample values of columns 3 and 4 of the left block are copied to columns 3 and 4 of the right column to generate predicted values of the left block.
  • the intra-mirror prediction method for the vertical direction mode is described using the 8x8 block. Intra-mirror prediction can also be performed by applying the same to block sizes other than 8x8.
  • FIG 16 illustrates an intra-mirror prediction method for the horizontal direction mode of the present invention.
  • the current block (e.g., 2Nx2N) may be divided into two 2NxN (bisectors), and the lower block of the current block (e.g., 2NxN)
  • the prediction value can be obtained by applying the existing intraprediction method based on the intra-angle prediction mode. More specifically, when the prediction mode of the current block is the horizontal direction mode and the intra-angle prediction mode in the lower left diagonal direction is applied to the lower block of the current block, the prediction value for the lower block of the current block is . ≪ / RTI >
  • the intra-mirror prediction for the horizontal direction mode generates a prediction block by symmetrically copying the prediction sample value of the lower-stage block in which the prediction has been performed, to the upper block. More specifically, in the case of the horizontal direction mode, predicted values obtained on the basis of the existing intraprediction method are copied symmetrically to another block in units of rows to generate predicted values of other block. For example, as illustrated in FIG. 16, the sample value for the row 1 in the lower block is copied to the row 1 in the upper block. Copy the sample value for row 2 in the lower block to row 2 in the upper block. In this way, the sample values of row 3 and row 4 of the lower block are copied to rows 3 and 4 of the upper block to generate a prediction block.
  • FIGS. 15 and 16 the intra-mirror prediction method for the horizontal direction mode and the vertical direction mode has been described.
  • the intra-mirror prediction method of the present invention can also be applied to various other direction modes.
  • FIG 17 illustrates other examples of the intra-mirror prediction method.
  • a straight arrow indicates a prediction direction for applying an existing intra-prediction mode
  • a shaded block indicates a prediction value generated earlier by using an existing intra-prediction method for intra-mirror prediction
  • FIGS. 17A and 17B since the mode is the vertical direction, block division occurs in the vertical direction, and prediction value copying is performed in units of columns.
  • FIGS. 17 (c) and 17 (d) since the mode is the horizontal direction, block division occurs in the horizontal direction and prediction value copying is performed row by row. As illustrated in Figs.
  • both the vertical direction mode and the horizontal direction mode can be performed for the same intra-prediction direction (or intra-angle prediction mode) It is possible to perform intra-mirror prediction by determining or applying an appropriate direction mode from the vertical direction mode and the horizontal direction mode.
  • the intra-mirror prediction method generates prediction values for one block in a current block using an existing intra prediction method, and generates predicted values of blocks in the opposite block in the current block using the prediction values. Therefore, if another block is generated by copying the generated block first, discontinuity may occur between the sample of another block and the reference sample of the neighboring block adjacent thereto. In order to eliminate such discontinuity, when the sample value of the reference block and the adjacent block are copied, blending or weighted sum may be applied to reduce the discontinuity.
  • FIG. 18 shows an intra-mirror prediction method and a method for reducing discontinuity.
  • the thick straight arrow indicates the direction to which the blending or weighted sum is applied in each reference sample direction
  • the shaded block indicates the predicted value generated earlier by using the existing intraprediction method for intra-mirror prediction
  • the arrow indicates the direction of symmetrically copying the predicted value generated first.
  • the intra-mirror prediction method described with reference to FIG. 17 is applied, and the predicted value of the dotted block based on the predicted value of the reference sample of the adjacent neighboring block and the shaded block Blending or weighted sum.
  • a prediction sample is generated using a weighted sum or average based on the predicted value of the shaded block and a sample of the neighboring block adjacent to the boundary sample
  • a predicted sample can be generated by copying the predicted value of the shaded block to another sample in the block filled with the point.
  • FIG. 19 illustrates a flowchart of a method for performing intra prediction according to the intra-mirror prediction mode of the present invention.
  • the method of FIG. 19 can be performed by the encoder 100 and the decoder 200 (e.g., intra prediction unit 185 of FIG. 1, intra prediction unit 265 of FIG. 2)
  • the decoder may be referred to as a device.
  • the device can divide the current block into at least two blocks. If the intra-mirror prediction mode is the vertical direction mode, the current block can be divided into two blocks in the vertical direction, and if the intra-mirror prediction mode is the horizontal direction mode, the current block can be divided into two blocks in the horizontal direction (See, for example, Figs. 14, 15, 17 (a), 17 (b), 18 (a), 18 (b) and related description).
  • the intra-mirror prediction mode of the current block can be determined as a mode showing the best performance in the bit rate-distortion (RD) among the vertical direction mode and the horizontal direction mode.
  • the encoder may entropy encode information (e.g., flag information) indicating a determined direction mode among the vertical direction mode and the horizontal direction mode into a bit stream.
  • information indicating a vertical direction mode and a horizontal direction mode e.g., flag information
  • an intra-mirror prediction mode for the current block is determined based on a direction mode indicated by the information Can be applied.
  • the apparatus can obtain the intra prediction mode information on the current block. Specifically, the apparatus can acquire an intra-angle prediction mode for applying an existing intra-prediction method in the intra-mirror prediction mode.
  • the intra prediction mode information can be signaled only to the current block, rather than being signaled for each of the two blocks.
  • One intra prediction mode is obtained for the current block and the intra prediction mode is not obtained for each of the two blocks.
  • intra prediction is performed on a current block by applying all possible intra prediction directions (e.g., FIGS. 5 and 7), and then, based on the RD optimization, (E.g., an intra-angle prediction mode) corresponding to the determined intra-prediction direction.
  • the encoder may encode the acquired intra prediction mode information into a bitstream through entropy encoding (e.g., see FIG. 6 and related description).
  • the decoder may obtain intra prediction mode information on the current block from the bitstream and determine the intra prediction direction for the current block. For example, based on the method described with reference to FIG. 6, the decoder may obtain intra prediction mode information.
  • the apparatus can obtain the predicted value of the first block among the two blocks included in the current block, based on the intra prediction mode information acquired in step S1920 and the reference sample of the neighboring block adjacent to the current block. For example, as described with reference to FIG. 14 (b), the apparatus compares the reference samples in the intra-prediction direction corresponding to the intra-prediction modes acquired in step S1920 and the reference samples in the intra- The predicted value of the first block can be obtained.
  • the apparatus may obtain the predicted value of the second block in the current block based on the predicted value of the first block obtained in step S1930. More specifically, the predicted value of the second block may be generated by symmetrically copying the predicted value of the first block obtained in step S1930 (e.g., see FIG. 14 (c), FIG. 15 to FIG.
  • the predicted value of the second block may be generated using the weighted sum based on the predicted value of the first block obtained in step S1930 and the reference sample of the neighboring block adjacent to the current block .
  • the intra-prediction mode information of the current block indicates the upper right direction and the intra-mirror prediction mode of the current block is the vertical direction mode
  • the first block is selected from two blocks
  • the second block may be determined as the left block among the two blocks in the current block and the predicted value of the right block is generated based on the reference samples of the upper neighbor block or the upper right neighbor block adjacent to the current block
  • the prediction value is generated by symmetrically copying the predicted value of the right block in units of columns (for example, see Figs. 15 and 17 (a)), or the prediction value of the right block and the predicted value of the upper neighbor block and / May be generated using a weighted sum based on the reference samples (e.g., see FIG. 18 (a)).
  • the intra-prediction mode information of the current block indicates the upper left direction and the intra-mirror prediction mode of the current block is the vertical direction mode
  • Block and the second block can be determined as a right block among the two blocks in the current block and the predicted value of the left block is generated based on the reference samples of the upper neighbor block or the upper left neighbor block or the left neighbor block adjacent to the current block
  • the predicted value of the right block is generated by symmetrically copying the predicted value of the left block in column units (for example, see Fig. 17 (b)), or the predicted value of the right block is calculated by weighting based on the predicted value of the right block and the reference sample of the upper neighbor block adjacent to the current block (For example, see Fig. 18 (b)).
  • the intra-prediction mode information of the current block indicates the lower left direction and the intra-mirror prediction mode of the current block is the horizontal direction mode
  • the second block may be determined as the upper block among the two blocks in the current block and the predicted value of the lower block is generated based on the reference samples of the left neighboring block or the lower left neighboring block adjacent to the current block, 16 and 17 (c)).
  • the prediction value may be generated by symmetrically copying the predicted value of the lower block in units of rows (e.g., see FIGS. 16 and 17 (E. G., Fig. 18 (c)).
  • the intra-prediction mode information of the current block indicates the upper left direction and the intra-mirror prediction mode of the current block is the horizontal direction mode
  • the first block is selected from two blocks
  • the second block may be determined as the lower block among the two blocks in the current block and the predicted value of the upper block is generated based on the reference samples of the left neighbor block or the upper left neighbor block or the upper neighbor block adjacent to the current block
  • the predicted value of the lower block is generated by symmetrically copying the predicted value of the upper block in a row unit basis (for example, see Fig. 17 (d)), or the predicted value of the lower block may be generated by copying the predicted value of the lower block to the left neighboring block or the lower left neighboring block (E. G., Fig. 18 (d)) based on the reference samples.
  • the intra-prediction mode information of the current block indicates the upper right direction and the intra-mirror prediction mode of the current block is the horizontal direction mode
  • the first block is selected from two blocks
  • the second block may be determined as the lower block among the two blocks in the current block and the predicted value of the upper block is generated based on the reference samples of the upper neighbor block or the upper right neighbor block adjacent to the current block
  • the prediction value may be generated by symmetrically copying the predicted value of the upper block row by row or by using a weighted sum based on the predicted value of the upper block and the reference samples of the left neighboring block or the lower left neighboring block adjacent to the current block.
  • the intra-prediction mode information of the current block indicates the lower left direction and the intra-mirror prediction mode of the current block is the vertical direction mode
  • the second block may be determined as the right block among the two blocks in the current block and the predicted value of the left block is generated based on the reference samples of the left neighboring block or the lower left neighboring block adjacent to the current block
  • the predictive value may be generated by symmetrically copying the predicted value of the left block in column units or by using a weighted sum based on the predicted value of the left block and the reference sample of the upper neighbor block adjacent to the current block.
  • the encoder 100 After obtaining the predicted value for the current block according to the method of FIG. 19, the encoder 100 encodes the current block (e.g., residual signal acquisition, transformation 120, quantization 130 ), Entropy encoding 190). Also, as described in relation to steps S1910 and S1920, the encoder 100 can encode information (e.g., flag information) indicating a determined direction mode in the vertical direction mode and the horizontal direction mode into a bit stream, Prediction mode information can be encoded into a bitstream.
  • the decoder 200 can restore the current block based on the predicted value of the current block acquired according to the method of FIG. 19 (e.g., see FIG. 2 and related description).
  • Method 2 of the present invention proposes a Vertical-Horizontal Merge Prediction method as a method for solving this technical problem, and uses a reference sample when encoding / decoding is performed using the proposed method
  • the proposed vertical-horizontal merge prediction method is a method which can efficiently perform encoding when two different prediction direction components (a vertical component and a horizontal component) coexist in one block as in the example of FIG.
  • one block is divided into three prediction regions (region 1, region 2, region 3).
  • the samples in each prediction region (sample a in the region 1, sample b in the region 2, and sample c in the region 3) are generated in the following manner.
  • the predicted value in the No. 1 area is always copied in the same way as in the vertical mode to generate a predicted value. That is, the predicted value of the a sample in the (1) region is generated by copying the value of the upper reference sample E. All predicted values in (1) are generated in the same way.
  • the prediction value of the area 2 is always copied in the same way as in the horizontal mode to generate the predicted value by copying the left reference sample. That is, the predicted value of the b sample in the (2) area is generated by copying the value of the leftmost reference sample O. All predicted values in the 2 nd area are generated in the same way.
  • the predicted value of 3 area is always generated as average value of vertical mode and horizontal mode. Therefore, the average value of the upper reference sample, which is a reference sample in the vertical mode, and the left reference sample, which is a reference sample in the horizontal mode, are generated as prediction values. That is, the predicted value of the c sample in the area (3) is generated by calculating the average value of the left reference sample N and the upper reference sample D. All predicted values in the 3 area are generated in the same way as the average values of the left reference sample and the upper reference sample of the current sample position.
  • the method illustrated in FIG. 20 can be performed by the encoder 100 and the decoder 200 (see, for example, the intra prediction unit 185 of FIG. 1, the intra prediction unit 265 of FIG. 2).
  • the encoder 100 After obtaining the predicted value for the current block according to the method of FIG. 20, the encoder 100 encodes the current block (e.g., residual signal acquisition, transformation 120, quantization 130 ), Entropy encoding 190).
  • the decoder 200 can restore the current block based on the predicted value of the current block acquired according to the method of FIG. 20 (e.g., see FIG. 2 and related description).
  • FIG. 21 illustrates a block diagram of an image processing apparatus to which the present invention can be applied.
  • the image processing apparatus may include a video signal encoding apparatus and / or a decoding apparatus.
  • the image processing apparatus to which the present invention may be applied may include a mobile terminal such as a smart phone, a portable device such as a laptop computer, a home appliance such as a digital TV, a digital video player, and the like.
  • the memory 12 may store a program for processing and controlling the processor 11, and may store an encoded bit stream, a decoded image, control information, and the like. Also, the memory 12 can be utilized as a buffer for various video signals.
  • the memory 12 may be a ROM (Read Only Memory), a RAM (Random Access Memory), an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read Only Memory), a flash memory, , A hard disk drive (HDD), a solid state drive (SSD), or the like.
  • the processor 11 controls the operation of each module in the image processing apparatus.
  • the processor 11 may perform various control functions for performing encoding / decoding according to the present invention.
  • the processor 11 may also be referred to as a controller, a microcontroller, a microprocessor, a microcomputer, or the like.
  • the processor 11 may be implemented by hardware or firmware, software, or a combination thereof.
  • an application specific integrated circuit (ASIC) or a digital signal processor (DSP), a digital signal processing device (DSPD), a programmable logic device (PLD) field programmable gate array may be provided in the processor 11.
  • firmware or software may be configured to include a module, a procedure, or a function for performing the functions or operations of the present invention.
  • the firmware or software may be contained within the processor 11 or may be stored in the memory 12 and driven by the processor 11.
  • the encoding method and / or decoding method according to the present invention can be stored in a computer-readable recording medium in the form of a computer program configured to perform the methods described herein when being executed by a processor.
  • the bitstream generated by the encoding method according to the present invention can be stored in a computer-readable recording medium in the form of multimedia data.
  • a computer-readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, a hard disk, a solid state disk (SSD) can do.
  • SSD solid state disk
  • the device 10 may optionally include a network interface module (NIM) 13.
  • the network interface module 13 is operatively connected to the processor 11 and the processor 11 controls the network interface module 13 to transmit information and / or data, signals, messages And / or the like.
  • the network interface module 13 supports various communication standards such as IEEE 802 series, 3GPP LTE (-A), Wi-Fi, Advanced Television System Committee (ATSC), Digital Video Broadcasting It is possible to transmit / receive a video signal such as a bit stream encoded according to the control information and / or the encoding method of the present invention according to the standard.
  • the network interface module 13 may not be included in the apparatus if necessary.
  • the device 10 may optionally include an input / output interface 14.
  • the input / output interface 14 is operatively connected to the processor 11 and the processor 11 controls the input / output interface 14 to receive and output control signals and / or data signals.
  • the input / output module 14 may be connected to an input device such as a keyboard, a mouse, a touch pad, a camera, etc., and an output device such as a display, Interface, DVI (Digital Visual Interface), HDMI (High Definition Multimedia Interface), and the like.
  • an embodiment of the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
  • an embodiment of the present invention may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs) field programmable gate array), a processor, a controller, a microcontroller, a microprocessor, or the like.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices field programmable gate array
  • processor a controller, a microcontroller, a microprocessor, or the like.
  • the present invention may be implemented in software code or instructions, including modules, procedures, functions, and the like, to perform the functions or acts described above.
  • the software code or instructions may be stored on a computer readable medium and may be executed by a processor and may perform operations in accordance with the present invention when it is being executed by a processor.
  • the computer-readable medium may be connected to the processor via a network, or may be located within or external to the processor, and may exchange data with the processor.
  • the present invention can be applied to an image processing apparatus such as a decoding apparatus and an encoding apparatus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The present invention relates to a method and a device for processing a video signal on the basis of an intra mirror prediction (IMP) mode, and specifically, relates to a method and a device therefor, the method comprising the steps of: splitting a current block into two blocks, wherein the current block is split in a vertical direction on the basis of an IMP mode of the current block being a vertical directional mode, and the current block is split in a horizontal direction on the basis of the IMP mode of the current block being a horizontal directional mode; acquiring mode information indicating the intra prediction direction of the current block; on the basis of the acquired mode information and a reference sample of a neighboring block adjacent to the current block, acquiring a prediction value of a first block, among the two blocks; and on the basis of the prediction value of the specific block, acquiring a prediction value of a second block, among the two blocks.

Description

비디오 신호의 처리 방법 및 장치Method and apparatus for processing video signal
본 발명은 비디오 처리 방법에 관한 것으로서, 보다 구체적으로는 인트라 예측을 이용한 비디오 신호의 처리 방법 및 이를 위한 장치에 관한 것이다.The present invention relates to a video processing method, and more particularly, to a video signal processing method using intra prediction and an apparatus therefor.
디지털 동영상 처리 기술이 급격히 발전함에 따라 고화질 디지털방송, 디지털 멀티미디어 방송, 인터넷 방송 등과 같은 다양한 매체를 이용한 디지털 멀티미디어 서비스가 활성화되고 있으며, 고화질 디지털 방송이 일반화되면서 다양한 서비스 애플리케이션이 개발되고 있고, 고화질, 고해상도의 영상을 위한 고속 동영상 처리 기술들이 요구되고 있다. 이를 위해, H.265/HEVC(High Efficiency Video Coding), H.264/AVC(Advanced Video Coding)와 같은 비디오 신호의 코딩에 관한 표준이 활발히 논의되고 있다.As the digital video processing technology rapidly develops, digital multimedia services using various media such as high-definition digital broadcasting, digital multimedia broadcasting and Internet broadcasting are being activated. Various high-definition digital broadcasting services are being developed and various service applications are being developed. Speed video processing techniques for video images are required. To this end, standards for coding video signals such as H.265 / HEVC (High Efficiency Video Coding) and H.264 / AVC (Advanced Video Coding) have been actively discussed.
본 발명의 목적은 비디오 신호를 효율적으로 처리할 수 있는 방법 및 이를 위한 장치를 제공하는 데 있다.It is an object of the present invention to provide a method and apparatus for efficiently processing a video signal.
본 발명의 다른 목적은 현재 블록을 하위 블록들로 분할하지 않고 인트라 예측을 수행할 수 있게 함으로써 코딩 효율 및 예측 성능을 향상시키는 데 있다.It is another object of the present invention to improve coding efficiency and prediction performance by allowing intra prediction to be performed without dividing a current block into sub-blocks.
본 발명에서 이루고자 하는 기술적 과제들은 상기 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be solved by the present invention are not limited to the technical problems and other technical problems which are not mentioned can be understood by those skilled in the art from the following description.
본 발명의 제1 양상으로서, 인트라 미러 예측(Intra Mirror Prediction, IMP) 모드에 기반하여 비디오 신호를 디코딩하기 위한 방법이 제공되며, 상기 방법은 현재 블록을 2개의 블록을 분할하는 단계, 상기 현재 블록의 IMP 모드가 수직 방향 모드인 것에 기반하여 상기 현재 블록은 세로 방향으로 분할되고, 상기 현재 블록의 IMP 모드가 수평 방향 모드인 것에 기반하여 상기 현재 블록은 가로 방향으로 분할되며; 상기 현재 블록의 인트라 예측 방향을 나타내는 모드 정보를 획득하는 단계; 상기 획득한 모드 정보 및 상기 현재 블록에 인접한 이웃 블록의 참조 샘플에 기반하여 상기 2개의 블록 중에서 제1 블록의 예측값을 획득하는 단계; 상기 특정 블록의 예측값에 기반하여 상기 2개의 블록 중에서 제2 블록의 예측값을 획득하는 단계; 및 상기 획득한 예측값에 기반하여 상기 현재 블록을 복원하는 단계를 포함할 수 있다.There is provided, as a first aspect of the present invention, a method for decoding a video signal based on an Intra Mirror Prediction (IMP) mode, the method comprising dividing a current block into two blocks, The current block is divided in the vertical direction based on the IMP mode being the vertical direction mode, and the current block is divided in the horizontal direction based on the IMP mode of the current block being the horizontal mode; Obtaining mode information indicating an intra prediction direction of the current block; Obtaining a predicted value of a first block among the two blocks based on the acquired mode information and a reference sample of a neighboring block adjacent to the current block; Obtaining a predicted value of a second block among the two blocks based on a predicted value of the specific block; And reconstructing the current block based on the obtained predicted value.
본 발명의 제2 양상으로서, 인트라 미러 예측(Intra Mirror Prediction, IMP) 모드에 기반하여 비디오 신호를 디코딩하기 위한 장치가 제공되며, 상기 장치는 메모리; 및 상기 메모리에 동작시 연결되는 프로세서를 포함하되, 상기 프로세서는, 현재 블록을 2개의 블록을 분할하고, 상기 현재 블록의 IMP 모드가 수직 방향 모드인 것에 기반하여 상기 현재 블록은 세로 방향으로 분할되고, 상기 현재 블록의 IMP 모드가 수평 방향 모드인 것에 기반하여 상기 현재 블록은 가로 방향으로 분할되며; 상기 현재 블록의 인트라 예측 방향을 나타내는 모드 정보를 획득하고; 상기 획득한 모드 정보 및 상기 현재 블록에 인접한 이웃 블록의 참조 샘플에 기반하여 상기 2개의 블록 중에서 제1 블록의 예측값을 획득하고; 상기 특정 블록의 예측값에 기반하여 상기 2개의 블록 중에서 제2 블록의 예측값을 획득하고; 및 상기 획득한 예측값에 기반하여 상기 현재 블록을 복원하도록 구성될 수 있다.As a second aspect of the present invention, there is provided an apparatus for decoding a video signal based on an Intra Mirror Prediction (IMP) mode, the apparatus comprising: a memory; And a processor coupled in operation to the memory, wherein the processor divides the current block into two blocks, and based on the IMP mode of the current block being in a vertical direction mode, the current block is divided vertically , The current block is divided horizontally based on the IMP mode of the current block being a horizontal direction mode; Acquiring mode information indicating an intra prediction direction of the current block; Obtain a predicted value of a first block among the two blocks based on the acquired mode information and a reference sample of a neighboring block adjacent to the current block; Obtain a predicted value of a second block among the two blocks based on the predicted value of the specific block; And reconstruct the current block based on the obtained predicted value.
바람직하게는, 상기 제2 블록의 예측값은 상기 제1 블록의 예측값을 대칭적으로 복사하여 생성될 수 있다.The predicted value of the second block may be generated by symmetrically copying the predicted value of the first block.
바람직하게는, 상기 제2 블록의 예측값은 상기 제1 블록의 예측값과 상기 현재 블록에 인접한 이웃 블록의 참조 샘플에 기반한 가중 합을 이용하여 생성될 수 있다.The predicted value of the second block may be generated using a weighted sum based on the predicted value of the first block and the reference samples of the neighboring block adjacent to the current block.
바람직하게는, 상기 모드 정보가 우측 상단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수직 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 우측 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 좌측 블록이며, 상기 우측 블록의 예측값은 상기 현재 블록에 인접한 상단 이웃 블록 또는 우측 상단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 좌측 블록의 예측값은 상기 우측 블록의 예측값을 열 단위로 대칭적으로 복사하여 생성될 수 있다.Preferably, the first block is a right block of the two blocks and the second block is a right block of the two blocks, The predicted value of the right block is generated based on the reference samples of the upper neighboring block or the upper right neighboring block adjacent to the current block and the predicted value of the left block is generated symmetrically As shown in FIG.
바람직하게는, 상기 모드 정보가 좌측 상단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수직 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 좌측 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 우측 블록이며, 상기 좌측 블록의 예측값은 상기 현재 블록에 인접한 상단 이웃 블록 또는 좌측 상단 이웃 블록 또는 좌측 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 우측 블록의 예측값은 상기 좌측 블록의 예측값을 열 단위로 대칭적으로 복사하여 생성될 수 있다.Preferably, the first block is the left block of the two blocks and the second block is the left block of the two blocks, based on the mode information indicating the upper left direction and the IMP mode of the current block being the vertical direction mode. The predicted value of the left block is generated based on the reference samples of the upper neighbor block, the upper left neighbor block, or the left neighbor block adjacent to the current block, and the predicted value of the right block is generated based on the predicted value of the left block, Can be generated by symmetrically copying in units of units.
바람직하게는, 상기 모드 정보가 좌측 하단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수평 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 하단 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 상단 블록이며, 상기 하단 블록의 예측값은 상기 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 하단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 상단 블록의 예측값은 상기 하단 블록의 예측값을 행 단위로 대칭적으로 복사하여 생성될 수 있다.Preferably, the first block is the bottom block of the two blocks and the second block is the bottom block of the two blocks, based on the mode information indicating the left bottom direction and the IMP mode of the current block being the horizontal mode. And a predicted value of the lower block is generated based on a reference sample of a left neighboring block or a lower left neighboring block adjacent to the current block, and the predicted value of the upper block is a symmetric As shown in FIG.
바람직하게는, 상기 모드 정보가 좌측 상단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수평 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 상단 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 하단 블록이며, 상기 상단 블록의 예측값은 상기 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 상단 이웃 블록 또는 상단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 하단 블록의 예측값은 상기 상단 블록의 예측값을 행 단위로 대칭적으로 복사하여 생성될 수 있다.Preferably, the first block is an upper block of the two blocks and the second block is an upper block of the two blocks, based on the mode information indicating a left upper direction and the IMP mode of the current block being a horizontal direction mode. And a predicted value of the upper block is generated based on a reference sample of a left neighbor block, a left upper neighbor block, or an upper neighbor block adjacent to the current block, and the predicted value of the lower block is a predicted value of the upper block, Can be generated by symmetrically copying in units of units.
바람직하게는, 상기 모드 정보가 우측 상단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수평 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 상단 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 하단 블록이며, 상기 상단 블록의 예측값은 상기 현재 블록에 인접한 상단 이웃 블록 또는 우측 상단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 하단 블록의 예측값은 상기 상단 블록의 예측값을 행 단위로 대칭적으로 복사하여 생성될 수 있다.Preferably, the first block is an upper block among the two blocks and the second block is an upper block and the second block is an upper block and a lower block, respectively, based on the mode information indicating a right upper direction and the IMP mode of the current block being a horizontal direction mode. And the predicted value of the upper block is generated based on the reference samples of the upper neighbor block or the upper right neighbor block adjacent to the current block and the predicted value of the lower block is a symmetric As shown in FIG.
바람직하게는, 상기 모드 정보가 좌측 하단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수직 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 좌측 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 우측 블록이며, 상기 좌측 블록의 예측값은 상기 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 하단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 우측 블록의 예측값은 상기 좌측 블록의 예측값을 열 단위로 대칭적으로 복사하여 생성될 수 있다.Preferably, the first block is the left block of the two blocks and the second block is the leftmost block of the two blocks, based on the mode information indicating the lower left direction and the IMP mode of the current block being the vertical direction mode. And the predicted value of the left block is generated based on the reference samples of the left neighboring block or the left lower neighboring block adjacent to the current block and the predicted value of the right block is calculated symmetrically As shown in FIG.
바람직하게는, 상기 현재 블록은 제1 블록과 제2 블록으로 이등분될 수 있다.The current block may be divided into a first block and a second block.
본 발명에 의하면, 비디오 신호를 효율적으로 처리할 수 있다.According to the present invention, a video signal can be efficiently processed.
또한, 본 발명에 의하면, 현재 블록을 하위 블록들로 분할하지 않고 인트라 예측을 수행함으로써 코딩 효율 및 예측 성능을 향상시킬 수 있다.In addition, according to the present invention, coding efficiency and prediction performance can be improved by performing intra prediction without dividing the current block into sub-blocks.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.
첨부 도면은 본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되며, 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of the specification, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention.
도 1은 비디오 신호를 인코딩하기 위한 인코더를 예시한다.Figure 1 illustrates an encoder for encoding a video signal.
도 2는 비디오 신호를 디코딩하기 위한 디코더를 예시한다.Figure 2 illustrates a decoder for decoding a video signal.
도 3은 코딩 유닛의 분할 구조를 예시한다.Figure 3 illustrates a segmented structure of a coding unit.
도 4는 코딩 유닛의 분할 구조 중 쿼드트리-바이너리 트리를 예시한다.Figure 4 illustrates a quadtree-binary tree of the partitioning structure of a coding unit.
도 5는 인트라 예측 모드를 예시한다.5 illustrates an intra prediction mode.
도 6은 인트라 예측 모드의 시그널링 방법을 예시한다.6 illustrates a signaling method for intra prediction mode.
도 7은 확장된 인트라 예측 모드를 예시한다.Figure 7 illustrates an extended intra prediction mode.
도 8은 확장된 인트라 예측 모드를 위한 MPM 후보를 예시한다.FIG. 8 illustrates an MPM candidate for an extended intra-prediction mode.
도 9 및 도 10은 종래 기술에 따른 인트라 예측 방법의 문제점을 예시한다.9 and 10 illustrate the problem of the intra prediction method according to the prior art.
도 11 및 도 12는 본 발명의 인트라 거울 예측 모드가 적용될 수 있는 다양한 경우를 예시한다.11 and 12 illustrate various cases in which the intra-mirror prediction mode of the present invention can be applied.
도 13은 본 발명의 인트라 거울 예측 모드와 기존 인트라 예측 모드를 비교 예시한다.13 illustrates a comparison between the intra-mirror prediction mode of the present invention and the existing intra-prediction mode.
도 14는 본 발명의 인트라 거울 예측 모드에 따른 실시예를 예시한다.FIG. 14 illustrates an embodiment according to the intra-mirror prediction mode of the present invention.
도 15는 본 발명의 수직 방향 모드에 대한 인트라 거울 예측 방법을 예시한다.15 illustrates an intra-mirror prediction method for the vertical mode of the present invention.
도 16은 본 발명의 수평 방향 모드에 대한 인트라 거울 예측 방법을 예시한다.16 illustrates an intra-mirror prediction method for the horizontal direction mode of the present invention.
도 17은 본 발명의 인트라 거울 예측 방법의 다른 예들을 예시한다.17 illustrates other examples of the intra-mirror prediction method of the present invention.
도 18은 인트라 거울 예측 방법과 불연속성을 줄이는 방법을 예시한다.18 illustrates an intra-mirror prediction method and a method of reducing discontinuity.
도 19는 본 발명의 인트라 거울 예측 모드에 따라 인트라 예측을 수행하는 방법의 순서도를 예시한다. 19 illustrates a flowchart of a method for performing intra prediction according to the intra-mirror prediction mode of the present invention.
도 20은 본 발명에 따른 수직-수평 병합 방법을 예시한다.20 illustrates a vertical-horizontal merge method according to the present invention.
도 21은 본 발명이 적용될 수 있는 영상 처리 장치를 예시한다.FIG. 21 illustrates an image processing apparatus to which the present invention can be applied.
이하의 기술은 비디오 신호(video signal)를 인코딩(encoding) 및/또는 디코딩하도록 구성된 영상 신호 처리 장치에서 사용될 수 있다. 일반적으로 비디오 신호는 눈으로 인지가능한 영상 신호(image signal) 또는 픽처들의 시퀀스를 지칭하지만, 본 명세서에서 비디오 신호는 코딩된 픽처(picture)를 나타내는 비트들의 시퀀스(sequence) 또는 비트 시퀀스에 해당하는 비트스트림을 지칭할 수 있다. 픽처(picture)는 샘플들의 배열을 지칭할 수 있으며, 프레임(frame), 영상(image) 등으로 지칭될 수 있다. 보다 구체적으로, 픽처는 샘플들의 이차원 배열 또는 이차원 샘플 배열을 지칭할 수 있다. 샘플은 픽처를 구성하는 최소 단위를 지칭할 수 있고, 픽셀(pixel), 화소(picture element), 펠(pel) 등으로 지칭될 수 있다. 샘플은 휘도(luminance, luma) 성분 및/또는 색차(chrominance, chroma, color difference) 성분을 포함할 수 있다. 본 명세서에서, 코딩은 인코딩을 지칭하는 데 사용될 수도 있고, 혹은 인코딩/디코딩을 통칭할 수 있다.The following description may be used in an image signal processing apparatus configured to encode and / or decode a video signal. Generally, a video signal refers to an image signal or a sequence of pictures that is perceptible to the eye, but the video signal is referred to herein as a sequence of bits representing a coded picture or a bit corresponding to a bit sequence Stream. A picture can refer to an array of samples and can be referred to as a frame, an image, or the like. More specifically, a picture may refer to a two-dimensional array of samples or a two-dimensional sample array. A sample may refer to the smallest unit of a picture and may be referred to as a pixel, a picture element, a pel, or the like. The sample may include a luminance (luma) component and / or a chrominance (chroma, color difference) component. In this specification, coding may be used to refer to encoding, or may be collectively referred to as encoding / decoding.
픽처는 적어도 하나의 슬라이스를 포함할 수 있으며, 슬라이스는 적어도 하나의 블록을 포함할 수 있다. 슬라이스는 병렬 처리 등의 목적, 데이터 손실 등으로 인해 비트스트림이 훼손된 경우 디코딩의 재동기화 등의 목적을 위해 정수 개의 블록을 포함하도록 구성될 수 있으며, 각 슬라이스는 서로 독립적으로 코딩될 수 있다. 블록은 적어도 하나의 샘플을 포함할 수 있으며, 샘플들의 배열을 지칭할 수 있다. 블록은 픽처보다 작거나 같은 크기를 가질 수 있다. 블록은 유닛으로 지칭될 수 있다. 현재 코딩(인코딩 또는 디코딩)되는 픽처를 현재 픽처라고 지칭하고, 현재 코딩(인코딩 또는 디코딩)되는 블록을 현재 블록이라고 지칭할 수 있다. 픽처를 구성하는 다양한 블록 단위가 존재할 수 있으며, 예를 들어 ITU-T(International Telecommunication Union Telecommunication Standardization Sector) H.265 표준(또는 HEVC(High Efficiency Video Coding) 표준)의 경우 코딩 트리 블록(CTB)(또는 코딩 트리 유닛(CTU)), 코딩 블록(CB)(또는 코딩 유닛(CU)), 예측 블록(Prediction Block, PB)(또는 예측 유닛(PU)), 변환 블록(Transform Block, TB)(또는 변환 유닛(TU)) 등의 블록 단위가 존재할 수 있다.The picture may comprise at least one slice, and the slice may comprise at least one block. The slice may be configured to include an integer number of blocks for purposes such as parallel processing, resynchronization of decoding if the bitstream is corrupted due to data loss, etc., and each slice may be coded independently of each other. A block may include at least one sample and may refer to an array of samples. A block may have a size less than or equal to a picture. A block may be referred to as a unit. A picture that is currently coded (encoded or decoded) is referred to as a current picture, and a block that is currently coded (encoded or decoded) may be referred to as a current block. For example, in the case of the International Telecommunication Union Telecommunication Standardization Sector (ITU-T) H.265 standard (or HEVC (High Efficiency Video Coding) standard), various blocks constituting the picture may exist. (Or a coding tree unit CTU), a coding block CB (or a coding unit CU), a prediction block PB (or a prediction unit PU), a transform block TB Conversion unit TU) may exist.
코딩 트리 블록은 픽처를 구성하는 가장 기본적인 단위를 지칭하며, 픽처의 텍스처(texture)에 따라 코딩 효율을 높이기 위해 쿼드-트리(quad-tree) 형태의 코딩 블록들로 분할될 수 있다. 코딩 블록은 코딩을 수행하는 기본 단위를 지칭할 수 있으며, 코딩 블록 단위로 인트라 코딩 또는 인터 코딩이 수행될 수 있다. 인트라 코딩은 인트라 예측을 이용하여 코딩을 수행하는 것을 지칭할 수 있으며, 인트라 예측은 동일한 픽처 또는 슬라이스 내에 포함된 샘플들을 이용하여 예측을 수행하는 것을 지칭할 수 있다. 인터 코딩은 인터 예측을 이용하여 코딩을 수행하는 것을 지칭할 수 있으며, 인터 예측은 현재 픽처와 서로 다른 픽처에 포함된 샘플들을 이용하여 예측을 수행하는 것을 지칭할 수 있다. 인트라 코딩을 이용하여 코딩되는 블록 또는 인트라 예측 모드로 코딩된 블록을 인트라 블록이라고 지칭할 수 있고, 인터 코딩을 이용하여 코딩되는 블록 또는 인터 예측 모드로 코딩된 블록을 인터 블록이라고 지칭할 수 있다. 또한, 인트라 예측을 이용한 코딩 모드를 인트라 모드라고 지칭할 수 있고, 인터 예측을 이용한 코딩 모드를 인터 모드라고 지칭할 수 있다.The coding tree block refers to the most basic unit of a picture and can be divided into quad-tree type coding blocks to improve the coding efficiency according to the texture of the picture. The coding block may refer to a basic unit for performing coding, and intra coding or inter coding may be performed on a coding block basis. Intra-coding may refer to performing coding using intra-prediction, and intra-prediction may refer to performing prediction using samples included in the same picture or slice. Intercoding may refer to performing coding using inter prediction, and inter prediction may refer to performing prediction using samples included in pictures that are different from the current picture. Blocks coded using intra coding or blocks coded in intra prediction mode may be referred to as intra blocks, and blocks coded using inter coding or blocks coded in inter prediction mode may be referred to as inter blocks. In addition, a coding mode using intra prediction can be referred to as an intra mode, and a coding mode using inter prediction can be referred to as an inter mode.
예측 블록은 예측을 수행하기 위한 기본 단위를 지칭할 수 있다. 하나의 예측 블록에 대해서는 동일한 예측이 적용될 수 있다. 예를 들어, 인터 예측의 경우 하나의 예측 블록에 대해서 동일한 움직임 벡터가 적용될 수 있다. 변환 블록은 변환을 수행하기 위한 기본 단위를 지칭할 수 있다. 변환은 픽셀 도메인(또는 공간 도메인 또는 시간 도메인)의 샘플들을 주파수 도메인(또는 변환 계수 도메인)의 변환 계수로 변환하는 동작을 지칭하거나, 그 반대의 동작을 통칭할 수 있다. 특히, 주파수 도메인(또는 변환 계수 도메인)의 변환 계수를 픽셀 도메인(또는 공간 도메인 또는 시간 도메인)의 샘플들로 변환하는 동작을 역변환이라고 지칭할 수 있다. 예를 들어, 변환은 이산 코사인 변환(DCT), 이산 사인 변환(DST), 푸리어 변환 등을 포함할 수 있다. 예측 블록 및/또는 변환 블록은 코딩 블록과 동일한 크기로 설정될 수 있으며, 이 경우 코딩 블록 단위로 예측이 수행되거나 및/또는 변환이 수행될 수 있다.The prediction block may refer to a basic unit for performing prediction. The same prediction can be applied to one prediction block. For example, in the case of inter prediction, the same motion vector can be applied to one prediction block. The conversion block may refer to a basic unit for performing the conversion. The conversion may refer to the operation of converting the samples of the pixel domain (or of the spatial domain or of the time domain) into the transform coefficients of the frequency domain (or transform coefficient domain), or vice versa. In particular, the operation of converting the transform coefficients of the frequency domain (or transform coefficient domain) into samples of the pixel domain (or spatial domain or time domain) may be referred to as inverse transform. For example, the transform may include discrete cosine transform (DCT), discrete cosine transform (DST), Fourier transform, and the like. The prediction block and / or the transform block may be set to the same size as the coding block, in which case prediction may be performed and / or conversion may be performed on a coding block basis.
본 명세서에서, 코딩 트리 블록(CTB)은 코딩 트리 유닛(CTU)과 혼용될 수 있고, 코딩 블록(CB)은 코딩 유닛(CU)과 혼용될 수 있고, 예측 블록(PB)은 예측 유닛(PU)과 혼용될 수 있고, 변환 블록(PB)은 변환 유닛(PU)과 혼용될 수 있다.In this specification, a coding tree block (CTB) may be mixed with a coding tree unit (CTU), a coding block (CB) may be mixed with a coding unit (CU), and a prediction block , And the conversion block PB can be mixed with the conversion unit PU.
도 1은 본 발명이 적용되는 실시예로서, 비디오 신호의 인코딩이 수행되는 인코더의 개략적인 블록도를 나타낸다.1 shows a schematic block diagram of an encoder in which the encoding of a video signal is performed, in which the present invention is applied.
도 1을 참조하면, 인코더(100)는 영상 분할부(110), 변환부(120), 양자화부(130), 역양자화부(140), 역변환부(150), 필터링부(160), 복호 픽처 버퍼(DPB: Decoded Picture Buffer)(170), 인터 예측부(180), 인트라 예측부(185) 및 엔트로피 인코딩부(190)를 포함하여 구성될 수 있다.1, the encoder 100 includes an image divider 110, a transform unit 120, a quantization unit 130, an inverse quantization unit 140, an inverse transform unit 150, a filtering unit 160, A picture buffer (DPB) 170, an inter prediction unit 180, an intra prediction unit 185, and an entropy encoding unit 190.
영상 분할부(110)는 인코더(100)에 입력된 입력 영상(또는, 픽처, 프레임)를 하나 이상의 처리 유닛으로 분할할 수 있다. 예를 들어, 상기 처리 유닛은 코딩 트리 유닛(CTU: Coding Tree Unit), 코딩 유닛(CU: Coding Unit), 예측 유닛(PU: Prediction Unit) 또는 변환 유닛(TU: Transform Unit)일 수 있다.The image divider 110 may divide an input image (or a picture, a frame) input to the encoder 100 into one or more processing units. For example, the processing unit may be a coding tree unit (CTU), a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
인코더(100)는 입력 영상 신호에서 인터 예측부(180) 또는 인트라 예측부(185)로부터 출력된 예측 신호를 감산하여 잔여 신호(residual signal)를 생성할 수 있고, 생성된 잔여 신호는 변환부(120)로 전송된다.The encoder 100 may generate a residual signal by subtracting the prediction signal output from the inter prediction unit 180 or the intra prediction unit 185 from the input image signal, 120.
변환부(120)는 잔여 신호에 기반하여 변환을 수행하여 변환 계수(transform coefficient)를 생성할 수 있다. 예를 들어, 변환 기법은 DCT(Discrete Cosine Transform), DST(Discrete Sine Transform), KLT(Karhunen-Loeve Transform), GBT(Graph-Based Transform), 또는 CNT(Conditionally Non-linear Transform) 중 적어도 하나를 포함할 수 있다. 보다 구체적으로, 4×4 내지 32×32 크기의 정수 기반 DCT가 사용될 수 있으며, 4×4, 8×8, 16×16, 32×32 변환이 이용될 수 있다. GBT는 픽셀 간의 관계 정보를 그래프로 표현한다고 할 때 이 그래프로부터 얻어진 변환을 의미한다. CNT는 이전에 복원된 모든 픽셀(all previously reconstructed pixel)를 이용하여 예측 신호를 생성하고 그에 기초하여 획득되는 변환을 의미한다. 또한, 변환 과정은 정사각형의 동일한 크기를 갖는 픽셀 블록에 적용될 수도 있고, 정사각형이 아닌 가변 크기의 블록에도 적용될 수 있다.The conversion unit 120 may perform a conversion based on the residual signal to generate a transform coefficient. For example, the transform technique may include at least one of Discrete Cosine Transform (DCT), Discrete Sine Transform (DST), Karhunen-Loeve Transform (KLT), Graph-Based Transform (GBT), or Conditionally Non-linear Transform . More specifically, an integer-based DCT having a size of 4 × 4 to 32 × 32 can be used, and 4 × 4, 8 × 8, 16 × 16, and 32 × 32 transforms can be used. GBT refers to the transformation obtained from this graph when graphing the relationship information between pixels. The CNT means a transform obtained by generating a prediction signal using all previously reconstructed pixels and obtaining based thereon. In addition, the conversion process may be applied to a pixel block having the same size of a square, or to a block having a variable size other than a square.
양자화부(130)는 변환 계수를 양자화하여 엔트로피 인코딩부(190)로 전송하고, 엔트로피 인코딩부(190)는 양자화된 신호를 엔트로피 코딩하여 비트스트림으로 출력할 수 있다. 예를 들어, 엔트로피 인코딩은 고정 길이 코딩(fixed length coding, FLC), 가변 길이 코딩(variable length coding, VLC), 산술 코딩(arithmetic coding)을 기반으로 수행될 수 있다. 보다 구체적으로, 산술 부호화를 기반으로 한 문맥 기반 적응적 이진 산술 코딩(context adaptive binary arithmetic coding, CABAC), 가변 길이 코딩을 기반으로 한 Exp-Golomb 코딩, 및 고정 길이 코딩이 적용될 수 있다.The quantization unit 130 quantizes the transform coefficients and transmits the quantized transform coefficients to the entropy encoding unit 190. The entropy encoding unit 190 entropy-codes the quantized signal and outputs the quantized signal as a bitstream. For example, entropy encoding may be performed based on fixed length coding (FLC), variable length coding (VLC), or arithmetic coding. More specifically, context-based adaptive binary arithmetic coding (CABAC) based on arithmetic coding, Exp-Golomb coding based on variable length coding, and fixed length coding can be applied.
양자화부(130)로부터 출력된 양자화된 신호는 예측 신호를 생성하기 위해 이용될 수 있다. 예를 들어, 양자화된 신호는 루프 내의 역양자화부(140) 및 역변환부(150)를 통해 역양자화 및 역변환을 적용함으로써 잔여 신호를 복원할 수 있다. 복원된 잔여 신호를 인터 예측부(180) 또는 인트라 예측부(185)로부터 출력된 예측 신호에 더함으로써 복원 신호가 생성될 수 있다.The quantized signal output from the quantization unit 130 may be used to generate a prediction signal. For example, the quantized signal can be reconstructed by applying inverse quantization and inverse transformation through the inverse quantization unit 140 and the inverse transform unit 150 in the loop. The restored signal can be generated by adding the restored residual signal to the prediction signal output from the inter prediction unit 180 or the intra prediction unit 185. [
필터링부(160)는 복원 신호에 필터링을 적용하여 이를 재생 장치로 출력하거나 복호 픽처 버퍼(170)에 전송한다. 필터링을 위해 예를 들어 디블록킹(deblocking) 필터, 샘플 적응적 오프셋(sample adaptive offset, SAO) 필터가 적용될 수 있다. 복호 픽처 버퍼(170)에 전송된 필터링된 신호는 인터 예측부(180)에서 참조 픽처로 사용될 수 있다. 이처럼, 필터링된 픽처를 인터 예측 모드에서 참조 픽처로 이용함으로써 화질 뿐만 아니라 부호화 효율도 향상시킬 수 있다.The filtering unit 160 applies filtering to the restored signal and outputs the restored signal to the playback apparatus or the decoded picture buffer 170. For filtering, for example, a deblocking filter, a sample adaptive offset (SAO) filter may be applied. The filtered signal transmitted to the decoded picture buffer 170 may be used as a reference picture in the inter-prediction unit 180. As described above, not only the picture quality but also the coding efficiency can be improved by using the filtered picture as a reference picture in the inter prediction mode.
복호 픽처 버퍼(170)는 필터링된 픽처를 인터 예측부(180)에서의 참조 픽처로 사용하기 위해 저장할 수 있다.The decoded picture buffer 170 may store the filtered picture for use as a reference picture in the inter prediction unit 180. [
인터 예측부(180)는 복원 픽처를 참조하여 시간적 중복성 및/또는 공간적 중복성을 제거하기 위해 시간적 예측 및/또는 공간적 예측을 수행한다. 이때, 인터 예측 모드에서 전송되는 움직임 정보의 양을 줄이기 위해 주변 블록과 현재 블록 간의 움직임 정보의 상관성에 기초하여 움직임 정보를 예측할 수 있다.The inter-prediction unit 180 performs temporal prediction and / or spatial prediction to remove temporal redundancy and / or spatial redundancy with reference to the reconstructed picture. At this time, in order to reduce the amount of motion information transmitted in the inter prediction mode, motion information can be predicted based on the correlation of motion information between the neighboring block and the current block.
인트라 예측부(185)는 현재 블록의 주변에 있는 샘플들을 참조하여 현재 블록을 예측할 수 있다. 인트라 예측부(185)는 인트라 예측을 수행하기 위해 다음과 같은 과정을 수행할 수 있다. 먼저, 예측 신호를 생성하기 위해 필요한 참조 샘플을 준비할 수 있다. 그리고, 준비된 참조 샘플을 이용하여 예측 신호를 생성할 수 있다. 이후, 예측 모드를 부호화하게 된다. 이때, 참조 샘플은 참조 샘플 패딩 및/또는 참조 샘플 필터링을 통해 준비될 수 있다. 참조 샘플은 예측 및 복원 과정을 거쳤기 때문에 양자화 에러가 존재할 수 있다. 따라서, 이러한 에러를 줄이기 위해 인트라 예측에 이용되는 각 예측 모드에 대해 참조 샘플 필터링 과정이 수행될 수 있다.The intra predictor 185 can predict the current block by referring to samples in the vicinity of the current block. The intraprediction unit 185 may perform the following procedure to perform intraprediction. First, a reference sample necessary for generating a prediction signal can be prepared. Then, a prediction signal can be generated using the prepared reference sample. Thereafter, the prediction mode is encoded. At this time, reference samples can be prepared through reference sample padding and / or reference sample filtering. Since the reference samples have undergone prediction and reconstruction processes, quantization errors may exist. Therefore, a reference sample filtering process can be performed for each prediction mode used for intraprediction to reduce such errors.
인터 예측부(180) 또는 인트라 예측부(185)를 통해 생성된 예측 신호는 복원 신호를 생성하기 위해 이용되거나 잔여 신호를 생성하기 위해 이용될 수 있다.The prediction signal generated through the inter prediction unit 180 or the intra prediction unit 185 may be used to generate a reconstructed signal or may be used to generate a residual signal.
도 2는 본 발명이 적용되는 실시예로서, 비디오 신호의 디코딩이 수행되는 디코더의 개략적인 블록도를 나타낸다.Fig. 2 shows a schematic block diagram of a decoder in which decoding of a video signal is performed, according to an embodiment to which the present invention is applied.
도 2를 참조하면, 디코더(200)는 엔트로피 디코딩부(210), 역양자화부(220), 역변환부(230), 필터링부(240), 복호 픽처 버퍼(DPB: Decoded Picture Buffer Unit)(250), 인터 예측부(260) 및 인트라 예측부(265)를 포함하여 구성될 수 있다.2, the decoder 200 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, a filtering unit 240, a decoded picture buffer (DPB) 250 ), An inter-prediction unit 260, and an intra-prediction unit 265.
그리고, 디코더(200)를 통해 출력된 복원 영상 신호는 재생 장치를 통해 재생될 수 있다.The reconstructed video signal output through the decoder 200 can be reproduced through the reproduction apparatus.
디코더(200)는 도 1의 인코더(100)로부터 출력된 신호를 수신할 수 있고, 수신된 신호는 엔트로피 디코딩부(210)를 통해 엔트로피 디코딩될 수 있다.The decoder 200 may receive the signal output from the encoder 100 of FIG. 1, and the received signal may be entropy-decoded through the entropy decoding unit 210.
역양자화부(220)에서는 양자화 스텝 사이즈 정보를 이용하여 엔트로피 디코딩된 신호로부터 변환 계수(transform coefficient)를 획득한다.The inverse quantization unit 220 obtains a transform coefficient from the entropy-decoded signal using the quantization step size information.
역변환부(230)에서는 역양자화된 변환 계수에 기반하여 역변환을 수행하여 잔여 신호를 획득하게 된다.The inverse transform unit 230 performs inverse transform based on the inversely quantized transform coefficients to obtain a residual signal.
획득된 잔여 신호를 인터 예측부(260) 또는 인트라 예측부(265)로부터 출력된 예측 신호에 더함으로써 복원 신호가 생성된다.The restored signal is generated by adding the obtained residual signal to the prediction signal output from the inter-prediction unit 260 or the intra-prediction unit 265.
필터링부(240)는 복원 신호에 필터링을 적용하여 이를 재생 장치로 출력하거나 복호 픽처 버퍼부(250)에 전송한다. 복호 픽처 버퍼부(250)에 전송된 필터링된 신호는 인터 예측부(260)에서 참조 픽처로 사용될 수 있다.The filtering unit 240 applies filtering to the restored signal and outputs the restored signal to the playback apparatus or the decoded picture buffer unit 250. The filtered signal transmitted to the decoding picture buffer unit 250 may be used as a reference picture in the inter prediction unit 260.
본 명세서에서, 인코더(100)의 필터링부(160), 인터 예측부(180) 및 인트라 예측부(185)에서 설명된 실시예들은 각각 디코더의 필터링부(240), 인터 예측부(260) 및 인트라 예측부(265)에도 동일하게 적용될 수 있다.The embodiments described in the filtering unit 160, the inter-prediction unit 180 and the intra-prediction unit 185 of the encoder 100 respectively include the filtering unit 240 of the decoder, the inter-prediction unit 260, The same can be applied to the intra prediction unit 265.
도 3은 코딩 유닛의 분할 구조를 설명하기 위한 도면이다.3 is a diagram for explaining a division structure of a coding unit.
인코더 및 디코더는 하나의 영상(또는 픽처)을 사각형 형태의 코딩 트리 유닛(CTU: Coding Tree Unit) 단위로 분할하고 CTU 단위로 인코딩 및 디코딩을 수행할 수 있다.The encoder and the decoder can divide one image (or picture) into a rectangular Coding Tree Unit (CTU) unit and perform encoding and decoding in units of CTU.
하나의 CTU는 쿼드트리(quadtree, 이하 'QT'라 함) 구조에 기반하여 분할될 수 있다. 예를 들어, 하나의 CTU는 정사각형 형태를 가지면서 각 변의 길이가 절반씩 감소하는 4개의 유닛으로 분할될 수 있다. 이러한 QT 구조의 분할은 재귀적으로 수행될 수 있다.One CTU can be partitioned based on a quadtree (QT) structure. For example, one CTU can be divided into four units, each of which has a square shape and whose length is reduced by half. This division of the QT structure can be performed recursively.
도 3을 참조하면, QT의 루트 노드(root node)는 CTU와 관련될 수 있다. QT는 리프 노드(leaf node)에 도달할 때까지 분할될 수 있고, 리프 노드는 코딩 유닛(CU: Coding Unit)으로 지칭될 수 있다. CTU는 루트 노드(root node)에 해당되고, 가장 작은 깊이(depth)(즉, 레벨 0) 값을 가진다. 입력 영상의 특성에 따라 CTU가 분할되지 않을 수도 있으며, 이 경우 CTU는 CU에 해당된다.Referring to FIG. 3, the root node of the QT may be associated with a CTU. The QT may be divided until it reaches a leaf node, and the leaf node may be referred to as a coding unit (CU). The CTU corresponds to the root node and has the smallest depth (i.e., level 0) value. Depending on the characteristics of the input image, the CTU may not be divided. In this case, the CTU corresponds to the CU.
도 3의 예에서, CTU는 QT 형태로 분할될 수 있으며, 그 결과 레벨 1의 깊이를 가지는 하위 노드들이 생성될 수 있다. 그리고, 레벨 1의 깊이를 가지는 하위 노드에서 더 이상 분할되지 않은 노드(즉, 리프 노드)는 CU에 해당한다. 예를 들어, 도 3(b)에서 노드 a, b 및 j에 대응하는 CU(a), CU(b), CU(j)는 CTU에서 한 번 분할되었으며, 레벨 1의 깊이를 가진다.In the example of FIG. 3, the CTU can be divided into QT forms, with the result that lower nodes having a depth of level 1 can be created. A node that is not further divided in a child node having a depth of level 1 (i.e., a leaf node) corresponds to a CU. For example, CU (a), CU (b), and CU (j) corresponding to nodes a, b, and j in FIG. 3B are once partitioned in the CTU and have a level 1 depth.
하나의 CU에 대하여, 해당 CU이 분할 되는지 여부를 나타내는 정보가 디코더에 전달될 수 있다. 예를 들어, 상기 정보는 분할 플래그로 정의될 수 있으며, 신택스 정보 "split_cu_flag"로 표현될 수 있다. 상기 분할 플래그는 최소 크기의 CU을 제외한 모든 CU에 포함될 수 있다. 예를 들어, 상기 분할 플래그의 값이 '1'이면 해당 CU는 다시 4개의 CU으로 나누어지고, 상기 분할 플래그의 값이 '0'이면 해당 CU는 더 이상 나누어지지 않고 해당 CU에 대한 코딩 과정이 수행될 수 있다.For one CU, information indicating whether or not the CU is divided may be transmitted to the decoder. For example, the information may be defined as a segmentation flag, and may be expressed as syntax information "split_cu_flag ". The split flag may be included in all CUs except for the minimum size CU. For example, when the value of the division flag is '1', the corresponding CU is divided into four CUs again. If the value of the division flag is '0', the corresponding CU is not divided any more, .
도 3의 예에서는 CU의 분할 과정에 대해 예로 들어 설명하였으나, 변환을 수행하는 기본 단위인 변환 유닛(TU: Transform Unit)의 분할 과정에 대해서도 상술한 QT 구조를 적용할 수 있다.In the example of FIG. 3, the CU division process is described as an example. However, the QT structure described above can be applied to the division process of a transform unit (TU) as a basic unit for performing a transformation.
TU는 코딩하려는 CU로부터 QT 구조로 계층적으로 분할될 수 있다. 예를 들어, CU는 변환 유닛(TU)에 대한 트리의 루트 노트(root node)에 해당될 수 있다.The TU may be hierarchically partitioned from the CU to be coded into a QT structure. For example, a CU may correspond to a root node of a tree for a transformation unit (TU).
TU는 QT 구조로 분할되므로 CU로부터 분할된 TU는 다시 더 작은 하위 TU로 분할될 수 있다. 예를 들어, TU의 크기는 32x32, 16x16, 8x8, 4x4 중 어느 하나로 정해질 수 있으나, 본 발명은 이에 한정되지 않으며, 고해상도 영상일 경우, TU의 크기는 더 커지거나 다양해질 수 있다.Since the TU is divided into QT structures, the TUs divided from the CUs can be further divided into smaller lower TUs. For example, the size of the TU may be set to any one of 32x32, 16x16, 8x8, and 4x4, but the present invention is not limited thereto. In case of a high resolution image, the size of the TU may be increased or varied.
하나의 TU에 대하여, 해당 TU가 분할되는지 여부를 나타내는 정보가 디코더에 전달될 수 있다. 예를 들어, 상기 정보는 분할 변환 플래그로 정의될 수 있으며, 신택스 정보 "split_transform_flag"로 표현될 수 있다.For one TU, information indicating whether the TU is divided may be communicated to the decoder. For example, the information may be defined as a split conversion flag, and may be represented by syntax information "split_transform_flag ".
도 4는 코딩 유닛의 분할 구조 중 쿼드트리-바이너리 트리를 설명하기 위한 도면이다.4 is a diagram for explaining a quadtree-binary tree among the division structure of the coding unit.
인코더 및 디코더는 하나의 영상(또는 픽처)을 사각형 형태의 코딩 트리 유닛(CTU: Coding Tree Unit) 단위로 분할하고 CTU 단위로 인코딩 및 디코딩을 수행할 수 있다.The encoder and the decoder can divide one image (or picture) into a rectangular Coding Tree Unit (CTU) unit and perform encoding and decoding in units of CTU.
도 3의 예와 비교하여, 도 4의 예에서 하나의 CTU는 쿼드트리 및 바이너리 트리(binary tree, BT) 구조에 기반하여 분할될 수 있다. 예를 들어, 하나의 CTU는 정사각형 형태를 가지면서 각 변의 길이가 절반씩 감소하는 4개의 유닛으로 분할하거나 직사각형 형태를 가지면서 너비 또는 높이 길이가 절반씩 감소하는 2개의 유닛으로 분할할 수 있다. 이러한 QT BT구조의 분할은 재귀적으로 수행될 수 있다.Compared with the example of FIG. 3, in the example of FIG. 4, one CTU can be partitioned based on a quadtree and binary tree (BT) structure. For example, one CTU can be divided into four units, each of which has a square shape, the length of each side is reduced by half, or divided into two units, each of which has a rectangular shape and whose width or height length is reduced by half. This division of the QT BT structure can be performed recursively.
도 4를 참조하면, QT의 루트 노드(root node)는 CTU와 관련될 수 있다. QT는 QT 리프 노드(QT leaf node)에 도달할 때까지 분할될 수 있고, QT의 리프노드는 BT로 분할할 수 있으며 BT 리프노드에 도달할 때까지 분할 될 수 있다.Referring to FIG. 4, the root node of the QT may be associated with a CTU. The QT can be partitioned until it reaches the QT leaf node, and the leaf node of the QT can be partitioned into BT and can be partitioned until it reaches the BT leaf node.
도 4의 예에서, CTU는 루트 노드(root node)에 해당되고, 가장 작은 깊이(depth)(즉, 레벨 0) 값을 가진다. 입력 영상의 특성에 따라 CTU가 분할되지 않을 수도 있으며, 이 경우 CTU는 CU에 해당된다.In the example of FIG. 4, the CTU corresponds to a root node and has the smallest depth (i.e., level 0) value. Depending on the characteristics of the input image, the CTU may not be divided. In this case, the CTU corresponds to the CU.
CTU는 QT 형태로 분할될 수 있으며 QT 리프노드는 BT 형태로 분할될 수 있다. 그 결과 레벨 n의 깊이를 가지는 하위 노드들이 생성될 수 있다. 레벨 n의 깊이를 가지는 하위 노드에서 더 이상 분할되지 않은 노드(즉, 리프 노드)는 CU에 해당한다.The CTU can be divided into QT types, and QT leaf nodes can be divided into BT types. As a result, child nodes having a depth of level n can be generated. A node that is no longer subdivided (ie, a leaf node) in a child node having a depth of level n corresponds to a CU.
하나의 CU에 대하여, 해당 CU가 분할되는지 여부를 나타내는 정보가 디코더에 전달될 수 있다. 예를 들어, 상기 정보는 분할 플래그로 정의될 수 있으며, 신택스 정보 "split_cu_flag"로 표현될 수 있다. 또한, QT 리프노드에서 BT로 분할되는지 여부를 나타내는 정보가 디코더에 전달될 수 있다. 예를 들어, 상기 정보는 BT 분할 플래그로 정의될 수 있으며, 신택스 정보 “bt_split_flag”로 표현될 수 있다. 추가적으로 bt_split_flag에 의하여 BT로 분할되는 경우, 절반 크기의 너비를 가지는 직사각형 또는 절반 크기의 높이를 가지는 직사각형 형태로 분할되도록 BT 분할 모양이 디코더에 전달될 수 있다. 예를 들어, 상기 정보는 BT 분할 모드로 정의될 수 있으며, 신택스 정보 “bt_split_mode”로 표현될 수 있다.For one CU, information indicating whether or not the CU is divided may be transmitted to the decoder. For example, the information may be defined as a segmentation flag, and may be expressed as syntax information "split_cu_flag ". Further, information indicating whether or not to be divided into BT at the QT leaf node may be transmitted to the decoder. For example, the information may be defined as a BT fragment flag, and may be represented by syntax information " bt_split_flag ". In addition, if BT is divided by bt_split_flag, the BT split shape can be transmitted to the decoder such that it is divided into a rectangular shape having a half-size width or a rectangular shape having a half-height height. For example, the information may be defined as a BT split mode and may be expressed as syntax information " bt_split_mode ".
도 5는 인트라 예측 모드를 예시한다.5 illustrates an intra prediction mode.
인트라 예측 모드는 값에 따라 다양한 예측 모드를 나타낸다. 예를 들어, 인트라 예측 모드의 값은 표 1에 예시된 바와 같이 인트라 예측 모드와 대응될 수 있다.The intra prediction mode indicates various prediction modes depending on the value. For example, the value of the intra-prediction mode may correspond to the intra-prediction mode as illustrated in Table 1. [
Figure PCTKR2018015031-appb-img-000001
Figure PCTKR2018015031-appb-img-000001
표 1에서 INTRA_PLANAR는 인트라 평면 예측 모드(intra planar prediction mode)를 나타내며, 현재 블록에 인접한 상단(upper) 이웃 블록의 복원 샘플(reconstructed sample), 좌측(left) 이웃 블록의 복원 샘플, 좌측 하단(lower-left) 이웃 블록의 복원 샘플, 우측 상단(right-upper) 이웃 블록의 복원 샘플에 대해 보간을 수행하여 현재 블록의 예측값을 획득하는 모드를 나타낸다. INTRA_DC는 인트라 DC(Direct Current) 예측 모드를 나타내며, 좌측 이웃 블록의 복원 샘플들과 상단 이웃 블록의 복원 샘플들의 평균을 이용하여 현재 블록의 예측값을 획득하는 모드를 나타낸다. INTRA_ANGULAR2 내지 INTRA_ANGULAR34는 인트라 각도 예측 모드(intra angular prediction mode)를 나타내며, 현재 블록 내의 현재 샘플에 대해 특정 각도의 방향에 위치한 이웃 블록의 복원 샘플을 이용하여 현재 샘플의 예측값을 구하는 모드를 나타낸다(예, 도 5 참조). 특정 각도의 방향에 실제 샘플이 존재하지 않는 경우 이웃 복원 샘플들에 대해 보간 또는 패딩을 수행하여 해당 방향에 대한 가상 샘플을 생성하여 예측 샘플을 구할 수 있다.In Table 1, INTRA_PLANAR indicates an intraplanar prediction mode. The reconstructed sample of the upper neighboring block adjacent to the current block, the reconstructed sample of the left neighboring block, the lower left (lower) -left) restoration sample of the neighboring block, and a restoration sample of the right-upper neighboring block to obtain a predicted value of the current block. INTRA_DC indicates an intra DC (Direct Current) prediction mode, and indicates a mode for obtaining a predicted value of a current block by using an average of restoration samples of the left neighboring block and restoration samples of the upper neighboring block. INTRA_ANGULAR2 to INTRA_ANGULAR34 represent intra-angular prediction modes and indicate a mode for obtaining a predicted value of a current sample using a reconstructed sample of a neighboring block located in a direction of a specific angle with respect to a current sample in the current block (e.g., 5). If there is no actual sample in the direction of a specific angle, interpolation or padding may be performed on the neighboring reconstructed samples to generate a virtual sample for the corresponding direction to obtain a predicted sample.
인트라 예측 모드는 코딩 블록 별로 유도할 수 있지만, 인트라 예측은 코딩 블록 또는 변환 블록 단위로 수행될 수 있다. 인트라 예측을 위해 현재 픽처 내에서 현재 블록의 이웃 블록 내에 존재하는 복원 샘플을 참조할 수 있으며, 인트라 예측을 위해 참조되는 샘플을 참조 샘플(reference sample)이라고 지칭한다. 인트라 예측에서는 유도되는 예측 모드에 기반하여 현재 블록에 대한 예측을 수행한다. 예측 모드에 따라 예측에 사용되는 참조 샘플과 구체적인 예측 방법이 달라질 수 있다.Intra prediction mode can be derived for each coding block, but intra prediction can be performed on a coding block or a transform block basis. A reconstructed sample existing in a neighboring block of a current block in the current picture for intra prediction can be referred to, and a sample to be referred to for intra prediction can be referred to as a reference sample. In intra prediction, the prediction of the current block is performed based on the prediction mode induced. Depending on the prediction mode, the reference sample used for prediction and the concrete prediction method may be different.
인코더와 디코더는 현재 블록의 주변 샘플들(neighboring samples)이 예측에 사용될 수 있는지 확인하고, 예측에 사용할 참조 샘플들을 구성할 수 있다. 예를 들어, 현재 블록의 크기가 nSxnS인 경우, 인트라 예측에서 현재 블록의 주변 샘플들은 현재 블록의 좌측(left)(또는 좌측 경계)에 인접한 nS개의 참조 샘플, 현재 블록의 좌측 하단(bottom-left)에 이웃하는 nS개의 참조 샘플, 현재 블록의 상단(top)(또는 상단 경계)에 인접한 nS개의 참조 샘플, 우측 상단(top-right)에 이웃하는 nS개의 참조 샘플, 현재 블록의 좌측 상단(top-left)에 이웃하는 1개 샘플이 참조 샘플로서 이용될 수 있다. 만일 현재 처리 블록의 주변 샘플들 중 일부가 이용 가능하지 않은 경우, 인코더와 디코더는 이용 가능한 샘플들로 이용 가능하지 않은 샘플들에 기반하여 보간 또는 패딩을 수행하여 예측에 사용할 참조 샘플들을 구성할 수 있다. 인트라 예측 모드에 기반하여 참조 샘플의 필터링이 수행될 수 있다.The encoder and decoder can determine if neighboring samples of the current block can be used for prediction and construct reference samples to use for prediction. For example, if the size of the current block is nSxnS, the neighbor samples of the current block in intra prediction are nS reference samples adjacent to the left (or left boundary) of the current block, bottom-left , NS reference samples adjacent to the top (or top boundary) of the current block, nS reference samples adjacent to the top-right, top (left top) of the current block (top -left) can be used as a reference sample. If some of the surrounding samples of the current processing block are not available, the encoder and decoder may perform interpolation or padding based on samples not available with the available samples to construct reference samples for prediction have. Filtering of the reference samples may be performed based on the intra prediction mode.
인코더와 디코더는 인트라 예측 모드와 참조 샘플들에 기반하여 현재 블록에 대한 예측값을 생성할 수 있다. 구체적으로, 인코더는 비트율-왜곡(Rate-Distortion, RD) 최적화에 기반하여 참조 샘플들 또는 필터링된 참조 샘플을 이용하여 인트라 예측 모드를 결정하고, 결정된 인트라 예측 모드를 나타내는 신택스 정보를 비트스트림으로 인코딩하며, 결정된 인트라 예측 모드에 기반하여 현재 블록에 대한 예측값을 생성하고, 생성된 예측값을 이용하여 현재 블록을 인코딩할 수 있다. 디코더는 인트라 예측 모드와 참조 샘플들에 기반하여 현재 블록에 대한 예측값을 생성한 후 생성된 예측값에 기반하여 현재 블록을 복원할 수 있다. 즉, 디코더는 인트라 예측 모드 유도 단계에서 유도된 인트라 예측 모드와 참조 샘플 구성 단계와 참조 샘플 필터링 단계를 통해 획득한 참조 샘플들에 기반하여 현재 블록에 대한 예측값을 생성할 수 있다.The encoder and decoder may generate predicted values for the current block based on the intra prediction mode and the reference samples. Specifically, the encoder determines an intra-prediction mode using reference samples or filtered reference samples based on bit-rate-distortion (RD) optimization, and encodes the syntax information indicating the determined intra-prediction mode into a bitstream A prediction value for the current block is generated based on the determined intra prediction mode, and the current block is encoded using the generated prediction value. The decoder can restore the current block based on the intra prediction mode and the predicted value generated after generating the prediction value for the current block based on the reference samples. That is, the decoder can generate a prediction value for the current block based on the intra prediction mode derived in the intra prediction mode derivation step, the reference samples obtained through the reference sample construction step, and the reference sample filtering step.
도 6은 인트라 예측 모드의 시그널링 방법을 예시한다.6 illustrates a signaling method for intra prediction mode.
일반적으로 영상이 블록들로 분할되면, 코딩하려는 현재 블록과 이웃 블록은 비슷한 영상 특성을 가질 수 있다. 인트라 예측 모드의 경우, 현재 블록과 이웃 블록은 서로 동일하거나 비슷한 인트라 예측 모드를 가질 확률이 높다. 따라서, 인코더 또는 디코더는 현재 블록의 예측 모드를 인코딩 또는 유도하기 위해 이웃 블록의 예측 모드를 이용할 수 있다.Generally, if an image is divided into blocks, a current block and a neighboring block to be coded may have similar image characteristics. In the intra prediction mode, there is a high probability that the current block and the neighboring block have the same or similar intra prediction modes. Thus, the encoder or decoder may use the prediction mode of the neighboring block to encode or derive the prediction mode of the current block.
먼저, 인코더는 이웃 블록이 인트라 코딩된 경우, 이웃 블록의 예측 모드를 확인 또는 유도할 수 있다(S610). 예를 들어, 좌측 이웃 블록의 예측 모드와 상단 이웃 블록의 예측 모드를 기초로 현재 블록의 예측 모드를 결정할 수 있고, 이때 해당 이웃 블록의 예측 모드를 MPM(Most Probable Mode)으로 결정할 수 있다. MPM이라 함은 인트라 예측 모드 코딩시 현재 블록과 이웃 블록의 유사성을 고려하여 코딩 효율을 향상시키기 위해 이용되는 모드를 의미할 수 있다. MPM을 결정하는 것은, MPM(most probable modes) 후보(또는, MPM 리스트)를 리스트 업(list up)한다고 표현할 수도 있다.First, if the neighboring block is intra-coded, the encoder can confirm or derive the prediction mode of the neighboring block (S610). For example, the prediction mode of the current block can be determined based on the prediction mode of the left neighboring block and the prediction mode of the upper neighboring block, and the prediction mode of the neighboring block can be determined as MPM (Most Probable Mode). The MPM may refer to a mode used for improving the coding efficiency in consideration of the similarity between the current block and the neighboring block in intra prediction mode coding. Deciding on an MPM may also be expressed as listing up the MPM (most probable modes) candidate (or MPM list).
인코더는 좌측 이웃 블록의 예측 모드와 상단 이웃 블록의 예측 모드가 동일한지 여부를 확인할 수 있다(S620).The encoder can check whether the prediction mode of the left neighboring block and the prediction mode of the upper neighboring block are the same (S620).
만일 좌측 이웃 블록의 예측 모드와 상단 이웃 블록의 예측 모드가 동일하지 않은 경우, 첫 번째 MPM은 좌측 이웃 블록의 예측 모드로 설정될 수 있고, 두 번째 MPM은 상단 이웃 블록의 예측 모드로 설정될 수 있으며, 세 번째 MPM은 인트라 평면 모드, 인트라 DC 모드, 또는 인트라 수직 모드 중 어느 하나로 설정될 수 있다(S630).If the prediction mode of the left neighbor block and the prediction mode of the upper neighbor block are not the same, the first MPM may be set to the prediction mode of the left neighbor block, and the second MPM may be set to the prediction mode of the upper neighbor block , And the third MPM may be set to any one of an intra-plane mode, an intra-DC mode, and an intra-vertical mode (S630).
만일 좌측 이웃 블록의 예측 모드와 상단 이웃 블록의 예측 모드가 동일한 경우, 인코더는 좌측 이웃 블록의 예측 모드가 2보다 작은지 여부를 확인할 수 있다(S640).If the prediction mode of the left neighboring block is equal to the prediction mode of the upper neighboring block, the encoder can check whether the prediction mode of the left neighboring block is smaller than 2 (S640).
만약 좌측 이웃 블록의 예측 모드가 2보다 작은 경우, 첫 번째 MPM은 인트라 평면 모드로 설정될 수 있고, 두 번째 MPM은 인트라 DC 모드로 설정될 수 있으며, 세 번째 MPM은 인트라 수직 모드로 설정될 수 있다(S650).If the prediction mode of the left neighbor block is smaller than 2, the first MPM can be set to the intra plane mode, the second MPM can be set to the intra DC mode, and the third MPM can be set to the intra vertical mode (S650).
만약 좌측 이웃 블록의 예측 모드가 2보다 작은 않은 경우, 첫 번째 MPM은 좌측 이웃 블록의 예측 모드로 설정될 수 있고, 두 번째 MPM은 (좌측 이웃 블록의 예측 모드-1)로 설정될 수 있으며, 세 번째 MPM은 (좌측 이웃 블록의 예측 모드+1)로 설정될 수 있다(S660).If the prediction mode of the left neighbor block is not smaller than 2, the first MPM may be set to the prediction mode of the left neighbor block, the second MPM may be set to (prediction mode -1 of the left neighbor block) The third MPM may be set to (prediction mode of the left neighboring block +1) (S660).
인코더는 현재 블록에 적용될 최적의 인트라 예측 모드가 앞서 구성된 MPM 후보 내에 속하는지 판단할 수 있다. 만약 현재 블록의 인트라 예측 모드가 MPM 후보에 속하는 경우, 인코더는 MPM 플래그와 MPM 인덱스를 비트스트림으로 인코딩할 수 있다. MPM 플래그는 현재 블록의 인트라 예측 모드는 주변의 인트라 예측된 블록으로부터 유도(즉, 현재 블록의 인트라 예측 모드가 MPM 내 속함)되는지 여부를 지시할 수 있다. MPM 인덱스는 MPM 후보 중에서 현재 블록의 인트라 예측 모드로서 어떠한 MPM 모드가 적용되는지를 나타낼 수 있다. The encoder can determine whether the optimal intra prediction mode to be applied to the current block belongs to the MPM candidate configured in advance. If the intra prediction mode of the current block belongs to the MPM candidate, the encoder can encode the MPM flag and the MPM index into a bit stream. The MPM flag may indicate whether the intra prediction mode of the current block is derived from the surrounding intra prediction block (i. E., The intra prediction mode of the current block falls within the MPM). The MPM index may indicate which MPM mode is applied as the intra prediction mode of the current block among the MPM candidates.
반면, 현재 블록의 인트라 예측 모드가 MPM 후보에 속하지 않는 경우, 인코더는 현재 블록의 인트라 예측 모드를 비트스트림으로 인코딩할 수 있다.On the other hand, if the intra-prediction mode of the current block does not belong to the MPM candidate, the encoder can encode the intra-prediction mode of the current block into a bitstream.
도 7은 확장된 인트라 예측 모드를 예시한다.Figure 7 illustrates an extended intra prediction mode.
고해상도 영상의 인트라 부호화 및 더 정확한 예측을 위해 35가지 인트라 예측 모드를 67가지 인트라 예측 모드로 확장할 수 있다. 도 7에서 점선으로 나타낸 화살표는 새로 추가된 32가지 인트라 각도 예측 모드를 나타내며, 예를 들어 확장된 인트라 예측 모드의 값은 표 2에 예시된 바와 같이 인트라 예측 모드와 대응될 수 있다.It is possible to extend 35 intra prediction modes to 67 intra prediction modes for intra-coding and more accurate prediction of high-resolution images. The arrows indicated by dashed lines in Fig. 7 represent the newly added 32 intra-angle prediction modes, for example, the values of the extended intra-prediction modes can be matched with the intra-prediction modes as illustrated in Table 2. [
Figure PCTKR2018015031-appb-img-000002
Figure PCTKR2018015031-appb-img-000002
확장된 인트라 예측 모드에서 인트라 평면 예측 모드(INTRA_PLANAR) 및 인트라 DC 예측 모드(INTRA_DC)는 기존의 인트라 평면 예측 모드 및 인트라 DC 예측 모드와 동일하다(예, 표 1 및 관련 설명 참조). 새로 추가된 32가지 방향성 모드는 모든 블록 크기에서 적용될 수 있고, 휘도 성분과 색차 성분의 인트라 부호화에 적용될 수 있다.The intra-plane prediction mode (INTRA_PLANAR) and the intra-DC prediction mode (INTRA_DC) in the extended intra-prediction mode are the same as those of the intra-plane prediction mode and the intra-prediction mode. The newly added 32 directional modes can be applied to all block sizes and can be applied to intra coding of luminance components and chrominance components.
도 8은 확장된 인트라 예측 모드를 위한 MPM 후보를 예시한다.FIG. 8 illustrates an MPM candidate for an extended intra-prediction mode.
인트라 예측 모드의 수가 67개로 증가함에 따라 인트라 예측 모드의 효율적인 부호화를 위해 주변 블록으로부터 유도하는 MPM(Most Probable Mode)의 개수를 기존 3개에서 6개로 증가하고 MPM 리스트를 구성하는 방법도 변경할 수 있다.As the number of intra prediction modes is increased to 67, the number of MPM (Most Probable Mode) derived from neighboring blocks is increased from 3 to 6 and the method of constructing the MPM list can be changed for efficient coding of the intra prediction mode .
6개 MPM 후보에 기반하여 MPM 리스트를 구성하는 방법은 크게 다음 3가지 순서로 진행한다.The method of constructing the MPM list based on the six MPM candidates proceeds largely in the following three steps.
- 주변의 인트라 예측 모드 사용- Using the surrounding intra prediction mode
- 유도된 인트라 예측 모드 사용- Use derived intra prediction mode
- 디폴트(default) 인트라 예측 모드 사용- Use default intra prediction mode
6개 MPM 후보를 포함하는 MPM 리스트는 가장 먼저 주변의 인트라 예측 모드를 사용하여 생성한다. 도 8에서 예시된 바와 같이, 현재 인트라 예측을 수행하고자 하는 블록(즉, 현재 블록)의 주변 5개 블록(AL, A, AR, L, BL)을 탐색하여 인트라 예측 모드를 6개 MPM 후보 리스트에 추가한다. 이때, 중복 검사를 수행하여 동일한 인트라 예측 모드는 제외하고 새로운 인트라 예측 모드를 6개 MPM 후보 리스트에 추가한다. 예를 들어, 주변 블록의 탐색 순서는 L -> A -> 인트라 평면 예측 모드 -> 인트라 DC 예측 모드 -> BL -> AR -> AL 순으로 진행할 수 있다. 만약 주변의 인트라 예측 모드를 사용하여 6개 MPM 후보 리스트를 완성하면 후보 리스트 생성 과정을 종료한다.An MPM list containing six MPM candidates is first generated using the surrounding intra prediction mode. As illustrated in FIG. 8, the neighboring blocks (AL, A, AR, L, BL) of the current intraprediction block (i.e., current block) are searched to determine the intra prediction mode as six MPM candidate lists . At this time, duplicate inspection is performed to exclude the same intra prediction mode, and a new intra prediction mode is added to the six MPM candidate lists. For example, the search order of neighboring blocks can be proceeded in the order of L -> A -> intra-plane prediction mode -> intra DC prediction mode -> BL -> AR -> AL. If the six MPM candidate lists are completed using the surrounding intra prediction mode, the candidate list generation process is terminated.
만약 주변의 인트라 예측 모드를 사용하여 6개 MPM 후보 리스트를 완성하지 못하면 유도된 인트라 예측 모드를 사용하여 후보 리스트를 구성한다. 유도된 인트라 예측 모드는 이미 후보 리스트 내에 존재하는 인트라 예측 모드에 -1 혹은 +1을 더하여 생성하고, 생성한 유도된 인트라 예측 모드를 후보 리스트에 추가한다. 이때, 역시 중복 검사를 수행하여 동일한 모드는 제외하고 새로운 모드일 경우 후보 리스트에 추가한다.If the neighboring intra-prediction mode is not used to complete the six MPM candidate lists, a candidate list is constructed using the derived intra-prediction mode. The derived intra-prediction mode is generated by adding -1 or +1 to the intra-prediction mode already existing in the candidate list, and the generated intra-prediction mode is added to the candidate list. At this time, duplicate checking is performed to exclude the same mode, and added to the candidate list when the mode is a new mode.
만약 여전히 후보 리스트를 완성하지 못하면 마지막으로 디폴트 인트라 예측 모드를 사용하여 후보 리스트를 구성한다. 디폴트 인트라 예측 모드의 경우 {Vertical, Horizontal, Intra_Angular2, Diagonal} 모드 중 하나일 수 있다. 확장된 인트라 예측 모드에서 Vertical은 인트라 수직 예측 모드(예, Intra_Angular50)를 나타내고, Horizontal은 인트라 수평 예측 모드(예, Intra_Angular18)를 나타내고, Diagonal은 대각선 방향 인트라 예측 모드(예, Intra_Angular34 또는 Intra_Angular66)를 나타낼 수 있다. 순서대로 중복 검사를 수행하여 후보 리스트에 추가한다.If the candidate list is still not completed, the candidate list is finally constructed using the default intra prediction mode. In the case of the default intra prediction mode, it may be one of {Vertical, Horizontal, Intra_Angular2, Diagonal} modes. In the extended intra-prediction mode, Vertical indicates an intra-vertical prediction mode (e.g., Intra_Angular50), Horizontal indicates an intra-horizontal prediction mode (e.g., Intra_Angular18), and Diagonal indicates a diagonal intra-prediction mode (e.g. Intra_Angular34 or Intra_Angular66) . Perform duplicate checking in order and add to the candidate list.
도 9 및 도 10은 종래 기술에 따른 인트라 예측 방법의 문제점을 예시한다.9 and 10 illustrate the problem of the intra prediction method according to the prior art.
도 5를 참조하여 설명한 바와 같이, 종래 기술(예, HEVC 표준)에서는 인트라 예측을 위해 33가지의 방향성 예측 방법(예, 인트라 각도 예측 모드)과 두 가지의 무 방향성 예측 방법(예, 인트라 평면 예측 모드, 인트라 DC 예측 모드)를 포함하여 총 35가지 예측 방법을 사용하여 현재 블록의 예측값(predictor 또는 predicted block)을 생성한다. 이 때, 현재 블록을 예측하기 위해 주변의 참조 샘플(예, 상단 이웃 참조 샘플들, 우측 상단 이웃 참조 샘플들, 좌측 상단 이웃 샘플, 좌측 이웃 참조 샘플들, 좌측 하단 참조 샘플들)을 이용하여 예측 샘플을 생성한 후, 예측 방향성을 따라 생성된 예측 샘플을 복사하여 현재 블록의 예측값을 생성한다.As described with reference to FIG. 5, in the conventional technique (e.g., the HEVC standard), 33 directional prediction methods (e.g., intra-angle prediction mode) and two non-directional prediction methods Mode, and intra-DC prediction mode), a predictor (predictor or predicted block) of the current block is generated using a total of 35 prediction methods. At this time, prediction using the neighboring reference samples (e.g., upper neighbor reference samples, upper right neighbor reference samples, upper left neighbor sample, left neighbor reference samples, lower left reference samples) to predict the current block After the sample is generated, a predicted value of the current block is generated by copying the predicted sample generated along the predicted direction.
도 9를 참조하면, 앞에서도 설명했듯이 인트라 예측값 생성 방법은 예측 방향성을 따라 생성된 예측 샘플을 복사하므로 도 9(a)와 같은 모양(한 방향으로 진행하다가 중간에 다른 방향으로 꺾이는 형태)을 갖는 블록을 정확하게 예측하기 어렵다. 따라서, 도 9(b)에서 예시된 바와 같이, 한 방향으로 진행하다가 중간에 다른 방향으로 꺾이는 형태를 갖는 블록의 경우 더 작은 블록으로 분할한 후, 예측을 수행한다. 이러한 경우 각 블록에 대한 모드 정보 등 오버헤드 비트가 발생하여 부호화 효율이 떨어지는 문제가 발생할 수 있다.Referring to FIG. 9, as described above, the intraprediction value generation method copies a predicted sample generated according to a prediction direction, and thus has a shape as shown in FIG. 9 (a) It is difficult to accurately predict the block. Therefore, as illustrated in FIG. 9 (b), in the case of a block having a shape that advances in one direction and is bent in another direction in the middle, the block is divided into smaller blocks, and prediction is performed. In this case, overhead bits such as mode information for each block may be generated, resulting in a problem of poor coding efficiency.
예를 들어, 도 6을 참조하여 설명한 바와 같이, 각 블록에 대해, 인트라 예측 모드가 주변의 인트라 예측된 블록으로부터 유도되는지 여부를 지시하는 정보(예, MPM 플래그), 해당 블록의 인트라 예측 모드가 이웃 블록으로부터 유도되는 경우 MPM 후보 리스트에서 해당 블록의 인트라 예측 모드를 지시하는 인덱스 정보(예, MPM 인덱스), 해당 블록의 인트라 예측 모드가 이웃 블록으로부터 유도되지 않는 경우 해당 블록의 인트라 예측 모드를 나타내는 정보가 비트스트림을 통해 시그널링될 수 있다. 따라서, 현재 블록이 4개의 블록으로 분할되는 경우 각 블록의 인트라 예측 모드를 시그널링하기 위한 신택스 정보가 더욱 많이 필요하게 되므로, 도 11의 예에서 현재 블록을 분할하지 않고 동일/유사한 예측 성능을 달성할 수 있다면 현재 블록에 대한 코딩 효율을 적어도 4배 향상시킬 수 있다.For example, as described with reference to FIG. 6, for each block, information indicating whether the intra-prediction mode is derived from the surrounding intra-predicted block (e.g., MPM flag), the intra- (E.g., MPM index) indicating the intra-prediction mode of the corresponding block in the MPM candidate list if it is derived from the neighboring block, and an intra-prediction mode indicating the intra-prediction mode of the corresponding block if the intra- Information can be signaled through the bitstream. Therefore, when the current block is divided into four blocks, syntax information for signaling the intra-prediction mode of each block is needed more. Therefore, in the example of FIG. 11, the same / similar prediction performance is achieved without dividing the current block The coding efficiency for the current block can be improved at least four times.
본 발명의 방법 1에서는 도 9에 예시된 한 방향으로 진행하다가 다른 방향으로 꺾이는 형태가 있는 블록에 대해 블록 분할없이 효율적으로 예측값을 생성할 수 있는 인트라 거울 예측(Intra Mirror Prediction, IMP) 방법을 제안한다.In the method 1 of the present invention, Intra Mirror Prediction (IMP) method is proposed in which predicted values can be efficiently generated without performing block division on a block having a shape that is turned in one direction illustrated in FIG. 9 and is bent in another direction do.
도 10은 종래 기술에 따른 인트라 예측의 또 다른 문제점을 나타낸다.Figure 10 shows another problem of intra prediction according to the prior art.
도 10을 참조하면, 하나의 블록에 서로 다른 예측 방향성이 존재하는 경우 기존의 인트라 예측 모드로 정확한 예측 블록을 생성하기 어렵다. 예를 들어, 도 10에 예시된 바와 같이 대각선을 기준으로 각각의 블록(①번 블록과 ②번 블록)에 서로 다른 인트라 예측 모드 성분(예, 인트라 수직 예측 모드, 인트라 수평 예측 모드)가 존재할 경우 기존의 인트라 예측 방법에서는 블록을 더 작은 블록으로 분할한 후 예측을 수행한다. 이 경우 역시 도 9를 참조하여 설명한 바와 동일하게 각각 분할된 블록에 대한 모드 정보 등 오버헤드 비트가 발생하여 부호화 효율이 떨어지는 문제가 발생할 수 있다.Referring to FIG. 10, when different prediction directions exist in one block, it is difficult to generate accurate prediction blocks in the existing intra prediction mode. For example, as illustrated in FIG. 10, when different intra prediction mode components (e.g., an intra-vertical prediction mode and an intra-horizontal prediction mode) exist in each block (blocks 1 & cir & In the conventional intraprediction method, a block is divided into smaller blocks, and prediction is performed. In this case as well, as described with reference to FIG. 9, overhead bits such as mode information for each of the divided blocks may be generated, which may result in a problem of poor coding efficiency.
본 발명의 방법 2에서는 도 10에 예시된 하나의 블록 내에 서로 다른 인트라 예측 모드 성분(예, 인트라 수직 예측 모드, 인트라 수평 예측 모드)이 존재할 경우 블록 분할없이 효율적으로 예측값을 생성할 수 있는 수직-수평 병합 예측(Vertical-Horizontal Merge Prediction, VHMP) 방법을 제안한다.In the method 2 of the present invention, when different intra prediction mode components (for example, an intra prediction mode or an intra prediction mode) exist in one block illustrated in FIG. 10, a vertical- We propose a Vertical-Horizontal Merge Prediction (VHMP) method.
방법 1: Method 1: 인트라Intra 거울 예측( Mirror Prediction IntraIntra Mirror Prediction, IMP) 방법 Mirror Prediction, IMP) method
본 발명의 방법 1에서는 인트라 거울 예측 모드로 부호화/복호화를 수행할 때, 참조 샘플을 사용하여 예측값을 생성하는 방법을 제안한다. 제안하는 인트라 거울 예측 방법은 도 9(a)의 예에서와 같이 중간에 예측 방향이 꺾이는 블록을 효율적으로 부호화/복호화할 수 있는 방법이지만 도 11과 같이 제한적으로 사용 가능하다.The method 1 of the present invention proposes a method of generating a predicted value by using a reference sample when encoding / decoding is performed in the intra-mirror prediction mode. The proposed intra-mirror prediction method can efficiently encode / decode a block whose prediction direction is reversed in the middle as in the example of FIG. 9 (a), but it can be used limitedly as shown in FIG.
도 11은 본 발명의 인트라 거울 예측 모드가 적용될 수 있는 다양한 경우를 예시한다.11 illustrates various cases in which the intra-mirror prediction mode of the present invention can be applied.
도 11을 참조하면, 꺾인 블록이 사용 가능한 참조 샘플과 붙어 있는 도 11(a)의 예와 도 11(c)의 예의 경우에는 인트라 거울 예측 방법을 사용하여 예측값을 생성할 수 있다. 반면, 꺾인 블록이 사용 가능한 참조 샘플과 떨어져 있는 도 11(b)의 예와 도 11(d)의 예의 경우에는 인트라 거울 예측 방법의 효과가 감소하므로 인트라 거울 예측 방법의 적용 가능성이 상대적으로 떨어지거나 인트라 거울 예측 방법이 적용되지 않을 수 있다.Referring to FIG. 11, prediction values can be generated using the intra-mirror prediction method in the case of the example of FIG. 11 (a) and the example of FIG. 11 (c) in which a broken block is attached to a usable reference sample. On the other hand, in the case of the example of FIG. 11 (b) and the example of FIG. 11 (d) where the broken blocks are separated from the usable reference samples, the effect of the intra-mirror prediction method is reduced, The intra-mirror prediction method may not be applied.
도 9의 예를 구체적으로 나타내면 도 12와 같이 나타낼 수 있다. 도 12에서 하나의 사각형은 하나의 화소를 나타낸다. 즉, 도 12는 도 11(a)와 같이 중간에 꺾인 블록이 상단 참조 샘플과 붙어 있는 경우에 해당한다. 설명의 편의를 위해, 도 12의 예에 기반하여 인트라 거울 예측을 적용하여 예측값을 생성하는 방법을 설명하지만, 본 발명은 도 12에 예시되지 않은 다른 예들에도 동일/유사하게 적용될 수 있다. 또한, 본 명세서에서 설명의 편의를 위해, 도 12에 예시된 바와 같이 현재 블록이 8x8 블록인 것을 가정하지만, 본 발명은 현재 블록의 크기에 제한없이 적용될 수 있다.The example of FIG. 9 can be specifically shown as shown in FIG. In Fig. 12, one rectangle represents one pixel. That is, FIG. 12 corresponds to a case where an intermediate-folded block is attached to the upper reference sample as shown in FIG. 11 (a). For convenience of explanation, a method of generating prediction values by applying intra-mirror prediction based on the example of FIG. 12 is described, but the present invention can be applied to other examples which are not illustrated in FIG. 12, in the same way. Also, for convenience of description herein, it is assumed that the current block is 8x8 block as illustrated in Fig. 12, but the present invention can be applied without limitation to the size of the current block.
도 13은 본 발명의 인트라 거울 예측 모드와 기존 인트라 예측 모드를 비교 예시한다.13 illustrates a comparison between the intra-mirror prediction mode of the present invention and the existing intra-prediction mode.
도 13(a)를 참조하면, 현재 블록은 화살표 방향으로 인트라 예측을 수행한다고 가정하지만, 본 발명은 다른 인트라 각도 예측 모드가 적용되는 경우에도 동일/유사하게 적용될 수 있다. 도 13(b)는 도 13(a)에 예시된 화살표 방향에 대응되는 인트라 각도 예측 모드에 기반하여 기존의 인트라 예측을 적용하여 획득한 예측값을 예시하고, 도 13(c)는 본 발명에 따른 인트라 거울 예측 방법을 적용하여 획득한 예측값을 예시한다.Referring to FIG. 13A, it is assumed that the current block performs intra prediction in the direction of the arrow, but the present invention can be applied to the same or similar case even when another intra-angle prediction mode is applied. 13 (b) illustrates predicted values obtained by applying existing intra-prediction based on the intra-angle prediction mode corresponding to the arrow direction shown in FIG. 13 (a), and FIG. 13 (c) The predicted values obtained by applying the intra-mirror prediction method are illustrated.
도 13(b)를 참조하면, 도 12의 예에서와 같이 중간에 꺾인 블록에 대해 화살표 방향으로 기존의 인트라 예측을 수행하면 그림 13(b)와 같은 예측값이 생성된다. 하지만, 그림 13(b)에서 생성한 예측값은 그림 13(a)의 블록과 많은 차이가 있다. 즉, 기존의 인트라 예측 방법을 도 12의 예에 적용할 경우 예측을 정확하게 수행하지 못한다. 이러한 경우 도 9(b)를 참조하여 설명한 바와 같이 기존의 인트라 예측 부호화/복호화에서는 현재 블록을 더 작은 블록으로 분할 후 다시 인트라 예측을 수행한다.Referring to FIG. 13 (b), prediction is performed as shown in FIG. 13 (b) by performing the intra prediction in the direction of the arrow with respect to the intermediate folded block as in the example of FIG. However, the predicted value generated in Fig. 13 (b) is much different from the block in Fig. 13 (a). That is, if the existing intra prediction method is applied to the example of FIG. 12, prediction can not be performed accurately. In this case, as described with reference to FIG. 9 (b), in the conventional intraprediction encoding / decoding, the current block is divided into smaller blocks and intra prediction is performed again.
도 13(c)를 참조하면, 본 발명의 방법 1에 따른 인트라 거울 예측 방법을 적용하여 예측값이 생성된다. 인트라 거울 예측 방법을 사용하여 생성된 예측값을 도 13(a)의 블록과 비교해보면 동일함을 알 수 있다. 도 11(a)와 도 11(c)를 참조하여 언급한 경우(인트라 거울 예측 방법을 사용할 수 있는 경우)에 대해 인트라 거울 예측 방법을 사용하면 기존의 인트라 예측 방법을 통해 생성한 예측값보다 비트율의 증가(또는 코딩 효율의 감소)를 방지하면서도 예측 정확도를 높일 수 있는 장점이 있다.13 (c), prediction values are generated by applying the intra-mirror prediction method according to the method 1 of the present invention. The prediction values generated using the intra-mirror prediction method are the same when they are compared with the block of FIG. 13 (a). 11A and 11C (when the intra-mirror prediction method can be used), if the intra-mirror prediction method is used, (Or a reduction in coding efficiency) while increasing prediction accuracy.
도 14는 본 발명의 인트라 거울 예측 모드에 따른 실시예를 예시한다.FIG. 14 illustrates an embodiment according to the intra-mirror prediction mode of the present invention.
도 14(a)를 참조하면, 현재 블록은 2Nx2N의 크기를 가질 수 있다. 도 14(a)의 예에서는 N은 4이고 화살표 방향의 인트라 각도 예측 모드가 적용된다고 가정하지만 본 발명은 이에 제한되지 않는다. 화살표 방향의 인트라 각도 예측 모드가 적용될 경우 현재 블록에 인접한 상단 이웃 블록의 복원 샘플(예, E, F, G, H)과 우측 상단 이웃 블록의 복원 샘플(예, I, J, K, L, M, N, O, P)이 참조 샘플로서 이용될 수 있다. 만일 다른 방향의 인트라 각도 예측 모드에 기반하는 경우 현재 블록에 인접한 상단 이웃 블록의 복원 샘플(예, A, B, C, D), 좌측 상단 이웃 블록의 복원 샘플(예, Q), 좌측 이웃 블록의 복원 샘플(예, R, S, T, U, V, W, X, Y), 좌측 하단 이웃 블록의 복원 샘플(예, Z)이 참조 샘플로서 이용될 수 있음은 이해될 것이다.Referring to FIG. 14 (a), the current block may have a size of 2Nx2N. In the example of FIG. 14A, it is assumed that N is 4 and the intra-angle prediction mode in the arrow direction is applied, but the present invention is not limited thereto. (Eg, I, J, K, L, and H) of the top neighboring block adjacent to the current block and the reconstructed samples (eg, E, F, M, N, O, P) may be used as a reference sample. (E.g., A, B, C, and D) of the upper neighbor block adjacent to the current block, restoration samples (e.g., Q) of the upper left neighbor block, It will be appreciated that a reconstructed sample (e.g., R, S, T, U, V, W, X, Y) of a left lower neighbor block may be used as a reference sample.
본 발명의 인트라 거울 예측 모드가 적용되는 경우 현재 블록은 수직 방향으로 분할되거나 수평 방향으로 분할될 수 있다. 예를 들어, 수직 방향으로 분할되는 경우 현재 블록은 세로 크기가 더 큰 직사각형 모양의 블록들로 이등분될 수 있고, 수평 방향으로 분할되는 경우 현재 블록은 가로 크기가 더 큰 직사각형 모양의 블록들로 이등분될 수 있다. 본 명세서에서 현재 블록을 수직 방향으로 분할하여 인트라 거울 예측 모드를 적용하는 경우를 수직 방향 모드라고 지칭하고, 현재 블록을 수평 방향으로 분할하여 인트라 거울 예측 모드를 적용하는 경우를 수평 방향 모드라고 지칭한다. 따라서, 본 발명의 수직 방향 모드는 기존의 인트라 수직 예측 모드(예, 도 5의 26번 인트라 예측 모드, INTRA_ANGULAR26)와 상이하고 구별되는 개념이고, 본 발명의 수평 방향 모드는 기존의 인트라 수평 예측 모드(예, 도 5의 10번 인트라 예측 모드, INTRA_ANGULAR10)와 상이하고 구별되는 개념이다.When the intra-mirror prediction mode of the present invention is applied, the current block may be divided vertically or horizontally. For example, in the case where the current block is divided in the vertical direction, the current block may be bisected by rectangular blocks having a larger vertical size. When the block is divided in the horizontal direction, the current block is divided into rectangular blocks, . In this specification, a case in which the current block is divided in the vertical direction to apply the intra-mirror prediction mode is referred to as a vertical direction mode, and a case in which the current block is divided in the horizontal direction to apply the intra-mirror prediction mode is referred to as a horizontal direction mode . Therefore, the vertical direction mode of the present invention is different from the conventional intra vertical prediction mode (e.g., the intra prediction mode 26 of FIG. 5, INTRA_ANGULAR 26), and the horizontal direction mode of the present invention is an intra- (E.g., the 10th intra prediction mode in FIG. 5, INTRA_ANGULAR10).
현재 블록에 대해 인트라 거울 예측 모드가 적용되는지 여부를 지시하는 신택스 정보가 비트스트림을 통해 시그널링될 수 있다. 및/또는, 현재 블록의 인트라 거울 예측 모드가 수직 방향 모드인지 수평 방향 모드인지 여부를 나타내는 신택스 정보가 비트스트림을 통해 시그널링될 수 있다.Syntax information indicating whether the intra-mirror prediction mode is applied to the current block can be signaled through the bitstream. And / or syntax information indicating whether the intra-mirror prediction mode of the current block is the vertical direction mode or the horizontal direction mode can be signaled through the bit stream.
도 14의 예에서는 인트라 거울 예측 모드 중에서 수직 방향 모드가 적용된다고 가정하지만, 수평 방향 모드가 적용되는 경우에도 동일/유사한 원리가 적용될 수 있다.In the example of FIG. 14, it is assumed that the vertical direction mode is applied in the intra-mirror prediction mode, but the same / similar principle can be applied even when the horizontal direction mode is applied.
도 14(b)를 참조하면, 현재 블록의 예측 모드가 수직 방향 모드인 경우 현재 블록(예, 2Nx2N)을 2개의 Nx2N(세로로 이등분)으로 분할하고, 분할된 두 블록 중에서 우측 블록(예, Nx2N)에 대해 기존의 인트라 예측 방법을 사용하여 예측 샘플을 생성할 수 있다. 보다 구체적으로, 현재 블록의 예측 모드가 수직 방향 모드이고 현재 블록의 우측 블록에 대해 우측 상단 대각선 방향의 인트라 각도 예측 모드가 적용되는 경우, 현재 블록의 우측 블록에 대한 예측값은 기존의 인트라 예측 방법에 기반하여 획득될 수 있다.14B, when the prediction mode of the current block is the vertical direction mode, the current block (e.g., 2Nx2N) is divided into two Nx2N (vertically bisected), and the right block (e.g., Nx2N) can be generated using the existing intra prediction method. More specifically, when the prediction mode of the current block is the vertical direction mode and the intra-angle prediction mode in the upper right diagonal direction is applied to the right block of the current block, the prediction value for the right block of the current block is . ≪ / RTI >
도 14(c)를 참조하면, 현재 블록의 좌측 블록(예, Nx2N)에 대해서는 이미 생성된 우측 블록(예, Nx2N)의 예측값을 대칭적으로 복사하여 예측값을 생성할 수 있다. 우측 블록의 예측값을 대칭적으로 복사하는 방법은 도 15 및 도 16을 참조하여 자세히 설명한다.Referring to FIG. 14C, a predicted value can be generated by symmetrically copying a predicted value of a right block (for example, Nx2N) already generated for a left block (e.g., Nx2N) of the current block. The method of symmetrically copying the predicted value of the right block will be described in detail with reference to FIG. 15 and FIG.
도 15는 본 발명의 수직 방향 모드에 대한 인트라 거울 예측 방법을 예시한다.15 illustrates an intra-mirror prediction method for the vertical mode of the present invention.
도 15를 참조하면, 수직 방향 모드에 대한 인트라 거울 예측은 이미 예측이 수행된 우측 블록의 예측 샘플 값을 대칭적으로 좌측 블록으로 복사한다. 보다 구체적으로, 수직 방향 모드의 경우 기존의 인트라 예측 방법에 기반하여 획득한 예측값을 열 단위로 대칭적으로 다른 편 블록으로 복사하여 다른 편 블록의 예측값을 생성한다. 예를 들어, 도 15에 예시된 바와 같이, 먼저 우측 블록의 ①번 열에 대한 샘플 값을 좌측 블록의 ①번 열로 복사한다. 다시 우측 블록의 ②번 열에 대한 샘플 값을 좌측 블록의 ②번 열로 복사한다. 이와 같은 방법으로 좌측 블록의 ③번 열과 ④번 열의 샘플 값을 우측의 ③번 열과 ④번 열로 복사하여 좌측 블록의 예측값을 생성한다. 도 15의 예에서는 8x8 블록을 사용하여 수직 방향 모드에 대한 인트라 거울 예측 방법을 설명하였는데, 8x8이 아닌 다른 블록 크기에도 동일하게 적용하여 인트라 거울 예측을 수행할 수 있다.Referring to FIG. 15, the intra-mirror prediction for the vertical direction mode copies symmetrically the predicted sample values of the predicted right block to the left block. More specifically, in the case of the vertical direction mode, predicted values obtained on the basis of the existing intraprediction method are copied symmetrically to different blocks in units of columns to generate predicted values of the other partial blocks. For example, as illustrated in FIG. 15, first, the sample value of the first column of the right block is copied to the first column of the left block. Copy the sample value for column 2 in the right block to column 2 in the left block. In this way, the sample values of columns ③ and ④ of the left block are copied to columns ③ and ④ of the right column to generate predicted values of the left block. In the example of FIG. 15, the intra-mirror prediction method for the vertical direction mode is described using the 8x8 block. Intra-mirror prediction can also be performed by applying the same to block sizes other than 8x8.
도 16은 본 발명의 수평 방향 모드에 대한 인트라 거울 예측 방법을 예시한다.16 illustrates an intra-mirror prediction method for the horizontal direction mode of the present invention.
도 16을 참조하면, 수평 방향 모드가 적용되는 경우 현재 블록(예, 2Nx2N)은 2개의 2NxN(가로로 이등분)으로 분할될 수 있고, 현재 블록의 하단 블록(예, 2NxN)에 대해 화살표 방향의 인트라 각도 예측 모드에 기반한 기존의 인트라 예측 방법을 적용하여 예측값을 획득할 수 있다. 보다 구체적으로, 현재 블록의 예측 모드가 수평 방향 모드이고 현재 블록의 하단 블록에 대해 좌측 하단 대각선 방향의 인트라 각도 예측 모드가 적용되는 경우, 현재 블록의 하단 블록에 대한 예측값은 기존의 인트라 예측 방법에 기반하여 획득될 수 있다.16, when a horizontal mode is applied, the current block (e.g., 2Nx2N) may be divided into two 2NxN (bisectors), and the lower block of the current block (e.g., 2NxN) The prediction value can be obtained by applying the existing intraprediction method based on the intra-angle prediction mode. More specifically, when the prediction mode of the current block is the horizontal direction mode and the intra-angle prediction mode in the lower left diagonal direction is applied to the lower block of the current block, the prediction value for the lower block of the current block is . ≪ / RTI >
수평 방향 모드에 대한 인트라 거울 예측은 이미 예측이 수행된 하단 블록의 예측 샘플 값을 대칭적으로 상단 블록으로 복사하여 예측 블록을 생성한다. 보다 구체적으로, 수평 방향 모드의 경우 기존의 인트라 예측 방법에 기반하여 획득한 예측값을 행 단위로 대칭적으로 다른 편 블록으로 복사하여 다른 편 블록의 예측값을 생성한다. 예를 들어, 도 16에 예시된 바와 같이, 하단 블록의 ①번 행에 대한 샘플 값을 상단 블록의 ①번 행으로 복사한다. 다시 하단 블록의 ②번 행에 대한 샘플 값을 상단 블록의 ②번 행으로 복사한다. 이와 같은 방법으로 하단 블록의 ③번 행과 ④번 행의 샘플 값을 상단 블록의 ③번 행과 ④번 행으로 복사하여 예측 블록을 생성한다.The intra-mirror prediction for the horizontal direction mode generates a prediction block by symmetrically copying the prediction sample value of the lower-stage block in which the prediction has been performed, to the upper block. More specifically, in the case of the horizontal direction mode, predicted values obtained on the basis of the existing intraprediction method are copied symmetrically to another block in units of rows to generate predicted values of other block. For example, as illustrated in FIG. 16, the sample value for the row 1 in the lower block is copied to the row 1 in the upper block. Copy the sample value for row 2 in the lower block to row 2 in the upper block. In this way, the sample values of row 3 and row 4 of the lower block are copied to rows 3 and 4 of the upper block to generate a prediction block.
도 15와 도 16에서는 수평 방향 모드와 수직 방향 모드에 대한 인트라 거울 예측 방법을 설명하였는데, 여러 다른 방향 모드에 대해서도 본 발명의 인트라 거울 예측 방법을 적용할 수 있다.In FIGS. 15 and 16, the intra-mirror prediction method for the horizontal direction mode and the vertical direction mode has been described. The intra-mirror prediction method of the present invention can also be applied to various other direction modes.
도 17은 인트라 거울 예측 방법의 다른 예들을 예시한다.17 illustrates other examples of the intra-mirror prediction method.
도 17을 참조하면, 직선 화살표는 기존의 인트라 예측 모드를 적용하기 위한 예측 방향을 나타내고, 음영 처리된 블록은 인트라 거울 예측을 위해 기존의 인트라 예측 방법을 사용하여 먼저 생성한 예측값을 나타내고, 곡선 화살표는 먼저 생성한 예측값을 대칭적으로 복사하는 동작을 나타낸다. 도 17(a)와 도 17(b)의 경우 수직 방향 모드이므로 세로 방향으로 블록 분할이 발생하고 열 단위로 예측값 복사가 수행된다. 반면, 도 17(c)와 도 17(d)의 경우 수평 방향 모드이므로 가로 방향으로 블록 분할이 발생하고 행 단위로 예측값 복사가 수행된다. 도 11(b)와 도 11(d)에 예시된 바와 같이, 동일한 인트라 예측 방향(또는 인트라 각도 예측 모드)에 대해 수직 방향 모드와 수평 방향 모드가 모두 수행될 수 있는데, 이는 하나의 실시예로 수직 방향 모드와 수평 방향 모드 중에서 적합한 방향 모드를 결정 또는 적용하여 인트라 거울 예측을 수행할 수 있다.17, a straight arrow indicates a prediction direction for applying an existing intra-prediction mode, a shaded block indicates a prediction value generated earlier by using an existing intra-prediction method for intra-mirror prediction, Represents an operation of symmetrically copying the predictive value generated first. In the case of FIGS. 17A and 17B, since the mode is the vertical direction, block division occurs in the vertical direction, and prediction value copying is performed in units of columns. In the case of FIGS. 17 (c) and 17 (d), since the mode is the horizontal direction, block division occurs in the horizontal direction and prediction value copying is performed row by row. As illustrated in Figs. 11 (b) and 11 (d), both the vertical direction mode and the horizontal direction mode can be performed for the same intra-prediction direction (or intra-angle prediction mode) It is possible to perform intra-mirror prediction by determining or applying an appropriate direction mode from the vertical direction mode and the horizontal direction mode.
인트라 거울 예측 방법은 기존의 인트라 예측 방법을 사용하여 먼저 현재 블록 내의 한쪽 블록에 대해 예측값을 생성하고 이를 사용하여 현재 블록 내의 반대쪽 블록의 예측값을 생성한다. 따라서, 먼저 생성된 블록을 복사하여 다른 블록을 생성하게 되면 다른 블록의 샘플과 이에 인접한 이웃 블록의 참조 샘플 간에 불연속성이 발생할 수 있다. 이러한 불연속성을 제거하기 위해 참조 샘플과 인접한 블록의 샘플 값이 복사된 경우 블렌딩(blending) 혹은 가중 합을 적용하여 불연속성을 줄일 수 있다.The intra-mirror prediction method generates prediction values for one block in a current block using an existing intra prediction method, and generates predicted values of blocks in the opposite block in the current block using the prediction values. Therefore, if another block is generated by copying the generated block first, discontinuity may occur between the sample of another block and the reference sample of the neighboring block adjacent thereto. In order to eliminate such discontinuity, when the sample value of the reference block and the adjacent block are copied, blending or weighted sum may be applied to reduce the discontinuity.
도 18은 인트라 거울 예측 방법과 불연속성을 줄이는 방법을 나타낸다. 도 18에서 두꺼운 직선 화살표는 각 참조 샘플 방향으로의 블렌딩 혹은 가중 합을 적용하는 방향을 나타내고, 음영 처리된 블록은 인트라 거울 예측을 위해 기존의 인트라 예측 방법을 사용하여 먼저 생성한 예측값을 나타내고, 곡선 화살표는 먼저 생성한 예측값을 대칭적으로 복사하는 방향을 나타낸다.18 shows an intra-mirror prediction method and a method for reducing discontinuity. In FIG. 18, the thick straight arrow indicates the direction to which the blending or weighted sum is applied in each reference sample direction, the shaded block indicates the predicted value generated earlier by using the existing intraprediction method for intra-mirror prediction, The arrow indicates the direction of symmetrically copying the predicted value generated first.
도 18의 예에서는 도 17을 참조하여 설명한 인트라 거울 예측 방법을 적용하되, 점으로 채운 블록(dotted block)의 예측값은 인접한 이웃 블록의 참조 샘플과 음영 처리된 블록(shaded block)의 예측값을 기반으로 블렌딩 또는 가중합을 이용하여 생성될 수 있다. 예를 들어, 점으로 채운 블록 내에서 복원된 블록과 인접한 경계 샘플들에 대해서, 음영 처리된 블록의 예측값과 해당 경계 샘플에 인접한 이웃 블록의 샘플에 기반한 가중합 또는 평균을 이용하여 예측 샘플을 생성하고, 점으로 채운 블록 내의 다른 샘플에 대해서는 음영 처리된 블록의 예측값을 복사하여 예측 샘플을 생성할 수 있다.In the example of FIG. 18, the intra-mirror prediction method described with reference to FIG. 17 is applied, and the predicted value of the dotted block based on the predicted value of the reference sample of the adjacent neighboring block and the shaded block Blending or weighted sum. For example, for boundary samples adjacent to a reconstructed block in a block filled with a point, a prediction sample is generated using a weighted sum or average based on the predicted value of the shaded block and a sample of the neighboring block adjacent to the boundary sample And a predicted sample can be generated by copying the predicted value of the shaded block to another sample in the block filled with the point.
도 19는 본 발명의 인트라 거울 예측 모드에 따라 인트라 예측을 수행하는 방법의 순서도를 예시한다. 도 19의 방법은 인코더(100)와 디코더(200)에 의해 수행될 수 있으며(예, 도 1의 인트라 예측부(185), 도 2의 인트라 예측부(265) 참조), 아래 설명에서 인코더와 디코더는 장치로 통칭될 수 있다.19 illustrates a flowchart of a method for performing intra prediction according to the intra-mirror prediction mode of the present invention. The method of FIG. 19 can be performed by the encoder 100 and the decoder 200 (e.g., intra prediction unit 185 of FIG. 1, intra prediction unit 265 of FIG. 2) The decoder may be referred to as a device.
S1910 단계에서, 장치는 현재 블록을 적어도 2개의 블록으로 분할할 수 있다. 만일 인트라 거울 예측 모드가 수직 방향 모드인 경우 현재 블록은 수직 방향으로 2개의 블록으로 분할될 수 있고, 만일 인트라 거울 예측 모드가 수평 방향 모드인 경우 현재 블록은 수평 방향으로 2개의 블록으로 분할될 수 있다(예, 도 14, 도 15, 도 17(a), 도 17(b), 도 18(a), 도 18(b) 및 관련 설명 참조).In step S1910, the device can divide the current block into at least two blocks. If the intra-mirror prediction mode is the vertical direction mode, the current block can be divided into two blocks in the vertical direction, and if the intra-mirror prediction mode is the horizontal direction mode, the current block can be divided into two blocks in the horizontal direction (See, for example, Figs. 14, 15, 17 (a), 17 (b), 18 (a), 18 (b) and related description).
인코더의 경우, 수직 방향 모드와 수평 방향 모드 중에서 비트율-왜곡(Rate-Distortion, RD)에 있어서 최적의 성능을 나타내는 모드를 현재 블록의 인트라 거울 예측 모드로 결정할 수 있다. 인코더는 수직 방향 모드와 수평 방향 모드 중에서 결정된 방향 모드를 지시하는 정보(예, 플래그 정보)를 비트스트림으로 엔트로피 인코딩할 수 있다. 반면, 디코더의 경우, 수직 방향 모드와 수평 방향 모드를 지시하는 정보(예, 플래그 정보)가 비트스트림을 통해 획득하고, 상기 정보가 지시하는 방향 모드에 기반하여 현재 블록에 대한 인트라 거울 예측 모드를 적용할 수 있다.In the case of the encoder, the intra-mirror prediction mode of the current block can be determined as a mode showing the best performance in the bit rate-distortion (RD) among the vertical direction mode and the horizontal direction mode. The encoder may entropy encode information (e.g., flag information) indicating a determined direction mode among the vertical direction mode and the horizontal direction mode into a bit stream. On the other hand, in the case of a decoder, information indicating a vertical direction mode and a horizontal direction mode (e.g., flag information) is acquired through a bitstream, and an intra-mirror prediction mode for the current block is determined based on a direction mode indicated by the information Can be applied.
S1920 단계에서, 장치는 현재 블록에 대한 인트라 예측 모드 정보를 획득할 수 있다. 구체적으로, 장치는 인트라 거울 예측 모드에서 기존의 인트라 예측 방법을 적용하기 위한 인트라 각도 예측 모드를 획득할 수 있다. 현재 블록에 대해 인트라 거울 예측 모드가 적용되는 경우, 현재 블록이 적어도 2개의 블록을 포함하지만 인트라 예측 모드 정보는 상기 2개의 블록들 각각에 대해 시그널링되는 것이 아니라 현재 블록에 대해서만 시그널링될 수 있다. 현재 블록에 대해서는 하나의 인트라 예측 모드가 획득되며, 상기 2개의 블록들 각각에 대해 인트라 예측 모드가 획득되는 것이 아니다. In step S1920, the apparatus can obtain the intra prediction mode information on the current block. Specifically, the apparatus can acquire an intra-angle prediction mode for applying an existing intra-prediction method in the intra-mirror prediction mode. When the intra-mirror prediction mode is applied to the current block, the current block includes at least two blocks, but the intra prediction mode information can be signaled only to the current block, rather than being signaled for each of the two blocks. One intra prediction mode is obtained for the current block and the intra prediction mode is not obtained for each of the two blocks.
예를 들어, 인코더의 경우, 가용한 인트라 예측 방향(예, 도 5, 도 7 참조)을 모두 적용하여 현재 블록에 인트라 예측을 수행한 후 RD 최적화에 기반하여 현재 블록에 대해 하나의 인트라 예측 방향을 결정한 후 결정된 인트라 예측 방향에 대응되는 인트라 예측 모드 정보(예, 인트라 각도 예측 모드)를 획득할 수 있다. 또한, 인코더는 획득한 인트라 예측 모드 정보를 엔트로피 인코딩을 통해 비트스트림에 인코딩할 수 있다(예, 도 6 및 관련 설명 참조). 반면, 디코더의 경우, 비트스트림으로부터 현재 블록에 대한 인트라 예측 모드 정보를 획득하고 현재 블록에 대한 인트라 예측 방향을 결정할 수 있다. 예를 들어, 도 6을 참조하여 설명한 방법에 기반하여 디코더는 인트라 예측 모드 정보를 획득할 수 있다.For example, in the case of an encoder, intra prediction is performed on a current block by applying all possible intra prediction directions (e.g., FIGS. 5 and 7), and then, based on the RD optimization, (E.g., an intra-angle prediction mode) corresponding to the determined intra-prediction direction. In addition, the encoder may encode the acquired intra prediction mode information into a bitstream through entropy encoding (e.g., see FIG. 6 and related description). On the other hand, in the case of a decoder, it is possible to obtain the intra prediction mode information on the current block from the bitstream and determine the intra prediction direction for the current block. For example, based on the method described with reference to FIG. 6, the decoder may obtain intra prediction mode information.
S1930 단계에서, 장치는 S1920 단계에서 획득한 인트라 예측 모드 정보 및 현재 블록에 인접한 이웃 블록의 참조 샘플에 기반하여 현재 블록에 포함된 2개의 블록 중에서 제1 블록의 예측값을 획득할 수 있다. 예를 들어, 도 14(b)를 참조하여 설명한 바와 같이, 장치는 S1920 단계에서 획득한 인트라 예측 모드에 대응되는 인트라 예측 방향의 참조 샘플 및 기존의 인트라 예측 방법에 기반하여 현재 블록에 포함된 블록들 중에서 제1 블록의 예측값을 획득할 수 있다.In step S1930, the apparatus can obtain the predicted value of the first block among the two blocks included in the current block, based on the intra prediction mode information acquired in step S1920 and the reference sample of the neighboring block adjacent to the current block. For example, as described with reference to FIG. 14 (b), the apparatus compares the reference samples in the intra-prediction direction corresponding to the intra-prediction modes acquired in step S1920 and the reference samples in the intra- The predicted value of the first block can be obtained.
S1940 단계에서, 장치는 S1930 단계에서 획득한 제1 블록의 예측값에 기반하여 현재 블록 내의 제2 블록의 예측값을 획득할 수 있다. 보다 구체적으로, 제2 블록의 예측값은 S1930 단계에서 획득한 제1 블록의 예측값을 대칭적으로 복사하여 생성될 수 있다(예, 도 14(c), 도 15 내지 도 17 및 관련 설명 참조).In step S1940, the apparatus may obtain the predicted value of the second block in the current block based on the predicted value of the first block obtained in step S1930. More specifically, the predicted value of the second block may be generated by symmetrically copying the predicted value of the first block obtained in step S1930 (e.g., see FIG. 14 (c), FIG. 15 to FIG.
및/또는, 도 18을 참조하여 설명한 바와 같이, 제2 블록의 예측값은 S1930 단계에서 획득한 제1 블록의 예측값과 현재 블록에 인접한 이웃 블록의 참조 샘플에 기반한 가중 합을 이용하여 생성될 수 있다.18, the predicted value of the second block may be generated using the weighted sum based on the predicted value of the first block obtained in step S1930 and the reference sample of the neighboring block adjacent to the current block .
예를 들어, S1930 및 S1940 단계에서, 현재 블록의 인트라 예측 모드 정보가 우측 상단 방향을 나타내고 현재 블록의 인트라 거울 예측 모드가 수직 방향 모드인 것에 기반하여, 제1 블록은 현재 블록 내의 2개의 블록 중에서 우측 블록이고 제2 블록은 현재 블록 내의 2개의 블록 중에서 좌측 블록으로 결정될 수 있으며, 우측 블록의 예측값은 현재 블록에 인접한 상단 이웃 블록 또는 우측 상단 이웃 블록의 참조 샘플에 기반하여 생성되고, 좌측 블록의 예측값은 우측 블록의 예측값을 열 단위로 대칭적으로 복사하여 생성되거나(예, 도 15, 도 17(a) 참조) 또는 우측 블록의 예측값과 현재 블록에 인접한 상단 이웃 블록 및/또는 좌측 이웃 블록의 참조 샘플에 기반한 가중 합을 이용하여 생성될 수 있다(예, 도 18(a) 참조).For example, in steps S1930 and S1940, the intra-prediction mode information of the current block indicates the upper right direction and the intra-mirror prediction mode of the current block is the vertical direction mode, the first block is selected from two blocks The second block may be determined as the left block among the two blocks in the current block and the predicted value of the right block is generated based on the reference samples of the upper neighbor block or the upper right neighbor block adjacent to the current block, The prediction value is generated by symmetrically copying the predicted value of the right block in units of columns (for example, see Figs. 15 and 17 (a)), or the prediction value of the right block and the predicted value of the upper neighbor block and / May be generated using a weighted sum based on the reference samples (e.g., see FIG. 18 (a)).
다른 예로, S1930 및 S1940 단계에서, 현재 블록의 인트라 예측 모드 정보가 좌측 상단 방향을 나타내고 현재 블록의 인트라 거울 예측 모드가 수직 방향 모드인 것에 기반하여, 제1 블록은 현재 블록 내의 2개의 블록 중에서 좌측 블록이고 상기 제2 블록은 현재 블록 내의 2개의 블록 중에서 우측 블록으로 결정될 수 있으며, 좌측 블록의 예측값은 현재 블록에 인접한 상단 이웃 블록 또는 좌측 상단 이웃 블록 또는 좌측 이웃 블록의 참조 샘플에 기반하여 생성되고, 우측 블록의 예측값은 좌측 블록의 예측값을 열 단위로 대칭적으로 복사하여 생성되거나(예, 도 17(b) 참조) 또는 우측 블록의 예측값과 현재 블록에 인접한 상단 이웃 블록의 참조 샘플에 기반한 가중 합을 이용하여 생성될 수 있다(예, 도 18(b) 참조).In another example, in steps S1930 and S1940, the intra-prediction mode information of the current block indicates the upper left direction and the intra-mirror prediction mode of the current block is the vertical direction mode, Block and the second block can be determined as a right block among the two blocks in the current block and the predicted value of the left block is generated based on the reference samples of the upper neighbor block or the upper left neighbor block or the left neighbor block adjacent to the current block , The predicted value of the right block is generated by symmetrically copying the predicted value of the left block in column units (for example, see Fig. 17 (b)), or the predicted value of the right block is calculated by weighting based on the predicted value of the right block and the reference sample of the upper neighbor block adjacent to the current block (For example, see Fig. 18 (b)).
또 다른 예로, S1930 및 S1940 단계에서, 현재 블록의 인트라 예측 모드 정보가 좌측 하단 방향을 나타내고 현재 블록의 인트라 거울 예측 모드가 수평 방향 모드인 것에 기반하여, 제1 블록은 현재 블록 내의 2개의 블록 중에서 하단 블록이고 제2 블록은 현재 블록 내의 2개의 블록 중에서 상단 블록으로 결정될 수 있으며, 하단 블록의 예측값은 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 하단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상단 블록의 예측값은 하단 블록의 예측값을 행 단위로 대칭적으로 복사하여 생성되거나(예, 도 16, 도 17(c) 참조) 또는 하단 블록의 예측값과 현재 블록에 인접한 상단 이웃 블록 또는 좌측 이웃 블록의 참조 샘플에 기반한 가중 합을 이용하여 생성될 수 있다(예, 도 18(c) 참조).In another example, in steps S1930 and S1940, the intra-prediction mode information of the current block indicates the lower left direction and the intra-mirror prediction mode of the current block is the horizontal direction mode, The second block may be determined as the upper block among the two blocks in the current block and the predicted value of the lower block is generated based on the reference samples of the left neighboring block or the lower left neighboring block adjacent to the current block, 16 and 17 (c)). Alternatively, the prediction value may be generated by symmetrically copying the predicted value of the lower block in units of rows (e.g., see FIGS. 16 and 17 (E. G., Fig. 18 (c)).
또 다른 예로, S1930 및 S1940 단계에서, 현재 블록의 인트라 예측 모드 정보가 좌측 상단 방향을 나타내고 현재 블록의 인트라 거울 예측 모드가 수평 방향 모드인 것에 기반하여, 제1 블록은 현재 블록 내의 2개의 블록 중에서 상단 블록이고 제2 블록은 현재 블록 내의 2개의 블록 중에서 하단 블록으로 결정될 수 있으며, 상단 블록의 예측값은 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 상단 이웃 블록 또는 상단 이웃 블록의 참조 샘플에 기반하여 생성되고, 하단 블록의 예측값은 상단 블록의 예측값을 행 단위로 대칭적으로 복사하여 생성되거나(예, 도 17(d) 참조) 또는 상단 블록의 예측값과 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 하단 이웃 블록의 참조 샘플에 기반한 가중 합을 이용하여 생성될 수 있다(예, 도 18(d) 참조).As another example, in steps S1930 and S1940, the intra-prediction mode information of the current block indicates the upper left direction and the intra-mirror prediction mode of the current block is the horizontal direction mode, the first block is selected from two blocks And the second block may be determined as the lower block among the two blocks in the current block and the predicted value of the upper block is generated based on the reference samples of the left neighbor block or the upper left neighbor block or the upper neighbor block adjacent to the current block The predicted value of the lower block is generated by symmetrically copying the predicted value of the upper block in a row unit basis (for example, see Fig. 17 (d)), or the predicted value of the lower block may be generated by copying the predicted value of the lower block to the left neighboring block or the lower left neighboring block (E. G., Fig. 18 (d)) based on the reference samples.
또 다른 예로, S1930 및 S1940 단계에서, 현재 블록의 인트라 예측 모드 정보가 우측 상단 방향을 나타내고 현재 블록의 인트라 거울 예측 모드가 수평 방향 모드인 것에 기반하여, 제1 블록은 현재 블록 내의 2개의 블록 중에서 상단 블록이고 제2 블록은 현재 블록 내의 2개의 블록 중에서 하단 블록으로 결정될 수 있으며, 상단 블록의 예측값은 현재 블록에 인접한 상단 이웃 블록 또는 우측 상단 이웃 블록의 참조 샘플에 기반하여 생성되고, 하단 블록의 예측값은 상단 블록의 예측값을 행 단위로 대칭적으로 복사하여 생성되거나 또는 상단 블록의 예측값과 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 하단 이웃 블록의 참조 샘플에 기반한 가중 합을 이용하여 생성될 수 있다.As another example, in steps S1930 and S1940, the intra-prediction mode information of the current block indicates the upper right direction and the intra-mirror prediction mode of the current block is the horizontal direction mode, the first block is selected from two blocks And the second block may be determined as the lower block among the two blocks in the current block and the predicted value of the upper block is generated based on the reference samples of the upper neighbor block or the upper right neighbor block adjacent to the current block, The prediction value may be generated by symmetrically copying the predicted value of the upper block row by row or by using a weighted sum based on the predicted value of the upper block and the reference samples of the left neighboring block or the lower left neighboring block adjacent to the current block.
또 다른 예로, S1930 및 S1940 단계에서, 현재 블록의 인트라 예측 모드 정보가 좌측 하단 방향을 나타내고 현재 블록의 인트라 거울 예측 모드가 수직 방향 모드인 것에 기반하여, 제1 블록은 현재 블록 내의 2개의 블록 중에서 좌측 블록이고 제2 블록은 현재 블록 내의 2개의 블록 중에서 우측 블록으로 결정될 수 있으며, 좌측 블록의 예측값은 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 하단 이웃 블록의 참조 샘플에 기반하여 생성되고, 우측 블록의 예측값은 좌측 블록의 예측값을 열 단위로 대칭적으로 복사하여 생성되거나 또는 좌측 블록의 예측값과 현재 블록에 인접한 상단 이웃 블록의 참조 샘플에 기반한 가중 합을 이용하여 생성될 수 있다.In another example, in steps S1930 and S1940, the intra-prediction mode information of the current block indicates the lower left direction and the intra-mirror prediction mode of the current block is the vertical direction mode, And the second block may be determined as the right block among the two blocks in the current block and the predicted value of the left block is generated based on the reference samples of the left neighboring block or the lower left neighboring block adjacent to the current block, The predictive value may be generated by symmetrically copying the predicted value of the left block in column units or by using a weighted sum based on the predicted value of the left block and the reference sample of the upper neighbor block adjacent to the current block.
도 19의 방법에 따라 현재 블록에 대한 예측값을 획득한 후, 인코더(100)는 획득한 현재 블록의 예측값에 기반하여 현재 블록에 대한 인코딩(예, 잔여 신호 획득, 변환(120), 양자화(130), 엔트로피 인코딩(190))을 수행할 수 있다. 또한, S1910 단계 및 S1920 단계와 관련하여 설명한 바와 같이, 인코더(100)는 수직 방향 모드와 수평 방향 모드 중에서 결정된 방향 모드를 지시하는 정보(예, 플래그 정보)를 비트스트림에 인코딩할 수 있고, 인트라 예측 모드 정보를 비트스트림에 인코딩할 수 있다. 디코더(200)는 도 19의 방법에 따라 획득한 현재 블록의 예측값에 기반하여 현재 블록을 복원할 수 있다(예, 도 2 및 관련 설명 참조).After obtaining the predicted value for the current block according to the method of FIG. 19, the encoder 100 encodes the current block (e.g., residual signal acquisition, transformation 120, quantization 130 ), Entropy encoding 190). Also, as described in relation to steps S1910 and S1920, the encoder 100 can encode information (e.g., flag information) indicating a determined direction mode in the vertical direction mode and the horizontal direction mode into a bit stream, Prediction mode information can be encoded into a bitstream. The decoder 200 can restore the current block based on the predicted value of the current block acquired according to the method of FIG. 19 (e.g., see FIG. 2 and related description).
방법 2: 수직-수평 병합 예측(Vertical-Horizontal Merge Prediction) 방법Method 2: Vertical-Horizontal Merge Prediction Method
도 10을 참조하여 설명한 바와 같이, 하나의 블록 내에 인트라 예측을 위한 서로 다른 방향 성분이 공존하는 경우에도 인트라 예측의 코딩 효율성이 저하될 수 있다. 본 발명의 방법 2는 이러한 기술적 문제를 해결하기 위한 방법으로서 수직-수평 병합 예측(Vertical-Horizontal Merge Prediction) 방법을 제안하고, 제안된 방법을 사용하여 부호화/복호화를 수행할 때 참조 샘플을 사용하여 예측 블록을 생성하는 구체적인 방법을 제안한다. 제안하는 수직-수평 병합 예측 방법은 도 10의 예에서와 같이 하나의 블록 내에 서로 다른 2개의 예측 방향 성분(수직 성분과 수평 성분)이 함께 있는 경우 효율적으로 부호화를 수행할 수 있는 방법이다.As described with reference to FIG. 10, even when different directional components for intraprediction coexist in one block, the coding efficiency of intra prediction may be degraded. Method 2 of the present invention proposes a Vertical-Horizontal Merge Prediction method as a method for solving this technical problem, and uses a reference sample when encoding / decoding is performed using the proposed method We propose a concrete method of generating a prediction block. The proposed vertical-horizontal merge prediction method is a method which can efficiently perform encoding when two different prediction direction components (a vertical component and a horizontal component) coexist in one block as in the example of FIG.
도 20은 본 발명에 따른 수직-수평 병합 방법을 예시한다.20 illustrates a vertical-horizontal merge method according to the present invention.
도 20을 참조하면, 하나의 블록을 세 개의 예측 영역(①번 영역, ②번 영역, ③번 영역)으로 구분한다. 각각의 예측 영역 내의 샘플(①번 영역의 샘플 a, ②번 영역의 샘플 b, ③번 영역의 샘플 c)은 다음과 같은 방법으로 예측 값을 생성한다.Referring to FIG. 20, one block is divided into three prediction regions (region 1, region 2, region 3). The samples in each prediction region (sample a in the region 1, sample b in the region 2, and sample c in the region 3) are generated in the following manner.
- ①번 영역의 샘플 a: ①번 영역의 예측 값은 항상 수직 모드와 동일하게 상단 참조 샘플을 복사하여 예측 값을 생성한다. 즉, ①번 영역의 a 샘플의 예측 값은 상단 참조 샘플 E의 값을 복사하여 생성한다. ①번 영역 내의 모든 예측 값은 모두 이와 동일한 방법으로 생성한다.- Sample a in No. 1 area: The predicted value in the No. 1 area is always copied in the same way as in the vertical mode to generate a predicted value. That is, the predicted value of the a sample in the (1) region is generated by copying the value of the upper reference sample E. All predicted values in (1) are generated in the same way.
- ②번 영역의 샘플 b: ②번 영역의 예측 값은 항상 수평 모드와 동일하게 좌단 참조 샘플을 복사하여 예측 값을 생성한다. 즉, ②번 영역의 b 샘플의 예측 값은 좌단 참조 샘플 O의 값을 복사하여 생성한다. ②번 영역 내의 모든 예측 값은 모두 이와 동일한 방법으로 생성한다.- Sample 2 of the area b: The prediction value of the area ② is always copied in the same way as in the horizontal mode to generate the predicted value by copying the left reference sample. That is, the predicted value of the b sample in the (2) area is generated by copying the value of the leftmost reference sample O. All predicted values in the 2 nd area are generated in the same way.
- ③번 영역의 샘플 c: ③번 영역의 예측 값은 항상 수직 모드와 수평 모드의 평균 값으로 생성한다. 따라서 수직 모드의 참조 샘플인 상단 참조 샘플과 수평 모드의 참조 샘플인 좌측 참조 샘플의 평균 값을 예측 값으로 생성한다. 즉, ③번 영역의 c 샘플의 예측 값은 좌측 참조 샘플 N과 상단 참조 샘플 D의 평균 값을 계산하여 생성한다. ③번 영역 내의 모든 예측 값은 모두 이와 동일한 방법으로 현재 예측하고자 하는 샘플 위치의 해당 좌측 참조 샘플과 해당 상단 참조 샘플의 평균 값으로 생성한다.- Sample ③ c: The predicted value of ③ area is always generated as average value of vertical mode and horizontal mode. Therefore, the average value of the upper reference sample, which is a reference sample in the vertical mode, and the left reference sample, which is a reference sample in the horizontal mode, are generated as prediction values. That is, the predicted value of the c sample in the area (3) is generated by calculating the average value of the left reference sample N and the upper reference sample D. All predicted values in the ③ area are generated in the same way as the average values of the left reference sample and the upper reference sample of the current sample position.
도 20에 예시된 방법은 인코더(100)와 디코더(200)에 의해 수행될 수 있다(예, 도 1의 인트라 예측부(185), 도 2의 인트라 예측부(265) 참조).The method illustrated in FIG. 20 can be performed by the encoder 100 and the decoder 200 (see, for example, the intra prediction unit 185 of FIG. 1, the intra prediction unit 265 of FIG. 2).
도 20의 방법에 따라 현재 블록에 대한 예측값을 획득한 후, 인코더(100)는 획득한 현재 블록의 예측값에 기반하여 현재 블록에 대한 인코딩(예, 잔여 신호 획득, 변환(120), 양자화(130), 엔트로피 인코딩(190))을 수행할 수 있다. 디코더(200)는 도 20의 방법에 따라 획득한 현재 블록의 예측값에 기반하여 현재 블록을 복원할 수 있다(예, 도 2 및 관련 설명 참조).After obtaining the predicted value for the current block according to the method of FIG. 20, the encoder 100 encodes the current block (e.g., residual signal acquisition, transformation 120, quantization 130 ), Entropy encoding 190). The decoder 200 can restore the current block based on the predicted value of the current block acquired according to the method of FIG. 20 (e.g., see FIG. 2 and related description).
도 21은 본 발명이 적용될 수 있는 영상 처리 장치의 블록도를 예시한다. 영상 처리 장치는 영상 신호의 인코딩 장치 및/또는 디코딩 장치를 포함할 수 있다. 예를 들어, 본 발명이 적용될 수 있는 영상 처리 장치는 스마트폰 등과 같은 이동 단말, 랩톱 컴퓨터 등과 같은 휴대용 기기, 디지털 TV, 디지털 비디오 플레이어 등과 같은 가전 제품 등을 포함할 수 있다.FIG. 21 illustrates a block diagram of an image processing apparatus to which the present invention can be applied. The image processing apparatus may include a video signal encoding apparatus and / or a decoding apparatus. For example, the image processing apparatus to which the present invention may be applied may include a mobile terminal such as a smart phone, a portable device such as a laptop computer, a home appliance such as a digital TV, a digital video player, and the like.
메모리(12)는 프로세서(11)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 부호화된 비트스트림, 복호화된 영상, 제어 정보 등을 저장할 수 있다. 또한, 메모리(12)는 각종 영상 신호를 위한 버퍼로서 활용될 수 있다. 메모리(12)는 ROM(Read Only Memory), RAM(Random Access Memory), EPROM(Erasable Programmable Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래쉬(flash) 메모리, SRAM(Static RAM), HDD(Hard Disk Drive), SSD(Solid State Drive) 등과 같은 저장 장치로 구현될 수 있다.The memory 12 may store a program for processing and controlling the processor 11, and may store an encoded bit stream, a decoded image, control information, and the like. Also, the memory 12 can be utilized as a buffer for various video signals. The memory 12 may be a ROM (Read Only Memory), a RAM (Random Access Memory), an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read Only Memory), a flash memory, , A hard disk drive (HDD), a solid state drive (SSD), or the like.
프로세서(11)는 영상 처리 장치 내 각 모듈의 동작을 제어한다. 특히, 프로세서(11)는 본 발명에 따른 인코딩/디코딩을 수행하기 위한 각종 제어 기능을 수행할 수 있다. 프로세서(11)는 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 불릴 수 있다. 프로세서(11)는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다. 하드웨어를 이용하여 본 발명을 구현하는 경우에는, 본 발명을 수행하도록 구성된 ASIC(application specific integrated circuit) 또는 DSP(digital signal processor), DSPD(digital signal processing device), PLD(programmable logic device), FPGA(field programmable gate array) 등이 프로세서(11)에 구비될 수 있다. 한편, 펌웨어나 소프트웨어를 이용하여 본 발명을 구현하는 경우에는 본 발명의 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등을 포함하도록 펌웨어나 소프트웨어가 구성될 수 있으며, 본 발명을 수행할 수 있도록 구성된 펌웨어 또는 소프트웨어는 프로세서(11) 내에 구비되거나 메모리(12)에 저장되어 프로세서(11)에 의해 구동될 수 있다. The processor 11 controls the operation of each module in the image processing apparatus. In particular, the processor 11 may perform various control functions for performing encoding / decoding according to the present invention. The processor 11 may also be referred to as a controller, a microcontroller, a microprocessor, a microcomputer, or the like. The processor 11 may be implemented by hardware or firmware, software, or a combination thereof. When the present invention is implemented using hardware, an application specific integrated circuit (ASIC) or a digital signal processor (DSP), a digital signal processing device (DSPD), a programmable logic device (PLD) field programmable gate array) may be provided in the processor 11. Meanwhile, when the present invention is implemented using firmware or software, firmware or software may be configured to include a module, a procedure, or a function for performing the functions or operations of the present invention. The firmware or software may be contained within the processor 11 or may be stored in the memory 12 and driven by the processor 11.
한편, 본 발명에 따른 인코딩 방법 및/또는 디코딩 방법은 프로세서에 의해 실행될 때 본 명세서에서 설명한 방법들을 수행하도록 구성된 컴퓨터 프로그램의 형태로 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 본 발명에 따른 인코딩 방법에 의해 생성된 비트스트림은 멀티미디어 데이터 형태로 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치, 하드 디스크, SSD(Solid State Disk), USB(Universal Serial Bus) 저장 매체 등을 포함할 수 있다.Meanwhile, the encoding method and / or decoding method according to the present invention can be stored in a computer-readable recording medium in the form of a computer program configured to perform the methods described herein when being executed by a processor. The bitstream generated by the encoding method according to the present invention can be stored in a computer-readable recording medium in the form of multimedia data. A computer-readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, a hard disk, a solid state disk (SSD) can do.
또한, 장치(10)는 네트워크 인터페이스 모듈(network interface module, NIM)(13)을 선택적으로(optionally) 포함할 수 있다. 네트워크 인터페이스 모듈(13)은 프로세서(11)와 동작시 연결(operatively connected)되며, 프로세서(11)는 네트워크 인터페이스 모듈(13)을 제어하여 무선/유선 네트워크를 통해 정보 및/또는 데이터, 신호, 메시지 등을 나르는 무선/유선 신호를 전송 또는 수신할 수 있다. 네트워크 인터페이스 모듈(13)은 예를 들어 IEEE 802 계열, 3GPP LTE(-A), Wi-Fi, ATSC(Advanced Television System Committee), DVB(Digital Video Broadcasting) 등과 같은 다양한 통신 규격을 지원하며, 해당 통신 규격에 따라 제어 정보 및/또는 본 발명의 인코딩 방법에 따라 부호화된 비트스트림과 같은 영상 신호를 송수신할 수 있다. 네트워크 인터페이스 모듈(13)은 필요에 따라 장치에 포함되지 않을 수 있다.In addition, the device 10 may optionally include a network interface module (NIM) 13. The network interface module 13 is operatively connected to the processor 11 and the processor 11 controls the network interface module 13 to transmit information and / or data, signals, messages And / or the like. The network interface module 13 supports various communication standards such as IEEE 802 series, 3GPP LTE (-A), Wi-Fi, Advanced Television System Committee (ATSC), Digital Video Broadcasting It is possible to transmit / receive a video signal such as a bit stream encoded according to the control information and / or the encoding method of the present invention according to the standard. The network interface module 13 may not be included in the apparatus if necessary.
또한, 장치(10)는 입출력 인터페이스(14)를 선택적으로(optionally) 포함할 수 있다. 입출력 인터페이스(14)는 프로세서(11)와 동작시 연결(operatively connected)되며, 프로세서(11)는 입출력 인터페이스(14)를 제어하여 제어 신호 및/또는 데이터 신호를 입력받거나 출력할 수 있다. 입출력 모듈(14)은 예를 들어 키보드, 마우스, 터치패드, 카메라 등과 같은 입력 장치와 디스플레이 등과 같은 출력 장치와 연결될 수 있도록 USB(Universal Serial Bus), Bluetooth, NFC(Near Field Communication), 직렬/병렬 인터페이스, DVI(Digital Visual Interface), HDMI(High Definition Multimedia Interface) 등과 같은 규격을 지원할 수 있다.In addition, the device 10 may optionally include an input / output interface 14. The input / output interface 14 is operatively connected to the processor 11 and the processor 11 controls the input / output interface 14 to receive and output control signals and / or data signals. The input / output module 14 may be connected to an input device such as a keyboard, a mouse, a touch pad, a camera, etc., and an output device such as a display, Interface, DVI (Digital Visual Interface), HDMI (High Definition Multimedia Interface), and the like.
이상에서 설명된 방법들 및 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The methods and embodiments described above are those in which the elements and features of the present invention are combined in a predetermined form. Each component or feature shall be considered optional unless otherwise expressly stated. Each component or feature may be implemented in a form that is not combined with other components or features. It is also possible to construct embodiments of the present invention by combining some of the elements and / or features. The order of the operations described in the embodiments of the present invention may be changed. Some configurations or features of certain embodiments may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments. It is clear that the claims that are not expressly cited in the claims may be combined to form an embodiment or be included in a new claim by an amendment after the application.
본 발명에 따른 방법 및 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASIC(application specific integrated circuit), DSP(digital signal processor), DSPD(digital signal processing device), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.The methods and embodiments of the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of hardware implementation, an embodiment of the present invention may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs) field programmable gate array), a processor, a controller, a microcontroller, a microprocessor, or the like.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태를 포함하는 소프트웨어 코드 또는 명령어(instruction)로 구현될 수 있다. 소프트웨어 코드 또는 명령어는 컴퓨터 판독가능한 매체에 저장되어 프로세서에 의해 구동될 수 있으며 프로세서에 의해 구동될 때 본 발명에 따른 동작들을 수행할 수 있다. 상기 컴퓨터 판독가능한 매체는 상기 프로세서 내부 또는 외부에 위치하거나 원격으로 네트워크를 통해 상기 프로세서와 연결될 수 있으며, 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of firmware or software implementation, the present invention may be implemented in software code or instructions, including modules, procedures, functions, and the like, to perform the functions or acts described above. The software code or instructions may be stored on a computer readable medium and may be executed by a processor and may perform operations in accordance with the present invention when it is being executed by a processor. The computer-readable medium may be connected to the processor via a network, or may be located within or external to the processor, and may exchange data with the processor.
본 발명은 본 발명의 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit of the invention. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.
본 발명은 디코딩 장치, 인코딩 장치와 같은 영상 처리 장치에 이용될 수 있다.The present invention can be applied to an image processing apparatus such as a decoding apparatus and an encoding apparatus.

Claims (11)

  1. 인트라 미러 예측(Intra Mirror Prediction, IMP) 모드에 기반하여 비디오 신호를 디코딩하기 위한 방법으로서,A method for decoding a video signal based on Intra Mirror Prediction (IMP) mode,
    현재 블록을 2개의 블록을 분할하는 단계,Dividing the current block into two blocks,
    상기 현재 블록의 IMP 모드가 수직 방향 모드인 것에 기반하여 상기 현재 블록은 세로 방향으로 분할되고, 상기 현재 블록의 IMP 모드가 수평 방향 모드인 것에 기반하여 상기 현재 블록은 가로 방향으로 분할되며;Wherein the current block is divided into a vertical direction based on the IMP mode of the current block being a vertical direction mode and the current block is divided into a horizontal direction based on an IMP mode of the current block being a horizontal direction mode;
    상기 현재 블록의 인트라 예측 방향을 나타내는 모드 정보를 획득하는 단계;Obtaining mode information indicating an intra prediction direction of the current block;
    상기 획득한 모드 정보 및 상기 현재 블록에 인접한 이웃 블록의 참조 샘플에 기반하여 상기 2개의 블록 중에서 제1 블록의 예측값을 획득하는 단계;Obtaining a predicted value of a first block among the two blocks based on the acquired mode information and a reference sample of a neighboring block adjacent to the current block;
    상기 특정 블록의 예측값에 기반하여 상기 2개의 블록 중에서 제2 블록의 예측값을 획득하는 단계; 및Obtaining a predicted value of a second block among the two blocks based on a predicted value of the specific block; And
    상기 획득한 예측값에 기반하여 상기 현재 블록을 복원하는 단계를 포함하는, 방법.And restoring the current block based on the obtained predicted value.
  2. 청구항 1에 있어서,The method according to claim 1,
    상기 제2 블록의 예측값은 상기 제1 블록의 예측값을 대칭적으로 복사하여 생성되는, 방법.Wherein the predicted value of the second block is generated by symmetrically copying the predicted value of the first block.
  3. 청구항 1에 있어서,The method according to claim 1,
    상기 제2 블록의 예측값은 상기 제1 블록의 예측값과 상기 현재 블록에 인접한 이웃 블록의 참조 샘플에 기반한 가중 합을 이용하여 생성되는, 방법. Wherein a predicted value of the second block is generated using a weighted sum based on a predicted value of the first block and a reference sample of a neighboring block adjacent to the current block.
  4. 청구항 1에 있어서,The method according to claim 1,
    상기 모드 정보가 우측 상단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수직 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 우측 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 좌측 블록이며, 상기 우측 블록의 예측값은 상기 현재 블록에 인접한 상단 이웃 블록 또는 우측 상단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 좌측 블록의 예측값은 상기 우측 블록의 예측값을 열 단위로 대칭적으로 복사하여 생성되는, 방법.Wherein the first block is a right block and the second block is a left block of the two blocks based on the mode information indicating a right upper direction and the IMP mode of the current block being a vertical direction mode , The predicted value of the right block is generated based on the reference sample of the upper neighbor block or the upper right neighbor block adjacent to the current block and the predicted value of the left block is generated by symmetrically copying the predicted value of the right block in column units How.
  5. 청구항 1에 있어서,The method according to claim 1,
    상기 모드 정보가 좌측 상단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수직 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 좌측 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 우측 블록이며, 상기 좌측 블록의 예측값은 상기 현재 블록에 인접한 상단 이웃 블록 또는 좌측 상단 이웃 블록 또는 좌측 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 우측 블록의 예측값은 상기 좌측 블록의 예측값을 열 단위로 대칭적으로 복사하여 생성되는, 방법.The first block is the left block of the two blocks and the second block is the right block of the two blocks based on the mode information indicating the upper left direction and the IMP mode of the current block being the vertical direction mode The predicted value of the left block is generated based on the reference sample of the upper neighbor block, the upper left neighbor block, or the left neighbor block adjacent to the current block, and the predicted value of the right block is generated symmetrically . ≪ / RTI >
  6. 청구항 1에 있어서,The method according to claim 1,
    상기 모드 정보가 좌측 하단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수평 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 하단 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 상단 블록이며, 상기 하단 블록의 예측값은 상기 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 하단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 상단 블록의 예측값은 상기 하단 블록의 예측값을 행 단위로 대칭적으로 복사하여 생성되는, 방법.The first block is a lower block among the two blocks and the second block is an upper block among the two blocks based on the mode information indicating a lower left direction and the IMP mode of the current block being a horizontal direction mode , The predicted value of the lower block is generated based on a reference sample of a left neighboring block or a lower left neighboring block adjacent to the current block, and the predicted value of the upper block is generated by symmetrically copying the predicted value of the lower block, How.
  7. 청구항 1에 있어서,The method according to claim 1,
    상기 모드 정보가 좌측 상단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수평 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 상단 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 하단 블록이며, 상기 상단 블록의 예측값은 상기 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 상단 이웃 블록 또는 상단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 하단 블록의 예측값은 상기 상단 블록의 예측값을 행 단위로 대칭적으로 복사하여 생성되는, 방법.The first block is the upper block and the second block is the lower block of the two blocks based on the mode information indicating the upper left direction and the IMP mode of the current block being the horizontal mode A predicted value of the upper block is generated based on a reference sample of a left neighbor block, a left upper neighbor block, or an upper neighbor block adjacent to the current block, and the predicted value of the lower block is generated symmetrically . ≪ / RTI >
  8. 청구항 1에 있어서,The method according to claim 1,
    상기 모드 정보가 우측 상단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수평 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 상단 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 하단 블록이며, 상기 상단 블록의 예측값은 상기 현재 블록에 인접한 상단 이웃 블록 또는 우측 상단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 하단 블록의 예측값은 상기 상단 블록의 예측값을 행 단위로 대칭적으로 복사하여 생성되는, 방법.The first block is the upper block and the second block is the lower block of the two blocks based on the mode information indicating the upper right direction and the IMP mode of the current block being the horizontal mode , The predicted value of the upper block is generated based on the reference samples of the upper neighbor block or the upper right neighbor block adjacent to the current block, and the predicted value of the lower block is generated by symmetrically copying the predicted value of the upper block, How.
  9. 청구항 1에 있어서,The method according to claim 1,
    상기 모드 정보가 좌측 하단 방향을 나타내고 상기 현재 블록의 IMP 모드가 수직 방향 모드인 것에 기반하여, 상기 제1 블록은 상기 2개의 블록 중에서 좌측 블록이고 상기 제2 블록은 상기 2개의 블록 중에서 우측 블록이며, 상기 좌측 블록의 예측값은 상기 현재 블록에 인접한 좌측 이웃 블록 또는 좌측 하단 이웃 블록의 참조 샘플에 기반하여 생성되고, 상기 우측 블록의 예측값은 상기 좌측 블록의 예측값을 열 단위로 대칭적으로 복사하여 생성되는, 방법.The first block is the left block of the two blocks and the second block is the right block of the two blocks based on the mode information indicating the lower left direction and the IMP mode of the current block being the vertical direction mode , The predicted value of the left block is generated based on a reference sample of a left neighboring block or a left lower neighboring block adjacent to the current block, and the predicted value of the right block is generated by symmetrically copying the predicted value of the left block, How.
  10. 청구항 1에 있어서,The method according to claim 1,
    상기 현재 블록은 상기 2개의 블록으로 이등분되는, 방법.Wherein the current block is bisected by the two blocks.
  11. 인트라 미러 예측(Intra Mirror Prediction, IMP) 모드에 기반하여 비디오 신호를 디코딩하기 위한 장치로서,An apparatus for decoding a video signal based on an Intra Mirror Prediction (IMP) mode,
    메모리; 및Memory; And
    상기 메모리에 동작시 연결되는 프로세서를 포함하되, 상기 프로세서는,A processor operatively coupled to the memory, the processor comprising:
    현재 블록을 2개의 블록을 분할하고,The current block is divided into two blocks,
    상기 현재 블록의 IMP 모드가 수직 방향 모드인 것에 기반하여 상기 현재 블록은 세로 방향으로 분할되고, 상기 현재 블록의 IMP 모드가 수평 방향 모드인 것에 기반하여 상기 현재 블록은 가로 방향으로 분할되며;Wherein the current block is divided into a vertical direction based on the IMP mode of the current block being a vertical direction mode and the current block is divided into a horizontal direction based on an IMP mode of the current block being a horizontal direction mode;
    상기 현재 블록의 인트라 예측 방향을 나타내는 모드 정보를 획득하고;Acquiring mode information indicating an intra prediction direction of the current block;
    상기 획득한 모드 정보 및 상기 현재 블록에 인접한 이웃 블록의 참조 샘플에 기반하여 상기 2개의 블록 중에서 제1 블록의 예측값을 획득하고;Obtain a predicted value of a first block among the two blocks based on the acquired mode information and a reference sample of a neighboring block adjacent to the current block;
    상기 특정 블록의 예측값에 기반하여 상기 2개의 블록 중에서 제2 블록의 예측값을 획득하고; 및Obtain a predicted value of a second block among the two blocks based on the predicted value of the specific block; And
    상기 획득한 예측값에 기반하여 상기 현재 블록을 복원하도록 구성되는, 장치.And to restore the current block based on the obtained predicted value.
PCT/KR2018/015031 2017-11-30 2018-11-30 Method and device for processing video signal WO2019107997A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762593199P 2017-11-30 2017-11-30
US62/593,199 2017-11-30

Publications (1)

Publication Number Publication Date
WO2019107997A1 true WO2019107997A1 (en) 2019-06-06

Family

ID=66665731

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/015031 WO2019107997A1 (en) 2017-11-30 2018-11-30 Method and device for processing video signal

Country Status (1)

Country Link
WO (1) WO2019107997A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023191356A1 (en) * 2022-03-28 2023-10-05 현대자동차주식회사 Method and apparatus for video coding using intra mirror prediction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060126254A (en) * 2005-06-03 2006-12-07 삼성전자주식회사 Method for intra prediction using the symmetry of video, method and apparatus for encoding and decoding video using the same
US20080013699A1 (en) * 2006-07-13 2008-01-17 Eric Reiher Methods and systems for selecting a buddy from a buddy list and for placing call to a buddy
KR20140049098A (en) * 2011-09-12 2014-04-24 퀄컴 인코포레이티드 Non-square transform units and prediction units in video coding
KR20170124082A (en) * 2016-04-29 2017-11-09 세종대학교산학협력단 Method and apparatus for encoding/decoding a video signal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060126254A (en) * 2005-06-03 2006-12-07 삼성전자주식회사 Method for intra prediction using the symmetry of video, method and apparatus for encoding and decoding video using the same
US20080013699A1 (en) * 2006-07-13 2008-01-17 Eric Reiher Methods and systems for selecting a buddy from a buddy list and for placing call to a buddy
KR20140049098A (en) * 2011-09-12 2014-04-24 퀄컴 인코포레이티드 Non-square transform units and prediction units in video coding
KR20170124082A (en) * 2016-04-29 2017-11-09 세종대학교산학협력단 Method and apparatus for encoding/decoding a video signal

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIM, YOUNG JO ET AL: "New Intra-macroblock Motion Compensation Method Using Mirroring", THE INSTITUTE OF ELECTRONICS AND INFOMATION ENGINEERS CONFERENCE, June 2010 (2010-06-01), pages 345 - 347 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023191356A1 (en) * 2022-03-28 2023-10-05 현대자동차주식회사 Method and apparatus for video coding using intra mirror prediction

Similar Documents

Publication Publication Date Title
WO2016175550A1 (en) Method for processing video signal and device for same
WO2020222484A1 (en) Method and device for processing video signal on basis of intra prediction
WO2020036417A1 (en) Inter prediction method based on history-based motion vector, and device therefor
WO2020071829A1 (en) History-based image coding method, and apparatus thereof
WO2018062921A1 (en) Method and apparatus for block partitioning and intra prediction in image coding system
WO2016148513A1 (en) Method for processing video signal and device therefor
WO2016148438A2 (en) Method of processing video signal and device for same
WO2016200043A1 (en) Method and apparatus for inter prediction on basis of virtual reference picture in video coding system
WO2019107998A1 (en) Method and device for processing video signal
WO2017069419A1 (en) Intra-prediction method and apparatus in video coding system
WO2019240448A1 (en) Video signal processing method and device on basis of reference between components
WO2013032074A1 (en) Apparatus for decoding merge mode motion information
WO2013154366A1 (en) Transform method based on block information, and apparatus using said method
WO2018216862A1 (en) Method and device for decoding image according to intra prediction in image coding system
WO2018212569A1 (en) Image processing method on basis of intra prediction mode and apparatus therefor
WO2019112071A1 (en) Image decoding method and apparatus based on efficient transformation of chroma component in image coding system
WO2017061671A1 (en) Method and device for coding image on basis of adaptive transformation in image coding system
WO2019194507A1 (en) Image coding method based on affine motion prediction, and device for same
WO2018128222A1 (en) Method and apparatus for image decoding in image coding system
WO2016153251A1 (en) Method for processing video signal and device therefor
WO2020141928A1 (en) Method and apparatus for decoding image on basis of prediction based on mmvd in image coding system
WO2020231238A1 (en) Image encoding/decoding method and device for signaling filter information on basis of chroma format, and method for transmitting bitstream
WO2020256506A1 (en) Video encoding/decoding method and apparatus using multiple reference line intra-prediction, and method for transmitting bitstream
WO2019107999A1 (en) Method and device for processing video signal
WO2019107997A1 (en) Method and device for processing video signal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18882728

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18882728

Country of ref document: EP

Kind code of ref document: A1