Nothing Special   »   [go: up one dir, main page]

WO2017192011A2 - 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 장치 - Google Patents

화면 내 예측을 이용한 영상 부호화/복호화 방법 및 장치 Download PDF

Info

Publication number
WO2017192011A2
WO2017192011A2 PCT/KR2017/004696 KR2017004696W WO2017192011A2 WO 2017192011 A2 WO2017192011 A2 WO 2017192011A2 KR 2017004696 W KR2017004696 W KR 2017004696W WO 2017192011 A2 WO2017192011 A2 WO 2017192011A2
Authority
WO
WIPO (PCT)
Prior art keywords
block
prediction
pixel
main reference
current
Prior art date
Application number
PCT/KR2017/004696
Other languages
English (en)
French (fr)
Other versions
WO2017192011A3 (ko
Inventor
정제창
김기백
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to EP22160975.3A priority Critical patent/EP4030754A1/en
Priority to EP17792913.0A priority patent/EP3442231A4/en
Priority to CN201780027691.6A priority patent/CN109155851A/zh
Priority to US16/098,325 priority patent/US10834408B2/en
Priority to JP2018557891A priority patent/JP2019515570A/ja
Publication of WO2017192011A2 publication Critical patent/WO2017192011A2/ko
Publication of WO2017192011A3 publication Critical patent/WO2017192011A3/ko
Priority to US17/037,887 priority patent/US20210014507A1/en
Priority to US18/105,968 priority patent/US11825099B2/en
Priority to US18/481,623 priority patent/US20240107029A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Definitions

  • the present invention relates to a method and apparatus for image encoding / decoding using intra prediction, and more particularly, refers to an area already encoded in a current block in intra prediction, uses a reference pixel close to a pixel to be encoded, and uses binary.
  • the present invention relates to a method and an apparatus for improving the accuracy of prediction by performing intra prediction using a block size in which division is used.
  • High Efficiency Video Coding (HEVC / H.265) is a next-generation video coding technology that is a group of video coding experts from ISO / IEC MPEG and ITU-T that developed H.264 / MPEG-4 AVC.
  • the Coding Experts Group formed the team in January 2010 as a Joint Collaborative Team on Video Coding (JCT-VC) to standardize and was approved as the next-generation final standard.
  • JCT-VC Joint Collaborative Team on Video Coding
  • HEVC generates a predictive block based on the spatial or temporal correlation of the current block to be encoded based on the block unit prediction, and derives a residual block obtained by the difference between the current block and the predictive block.
  • intra prediction a process of generating a prediction block using spatial correlation.
  • a reference pixel is copied and used as it is, and thus the distance from the pixel to be predicted is used. If the distance is too long, the prediction value is inaccurate and the coding efficiency is lowered.
  • the conventional encoding method has a fixed block shape and the partitioning method is based on the quadtree partitioning method, encoding efficiency is reduced in a complex screen or a screen having a similar form horizontally or vertically.
  • An object of the present invention for solving the above problems is to provide a decoding method using intra prediction.
  • Another object of the present invention for solving the above problems is to provide a decoding apparatus using intra prediction.
  • the present invention for achieving the above object provides a decoding method using intra prediction.
  • the decoding method using intra prediction may include receiving a bit stream, obtaining decoding information from the received bit stream, generating a prediction block for a current block to be decoded using the obtained decoding information, and And reconstructing the current block by adding the residual block and the prediction block obtained from the bit stream.
  • the generating of the prediction block may include generating each prediction block for each pixel of the current block using at least one main reference pixel selected from reconstructed pixels belonging to a block adjacent to the current block or belonging to at least one subblock of the current block. By generating a prediction value, a prediction block for the current block can be generated.
  • the main reference pixel may be a pixel located in the prediction direction of the screen among the reconstructed pixels.
  • the average of the two main reference pixels or the weighted values of the two main reference pixels, respectively, are added to the current block.
  • the prediction block may be generated as a prediction value for the pixel.
  • the at least one sub block may be obtained by dividing the current block using one of the quadtree method and the binary tree method, or may be obtained by dividing the current block by using the quadtree method and the binary tree method.
  • the at least one sub block may be composed of pixel lines positioned evenly or oddly in the current block.
  • the at least one sub block may be composed of pixel lines positioned evenly or oddly in the current block.
  • the at least one sub block is composed of coordinates in which the x and y coordinates of each pixel coordinate (x, y) in the current block are even, or one of the x and y coordinates is an even number and the other is an odd number. Or x and y coordinates that are odd.
  • the generating of the prediction block may include generating a prediction block using a difference value between a main reference pixel among reconstructed pixels and a current pixel to be predicted in the current block and a difference value between two pixels at corresponding positions based on the prediction direction in the screen. Correcting the reference pixel and generating a prediction block using the corrected main reference pixel.
  • the main reference pixel may be corrected by adding a difference value to the main reference pixel or adding a weighted value to the main reference pixel.
  • the main reference pixel may be corrected only when the pixel of the current pixel is predicted within a predetermined range.
  • the main reference pixel when two or more difference values are derived, the main reference pixel is obtained using a value derived by weighting an average of two or more difference values or each of the two or more difference values. Can be corrected.
  • Another aspect for achieving the above object of the present invention provides a decoding apparatus using intra prediction.
  • the decoding apparatus using intra prediction may include a memory for storing at least one processor and instructions for instructing the at least one processor to perform at least one step.
  • the at least one step may include receiving a bit stream, obtaining decoding information from the received bit stream, generating a prediction block for a current block to be decoded using the obtained decoding information, and And reconstructing the current block by adding the obtained residual block and the prediction block.
  • the generating of the prediction block may include generating each prediction block for each pixel of the current block using at least one main reference pixel selected from reconstructed pixels belonging to a block adjacent to the current block or belonging to at least one subblock of the current block. By generating a prediction value, a prediction block for the current block can be generated.
  • the main reference pixel may be a pixel located in the prediction direction of the screen among the reconstructed pixels.
  • the average of the two main reference pixels or the weighted values of the two main reference pixels, respectively, are added to the current block.
  • the prediction block may be generated as a prediction value for the pixel.
  • the at least one sub block may be obtained by dividing the current block using one of the quadtree method and the binary tree method, or may be obtained by dividing the current block by using the quadtree method and the binary tree method.
  • the generating of the prediction block may include generating a prediction block using a difference value between a main reference pixel among reconstructed pixels and a current pixel to be predicted in the current block and a difference value between two pixels at corresponding positions based on the prediction direction in the screen. Correcting the reference pixel and generating a prediction block using the corrected main reference pixel.
  • the main reference pixel may be corrected by adding a difference value to the main reference pixel or adding a weighted value to the main reference pixel.
  • the main reference pixel may be corrected only when the pixel of the current pixel is predicted within a predetermined range.
  • FIG. 1 is a conceptual diagram of an image encoding and decoding system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of an image encoding apparatus according to an embodiment of the present invention.
  • FIG. 3 is a block diagram of an image decoding apparatus 30 according to an embodiment of the present invention.
  • FIG. 4 is an exemplary diagram for describing block division according to an embodiment of the present invention.
  • FIG. 5 is an exemplary diagram for describing partitioning between a quadtree method and a binary tree method according to an embodiment of the present invention.
  • FIG. 6 is an exemplary diagram of a shape of a prediction block obtained by dividing a coding block according to an embodiment of the present invention.
  • FIG. 7 is an exemplary diagram of dividing a prediction block from a coding block according to an embodiment of the present invention.
  • FIG. 8 is an exemplary diagram for describing a partitioning form of a transform block according to an embodiment of the present invention.
  • FIG. 9 is an exemplary diagram for describing a method of dividing a transform block from a coding block according to an embodiment of the present invention.
  • FIG. 10 is an exemplary diagram for describing an intra prediction mode performed in HEVC.
  • FIG. 11 is an exemplary diagram for describing an intra prediction mode according to an embodiment of the present invention.
  • FIG. 12 is an exemplary diagram for describing a reference pixel applicable in a horizontal or vertical mode according to an embodiment of the present invention.
  • 13 is an exemplary diagram for comparing general block based prediction and pixel based prediction.
  • FIG. 14 is an exemplary diagram for explaining a general intra prediction method.
  • 15 is an exemplary diagram for describing a process of independently transforming and quantizing a residual block after intra prediction according to an embodiment of the present invention.
  • FIG. 16 is an exemplary diagram for describing dependent intra prediction with reference to a subblock in which encoding is completed in a current block in intra prediction according to an embodiment of the present invention.
  • 17 is an exemplary diagram for describing a process of independently transforming and quantizing a residual block with respect to a current block to which binary division is applied according to an embodiment of the present invention.
  • FIG. 18 is an exemplary diagram for explaining dependent intra prediction with reference to a subblock in which encoding of a current block is completed with respect to a current block to which binary division is applied according to an embodiment of the present invention.
  • FIG. 19 is an exemplary diagram of an intra prediction method incorporating pixel based prediction according to an embodiment of the present invention.
  • 20 is an exemplary diagram for a method of predicting using a slope or difference value of a reference pixel in block-based intra prediction according to an embodiment of the present invention.
  • 21 is a diagram illustrating a method of predicting a horizontally divided sub block in prediction in a vertical mode screen according to an embodiment of the present invention.
  • FIG. 22 is a diagram illustrating a method of predicting a vertically divided subblock in prediction in a vertical mode screen according to an embodiment of the present invention.
  • FIG. 23 is a first exemplary diagram of a method of predicting a subblock divided into pixel lines in a prediction in a vertical mode screen according to an embodiment of the present invention.
  • FIG. 24 is a second exemplary view of a method of predicting a subblock divided into pixel lines in a prediction in a vertical mode screen according to an embodiment of the present invention.
  • FIG. 25 is a first exemplary diagram for a method of predicting a subblock divided by a quadtree method in a prediction in a vertical mode screen according to an embodiment of the present invention.
  • FIG. 26 is a second exemplary diagram for a method of predicting a subblock divided by a quadtree method in a prediction in a vertical mode screen according to an embodiment of the present invention.
  • FIG. 27 is a second exemplary diagram for a method of predicting a subblock divided according to odd or even coordinates in a prediction in a vertical mode screen according to an embodiment of the present invention.
  • FIG. 28 is an exemplary diagram for a method of performing prediction by further using a slope or a difference value of a reference pixel in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • 29 is a diagram illustrating a method of performing prediction on a sub-block divided horizontally in binary mode in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • FIG. 30 is a diagram illustrating a method of performing prediction on a subblock horizontally divided in binary mode in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • FIG. 31 is a diagram illustrating a method of performing prediction on a subblock vertically divided in binary mode in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • 32 is a diagram illustrating a method of performing prediction on sub-blocks vertically divided in binary mode in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • 33 is a diagram illustrating a method of predicting a subblock divided into pixel lines in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • FIG. 34 is a second exemplary diagram for a method of predicting a subblock divided into pixel lines in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • 35 is an exemplary diagram of a flag indicating presence or absence of coding coefficients in units of a transform block.
  • 36 is an example of syntax for a residual block in HEVC.
  • FIG. 37 is an exemplary diagram for describing encoding of coding coefficients according to an embodiment of the present invention.
  • 39 is a flowchart illustrating a decoding method using intra prediction according to an embodiment of the present invention.
  • 40 is a block diagram of a decoding apparatus using intra prediction according to an embodiment of the present invention.
  • first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • FIG. 1 is a conceptual diagram of an image encoding and decoding system according to an embodiment of the present invention.
  • the video encoding apparatus 105 and the decoding apparatus 100 may include a personal computer (PC), a notebook computer, a personal digital assistant (PDA), and a portable multimedia player (PMP). Player), PlayStation Portable (PSP: PlayStation Portable), wireless communication terminal (Wireless Communication Terminal), smart phone (Smart Phone), such as a user terminal such as a TV, or a server terminal such as an application server and a service server, etc.
  • PC personal computer
  • PDA personal digital assistant
  • PMP portable multimedia player
  • Player Portable
  • PSP PlayStation Portable
  • wireless communication terminal Wireless Communication Terminal
  • smart phone Smart Phone
  • a user terminal such as a TV
  • server terminal such as an application server and a service server, etc.
  • a communication device such as a communication modem for communicating with a wired / wireless communication network, a memory (memory 120, 125) for storing various programs and data for inter or intra prediction for encoding or decoding an image, and an operation by executing a program And various devices including processors (processors 110 and 115) for controlling.
  • the image coded by the video encoding apparatus 105 into a bitstream is real-time or non-real-time through a wired or wireless network such as the Internet, a local area wireless communication network, a wireless LAN network, a WiBro network, a mobile communication network, or the like.
  • the image decoding apparatus 100 may be transmitted to the image decoding apparatus 100 through various communication interfaces such as a universal serial bus (USB), and may be decoded by the image decoding apparatus 100 to restore and reproduce the image. Also, an image encoded in the bitstream by the image encoding apparatus 105 may be transferred from the image encoding apparatus 105 to the image decoding apparatus 100 through a computer-readable recording medium.
  • USB universal serial bus
  • FIG. 2 is a block diagram of an image encoding apparatus according to an embodiment of the present invention.
  • the prediction unit 200 the subtraction unit 205, the transformation unit 210, the quantization unit 215, and the inverse quantization unit 220.
  • An inverse transform unit 225 an adder 230, a filter 235, a decoded picture buffer 240, and an entropy encoder 245.
  • the prediction unit 200 may perform prediction through intra prediction or inter prediction with respect to the block to be currently encoded in the image.
  • a prediction block is generated according to a predetermined optimal prediction mode of intra prediction or inter prediction, and the prediction mode may include intra prediction mode, motion related information, and the like.
  • the subtractor 205 may generate a residual image block by subtracting pixel values of the prediction block from pixel values of the current block to be encoded to derive pixel difference values.
  • the transformer 210 may generate a transform block by transforming the residual block received from the subtractor 205. That is, the residual signal belonging to the spatial domain may be converted into the residual transform signal belonging to the frequency domain.
  • transformation methods such as a Hadamard Transform, a Discrete Cosine Transform, a Discrete Sine Transform, and the like are used.
  • various conversion techniques such as a method of improving and modifying the same, may be used.
  • the quantization unit 215 may quantize the transform block to generate a quantized transform block. That is, the residual transform signal obtained from the transform unit may be quantized into a quantized residual transform signal.
  • the quantization method used dead zone uniform threshold quantization (DZUTQ), a quantization weighted matrix, or an improved technique may be used.
  • the entropy encoder 245 may output a bitstream by encoding the quantized transform block.
  • context-adaptive variable length coding context-adaptive binary arithmetic coding, or the like may be used as the encoding method.
  • the bitstream including the additional information necessary for the encoding process may be generated and output, wherein the additional information may include information on block division, information on prediction mode, transform information, quantization coefficient, and the like. have.
  • the inverse quantizer 220 and the inverse transformer 225 may reconstruct the residual block using the pixel signal by applying inverse quantization and inverse transformation, respectively.
  • the reconstructed residual block may be added to the prediction block by the adder 230 to generate a reconstructed block, and the reconstructed block is stored in the decoded picture buffer 240 and accumulated in a block unit or a picture unit to be predicted 200. It may be transferred to and used by referring to the next block or the next picture.
  • the filter unit 235 may apply a deblocking filter to the reconstructed image block to remove a blocking phenomenon as necessary, and an additional loop filter is applied to filter the video block to improve the video quality. Can be.
  • FIG. 3 is a block diagram of an image decoding apparatus 30 according to an embodiment of the present invention.
  • the image decoding apparatus 30 may include an encoded picture buffer 300, an entropy decoder 305, a predictor 310, an inverse quantizer 315, an inverse transform unit 320, and an adder / subtractor ( 325, a filter 330, and a decoded picture buffer 335.
  • the prediction unit 310 may be configured to include an intra prediction module and an inter prediction module.
  • the image bitstream may be stored in the encoded picture buffer 300.
  • the entropy decoder 305 may restore the quantized transform block from the bitstream.
  • additional information necessary for the decoding process may be recovered from the bitstream, and the information may be transmitted to the predictor 310, the inverse quantizer 315, the inverse transformer 320, and the like.
  • the prediction unit 310 may generate a prediction block for the current block based on the data received from the entropy decoding unit 305.
  • the prediction block may be generated based on the reference image stored in the decoded picture buffer 335 and the reconstructed prediction block information, wherein the prediction block information may include prediction mode information and prediction block acquisition information (the size and shape of the block in this example). , Partition information of a block), and the like.
  • the inverse quantizer 315 may inverse quantize the quantized transform coefficients provided in the bitstream and decoded by the entropy decoder 305.
  • the inverse transform unit 320 may generate a residual block by applying an inverse transform technique to the quantized transform coefficients.
  • the inverse quantization unit 315 and the inverse transform unit 320 perform the processes performed by the transform unit 210 and the quantization unit 215 of the image encoding apparatus 20 described above, and may be implemented in various ways. have.
  • the same process and inverse transform shared with the transform unit 210 and the quantization unit 215 may be used, and information about the transform and quantization process from the image encoding apparatus 20 (for example, transform size and transform). Shape, quantization type, etc.) may be used to reverse the transform and quantization processes.
  • the residual block that has undergone inverse quantization and inverse transformation may be added to the prediction block derived by the prediction unit 310 to generate an image block reconstructed. This addition can be made by the adder and subtractor 325.
  • the filter 330 may apply a deblocking filter to the reconstructed image block to remove a blocking phenomenon, if necessary, and improve the video quality of other loop filters before and after the decoding process. Can be used for
  • the reconstructed and filtered image block may be stored in the decoded picture buffer 335.
  • a block setting unit may be further included.
  • the block setting unit may be set in relation to each component of the image encoding and decoding apparatus, and the size and shape of the block may be determined through this process.
  • the set block may be defined differently according to the configuration unit, and the prediction block 200 may correspond to the prediction block, and the transform unit 210 may correspond to this. That is, a block unit may be defined according to a component, and the present invention will be described with reference to coding blocks, prediction blocks, and transform blocks. However, the present invention is not limited thereto, and block units according to other components may be further defined.
  • the size and shape of the block may be defined by the width and length of the block.
  • the block setting unit may define the size and shape (such as information related to the maximum value and the minimum value) that the block unit may have. Also, the block setting unit may define a block division setting (in this example, a division scheme, a depth of division, etc.) in units of blocks.
  • a block having at least one size and shape that can be obtained in a block unit (a square shape due to individual horizontal / vertical lengths in this example or a rectangular shape having at least one horizontal / vertical ratio) may be defined.
  • the defined setting may be determined in units of a sequence, a picture, a slice, a tile, or the like, may be included in a bitstream, parsed by a decoder, and restored to related information.
  • each image unit may have one setting and may have two or more settings, which are slice type (I / P / B), encoding mode (Intra / Inter), and color component (Y / Cb / Cr). It may be determined according to one or two or more information combinations of information such as temporal layer (Temporal Id). In the case of having more than one setting, the related information may be implicitly determined, or the related information may be generated explicitly.
  • slice type I / P / B
  • encoding mode Intra / Inter
  • color component Y / Cb / Cr
  • Temporal Id temporal layer
  • the related information may be implicitly determined, or the related information may be generated explicitly.
  • block information for determining an optimal block unit (the size and shape of the block in this example) among blocks having at least one size and shape that can be obtained in the block unit may be generated.
  • Related information may be generated (eg, a split flag, a split index, etc.) according to the definition (partitioning scheme, split depth, etc.) according to the block division setting.
  • the block division information may be determined in units of blocks and included in the bitstream, and may be parsed by a decoder and restored to related information. This may be determined at the stage before the start of the component of the encoding and decoding process.
  • Block size and shape information may be determined, and in case of more than one block, block partition information may be explicitly generated. For example, one of an implicit or explicit method may be determined by considering information such as a maximum block size, a minimum block size, a depth, a current block size, and the like in a corresponding block unit.
  • the same division setting or different division setting may be followed according to the block unit.
  • the same partitioning scheme (the partitioning according to the tree structure in this example and a quadtree scheme) may be used in the coding block and the prediction block, and the same partitioning depth depth may be used.
  • the prediction block and the transform block may use different partitioning schemes (in this example, the prediction block performs partitioning according to index selection, and the transform block performs partitioning according to a tree structure, among which a quadtree method).
  • a hierarchical partitioning scheme in this example, the prediction block performs partitioning according to index selection within a single layer, and the transform block performs partitioning according to a tree structure in multiple layers having a partition depth of 1 or more).
  • the coding block and the transform block may use different partitioning schemes (in this example, partitioning according to a tree structure, and the coding block is a quadtree method, a binary tree method, and a transform block are quadtree methods), and the same partitioning depth is allowed. Depth can be used.
  • the partition depth refers to the number of spatial divisions based on the initial block in the block unit (in this example, the depth of the initial block is 0). As the depth increases, the split depth may be divided into smaller blocks. This may vary the depth related setting according to the division method. For example, the depth in the quadtree method and the depth in the binary tree method may use one common depth, and individual depths may be used in the splitting according to the tree structure.
  • the size and shape of the initial block (the block before performing the partitioning) in the lower block unit is determined according to the partitioning result of the upper block unit, and may affect the generation of the partition related information (block information after the partitioning in this example).
  • the coding block may be an upper unit of the prediction block and the transform block, and the prediction block may or may not be an upper unit of the transform block. This may be determined according to the encoding setting. For example, when the encoding mode is Intra, the prediction block may be an upper unit of the transform block, and when Inter, the prediction block may be a unit independent of the transform block.
  • one or more block units may be combined to share one partitioning scheme.
  • the coding block and the prediction block may have one optimal block obtained through division (one block size and shape in this example), which is a basic unit of encoding and prediction. (In this example, a unit that does not perform further division).
  • the coding block and the transform block may have one optimal block, which may be a basic unit of encoding and transform.
  • the coding block, the prediction block, and the transform block may have one optimal block, which may be a basic unit of encoding, prediction, and transformation. This may be determined according to one or two or more information combinations of information such as a slice type, an encoding mode, and a color component.
  • each block unit is individual, it may be applicable to other block units, and modifications to two or more integrated cases of each block unit may also be possible.
  • FIG. 4 is an exemplary diagram for describing block division according to an embodiment of the present invention.
  • a splitting form having a tree structure may be described as a method of splitting a coding block.
  • the present invention will be described as an example of splitting according to a tree structure by using a quadtree method and a binary tree method as an example, but the present invention is not limited thereto. Can be used.
  • the obtainable coding blocks may be 4a (not split) and 4d (2 split in the horizontal and vertical directions, respectively).
  • the coding blocks obtainable may be 4a, 4b (two divisions in the horizontal direction) and 4c (two divisions in the vertical direction), and the coding blocks obtainable when the two methods are used in combination are 4a, 4b. , 4c, 4d.
  • the quadtree method one partitioning flag is supported with respect to partitioning, and if the corresponding flag is 0, it may have a block form of 4a and 1d.
  • one or more partitioning flags are supported, one of which may be a flag indicating whether to split, one of which may be a flag indicating whether to split horizontally or vertically, and one of which is split horizontally or vertically. It may be a flag indicating whether or not the cum.
  • L1 (horizontal division) and L2 (vertical division) may be lines that divide the boundaries between blocks when performing binary tree splitting
  • L3 and L4 may be lines that divide the boundaries between blocks when performing quadtree splitting.
  • L3 and L4 may be borders in binary tree partitions such as horizontal partitions and vertical partitions, as in L1 and L2, and L3 and L4 borders under the enabled setting where the borders of L3 and L4 overlap.
  • Quadtree splitting may also be performed.
  • the coded blocks obtainable under the setting where the boundary lines of L3 and L4 are not allowed to overlap may be 4a, 4b, and 4c, and the coded blocks obtainable under the setting where the boundary lines may be overlapped are 4a, 4b, 4c, May be 4d.
  • the pre-divided coding block has a square shape (M ⁇ M) such as 4a to 4d, a divided block such as M ⁇ M / 2, M / 2 ⁇ M, M / 2 ⁇ M / 2, and the like may be obtained.
  • split blocks such as M ⁇ N / 2, M / 2 ⁇ N, and M / 2 ⁇ N / 2 may be obtained.
  • a coding block having an aspect ratio such as the like may be obtained.
  • an additional partition block (for example, a ratio different from the aspect ratio) may be possible through a quadtree, a binary tree, and other modifications thereof.
  • a coding block that may be acquired according to a maximum coding block size, a minimum coding block size, an allowable depth, a partitioning scheme, an encoding mode, a slice type, and the like may be obtained.
  • the block of the largest coding unit has a square shape of M ⁇ M, it may have a rectangular shape of M ⁇ N such as 2M ⁇ M and M ⁇ 2M (in the above example) according to the division scheme used.
  • FIG. 5 is an exemplary diagram for describing partitioning between a quadtree method and a binary tree method according to an embodiment of the present invention.
  • a thick solid line L0 denotes a maximum coding block
  • a block partitioned by a thick solid line and another line L1 to L5 denotes a divided coding block
  • the number inside the block denotes a divided subblock.
  • the coded block obtainable according to various factors may be limited.
  • the maximum coding block of 5a is 64 ⁇ 64
  • the minimum coding block is 16 ⁇ 16, and uses quadtree splitting.
  • 2-3-0, 2-3-1, 2-3-2 because 2-0, 2-1, 2-2 blocks (16 ⁇ 16 size in this example) are equal to the minimum coding block size.
  • block division information is not generated in blocks 2-0, 2-1, 2-2, and 2-3 because the obtainable block has 16x16 blocks, that is, one candidate group.
  • the maximum coding block of 5b is 64 ⁇ 64
  • the minimum coding block is 8 in width or length
  • the allowable depth is 3.
  • the 1-0-1-1 (16 ⁇ 16 size in this example, depth depth 3) block satisfies the minimum coding block condition, it may be divided into smaller blocks. However, it may not be divided into higher depth blocks (blocks 1-0-1-0-0, 1-0-1-0-1 in this example) because it is equal to the allowable depth.
  • the block partitioning information is not generated because the obtainable block has 16 ⁇ 8 blocks, that is, one candidate group.
  • quadtree type splitting may be supported or binary tree splitting may be supported according to encoding settings.
  • quadtree partitioning and binary tree partitioning may be mixed and supported. For example, one of the above schemes or a mixture thereof may be supported depending on the block size, depth, and the like. If the block belongs to the first block range Min_Q to Max_Q, the quadtree method may be supported. If the block belongs to the second block range Min_B to Max_B, the binary tree method may be supported. If one or more partitioning schemes are supported, one or more of the maximum coding block size, minimum coding block size, and allowable depth may be set according to each scheme that may be provided. The range may or may not be set by overlapping the ranges of each other. Alternatively, a setting in which one range includes another range may also be possible. Settings for this may be determined according to individual or mixed factors such as a slice type, an encoding mode, and a color component.
  • the block division setting may be determined according to the slice type.
  • the supported block division setting may support division in the range of 128 ⁇ 128 to 32 ⁇ 32 in the quadtree scheme and division in the range of 32 ⁇ 32 to 8 ⁇ 8 in the binarytree scheme.
  • the block division setting supported for P / B slices can support division in the range of 128 ⁇ 128 to 32 ⁇ 32 for the quadtree method and division in the range of 64 ⁇ 64 to 8 ⁇ 8 for the binary tree method. have.
  • a block division setting may be determined according to an encoding mode.
  • the block division setting supported may support partitioning in the 64 ⁇ 64 to 8 ⁇ 8 range and an allowable depth of 2 in the binary tree method.
  • the supported block division setting may support 3 in the 32 ⁇ 32 to 8 ⁇ 8 range and an allowable depth in the binary tree method.
  • the block division setting may be determined according to the color component.
  • the luminance component it is possible to support division in the range of 256 ⁇ 256 to 64 ⁇ 64 in the case of the quadtree method and division in the range of 64 ⁇ 64 to 16 ⁇ 16 in the case of the binary tree method.
  • the same setting as the luminance component in the quadtree method in this example, the length of each block is proportional to the color difference format
  • the binarytree method in the range of 64 ⁇ 64 to 4 ⁇ 4 (this example In the same luminance component may support division in 128 ⁇ 128 to 8 ⁇ 8.4: 2: 0).
  • FIG. 6 is an exemplary diagram of a shape of a prediction block obtained by dividing a coding block according to an embodiment of the present invention.
  • a block partitioning form having one or more candidate groups in a single layer may be supported, and block partitioning may be supported with additional depth support.
  • index information may be generated by various binarization processes for two or more block partition types, and information about the block partition type may be indicated.
  • Information on a block partition type may be indicated by generating information on a partition flag according to a partitioning method (quadtree, binary tree, etc. in this example).
  • a description will be given based on a method of representing information on a block partitioning shape by generating index information of two or more block types in a single layer.
  • the coding block has a square shape.
  • the coding block may be changed to the same aspect ratio as in FIG. 6.
  • some of the candidate groups of FIG. 6 may be set as prediction block candidate groups.
  • 6a and 6h may be candidate groups in the form of prediction blocks.
  • 6a, 6b, 6c, and 6d may be candidate groups.
  • 6a to 6h may be placed in the candidate group.
  • FIG. 7 is an exemplary diagram of dividing a prediction block from a coding block according to an embodiment of the present invention.
  • a solid line indicates a coding block
  • a block divided by a solid line and a dotted line means a prediction block
  • the number inside the block indicates the position of the prediction block divided in each coding block (in this example, the raster scan order).
  • 7a shows an example in which a square coding block is obtained through quadtree partitioning, and a prediction block is obtained from the coding block.
  • FIG. 7b a rectangular coding block is obtained through binary tree partitioning, and a prediction block in the coding block is obtained.
  • An example obtained is shown.
  • 7a may use a quadtree method or a binary tree method to divide a coding block into a prediction block
  • 7b may use a quadtree method or a binary tree method to divide a coding block into a prediction block.
  • the prediction blocks obtained from the square-shaped coding blocks are M ⁇ M, M ⁇ M / 2, M / 2 ⁇ M, and M.
  • the prediction block obtained from the rectangular coding block may be M ⁇ N, M ⁇ N / 2, M / 2 ⁇ N, or M / 2 ⁇ N / 2.
  • a prediction block obtained from a square coding block has a ratio of horizontal / vertical or vertical / lateral ratio 1: 1 or 1: 2, whereas a prediction block obtained from a rectangular coding block is a coding block before partitioning a prediction block.
  • k may be determined by a maximum coding block size, a minimum coding block size, an allowable depth, a shape of a prediction block, a division method of a prediction block, and the like.
  • the splitting form or scheme of the prediction block may be set differently.
  • the partitioned form or scheme of the predicted block may be set differently according to when the coding block before splitting the prediction block is square and rectangular.
  • the splitting form or scheme of the prediction block may be set differently according to the encoding mode.
  • the splitting form or method of the prediction block may be set differently according to the size or depth of the coding block.
  • a coding block is divided by a quadtree method or when the coding block is a square shape
  • some of candidate groups including 6a to 6h of FIG. 6 and other additional splitting shapes may be included in the splitting shape of the prediction block.
  • the prediction blocks may be divided in a quadtree manner to include the divided forms of 6a, 6b, and 6c of FIG. 6.
  • 6a when a coding block is divided by a binary tree method or when the coding block has a rectangular shape, 6a may be included in a split form (M ⁇ N) of the prediction block.
  • the prediction block may be partitioned in a binary tree manner to include a partition type of 6a (M ⁇ N). This may mean that the additional block is not supported in the prediction block unit.
  • a coding block having a rectangular shape in addition to the square shape may be acquired in the encoding block obtaining process, and thus, division in a prediction unit may not be separately supported.
  • a coding block and a prediction block are combined to share one division scheme, and thus information about a prediction block division type may not be generated.
  • the prediction block when the coding block is rectangular, the coding mode is Intra, and the prediction block of the intra prediction may be squared, the prediction block may be divided according to a horizontal or vertical length having a short length of the coding block.
  • the prediction block When the coding block is 2M ⁇ M and the coding mode is Intra, the prediction block may be divided into two M ⁇ M blocks. It may not generate information about the partition.
  • the intra prediction block supports the square and the rectangular shapes
  • some of the candidate groups including 6a to 6h of FIG. 6 and other additional partition shapes are divided into the partitions of the prediction block. It may include.
  • the prediction blocks may be divided by the quadtree to include the divided forms of 6a and 6h of FIG. 6.
  • the coding block when the coding block is square, the coding mode is Intra, and the intra prediction block supports the square and the rectangular shapes, some of the candidate groups including 6a to 6h of FIG. It may include.
  • the prediction blocks may be divided by the binary tree method to include the partition types of 6a, 6b, and 6c of FIG. 6.
  • the coding block belongs to the first block range Min1 to Max1, some of the candidate groups including the 6a to 6h of FIG. 6 and other additional block shapes (candidate group 1) may be included in the prediction block partitioning form.
  • the candidate groups including candidates 6a to 6h of FIG. 6 and other additional divisional forms (candidate group 2) may be included in the prediction block divisional form.
  • the maximum size of the prediction block may be equal to or smaller than the maximum coding block size, and the minimum size of the prediction block may be equal to or smaller than the minimum coding block size. Accordingly, the partition type of the prediction block may be limitedly supported.
  • the maximum coding block size is 64 ⁇ 64
  • the current coding block is 64 ⁇ 64
  • the maximum prediction block size is 32 ⁇ 32
  • the supported prediction block candidates are M ⁇ N (based on the coding block) and M ⁇ N / 2.
  • the prediction block candidate groups may be 64 ⁇ 64, 64 ⁇ 32, 32 ⁇ 64, or 32 ⁇ 32.
  • 32 ⁇ 32 may be a candidate group that can be supported, and split information may be determined to be 32 ⁇ 32 implicitly without generating information on the prediction block candidate group.
  • the minimum coded block size is 8 ⁇ 8
  • the current coded block is 16 ⁇ 8
  • the minimum predicted block size is 8 ⁇ 8
  • the supported prediction block candidates are M ⁇ N (based on the coded block) and M ⁇ N / 2.
  • the prediction block candidate groups may be 16 ⁇ 8, 16 ⁇ 4, 8 ⁇ 8, and 8 ⁇ 4. Since some of them are smaller than the minimum prediction block size, 16 ⁇ 8 and 8 ⁇ 8 except this may be included in the prediction block candidate group, and index information may be generated through binarization using the candidate group.
  • FIG. 8 is an exemplary diagram for describing a partitioning form of a transform block according to an embodiment of the present invention.
  • a transform block is a basic unit of a transform and may have one or more block types through partitioning of a coding block.
  • the prediction block may have one or more block types through partitioning.
  • partitioning may be performed from a coding block using a quadtree scheme, and one or more square transform blocks may be obtained according to a minimum transform block size and an allowable depth.
  • the supportable transform block size and shape may be determined according to the encoder setting.
  • the obtainable transform blocks may be 8a and 8d (this example is based on one depth). Accordingly, the conversion blocks obtainable when the binary tree method is used may be 8a, 8b, and 8c, and the conversion blocks obtainable when the two methods are used together may be 8a, 8b, 8c, and 8d.
  • a split flag is supported in relation to splitting, and when the corresponding flag is 1, 8a and a block type of 8d are shown.
  • one or more partitioning flags are supported, one of which may be a flag indicating whether to split, one of which may be a flag indicating whether to split horizontally or vertically, and one of which is split horizontally or vertically. It may be a flag indicating whether or not the cum.
  • the pre-division coding block has a square shape (M ⁇ M) as in the above example, a transform block such as M ⁇ M / 2, M / 2 ⁇ M, M / 2 ⁇ M / 2, etc. may be obtained.
  • a transform block such as M ⁇ N / 2, M / 2 ⁇ N, or M / 2 ⁇ N / 2 may be obtained.
  • a transform block having an aspect ratio such as may be obtained.
  • an additional split block (for example, a format different from the aspect ratio) may be possible through a quadtree, a binary tree, and other modifications thereof.
  • the transform block may be obtained of transform blocks having various sizes and shapes according to information on the size of the maximum transform block, the size of the minimum transform block, the allowable depth, the partitioning method, and the like.
  • the depth is checked based on the coding block (in this example, the depth of the coding block is 0). As the depth increases, the depth is divided into smaller transform units and may be divided up to the minimum transform unit.
  • FIG. 9 is an exemplary diagram for describing a method of dividing a transform block from a coding block according to an embodiment of the present invention.
  • 9a and 9b represent transform blocks divided into solid lines or dotted lines on the basis of coding blocks, and are indicated by numbers in blocks to indicate each transform block.
  • a coded block is divided into quadtrees
  • 9b is divided into binarytrees
  • 9a and 9b are assumed to have a mixture of quadtree and binarytrees. It may be assumed that 8a, 8b, 8c, and 8d of FIG. 8 are obtainable transform blocks.
  • a coding block has a split form of FIG. 7, and FIGS. 9 and 7 show examples of splitting of a transform unit and split of a prediction unit.
  • Block 4 in 9a is a square coding block divided by a quadtree method, and means a transform block of the same shape as 8a of FIG. 8 that is not divided at depth 0, and is a block composed of a combination of blocks 1, 2, and 3 Is a square coding block divided by a quadtree method, and blocks 1 and 2 are transform blocks having the same shape as 8c of FIG. 8 divided at depth 1, and block 3 is 8b of FIG. 8 divided at depth 0.
  • the first block is not divided so that there is no influence between the prediction block and the transform block.
  • the blocks 1 to 3 transform blocks
  • the blocks 0 to 1 prediction blocks located at the same positions as the blocks 1 to 3 in FIG. It can be seen that the partition type of blocks 1 to 3 was affected. That is, it may be determined whether the partitioning of the transform block and the partitioning of the prediction block perform independent partitioning or dependent partitioning according to the encoder setting.
  • the splitting form of the transform block may be set differently.
  • the divided form of the transform block may be set differently according to when the encoded block before splitting the transform block has a square form and a rectangular form.
  • the partition type of the transform block may be set differently according to the encoding mode.
  • the partition type of the transform block may be set differently according to the size or depth of the coding block.
  • the transform block may include a split shape of a quadtree type transform block as illustrated in 8a and 8d of FIG. 8.
  • an additional quadtree method may be divided according to the depth.
  • the transform block may include a divided form of a binary tree type transform block as illustrated in 8a, 8b, and 8c of FIG. 8. have.
  • additional binary tree type partitioning is possible according to the depth.
  • the transform block may include a divided form of a binary tree type conversion block as shown in 8b and 8c of FIG. 8. That is, the transform block can be divided according to the length or width of the block. For example, if 2N ⁇ N is a coding block, 8c may obtain two N ⁇ N transform blocks, but in 8b, two 2N ⁇ N / 2 transform blocks are obtained to support a square transform block. Since it does not meet the condition, it may be excluded from the partition candidate of the transform block. In this case, the binary tree type transform block splitting flag may be omitted because 8c is the only candidate.
  • N ⁇ 4N is a coding block
  • the depth is divided into two N ⁇ 2N transform blocks through depths 8 through 8b, and the depth is divided into two N ⁇ N transform blocks through depths through 8b and divided into four N ⁇ N transform blocks.
  • the transform block splitting flag can also be omitted because there are only 8b splitting flag candidates in each depth.
  • 8a of FIG. 8 may be included in the split form M ⁇ N of the transform block. This may mean that the additional block is not supported in the transform block unit. This means that the transform block splitting flag can be omitted.
  • quadtree partitioning may be supported or binary tree partitioning may be supported.
  • quadtree partitioning and binary tree partitioning may be mixed and supported.
  • one of the above schemes or a mixture thereof may be supported depending on the block size, depth, and the like.
  • the quadtree method may be supported.
  • the block belongs to the second block range Min_B to Max_B the binary tree method may be supported.
  • one or more partitioning schemes may have one or more settings such as a maximum transform block size, a minimum transform block size, and an allowable depth.
  • the range may or may not be set by overlapping the ranges of each other.
  • the block division setting may be determined according to the slice type.
  • the block division setting supported may support partitioning in the range of 64 ⁇ 64 to 16 ⁇ 16 for the quadtree method and splitting for the range of 16 ⁇ 16 to 4 ⁇ 4 for the binary tree method.
  • the block division setting supported may support partitioning in the range of 64 ⁇ 64 to 16 ⁇ 16 for the quadtree method and splitting for the range of 32 ⁇ 32 to 4 ⁇ 4 for the binary tree method.
  • a block division setting may be determined according to an encoding mode.
  • the supported block division setting may support 3 in the range of 16 ⁇ 16 to 4 ⁇ 4 and allowable depth in the binary tree method.
  • the supported block partitioning configuration can support 4 partitioning in the range of 32 ⁇ 32 to 4 ⁇ 4 and allowable depth in the binary tree method.
  • the block division setting may be determined according to the color component.
  • the luminance component it is possible to support division in the range of 64 ⁇ 64 to 8 ⁇ 8 in the case of the quadtree method and division in the range of 32 ⁇ 32 to 8 ⁇ 8 in the case of the binary tree method.
  • the color difference component the same setting as the luminance component in the quadtree method (in this example, the length of each block is proportional to the color difference format) and the binary tree method are divided in the range of 8 ⁇ 8 to 4 ⁇ 4.
  • a square transform block or a rectangular transform block may be supported according to an encoding setting.
  • a square transform block and a rectangular transform block may be mixed and supported.
  • one or more of the above shapes may be supported depending on the block size, depth, and the like. If the block belongs to the first block range Min_S to Max_S, a square shape may be supported. If the block belongs to the second block range Min_R to Max_R, the block may be of a rectangular shape.
  • one or more settings of the maximum transform block size, the minimum transform block size, and the allowable depth may be set according to each type that may be provided.
  • the range may or may not be set by overlapping the ranges of each other.
  • a setting in which one range includes another range may also be possible. The setting thereof may be determined according to one or more factors such as a slice type, an encoding mode, a color space, or a combination thereof.
  • the maximum size of the transform block may be equal to or smaller than the maximum coding block size, and the minimum size of the transform block may be equal to or smaller than the minimum coding block size. Accordingly, the split form of the transform block may be limitedly supported.
  • the maximum coding block size is 64 ⁇ 64
  • the current coding block is 64 ⁇ 64
  • the maximum transform block size is 32 ⁇ 32
  • the supported transform block candidates are 32 ⁇ 32, 32 ⁇ 16, 16 ⁇ 32, and 16 ⁇ .
  • 8a, 8b, 8c, and 8d of FIG. 8 in which binary tree and quadtree methods are mixed as supported transform block partitioning methods, are candidate groups, depths 0 to 8a, 8b, and 8c are excluded from the partition candidates.
  • 8a that does not divide there are no supported transform blocks
  • 64 ⁇ 32 and 32 ⁇ 64 obtained by dividing are further divided into (64 ⁇ 32).
  • the candidate transform block candidate groups supported may be 32 ⁇ 32 (a), 32 ⁇ 16 (b), 16 ⁇ 32 (c), or 16 ⁇ 16 (d). At depth 1, all candidate groups may be transform blocks supported.
  • the current coding block is 16 ⁇ 8
  • the minimum size of the transform block is 4 ⁇ 4
  • the supported transform block candidates are 16 ⁇ 16, 16 ⁇ 8, 8 ⁇ 16, 8 ⁇ 8, 8 ⁇ 4, 4 ⁇ 8, 4 x 4 and the allowable depth is 2
  • the supported conversion block partitioning method is a transform block supported at depth 0 when 8a, 8b, 8c, 8d of Fig. 8 mixed with the binary tree method and the quadtree method is a candidate group
  • the division candidate group may be 16 ⁇ 8 (a), 16 ⁇ 4 (b), 8 ⁇ 8 (c), 8 ⁇ 4 (d), but 16 ⁇ 4 is not a supported transform block because 16 ⁇ 4 is not supported.
  • 8, 8 ⁇ 8, 8 ⁇ 4 may be included in the transform block candidate group, and partition information may be generated through binarization using the candidate group.
  • the transform unit As a conversion method used in the transform unit, techniques such as a Hadamard transform, an ideal cosine transform, and a discrete sine transform may be used. At least one of the transform schemes may be supported, and at least one detailed transform scheme may be supported in each transform scheme. In this case, the at least one detailed transformation technique may be a transformation technique in which a part of the basis vector is configured differently in each transformation technique.
  • DCT-based conversion and DST-based conversion may be supported as a conversion method.
  • detailed conversion methods such as DCT-I, DCT-II, DCT-III, DCT-V, and DCT-VI may be used. Can be supported.
  • One of the above transformations may be set as a basic transformation technique, and may support additional transformation techniques (two or more transformation techniques) and two or more detailed transformation techniques. Whether to support the additional conversion scheme is determined in units of a sequence, a picture, a slice, a tile, and the like, and related information may be generated in the unit.
  • the conversion can be performed in the horizontal and vertical directions.
  • the pixel value of the spatial axis can be transformed into the frequency axis by performing a one-dimensional transform in the horizontal direction using the basis vector in the transform and performing a total two-dimensional transform by performing the one-dimensional transform in the vertical direction.
  • the transformation may be adaptively applied in the horizontal and vertical directions.
  • DCT-I when the prediction mode is the horizontal mode, DCT-I may be used in the horizontal direction, and DST-I may be used in the vertical direction, and DST- may be used in the horizontal direction in the vertical mode.
  • DCT-II can be used in the vertical direction
  • DCT-I can be used in the horizontal direction when it is Diagonal down left
  • DCT-II can be used in the vertical direction, and it is horizontal when it is Diagonal down right.
  • Is DST-I, and DST-II may be used in the vertical direction.
  • a rectangular transform may be supported in addition to a square transform.
  • Various cases of the case of supporting square and rectangular transformation are explained through the transform block partitioning process.
  • a square transform among the transform forms may be set as a basic transform form, and an additional transform form (rectangular form in this example) may be supported. Whether to support the additional transform type is determined in units of a sequence, a picture, a slice, a tile, and the like, and related information may be generated in the unit.
  • the encoding information may correspond to a slice type, an encoding mode, a size and shape of a block, a block division scheme, and the like.
  • One transform type may be supported according to at least one encoding information, and two or more transform types may be supported according to at least one encoding information.
  • the former may be an implicit situation, the latter an explicit situation.
  • adaptive selection information indicating an optimal candidate group among two or more candidate groups may be generated and included in the bitstream.
  • the rectangular support may be determined based on the slice type.
  • the supported transformation may be a square transformation
  • the transformation may be a square or rectangular transformation.
  • a rectangular transform support may be determined according to an encoding mode.
  • the supported conversion form may be a square form
  • the supported transformation form may be a square form or a rectangular form.
  • the rectangular support may be determined based on the size and shape of the block.
  • the transform type supported in blocks of a predetermined size or more may be a square type transform, and the transform type supported in a block smaller than a predetermined size may be a square or rectangular type of transform.
  • the rectangular support may be determined based on the block division scheme.
  • the supported transform type may be a square transform.
  • the supported transform type is a square shape. Or rectangular transformation.
  • the above example is an example of transform type support according to one piece of encoding information, and two or more pieces of information may be combined to participate in additional transform type support setting.
  • the above example is not limited to the above, but is an example of additional transform type support according to various encoding settings, and various modification examples may be possible.
  • the conversion process may be omitted depending on the encoding setting or the characteristics of the image.
  • the conversion process may be omitted when the compression performance through the conversion is not performed according to the characteristics of the image.
  • the omitted transform may be an entire unit, or one of horizontal and vertical units may be omitted, and it may be determined whether such omission is supported according to the size and shape of the block.
  • the conversion skip flag when the conversion skip flag is 1, the conversion is not performed in the horizontal and vertical directions, and when 0, the conversion may be performed in the horizontal and vertical directions.
  • the first conversion skip flag when the first conversion skip flag is 1, the conversion is not performed in the horizontal direction, and when 0 is converted, the conversion is performed in the horizontal direction, and the second conversion skip flag is performed. If 1, no transformation is performed in the vertical direction. If 0, the transformation is performed in the vertical direction.
  • the conversion omission may be supported.
  • the conversion omission cannot be supported.
  • M (m) and N (n) may be the same or different.
  • the transformation related setting may be determined in units of a sequence, a picture, a slice, and the like.
  • the transform scheme settings may be determined according to the encoding information.
  • the encoding information may correspond to a slice type, an encoding mode, a size and shape of a block, a prediction mode, and the like.
  • support of the conversion scheme may be determined according to the slice type.
  • the conversion techniques supported may be DCT-I, DCT-II, DST-I, or DST-II.
  • the supported transformation techniques are DCT-I, DST-I, and DST-II.
  • supported conversion schemes may be DCT-I, DCT-II, or DST-I.
  • support of a transformation scheme may be determined according to an encoding mode.
  • the supported conversion technique may be DCT-I, DCT-II, DCT-III, DST-I, DST-II.
  • the supported conversion technique is DCT-I, DCT-II, DST. -II.
  • support of the conversion scheme may be determined according to the size and shape of the block.
  • Conversion schemes supported on blocks of a certain size may be DCT-I
  • transformation schemes supported on blocks of a certain size may be DCT-I, DST-I, and supported on blocks above and below a certain size.
  • the conversion technique may be DCT-I, DCT-II, or DST-I.
  • the conversion scheme supported in the square form may be DCT-I, DCT-II
  • the transformation scheme supported in the rectangular form may be DCT-I, DST-I.
  • support of a transformation scheme may be determined according to a prediction mode.
  • the conversion scheme supported in prediction mode A may be DCT-I, DCT-II
  • the conversion scheme supported in prediction mode B may be DCT-I, DST-I
  • the conversion scheme supported in prediction mode C is DCT.
  • -I can be.
  • prediction modes A and B may be directional modes and prediction mode C may be non-directional modes.
  • the above example is an example of supporting a transformation scheme according to one piece of encoding information, and two or more pieces of information may be combined to participate in additional transformation scheme support setting.
  • the present invention is not limited only to the above example, and other examples may be modified.
  • the following includes a detailed description of the intra prediction of the prediction unit of the present invention.
  • Pixels of neighboring coded blocks (in this example, left, bottom left, top left, top, and top right) can be targeted, and pixels of neighboring blocks adjacent to the current block as reference pixels for prediction block generation. Can be used. If a neighboring block is not available, one or more pixels from the available neighboring block may be used to fill in pixel positions of the unavailable block. In this case, if not available, the block may be located outside the boundary of the image (picture, slice, tile, etc.) at the location of the block, or may belong to a condition of limiting use according to an encoding mode (Intra / Inter).
  • the position of the available neighboring block may be determined according to the encoding setting. For example, it is possible to use an available pixel that has a spatial distance close to the filling pixel or an available pixel (which may be related to the prediction mode) that is determined to be highly correlated with the filling pixel. This may be determined according to the position of the sub block of the current block, which will be described through the following embodiments.
  • the reference pixel used for prediction of the current block may be managed through one temporary memory, which may be a memory used only in the prediction process of the current block.
  • Filtering may be applied to the reference pixel configured as described above. This is to apply a low pass filter to at least one reference pixel including the quantization error to reduce the prediction error due to the quantization error.
  • Filter information one or more filter coefficients, one or more filter lengths applied according to the size and shape of the prediction block or transform block, the prediction mode in the screen, the position of the sub block in the current block, the position and number of reference pixels to which filtering is applied, and the generation of filtering information. Whether or not the setting may be adaptively determined.
  • prediction may be performed by interpolating not only reference pixels in integer units but also reference pixels in decimal units.
  • the pixels used for interpolation may be both adjacent pixels at positions to be interpolated, and more pixels may be used.
  • a 4-tap, 6-tap filter, etc. may be applied according to the number of pixels used for interpolation, and the filter information (one or more filter lengths, one or more filter coefficients) may be adaptively determined according to the size and shape of the block. .
  • FIG. 10 is an exemplary diagram for describing an intra prediction mode performed in HEVC.
  • HEVC supports a total of 35 modes (33 directional modes and 2 non-directional modes) to support intra prediction.
  • the supported intra prediction mode may vary depending on the size of the block. For example, it is possible to support 67 prediction modes in a 64 ⁇ 64 block, 35 prediction modes in a 32 ⁇ 32 block, and 19 prediction modes in a 16 ⁇ 16 block.
  • the supported intra prediction mode may be variable according to the shape of the block, or the definition of the intra intra mode (in this example, a mode interval having directionality) may be changed.
  • FIG. 11 is an exemplary diagram for describing an intra prediction mode according to an embodiment of the present invention.
  • the shape of the prediction block is square 11a in FIG. 11 for a square (2N ⁇ 2N), 11b for a long rectangular (2N ⁇ N), and 11c for a long rectangular (N ⁇ 2N).
  • the same intra prediction mode may be supported.
  • the above example may be an example having a narrow mode interval in a long direction among horizontal and vertical and a wide mode interval in a short direction.
  • factors such as the number of prediction modes and the interval of the prediction modes may be variously modified, including a fixed or variable case of the above example.
  • FIG. 12 is an exemplary diagram for describing a reference pixel applicable in a horizontal or vertical mode according to an embodiment of the present invention.
  • the intra prediction of the horizontal mode and the vertical mode in the directional mode may be described.
  • p denotes a pixel predicted from the reference pixel
  • q denotes a reference pixel of a neighboring block used for prediction. If the reference pixel, and encoding can be obtained from the complete block, left, upper left pixels belong to the lower left, upper, upper right block (the size of the current block is M ⁇ N ⁇ p 0,0 ⁇ p M- 1, N - 1 > q -1,0 ⁇ q -1,2N-1 , q -1, -1 ⁇ q 2M-1, -1 ).
  • 13 is an exemplary diagram for comparing general block based prediction and pixel based prediction.
  • the pixel value of p may be predicted by extrapolating the reference pixel q according to the direction of the prediction mode.
  • a prediction block may be generated using two methods, one of which may be a block-based prediction method or a pixel-based prediction method.
  • 13a is a block-based intra prediction method, and all reference pixels q belonging to a block adjacent to the current block may be applied to predict pixels in the current block.
  • 13b is a pixel-based intra prediction method, wherein the reference pixel q is used only for prediction of an adjacent pixel, and each pixel is adjacent to it and prediction may be performed from the encoded pixel.
  • Equation 1 d denotes a difference value between the input pixel and the prediction pixel in the block-based prediction method.
  • Equations (1) and (2) indicate that the prediction modes are the horizontal and vertical modes, respectively. In order of mode).
  • the prediction value may be generated using only the reference pixels of the integer unit including the above mode, and in other modes, the prediction value may be generated by obtaining the reference pixels in the decimal unit between the reference pixels of the integer unit.
  • an example of using an integer reference pixel for convenience of explanation will be given. This may be changed and applied according to another prediction mode using a reference pixel of a decimal unit.
  • equations (3) and (4) indicate the case where the prediction mode is the horizontal and vertical mode, respectively.
  • prediction is performed using the nearest pixel placed before the prediction direction.
  • the pixels in the first column and the first row are different from the reference pixel, and the others are different from the previous pixel. You can get it.
  • the horizontal mode, d x, y is p x, p y and x- 1
  • it may be a difference value of y
  • the vertical mode d x, y is p x, y and x p, y - It can be a difference of 1 .
  • pixel-based difference values may be expressed as (5) and (6) using difference values obtained through block-based prediction. That is, the difference value obtained through pixel-based prediction may be obtained using the difference value obtained through block-based prediction.
  • the difference between the pixels in the first column and the first row is the difference based on the pixel-based prediction through the formulas (5) and (6), except for the same difference between the block-based difference and the pixel-based difference. The value can be obtained.
  • the residual block which is a set of the difference values, may be configured to restore the residual block through transformation, quantization, and its inverse process. According to the quantization parameter, a lossless or lost residual block may be obtained, and the pixel may be reconstructed by adding the block or the pixel-based prediction block.
  • Equation 4 includes a process of reconstruction through block-based prediction.
  • p'x , y denotes a reconstructed pixel
  • d * x, y denotes a reconstructed difference value
  • a lossless or lost value can be obtained according to a quantization parameter.
  • Equation 5 includes a process of reconstruction through pixel-based prediction.
  • p'x , y denotes a reconstructed pixel
  • d '* x, y denotes a reconstructed difference value
  • a lossless or lost value can be obtained according to a quantization parameter.
  • Equation 6 is derived by applying the expression method according to (5) and (6) of Equation 3 to Equation 5.
  • pixel-based prediction it is possible to perform additional prediction by performing post-processing after performing basic prediction and encoding, or to apply pixel-based prediction in basic prediction and encoding.
  • lossy compression in the case of block-based prediction and lossless compression in the case of pixel-based prediction will be described, and a basic description will be described based on block-based prediction.
  • intra prediction the prediction and encoding order may be applied differently according to the size and shape of the prediction block and the transform block.
  • the shape of the coding block is explained on the assumption that the shape of the coding block is square, the prediction block and the transform block are assumed to be square and rectangular.
  • the shape of the coding block is not limited to the above conditions, and is also applicable to other conditions. It is possible.
  • an intra prediction method according to an embodiment of the present invention will be described.
  • FIG. 14 is an exemplary diagram for explaining a general intra prediction method.
  • an intra prediction of a current block 2N ⁇ 2N may be performed using a reference pixel adjacent to a current block to be encoded and adjacent to each other, and a prediction block 14-2 may be generated.
  • the residual block 2N ⁇ 2N, 14-3 is obtained by the difference between the current block 2N ⁇ 2N and 14-1 to be encoded and the prediction block 2N ⁇ 2N and 14-2. 2N) may be obtained and quantization may be performed on the transform block to develop an encoding process.
  • the decoding side may reconstruct the residual block 14-3 through inverse quantization and inversion, and may restore the current block 14-1 by combining the reconstructed residual block and the prediction block 14-2.
  • 15 is an exemplary diagram for describing a process of independently transforming and quantizing a residual block after intra prediction according to an embodiment of the present invention.
  • the current block may have a block form of 2N ⁇ 2N
  • the transform block may have a form of N ⁇ N.
  • the sub-blocks (having the size of the transform block) a, b, c, and d of the current block 14-1, using reference pixels in the adjacent block
  • the prediction may be performed independently of each other, and the prediction block 14-2 composed of A, B, C, and D obtained accordingly may be encoded for a residual block of a and A, and a residual block of b and B, c.
  • Independent encoding of the residual block of and C and the residual block of d and D may be performed. Parallel processing of encoding may be possible through such independent encoding. However, independent encoding may cause a problem of inferior accuracy of prediction.
  • FIG. 16 is an exemplary diagram for describing dependent intra prediction with reference to a subblock in which encoding is completed in a current block in intra prediction according to an embodiment of the present invention.
  • the current block may have a block form of 2N ⁇ 2N
  • the transform block may have a form of N ⁇ N.
  • an intra prediction may be performed on sub-block a of the current block by using reference pixels that belong to an adjacent block and adjacent to the current block, and as a result, prediction block A may be generated first.
  • the residual blocks of a and A may be derived, transformed, quantized, inverse quantized, and inversely transformed to generate a reconstructed block of a, and then used for intra prediction on subblock b.
  • the prediction is performed by using pixels adjacent to sub-block b as additional reference pixels in sub-block a that is already encoded and reconstructed, as well as reference pixels that are adjacent to the current block and adjacent to the current block.
  • prediction and encoding may be performed on the c and d using the first encoded subblock.
  • a prediction process may be performed in dependence, so that parallel processing may be limited, but the accuracy of prediction may be increased.
  • 17 is an exemplary diagram for describing a process of independently transforming and quantizing a residual block with respect to a current block to which binary division is applied according to an embodiment of the present invention.
  • the current block may have a 2N ⁇ 2N block form
  • the transform block may have a 2N ⁇ N form by binary division.
  • prediction and encoding of subblocks a and b may be independently performed using reference pixels belonging to an adjacent block and adjacent to the current block.
  • the prediction process may be performed in the same manner.
  • FIG. 18 is an exemplary diagram for explaining dependent intra prediction with reference to a subblock in which encoding of a current block is completed with respect to a current block to which binary division is applied according to an embodiment of the present invention.
  • the current block may have a block form of 2N ⁇ 2N
  • the transform block may have a form of 2N ⁇ N by binary division.
  • encoding is performed by using a pixel belonging to a block adjacent to the current block as a main reference pixel, and in the prediction of the sub-block b, the pixel belonging to the encoded a is encoded.
  • Intra-prediction may be performed by reference. That is, as in FIG. 16, the prediction may be performed by using the reference pixels of the encoded subblock together, and sequential prediction and encoding may be performed due to the dependency of the prediction.
  • d [x] [y] is assigned to the current pixel at arbitrary (x, y) pixel coordinates.
  • R [x] [y] denotes the reconstructed differential pixel after the transformation, quantization, and the inverse process are performed on the differential pixel, and p '[x] [y] is the current pixel. It is defined as indicating a pixel reconstructed through prediction and encoding on the pixel.
  • 19 is an exemplary diagram illustrating a general pixel-based intra prediction and a block-based intra prediction in a vertical mode.
  • 19a is a pixel-based intra prediction. Prediction and encoding of a current pixel are performed from a neighboring reference pixel that has been encoded and reconstructed, and prediction of adjacent pixels in a prediction direction with reference to the current pixel that has been encoded and restored. Encoding may be performed sequentially.
  • a derivation process of the prediction pixel based on the pixel coordinate [x] [y] of the current block 2M ⁇ 2N may be expressed by Equation 7 below.
  • 19b is a prediction based on a block-based screen, which may predict a current block using reference pixels belonging to a block adjacent to the current block, and specifically, generate a prediction block for the current block by copying the reference pixel in a vertical direction. have. If this is expressed as an equation, Equation 9 below.
  • 20 is an exemplary diagram for a method of predicting using a slope or difference value of a reference pixel in block-based intra prediction according to an embodiment of the present invention.
  • the pixel-based prediction predicts using the current pixel 20-1 and the reconstructed pixel 20-2 adjacent to the current pixel as a reference pixel. If used as a predictive value, the prediction may be incorrect. Therefore, the difference between the current pixel 20-1 and the restored reconstructed pixel 20-2 adjacent to the current pixel is predicted with reference to the pixel adjacent to the current pixel, thereby correcting the reconstructed pixel 20-2 adjacent to the current pixel. can do.
  • the current pixel 20-1 can be predicted by adding d 2 or d 4 to the reconstructed pixel 20-2 adjacent to the current pixel 20-1.
  • whether to use d2 or d4 may be determined according to which prediction result using the current is close to the current pixel 20-1, and a weight may be applied to d2 or d4.
  • the prediction of the current pixel using the difference value d3 or d4 may be generally used in pixel-based prediction since the pixel deriving the values of d3 and d4 must be reconstructed.
  • block unit of prediction transform block in HEVC
  • block-based prediction in consideration of the fact that a subblock of the current block may be encoded and reconstructed first as a unit of such a prediction block.
  • the current pixel 20-1 is referred to the reconstructed pixel 20-3 adjacent to the current block instead of the reconstructed pixel 20-2 adjacent to the current pixel 20-1.
  • Intra-prediction may be performed.
  • the position of the current pixel 20-1 and the reconstructed pixel 20-3 adjacent to the current block and the intra prediction mode direction (in the vertical mode) are located at corresponding positions.
  • a prediction value of the current pixel 20-1 may be generated by adding the difference values d1 and d3 of the two pixels to the reconstructed pixel 20-3 adjacent to the current block.
  • whether to use d1 or d3 may be determined according to which prediction result using the current is close to the current pixel 20-1, and a weight may be applied to d1 or d3.
  • the difference values d1 to d4 may be expressed as gradient values between two pixels below.
  • Equation 10 if the relationship between the difference value d4 and the current pixel 20-1 and the reconstructed pixel 20-2 adjacent to the current pixel is expressed by a formula, it may be derived as shown in Equation 10 below.
  • w0, w1, w2, and w3 may mean weights, weights may be equal to each other, or may be smaller than one.
  • Equation 11 the relationship between the difference value d1 and the current pixel 20-1 and the reconstructed pixel 20-3 adjacent to the current block may be expressed by Equation 11 below.
  • Equation 11 k is a value for setting an area to which the difference value d1 is applied, and may be applied for the purpose of using the difference value only for pixels having a predetermined range of x coordinates and not using the difference value.
  • w0 means a weight applied to the difference value d1 and may be less than 1, or may have an additional weight for adjusting the influence of w0.
  • the weight to which the difference value is applied may be set differently according to the k value.
  • the weight may be determined based on the distance between the current pixel 20-1 and the main reference pixel to be predicted.
  • the reconstructed pixel 20-2 adjacent to the current pixel 20-1 is the main reference pixel, or the reconstructed pixel 20-3 adjacent to the current block.
  • 21 is a diagram illustrating a method of predicting a horizontally divided sub block in prediction in a vertical mode screen according to an embodiment of the present invention.
  • each sub block is a unit in which intra prediction is performed, and may correspond to a case in which the current block is different from a unit in which prediction is performed.
  • the current block is defined as 2 M ⁇ 2N
  • the sub block is 2 M ⁇ N.
  • each subblock may refer to a transform block in a term of HEVC.
  • prediction may be performed with reference to a pixel belonging to a neighboring block that is encoded and reconstructed prior to the current block with respect to the first subblock, and is adjacent to the current block.
  • the prediction block for the first subblock may be generated by copying pixel values of pixels belonging to a block adjacent to the current block in a vertical direction.
  • the current pixel is corrected by correcting the reference pixel with the difference between two pixels at corresponding positions based on the position of the current pixel to be predicted and the reference pixel adjacent to the current block, and the direction of the prediction mode (in the vertical mode) of the screen. It is possible to generate a predicted value of.
  • the prediction block of the first subblock may be generated by using the value obtained by adding the difference value to the reference pixel as the prediction value for the pixel in the first subblock.
  • the prediction of the second subblock may be performed by using the pixel adjacent to the second subblock as the main reference pixel in the encoded and reconstructed first subblock.
  • the current reference pixel is corrected by correcting the main reference pixel with the difference between the position of the current reference pixel and the main reference pixel adjacent to the current block and the difference between the two pixels at the corresponding position with respect to the intra prediction mode direction (in the vertical mode).
  • a prediction value of the pixel may be generated.
  • the prediction block of the second subblock may be generated by using the difference obtained by adding the difference value to the main reference pixel as a prediction value for the pixel in the second subblock.
  • the main reference pixel in 21b may be filtered to remove pixels in the same direction as the intra prediction direction to remove the quantization error, and may be used as the reference pixel.
  • the filtered main reference pixel may be used as it is, or may be corrected and used as a difference value as shown in 21b.
  • the prediction block belongs to the same prediction block (in this example, a prediction is performed in units of transform blocks but is obtained by a block constructing unit, and subblocks within the block have the same prediction mode).
  • the prediction mode of the reference block may be applied when the prediction mode of the current block is the same.
  • a difference value different from that of 21b may be used to predict the current pixel using the aforementioned main reference pixel.
  • a prediction value for the current pixel may be generated by correcting the main reference pixel by using a difference value between a pixel belonging to the current block and an adjacent block and the main reference pixel. That is, the prediction value is generated by correcting the slope information of the previous pixels placed in the prediction mode direction in the screen, including the main reference pixel, rather than the slope information of the pixels positioned in the corresponding position with respect to the prediction mode direction in the screen. can do.
  • the tilt information may be corrected based on the distance between the current pixel and the main reference pixel.
  • FIG. 22 is a diagram illustrating a method of predicting a vertically divided subblock in prediction in a vertical mode screen according to an embodiment of the present invention.
  • prediction for a first subblock may be performed using a pixel belonging to a block adjacent to the current block as a main reference pixel.
  • the predicted value of the current pixel belonging to the first sub-block may be used by copying the main reference pixel.
  • the main reference pixel is determined by the difference between the current pixel to be predicted and the position of the main reference pixel adjacent to the current block and the two pixels at corresponding positions with respect to the intra prediction mode direction (in the vertical mode).
  • the predicted value of the current pixel can be generated.
  • the prediction block of the first subblock may be generated by using the difference obtained by adding the difference value to the main reference pixel as a prediction value for the pixel in the first subblock.
  • a pixel belonging to a block adjacent to the current block is located in an intra prediction direction, and thus becomes a main reference pixel.
  • FIG. 22b the position of the current pixel and the main reference pixel to be predicted and the intra prediction mode direction (vertical) are shown.
  • a prediction value of the current pixel may be generated by correcting the main reference pixel with a difference value between two pixels at corresponding positions.
  • two or more pixels at corresponding positions based on the position of the current pixel and the main reference pixel and the direction of the intra prediction mode may be specified. That is, the difference value in 21c may be considered d1 and d2.
  • the main reference pixel may be corrected by d1
  • the main reference pixel may be corrected by d2
  • the main reference pixel may be corrected by using both d1 and d2.
  • the main reference pixel may be corrected with a weighted value for d1 and d2.
  • FIG. 23 is a first exemplary diagram of a method of predicting a subblock divided into pixel lines in a prediction in a vertical mode screen according to an embodiment of the present invention.
  • the first sub block of the current block to be encoded may be set to pixel lines evenly positioned horizontally with respect to the current block.
  • a prediction value may be generated for each pixel in the first sub-block using a pixel belonging to a block adjacent to the current block as the main reference pixel.
  • the prediction block for the first subblock may be generated by copying the pixel value of the main reference pixel in the intra prediction direction.
  • the prediction of the second sub block may be performed.
  • the second sub block may be set to pixel lines horizontally odd with respect to the current block.
  • the prediction block for the second sub-block not only pixels belonging to a block adjacent to the current block but also pixels of the first sub-block encoded and reconstructed are located in the prediction direction in the screen, and thus all such pixels are formed. Reference may be made to the prediction of two sub-blocks.
  • the prediction of the second subblock may be performed by referring to the current pixel to be predicted and two pixels positioned on the intra prediction direction and adjacent to the current pixel.
  • the prediction mode is the vertical mode
  • pixels adjacent to the current pixel are positioned above and below the current pixel, and thus, a prediction block for the second subblock may be generated using two pixels located above and below.
  • a prediction block may be generated by assigning a weight to each of the two upper and lower pixel values and using the added value as a prediction value.
  • FIG. 24 is a second exemplary view of a method of predicting a subblock divided into pixel lines in a prediction in a vertical mode screen according to an embodiment of the present invention.
  • the first subblock of the current block to be encoded may be set to an area including pixel lines that are evenly positioned vertically with respect to the current block.
  • the process of generating the prediction block for the first sub-block may generate a prediction value for each pixel in the first sub-block using a pixel belonging to a block adjacent to the current block and positioned in the prediction direction in the screen as the main reference pixel. Can be.
  • the prediction block for the first subblock may be generated by copying the pixel value of the main reference pixel in the intra prediction direction.
  • the prediction of the second sub block may be performed.
  • the second sub block may be set to an area including pixel lines vertically odd with respect to the current block.
  • a pixel belonging to a block adjacent to the current block may be used as the main reference pixel.
  • the pixels of the first sub-block not located in the intra prediction direction may be used to correct the main reference pixel.
  • the main reference pixel may be corrected by the difference value between two pixels at corresponding positions based on the position of the current pixel and the main reference pixel to be predicted and the direction of the prediction mode in the screen (if the vertical mode).
  • the pixel may be composed of pixels belonging to the first sub-block and pixels belonging to a block adjacent to the current block, as in 24b.
  • a difference value for correcting the main reference pixel may be derived from d1 and d2. Only d1 may be used, only d2 may be used, and a weight value may be used for d1 and d2.
  • FIG. 25 is a first exemplary diagram for a method of predicting a subblock divided by a quadtree method in a prediction in a vertical mode screen according to an embodiment of the present invention.
  • the prediction of the first subblock may be performed by using, as a main reference pixel, a pixel belonging to a block adjacent to the current block and located in the prediction direction in the screen.
  • the prediction for the second subblock may be performed using a pixel belonging to a block adjacent to the current block and positioned in an intra prediction direction as a main reference pixel.
  • the pixels belonging to the first subblock and adjacent to the third subblock are positioned in the prediction direction of the picture, so that these pixels are referred to as the main reference pixel.
  • the prediction for the third subblock may be performed.
  • prediction of the fourth subblock may be performed by using, as a main reference pixel, a pixel that belongs to the second subblock and is adjacent to the fourth subblock.
  • FIG. 26 is a second exemplary diagram for a method of predicting a subblock divided by a quadtree method in a prediction in a vertical mode screen according to an embodiment of the present invention.
  • encoding of a current block divided into first to fourth subblocks is performed. However, at this time, the main reference pixel is corrected using the difference value, or the main reference pixel is filtered. Can be further applied.
  • a pixel belonging to a block adjacent to the current block may be a main reference pixel, and the position and screen of the current pixel and the main reference pixel to be predicted may be used.
  • the main reference pixel may be corrected by using a difference value between two pixels at corresponding positions in the prediction direction. Also, the correction of the main reference pixel using the difference value may be performed only for the pixels within a certain distance, such as the k range of 26a.
  • the process of performing the prediction block on the second sub-block may include a pixel belonging to a block adjacent to the current block as the main reference pixel, and a prediction direction in the localization screen of the current pixel and the main reference pixel to be predicted.
  • the main reference pixel may be corrected using the difference value between two pixels at corresponding positions.
  • the two pixels may be located in the first sub block in which encoding and reconstruction are completed.
  • prediction of a third subblock may be performed by using pixels located in a first subblock in which encoding is completed and adjacent to a third subblock as a main reference pixel, and then intra prediction may be performed on the main reference pixel. Filtering may be further performed on pixels that are in the same direction as the direction.
  • prediction in the generating of the prediction block for the fourth subblock, prediction may be performed by using, as a main reference pixel, a pixel belonging to the second subblock in which encoding and reconstruction is completed and adjacent to the fourth subblock.
  • additional correction may be performed using the difference value indicated in 26d, and prediction may be performed with the corrected main reference pixel.
  • a weight may be applied to the difference value, and the weight may be set based on a distance between the main reference pixel and the current pixel to be predicted.
  • FIG. 27 is a second exemplary diagram for a method of predicting a subblock divided according to odd or even coordinates in a prediction in a vertical mode screen according to an embodiment of the present invention.
  • the first sub block may be configured of pixels having an odd number of coordinates of the current block x and y to be encoded.
  • the generating of the prediction block for the first sub-block may generate the prediction block using pixels belonging to a block adjacent to the current block as the main reference pixel, and more specifically, the main reference pixel is an intra prediction direction (vertical). As a result, the prediction block may be generated by copying the first subblock.
  • the second sub-block may be composed of pixels in which the x-coordinate of the current block is odd and the y-coordinate is even.
  • the main reference pixel may include a pixel belonging to a block adjacent to the current block.
  • the main reference pixel may further include a pixel in the first sub-block because the encoded and reconstructed first sub-block is located in the intra prediction direction.
  • the prediction of each pixel of the second sub-block to be predicted may be performed by using the pixels whose reconstructions are completed above and below the main reference pixels, and more specifically, the prediction values are given by weighting the main reference pixels located above and below. Can be used as
  • the third sub-block may be composed of pixels in which the x-coordinate of the current block is even and the y-coordinate is odd.
  • the main reference pixel may be a pixel belonging to a block adjacent to the current block since there is no sub-block reconstructed on the intra prediction direction.
  • the main reference pixel may be corrected by using a difference value between the positions of the current pixel and the main reference pixel of the third sub-block to be predicted, and the two pixels at positions corresponding to the prediction direction in the screen.
  • difference values d1 and d3 may be used for prediction.
  • the fourth sub block may be configured of pixels having even numbers of x and y coordinates of the current block.
  • the predicted value for each pixel of the fourth sub-block is that the pixels located in the prediction direction in the screen are positioned above and below the fourth sub-block, so that two pixels located above and below the main reference pixel can be used.
  • the two pixels positioned may be weighted to be used as prediction values.
  • a prediction block for the fourth subblock may be generated using all of the neighboring pixels of the reconstruction as the main reference pixels.
  • a weighted value for each of eight pixels around the current pixel to be predicted may be used as a prediction value.
  • FIG. 28 is an exemplary diagram for a method of performing prediction by further using a slope or a difference value of a reference pixel in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • pixels indicated by hatching are pixels belonging to a block adjacent to the current block, and may indicate pixels in which encoding and reconstruction are completed.
  • prediction may be performed using a pixel located in an intra prediction direction (diagonal line) and belonging to a block adjacent to the current block as a main reference pixel. More specifically, the prediction value for each pixel of the current block can be generated by copying the pixel value of the main reference pixel to the current block in the intra prediction direction.
  • prediction may be performed by using, as a main reference pixel, a pixel located in an intra prediction direction among pixels belonging to a block adjacent to the current block. At this time, looking at the prediction direction in 28b, except that the pixels indicated by the hatched are all located in the prediction direction, except q [-1] [-1], can be the main reference pixel. More specifically, since there are pixels indicated by two hatched lines in the prediction direction in one screen, an average value of two pixels may be used as a prediction value, or weighted values of the two pixels may be added as prediction values. Can be.
  • pixels outside the area indicated by k may generate a prediction value using only the first main reference pixel at the start point of the prediction direction, and may be generated in the area indicated by k of 28b. Prediction values may be generated using the first main reference pixel and the second main reference pixel.
  • the intra prediction method according to the exemplary embodiment of the present invention will be described based on the diagonal mode instead of the vertical mode.
  • the method described in the vertical mode may be applied in the same way with different prediction directions.
  • the described description may be omitted and some subblock forms may be omitted.
  • a prediction value may be generated using only the first main reference pixel.
  • a mode such as Diagonal Down Left (in this example, assumed to be a mode having a starting point in the upper left and copied in the lower right direction) may not have a second main reference pixel to which reference may be made.
  • the first main reference pixel may be set as the basic reference pixel, and an additional reference pixel (in this example, the second main reference pixel) may be used to generate the predicted value.
  • the prediction value may be generated using the first and additional main reference pixels, and may be applied only to some modes, which is applied to the block. It may be determined according to size and shape, prediction mode, and the like.
  • 29 is a diagram illustrating a method of performing prediction on a sub-block divided horizontally in binary mode in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • the first sub block 2M ⁇ N and the second sub block 2M ⁇ N may be obtained by horizontally dividing the current block 2M ⁇ 2N.
  • the first sub-block may determine a pixel located in an intra prediction direction (diagonal) as a main reference pixel among pixels belonging to a block adjacent to the current block, and perform prediction using the main reference pixel.
  • a prediction value for the first sub-block may be generated by using a pixel located at a start point of the intra prediction direction and having a pixel belonging to a block adjacent to the current block as a main reference pixel.
  • the prediction value can be generated by copying the main reference pixel in the prediction direction.
  • a prediction value may be generated using a pixel located at a start point of an intra prediction direction and having a pixel belonging to a second sub block as a main reference pixel.
  • the pixel of the first sub-block may not exist in the prediction direction in the screen.
  • the pixel belonging to the block adjacent to the current block is the main reference pixel, or the pixel of the first sub-block is copied on the prediction direction. It can be used as a main reference pixel by padding.
  • FIG. 30 is a diagram illustrating a method of performing prediction on a subblock horizontally divided in binary mode in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • a prediction value for the first subblock may be generated using the main reference pixel.
  • the first main reference pixel may be located at the start point of the prediction direction
  • the second main reference pixel may be located at the end point of the prediction direction.
  • a prediction value may be generated using both the first main reference pixel and the second main reference pixel with respect to the pixels located in the area represented by k, and the first note for pixels located outside the area represented by k. The prediction value may be generated using only the pixels.
  • a value obtained by copying a first main reference pixel is used as a prediction value for the first sub block, or an average or a weight value of each of the first main reference pixel and the second main reference pixel is assigned to the first sub block. It can be used as a predictive value.
  • a process of generating a prediction block for the second subblock after the prediction and the reconstruction of the first subblock is completed may be described.
  • the pixel belonging to the reconstructed first subblock is located at the start point of the prediction direction in the screen, and the pixel adjacent to the current block is located at the end point, so that prediction of the second subblock can be performed using the two pixels as the main reference pixel.
  • Prediction may be performed for pixels within the range set to k.
  • pixels belonging to the first sub-block located at the start of the prediction direction may not exist for some prediction directions, in which case, as in 29b, the pixels belonging to the first sub-block are copied on the prediction direction, or Prediction may be performed using pixels belonging to an adjacent block.
  • the filtering is performed on the pixel belonging to the first sub-block, and the filtered pixel value is obtained. It can also be used as the main reference pixel.
  • the filtering direction may be the same as or similar to the prediction direction, and filtering may be performed on the pixels positioned in the corresponding direction.
  • a pixel belonging to the first sub-block and positioned at the start point of the intra prediction direction is a first main reference pixel
  • a pixel belonging to a block adjacent to the current block and positioned at an extended start point of the intra prediction direction is provided.
  • Prediction can be performed using the two main reference pixels. For example, a value obtained by correcting the first main reference pixel with a difference value between the first main reference pixel and the second main reference pixel may be determined as a predicted value of the second sub-block.
  • a difference value between the first main reference pixel and the second main reference pixel may be added to the first main reference pixel, or the weighted difference value may be determined as a predicted value of the second sub-block.
  • inclination information of previous pixels (including the second main reference pixel in this example) placed in the intra prediction mode including the first main reference pixel may be corrected to the first main reference pixel. The information may be corrected based on the distance between the current pixel and the first main reference pixel.
  • FIG. 31 is a diagram illustrating a method of performing prediction on a subblock vertically divided in binary mode in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • the first subblock and the second subblock may have a size of M ⁇ 2N based on the current block (2M ⁇ 2N).
  • prediction may be performed on a first subblock, using a pixel belonging to a block adjacent to the current block and positioned on an intra prediction direction as a main reference pixel.
  • the prediction may be performed by using the pixel located at the start of the intra prediction direction as the main reference pixel.
  • prediction may be performed on a second subblock by using a pixel belonging to a block adjacent to the current block and positioned at a start point of an intra prediction direction as a main reference pixel. have.
  • 32 is a diagram illustrating a method of performing prediction on a sub-block divided vertically in binary mode in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • two pixels located in a prediction direction within a screen among pixels belonging to a block adjacent to the current block may be located at the top and the left of the current block. Therefore, the first sub-pixel is positioned at the top of the current block at the start of the intra prediction direction, and the pixel at the end of the intra-prediction on the left side of the current block is the second main reference pixel. Prediction on the block may be performed.
  • both the first main reference pixel and the second main reference pixel may be used for the pixel located in the area set to k, and only the first main reference pixel may be used for the pixel located outside the area set to k.
  • an average of two pixels or weights of the two pixels may be weighted to determine an added value as a prediction value for each pixel in the first subblock.
  • first main reference pixel belonging to a block adjacent to the current block as in 32a, but since the pixel in the first sub-block in which encoding and reconstruction is completed is located in the intra prediction direction, the first sub-pixel is used.
  • the pixel in the block can be used as the second main reference pixel. Since the method of using the first main reference pixel and the second main reference pixel is the same as that of 32a, redundant description is omitted.
  • a first main reference pixel may be used as in 32b, or a pixel in a first subblock in which encoding and reconstruction are completed may be additionally used.
  • the second sub-block may be predicted by further using a third main reference pixel adjacent to the second main reference pixel in the intra prediction direction and further positioned in the first sub-block. have.
  • each of the first main reference pixel, the second main reference pixel, and the third main reference pixel is weighted and added as a predicted value for each pixel of the second sub-block, or the first main reference pixel to the first sub-pixel.
  • An average value of the three main reference pixels may be used as a prediction value for each pixel of the second subblock.
  • 33 is a diagram illustrating a method of predicting a subblock divided into pixel lines in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • the first subblock of the current block to be encoded may be composed of pixel lines evenly positioned horizontally with respect to the current block.
  • the predicted value for each pixel of the first sub-block may be generated by copying the main reference pixel value in the prediction direction, using the pixel belonging to the block located at the upper or upper right end of the current block as the main reference pixel.
  • the second sub block of the current block to be encoded may include pixel lines that are odd-numbered in the horizontal direction with respect to the current block.
  • two pixels before and after the prediction direction are respectively referred to as a second reference pixel.
  • Prediction on the sub block may be performed.
  • an average of two pixels that are before and after the prediction direction of the current pixel or weighted to each of the two pixels may be added to determine the prediction value of the current pixel.
  • the main reference pixel may be referred to by being padded on the prediction direction as described above.
  • FIG. 34 is a second exemplary diagram for a method of predicting a subblock divided into pixel lines in intra prediction in a diagonal mode according to an embodiment of the present invention.
  • the first subblock of the current block to be encoded may be composed of pixel lines that are even-numbered in the vertical direction with respect to the current block.
  • the predicted value for each pixel of the first sub-block may be generated by copying the main reference pixel value in the prediction direction, using the pixel belonging to the block located at the upper or upper right end of the current block as the main reference pixel.
  • the second sub-block of the current block to be encoded may be composed of pixel lines vertically odd with respect to the current block.
  • the pixels of the first sub-block already reconstructed before and after the prediction direction of the current pixel to be predicted or the reconstructed pixels belonging to a block adjacent to the current block exist two pixels before and after the prediction direction are respectively referred to as main reference pixels.
  • Prediction on the second subblock may be performed.
  • an average of two pixels that are before and after the prediction direction of the current pixel or weighted to each of the two pixels may be added to determine the prediction value of the current pixel.
  • the main reference pixel When there is no main reference pixel positioned in the intra prediction direction in 34a or 34b, the main reference pixel may be referenced by padding on the prediction direction as described above.
  • the embodiment includes a case in which the prediction is performed using a pixel of an integer unit in the reference pixel in the diagonal prediction mode.
  • prediction may be performed by interpolating not only integer pixels but also decimal units according to the prediction mode direction.
  • the first main reference pixel is an integer unit pixel located at the start point of the prediction direction
  • the second main reference pixel is an integer unit pixel located at the end point of the prediction direction.
  • the first main reference pixel may mean an integer unit pixel or a decimal unit pixel positioned at the start point of the prediction direction
  • the second main reference pixel may mean an integer unit pixel or a decimal unit pixel located at the end point of the prediction direction.
  • the first main reference pixel may mean one integer unit pixel or a decimal unit pixel positioned at the start point of the prediction direction
  • the second main reference pixel may mean two or more integer unit pixels located at the end point of the prediction direction.
  • the two or more integer unit pixels may be pixels adjacent to the end point positions of the prediction direction.
  • the transform when encoding is performed by splitting into two or more sub-block units, the transform may be performed by using the same or different transform scheme in the sub-block unit.
  • the transformation-related setting in this example, whether to perform the transformation, the kind of transformation, etc.
  • the same transformation technique determined in the unit may be applied to the subblock.
  • an independent transform technique may be applied to a sub block.
  • 35 is an exemplary diagram of a flag indicating presence or absence of coding coefficients in units of a transform block.
  • a thick solid line indicates a coding block partition line
  • a thin solid line indicates a transform block partition line at a coding block reference depth
  • a dotted line indicates a transform block partition line at a depth 1.
  • 35a denotes a coded block flag (cbf.coded block flag in this example) when the coding block is divided into quadtrees, the coding block is square, and the transform block is converted into a quadtree, or the transform block is square.
  • a coded block flag cbf.coded block flag in this example
  • the upper left block (N ⁇ N) and the upper right block (N ⁇ N) of 35a do not support splitting of the transform block, and as the coding block is determined, It may be an example of a block whose shape is determined. That is, the coding block may be a block that does not support information about the size and shape of the transform block.
  • the upper left block (N ⁇ N) and the upper right block (N ⁇ N) are blocks in which the transform block is determined without division of the transform block, and thus supports cbf for each color component and does not generate additional cbf information.
  • the transform block is divided (N / 2 ⁇ N / 2) and information on the presence or absence of coding coefficients of the divided block may be needed.
  • additional cbf information generation may be determined to the transform blocks divided into lower units according to the information of cbf.
  • the cbf information for each color component is 0, since the coding coefficients of the respective components do not occur in the divided transform block, the cbf information is not additionally generated.
  • the transform block is divided (N / 2 ⁇ N / 2), and information about the presence or absence of coding coefficients of the divided block may be needed. At this time, part of the cbf information may be omitted.
  • Cbf_cr is set to 0 in the upper unit for blocks where no additional conversion block is split in the lower right block (N ⁇ N) (upper left and lower left, lower right block ⁇ N / 2 ⁇ N / 2>).
  • Cbf_L and cbf_cb information can be generated without creating additional cbf information.
  • cbf_cb is set to 0 so that the lower unit does not generate additional information about cbf_cb.
  • cbf information remaining until the current step may be generated.
  • cbf_L may be cbf information according thereto.
  • 35b shows an example of setting a coding coefficient presence flag when a coding block is divided by a binary tree method or a coding block is rectangular, and a transform block is divided by a binary tree method or a transform block is rectangular.
  • the first block (N / 2 ⁇ 2N) and the second block (N / 2 ⁇ 2N) from the left (when the large block is 2N ⁇ 2N) of 35b do not support partitioning of the transform block, and the coding block is determined.
  • the size and shape of the transform block may be examples of blocks. That is, the coding block may be a block that does not support information about the size and shape of the transform block.
  • the transform block is divided (N ⁇ N / 2) and information about the presence or absence of coding coefficients of the divided block may be needed.
  • additional cbf information generation may be determined to the transform blocks divided into lower units according to the information of cbf.
  • cbf_L for each color component is 0, the coding coefficients of the respective components do not occur in the divided transform block, and thus no additional cbf_L information is generated.
  • the encoding, prediction, and transform blocks may be dependently configured to resize the split form in Luma after resizing according to the color format in Cb and Cr.
  • Luma, Cb, Cr It may also be possible to set the division type of.
  • cbf_cr and cbf_cb can be processed independently of cbf_L.
  • N N partitions (the same size and shape as the encoding block) This may be the case when additional cbf_cb and cbf_cr are not generated.
  • the above configuration may determine whether to support independent partitioning or dependent partitioning according to conditions such as slice type, block size and shape.
  • the transform block may be divided (N / 2 ⁇ N) and information about the presence or absence of coding coefficients of the divided block may be needed.
  • cbf_cb since cbf_cb is 0, cbf_cb information is not generated anymore in the lower unit, and since cbf_cr is 1, additional cbf_cr information may be generated in the transform block of the lower unit.
  • the left block N / 2 ⁇ N of the divided transform blocks may generate cbf_L and cbf_cr because there is no additional division. Since the right block (N / 2 ⁇ N) of the divided transform blocks is transform block divided (dotted line), cbf_L can be omitted and cbf_cr can be generated. In addition, since the divided transform block N / 4 ⁇ N is no longer partitioned, information of cbf_L and cbf_cr may be generated, respectively.
  • cbf_cb and cbf_cr can be generated.
  • 36 is an example of syntax for a residual block in HEVC.
  • Coding coefficients tend to occur toward DC and low frequency components due to the transform and quantization processes. As such, encoding the coefficient components at all positions of the transform block M ⁇ N can be inefficient. It may be efficient to send information (x, y) at which position the coding coefficient last occurred. Based on a certain coordinate of the block (one of the top left, top right, bottom left, bottom right of the block, which can be determined according to the encoding setting ⁇ for example, QP>, which can be determined by having two or more candidate groups) This can be expressed by sending length and width information. Referring to FIG. 36, syntax regarding information on which position a coding coefficient last occurred is last_sig_coeff_x_prefix to last_sig_coeff_y_suffix.
  • a coding block is processed by dividing a transform block into 4 ⁇ 4 subblocks. Similar to cbf of FIG. 35, the syntax dealing with the presence or absence of non-zero coding coefficients in each 4x4 subblock is coded_sub_block_flag, and when the value is 1, the coding coefficients of the corresponding block are encoded.
  • a subblock unit (for encoding coefficient encoding) may always have a fixed size and shape regardless of the size and shape of a transform block, and may be a subblock having an adaptive size and shape according to the size and shape of the transform block. It may have a block unit.
  • a unit of a sub block may support an additional size and shape (for example, 8 ⁇ 8), including 4 ⁇ 4, wherein a unit supported by coded_sub_block_flag may be 4 ⁇ 4 or an additional size and shape unit.
  • the configuration of the syntax may vary according to the size and shape of the unit of the subblock.
  • the configuration of the syntax may vary according to an encoding mode. For example, the first subblock supports up to a and b of each coeff_abs_level_greater1_flag (flag indicating whether the absolute value of the coding coefficient is greater than 1) and coeff_abs_level_greater2_flag (flag indicating whether the absolute value of the coding coefficient is larger than 2).
  • each syntax may support up to c and d, where a may be greater than or equal to c, and b may be greater than or equal to d, where the first subblock size is equal to the second subblock. It can be larger than the block.
  • the encoding mode is Intra
  • up to a and b coeff_abs_level_greater1_flag and coeff_abs_level_greater2_flag are supported
  • up to c and d may be supported in Inter
  • a and c may be the same or different
  • b and d May be the same or different.
  • coded_sub_block_flag is not generated, but cbf information (supported in units of transform blocks) is generated. This is based on the assumption that the above diagonal scan (from top right to bottom left) is followed.
  • FIG. 37 is an exemplary diagram for describing encoding of coding coefficients according to an embodiment of the present invention.
  • 37a represents a coding coefficient
  • 37b represents a scanning order of the coding coefficients.
  • Sig_coeff_flag is generated for each coding coefficient, which may be a syntax indicating whether the coding coefficient is 0 or not. When the value is not the coding coefficient, when the value is 0, no additional syntax is generated for the corresponding coefficient, and when 1, additional syntax information about the coding coefficient may be generated.
  • coeff_sign_flag contains information on which sign the coefficient has. A value of 0 may mean a positive number and a value of 1 indicates a negative number.
  • coeff_abs_level_remaining may be referred to as syntax supported when syntax cannot be processed with syntaxes for each coefficient supported in sub-block units.
  • Table 1 shows coding coefficients and related syntaxes according to the coding coefficient of 37a and the scanning order of 37b when a maximum of eight coeff_abs_level_greater1_flag and coeff_abs_level_greater2_flag are supported, and one is supported.
  • the syntaxes are supported starting with a non-zero coding coefficient first, and if the maximum number occurs, the coefficients generated thereafter may be set as above under the assumption that large enough coefficients occur, It may be set differently depending on the form.
  • Equation 12 may be calculated according to a syntax generated for each coefficient, and a value of the syntax may be set to 0 when syntax coeff_abs_level_remaining is not generated. In addition to the syntax mentioned below, additional syntax elements used to reach coeff_abs_level_remaining may be considered.
  • the basic settings of the syntaxes are set in accordance with lossy coding.
  • a residual condition in the frequency domain includes a precondition that a lot occurs near a DC component in the upper left of the transform block.
  • some image characteristics and quantization parameter settings may cause a situation that violates basic preconditions. For example, in case the transform coefficient distribution is not collected in a general DC component, the transform or quantization may be omitted, and the definition of the operation of the syntax may be changed.
  • coeff_abs_level_remaining can support binarization through the following conditional expression.
  • Equation 13 prefix (p) is a truncated unary binarization, suffix (s) is composed of a binary representation, it is assumed that has a binary table as shown in Table 2.
  • k is a variable for the binarization table, and codewords allocated to v may be adjusted according to k. According to k, a different codeword is assigned to v. For example, in a situation where many small values occur, k has a lower value that results in shorter codewords on v. In a situation where many large values occur, k has a larger value on average. It can be a variable that is adjusted to keep the average codeword short by causing shorter codewords.
  • the binarization used for generating codewords such as the prefix and suffix, and the classification of prefix and suffix may be other methods including the above method, and codewords assigned to each value (coding coefficient in this example) according to a specific parameter variable. It can be said to be an example of a method for generating a short codeword on average by adjusting the, and examples of other variations including this concept may be possible.
  • Equation 14 is an equation for the update condition of the k parameter, k can be updated to k 'when the condition of the equation (14) is satisfied, the maximum value k can reach is 4.
  • k may be set according to conditions such as a bit depth (bit_depth) and a quantization parameter.
  • k initially set may be 0.
  • the condition for updating the value of k is checked by comparing with the expression condition. If the condition is satisfied, the k value is updated to k 'and can be used as k when encoding the next coeff_abs_level_remaning value.
  • the k value can be increased by a maximum of 1 in one update process and increased to the maximum value (4) set above and may be involved in the codeword allocation of coeff_abs_level_remaining.
  • k may have a property that does not increase or increase during the update process.
  • the update condition for the k value may have different settings in units of transform blocks. In addition, it may have different settings according to the encoding setting (in this example, the quantization parameter, the intra prediction method ⁇ prediction in block unit / prediction in pixel unit>).
  • the above update setting of the k parameter does not consider the characteristics of the image well and may affect the inappropriate codeword assignment.
  • the characteristics according to other encoding settings may also not be considered.
  • Efficient encoding can be performed by setting two or more candidate groups for a property of k value (a conventional property of k value does not decrease and increases and one increase is 1).
  • the k value may have a property of increasing or decreasing k value.
  • the increase (or decrease) of the k value may be one or more.
  • the range of k may be set from 0 to t, and t may have one or more candidate groups.
  • Combinations of the various settings described above can be used to set more than one k.
  • the setting thereof may be determined in units of a sequence, a picture, a slice, and the like.
  • Equation 15 S i denotes each (non-zero) coding coefficient and T () denotes a boundary value condition for determining which k value in the binarization table according to k.
  • N means the number of coding coefficients (non-zero) before the current coding coefficient position used to obtain T ().
  • T (S i ) can be obtained using an average of successive coding coefficients before the current coding coefficients.
  • Equation 14 the range of the coefficient whose k value is updated k 'may be summarized as shown in Table 3 below.
  • Such additional k update settings can be placed to assign adaptive codewords.
  • the above-described method may be used in a lossless compression environment, and an existing method may be used in a lossy compression environment.
  • the encoding efficiency can be improved by changing the setting of the scan in the entropy encoding step as well as the setting of the syntax operation.
  • Table 4 defines the scanning method in the intra prediction.
  • HEVC has different scanning methods according to intra prediction modes. However, due to image characteristics or quantization parameters, the existing scan direction may not match.
  • the table includes three scan patterns according to the block size and the prediction mode. Diag, ver, and hor, for example, change the scan pattern when the quantization parameter is not 0 and when the quantization parameter is 0 (i.e., lossless). Direction).
  • the scan method is different according to the existing block size and prediction mode, another scan method is applied again according to the quantization parameter.
  • there are three scan patterns but the conventional scan pattern is used according to the quantization parameter condition. However, this may also apply an additional pattern other than the existing scan pattern according to the quantization parameter condition.
  • a block shape, a block division method (transform block in this example), and the like may be considered.
  • 39 is a flowchart illustrating a decoding method using intra prediction according to an embodiment of the present invention.
  • a decoding method using intra prediction which is performed by a decoding apparatus, receiving a bit stream (S100), obtaining decoding information from the received bit stream (S200), and obtaining the obtained decoding information.
  • the generating of the prediction block (S300) may include generating each prediction block by using at least one main reference pixel selected from reconstruction pixels belonging to a block adjacent to the current block or belonging to at least one subblock of the current block.
  • the prediction block for the current block may be generated by generating the prediction value for the pixel.
  • the main reference pixel may be a pixel located in the prediction direction of the screen among the reconstructed pixels.
  • the current block and the current pixel before and after the prediction direction in the screen based on the current pixel to predict in the current block are most And generating a prediction block for the current block by using two adjacent main reference pixels.
  • the average of the two main reference pixels or the weighted values of the two main reference pixels, respectively, are added to the current block.
  • the prediction block may be generated as a prediction value for the pixel.
  • the at least one sub block may be obtained by dividing the current block using one of the quadtree method and the binary tree method, or may be obtained by dividing the current block by using the quadtree method and the binary tree method.
  • the at least one sub block may be composed of pixel lines positioned evenly or oddly in the current block.
  • the at least one sub block may be composed of pixel lines positioned evenly or oddly in the current block.
  • the at least one sub block is composed of coordinates in which the x and y coordinates of each pixel coordinate (x, y) in the current block are even, or one of the x and y coordinates is an even number and the other is an odd number. Or x and y coordinates that are odd.
  • the difference between the position between the main reference pixel and the current pixel to be predicted in the current block among the reconstructed pixels and the corresponding pixel based on the prediction direction in the screen is determined. Correcting the main reference pixel using the first reference pixel and generating a prediction block using the corrected main reference pixel.
  • the main reference pixel may be corrected by adding a difference value to the main reference pixel or adding a weighted value to the main reference pixel.
  • the main reference pixel may be corrected only when the pixel of the current pixel is predicted within a predetermined range.
  • the main reference pixel when two or more difference values are derived, the main reference pixel is obtained using a value derived by weighting an average of two or more difference values or each of the two or more difference values. Can be corrected.
  • 40 is a block diagram of a decoding apparatus using intra prediction according to an embodiment of the present invention.
  • the decoding apparatus 30 using the intra prediction may include a memory configured to store instructions for instructing at least one processor 31 and at least one processor to perform at least one step. 32).
  • the at least one step may include receiving a bit stream, obtaining decoding information from the received bit stream, generating a prediction block for a current block to be decoded using the obtained decoding information, and And reconstructing the current block by adding the obtained residual block and the prediction block.
  • the generating of the prediction block may include generating each prediction block for each pixel of the current block using at least one main reference pixel selected from reconstructed pixels belonging to a block adjacent to the current block or belonging to at least one subblock of the current block. By generating a prediction value, a prediction block for the current block can be generated.
  • the main reference pixel may be a pixel located in the prediction direction of the screen among the reconstructed pixels.
  • the average of the two main reference pixels or the weighted values of the two main reference pixels, respectively, are added to the current block.
  • the prediction block may be generated as a prediction value for the pixel.
  • the at least one sub block may be obtained by dividing the current block using one of the quadtree method and the binary tree method, or may be obtained by dividing the current block by using the quadtree method and the binary tree method.
  • the generating of the prediction block may include generating a prediction block using a difference value between a main reference pixel among reconstructed pixels and a current pixel to be predicted in the current block and a difference value between two pixels at corresponding positions based on the prediction direction in the screen. Correcting the reference pixel and generating a prediction block using the corrected main reference pixel.
  • the main reference pixel may be corrected by adding a difference value to the main reference pixel or adding a weighted value to the main reference pixel.
  • the main reference pixel may be corrected only when the pixel of the current pixel is predicted within a predetermined range.
  • the decoding apparatus 30 may be configured to perform the same or corresponding method as the decoding method of FIG. 39, and redundant description is omitted.
  • the decryption apparatus 30 may be, for example, a desktop computer, a laptop computer, a notebook computer, a smartphone, a tablet PC, or a mobile phone that can communicate.
  • mobile phone smart watch, smart glass, e-book reader, portable multimedia player (PMP), handheld game console, navigation device, digital camera, digital multimedia broadcasting, a digital audio recorder, a digital audio player, a digital video recorder, a digital video player, a PDA, and the like.
  • PMP portable multimedia player
  • the decoding apparatus 30 may further include an input / output unit 33 that receives a user input and displays the decoded image.
  • the input / output unit 33 may include, for example, a keyboard, a mouse, a touch screen, and a display. Device and the like.
  • the decoding apparatus 30 may further include a storage 34 that stores processed images, frames, blocks, and the like before and after the decoding process.
  • the storage 34 may include, for example, a hard disk drive (HDD). ), And a solid state disk (SSD).
  • the methods according to the invention can be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium.
  • Computer-readable media may include, alone or in combination with the program instructions, data files, data structures, and the like.
  • the program instructions recorded on the computer readable medium may be those specially designed and constructed for the present invention, or may be known and available to those skilled in computer software.
  • Examples of computer readable media may include hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions may include high-level language code that can be executed by a computer using an interpreter, as well as machine code such as produced by a compiler.
  • the hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.
  • the above-described method or apparatus may be implemented by combining all or part of the configuration or function, or may be implemented separately.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

화면 내 예측을 이용한 복호화 방법이 개시된다. 복호화 장치에서 수행되는 화면 내 예측을 이용한 복호화 방법은, 비트 스트림을 수신하는 단계, 수신된 비트 스트림에서 복호화 정보를 획득하는 단계, 획득한 복호화 정보를 이용하여 복호화하려는 현재 블록에 대한 예측 블록을 생성하는 단계 및 비트 스트림에서 획득된 잔차 블록과 예측 블록을 가산하여 현재 블록을 복원하는 단계를 포함할 수 있다. 따라서, 영상의 압축률이 향상될 수 있다.

Description

화면 내 예측을 이용한 영상 부호화/복호화 방법 및 장치
본 발명은 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 장치에 관한 것으로, 더욱 상세하게는 화면 내 예측에서 현재 블록 내 이미 부호화된 영역을 참조하고, 부호화하려는 화소에 가까운 참조 화소를 사용하며, 바이너리 분할을 혼용한 블록 사이즈를 사용하여 화면 내 예측을 수행함으로써 예측의 정확도를 향상시키는 방법 및 장치에 관한 것이다.
고효율 비디오 코딩(HEVC/H.265, High Efficiency Video Coding)은 차세대 동영상 부호화 기술로서, 기존에 H.264/MPEG-4 AVC를 개발했던 ISO/IEC MPEG과 ITU-T의 영상 부호화 전문가 그룹(Video Coding Experts Group)이 Joint Collaborative Team on Video Coding (JCT-VC)으로서 2010년 1월 팀을 결성하여 표준화 작업을 진행하였고, 차세대 최종 표준안으로 승인되었다.
HEVC는 블록 단위 예측에 기초하여, 부호화하려는 현재 블록의 공간적 상관성 또는 시간적 상관성을 이용한 예측 블록을 생성하고, 현재 블록과 예측 블록의 차분으로 얻어진 잔차 블록을 도출한다.
이때, 공간적 상관성을 이용하여 예측 블록을 생성하는 과정이 화면 내 예측 또는 인트라 예측(intra prediction)이라 하는데, 기존의 화면 내 예측 방법은 참조 화소를 그대로 복사해서 사용하는 까닭에 예측하고자 하는 화소와 거리가 멀면 예측값이 부정확해져 부호화 효율이 떨어지는 문제점이 있었다.
또한, 기존의 부호화 방법은 블록 형태가 고정된 형태를 띄고 분할 방법은 쿼드트리 분할 방식에 따르는 까닭에 복잡한 화면이나 가로 또는 세로로 유사한 형태를 갖는 화면에서 부호화 효율이 감소하는 문제점이 있었다.
따라서, 더 정확한 화면 내 예측값을 사용하고, 더 유연한 블록 형태를 사용하여 부호화 효율을 향상시키기 위한 방안이 필요한 실정이다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 화면 내 예측을 이용한 복호화 방법을 제공하는 데 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 화면 내 예측을 이용한 복호화 장치를 제공하는 데 있다.
상기 목적을 달성하기 위한 본 발명은, 화면 내 예측을 이용한 복호화 방법을 제공한다.
여기서, 화면 내 예측을 이용한 복호화 방법은, 비트 스트림을 수신하는 단계, 수신된 비트 스트림에서 복호화 정보를 획득하는 단계, 획득한 복호화 정보를 이용하여 복호화하려는 현재 블록에 대한 예측 블록을 생성하는 단계 및 비트 스트림에서 획득된 잔차 블록과 예측 블록을 가산하여 현재 블록을 복원하는 단계를 포함할 수 있다.
여기서, 예측 블록을 생성하는 단계는, 현재 블록과 인접한 블록에 속하거나 또는 현재 블록의 적어도 하나의 서브 블록에 속하는 복원 화소 중에서 선정된 적어도 하나의 주 참조 화소를 이용하여 현재 블록의 각 화소에 대한 예측값을 생성함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다.
여기서, 주 참조 화소는, 복원 화소 중에서 화면 내 예측 방향 상에 위치한 화소일 수 있다.
여기서, 예측 블록을 생성하는 단계는, 화면 내 예측 방향 상에 위치한 주 참조 화소가 두 개 이상인 경우, 현재 블록 내에 예측하려는 현재 화소를 기준으로 화면 내 예측 방향의 전후에 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 현재 블록에 대한 예측 블록을 생성하는 단계를 포함할 수 있다.
여기서, 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 현재 블록에 대한 예측 블록을 생성하는 단계는, 두 개의 주 참조 화소의 평균 또는 두 개의 주 참조 화소에 가중치를 각각 적용하여 더한 값을 현재 화소에 대한 예측값으로 하여 예측 블록을 생성할 수 있다.
여기서, 적어도 하나의 서브 블록은, 쿼드트리 방식 및 바이너리트리 방식 중 하나를 이용하여 현재 블록을 분할함으로써 획득되거나, 쿼드트리 방식과 바이너리트리 방식을 혼용하여 현재 블록을 분할함으로써 획득될 수 있다.
여기서, 적어도 하나의 서브 블록은, 현재 블록 내에서 가로로 짝수 또는 홀수번째에 위치한 화소 라인들로 구성될 수 있다.
여기서, 적어도 하나의 서브 블록은, 현재 블록 내에서 세로로 짝수 또는 홀수번째에 위치한 화소 라인들로 구성될 수 있다.
여기서, 적어도 하나의 서브 블록은, 현재 블록 내의 각 화소 좌표(x,y)의 x 및 y 좌표가 짝수인 좌표들로 구성되거나, x 및 y 좌표 중 하나는 짝수이고 다른 하나는 홀수인 좌표로 구성되거나, x 및 y 좌표가 홀수인 좌표들로 구성될 수 있다.
여기서, 예측 블록을 생성하는 단계는, 복원 화소 중에서 주 참조 화소 및 현재 블록 내에 예측하려는 현재 화소 사이의 위치와 화면 내 예측 방향을 기준으로 상응하는 위치에 있는 두 화소 사이의 차분값을 이용하여 주 참조 화소를 보정하는 단계 및 보정된 주 참조 화소를 이용하여 예측 블록을 생성하는 단계를 포함할 수 있다.
여기서, 주 참조 화소를 보정하는 단계는, 차분값을 주 참조 화소에 더하거나, 차분값에 가중치를 적용한 값을 주 참조 화소에 더함으로써 주 참조 화소를 보정할 수 있다.
여기서, 주 참조 화소를 보정하는 단계는, 현재 화소 중에서 일정한 범위 내에 속하는 화소에 대한 예측시에 한하여 주 참조 화소를 보정할 수 있다.
여기서, 주 참조 화소를 보정하는 단계는, 차분값이 두개 이상 도출되는 경우, 두 개 이상의 차분값들에 대한 평균 또는 두개 이상의 차분값들 각각에 가중치를 부여하여 도출된 값을 이용하여 주 참조 화소를 보정할 수 있다.
본 발명의 상기 목적을 달성하기 위한 다른 측면은 화면 내 예측을 이용한 복호화 장치를 제공한다.
여기서, 화면 내 예측을 이용한 복호화 장치는, 적어도 하나의 프로세서 및 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 명령하는 명령어들을 저장하는 메모리를 포함할 수 있다.
여기서, 적어도 하나의 단계는, 비트 스트림을 수신하는 단계, 수신된 비트 스트림에서 복호화 정보를 획득하는 단계, 획득한 복호화 정보를 이용하여 복호화하려는 현재 블록에 대한 예측 블록을 생성하는 단계 및 비트 스트림에서 획득된 잔차 블록과 예측 블록을 가산하여 현재 블록을 복원하는 단계를 포함할 수 있다.
여기서, 예측 블록을 생성하는 단계는, 현재 블록과 인접한 블록에 속하거나 또는 현재 블록의 적어도 하나의 서브 블록에 속하는 복원 화소 중에서 선정된 적어도 하나의 주 참조 화소를 이용하여 현재 블록의 각 화소에 대한 예측값을 생성함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다.
여기서, 주 참조 화소는, 복원 화소 중에서 화면 내 예측 방향 상에 위치한 화소일 수 있다.
여기서, 예측 블록을 생성하는 단계는, 화면 내 예측 방향 상에 위치한 주 참조 화소가 두 개 이상인 경우, 현재 블록 내에 예측하려는 현재 화소를 기준으로 화면 내 예측 방향의 전후에 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 현재 블록에 대한 예측 블록을 생성하는 단계를 포함할 수 있다.
여기서, 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 현재 블록에 대한 예측 블록을 생성하는 단계는, 두 개의 주 참조 화소의 평균 또는 두 개의 주 참조 화소에 가중치를 각각 적용하여 더한 값을 현재 화소에 대한 예측값으로 하여 예측 블록을 생성할 수 있다.
여기서, 적어도 하나의 서브 블록은, 쿼드트리 방식 및 바이너리트리 방식 중 하나를 이용하여 현재 블록을 분할함으로써 획득되거나, 쿼드트리 방식과 바이너리트리 방식을 혼용하여 현재 블록을 분할함으로써 획득될 수 있다.
여기서, 예측 블록을 생성하는 단계는, 복원 화소 중에서 주 참조 화소 및 현재 블록 내에 예측하려는 현재 화소 사이의 위치와 화면 내 예측 방향을 기준으로 상응하는 위치에 있는 두 화소 사이의 차분값을 이용하여 주 참조 화소를 보정하는 단계 및 보정된 주 참조 화소를 이용하여 예측 블록을 생성하는 단계를 포함할 수 있다.
여기서, 주 참조 화소를 보정하는 단계는, 차분값을 주 참조 화소에 더하거나, 차분값에 가중치를 적용한 값을 주 참조 화소에 더함으로써 주 참조 화소를 보정할 수 있다.
여기서, 주 참조 화소를 보정하는 단계는, 현재 화소 중에서 일정한 범위 내에 속하는 화소에 대한 예측시에 한하여 주 참조 화소를 보정할 수 있다.
상기와 같은 본 발명에 따른 화면 내 예측을 이용한 복호화 방법 및 장치를 이용할 경우에는 부호화 및 복호화 효율이 향상될 수 있다.
또한, 영상의 압축률을 더 향상시킬 수 있는 장점이 있다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 및 복호화 시스템에 대한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 영상 부호화 장치에 대한 블록도이다.
도 3은 본 발명의 일 실시예에 따른, 영상 복호화 장치(30)에 대한 구성도이다.
도 4는 본 발명의 일 실시예에 따른 블록 분할을 설명하기 위한 예시도이다.
도 5는 본 발명의 일 실시예에 따른 쿼드트리 방식과 바이너리트리 방식의 분할을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시예에 따른 부호화 블록을 분할하여 획득되는 예측 블록의 형태에 대한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 예측 블록을 부호화 블록으로부터 분할하는 예시도이다.
도 8은 본 발명의 일 실시예에 따른 변환 블록의 분할 형태를 설명하기 위한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 변환 블록이 부호화 블록으로부터 분할되는 방법을 설명하기 위한 예시도이다.
도 10은 HEVC에서 수행되는 화면 내 예측 모드를 설명하기 위한 예시도이다.
도 11은 본 발명의 일 실시예에 따른 화면 내 예측 모드를 설명하기 위한 예시도이다.
도 12는 본 발명의 일 실시예에 따른 수평 또는 수직모드에서 적용 가능한 참조 화소를 설명하기 위한 예시도이다.
도 13은 일반적인 블록 기반 예측과 화소 기반 예측을 비교하기 위한 예시도이다.
도 14는 일반적인 화면 내 예측 방법을 설명하기 위한 예시도이다.
도 15는 본 발명의 일 실시예에 따른 화면 내 예측 이후에 독립적으로 잔차 블록에 대한 변환과 양자화가 진행되는 과정을 설명하기 위한 예시도이다.
도 16은 본 발명의 일 실시예에 따른 화면 내 예측에서 현재 블록내에 부호화가 완료된 서브 블록을 참조하여 의존적 화면 내 예측을 설명하기 위한 예시도이다.
도 17은 본 발명의 일 실시예에 따른 바이너리 분할이 적용된 현재 블록에 대하여 잔차블록의 독립적인 변환 및 양자화가 진행되는 과정을 설명하기 위한 예시도이다.
도 18은 본 발명의 일 실시예에 따른 바이너리 분할이 적용된 현재 블록에 대하여, 현재 블록의 부호화가 완료된 서브 블록을 참조하여 의존적 화면 내 예측을 설명하기 위한 예시도이다.
도 19는 본 발명의 일 실시예에 따른 화소 기반 예측을 도입한 화면 내 예측 방법에 대한 예시도이다.
도 20은 본 발명의 일 실시예에 따른 블록 기반 화면 내 예측에서 참조 화소의 기울기 또는 차분값을 이용하여 예측하는 방법에 대한 예시도이다.
도 21은 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 가로 분할된 서브 블록의 예측 방법에 대한 예시도이다.
도 22는 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 세로 분할된 서브 블록의 예측 방법에 대한 예시도이다.
도 23은 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 화소 라인으로 분할된 서브 블록의 예측 방법에 대한 제1 예시도이다.
도 24는 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 화소 라인으로 분할된 서브 블록의 예측 방법에 대한 제2 예시도이다.
도 25는 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 쿼드트리 방식으로 분할된 서브 블록의 예측 방법에 대한 제1 예시도이다.
도 26은 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 쿼드트리 방식으로 분할된 서브 블록의 예측 방법에 대한 제2 예시도이다.
도 27은 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 홀수 또는 짝수 좌표에 따라 분할된 서브 블록의 예측 방법에 대한 제2 예시도이다.
도 28은 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 참조 화소의 기울기 또는 차분값을 추가로 이용하여 예측을 수행하는 방법에 대한 예시도이다.
도 29는 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 바이너리 모드로 가로 분할된 서브 블록에 대하여 예측을 수행하는 방법에 대한 제1 예시도이다.
도 30은 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 바이너리 모드로 가로 분할된 서브 블록에 대하여 예측을 수행하는 방법에 대한 제1 예시도이다.
도 31은 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 바이너리 모드로 세로 분할된 서브 블록에 대하여 예측을 수행하는 방법에 대한 제1 예시도이다.
도 32는 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 바이너리 모드로 세로 분할된 서브 블록에 대하여 예측을 수행하는 방법에 대한 제2 예시도이다.
도 33은 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 화소 라인으로 분할된 서브 블록의 예측 방법에 대한 제1 예시도이다.
도 34는 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 화소 라인으로 분할된 서브 블록의 예측 방법에 대한 제2 예시도이다.
도 35는 변환 블록 단위로 부호화 계수 유무를 지시하는 플래그에 대한 예시도이다.
도 36은 HEVC에서 잔차 블록에 대한 신택스의 예이다.
도 37은 본 발명의 일 실시예에 따른 부호화 계수의 부호화를 설명하기 위한 예시도이다.
도 38은 현재 부호화 계수 이전에 부호화 계수 및 수학식 15의 값을 결정하는 계수에 관한 예시도이다.
도 39는 본 발명의 일 실시예에 따른 화면 내 예측을 이용한 복호화 방법에 대한 흐름도이다.
도 40은 본 발명의 일 실시예에 따른 화면 내 예측을 이용한 복호화 장치에 대한 블록도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 및 복호화 시스템에 대한 개념도이다.
도 1을 참조하면, 영상 부호화 장치(105) 및 복호화 장치(100)는 개인용 컴퓨터(PC:Personal Computer), 노트북 컴퓨터, 개인 휴대 단말기(PDA: Personal Digital Assistant), 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 플레이스테이션 포터블(PSP: PlayStation Portable), 무선 통신 단말기(Wireless Communication Terminal), 스마트폰(Smart Phone), TV 등과 같은 사용자 단말기이거나 응용 서버와 서비스 서버 등 서버 단말기일 수 있으며, 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 부호화 또는 복호화를 위해 인터 또는 인트라 예측하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리(memory, 120, 125), 프로그램을 실행하여 연산 및 제어하기 위한 프로세서(processor, 110, 115) 등을 구비하는 다양한 장치를 포함할 수 있다. 또한, 영상 부호화 장치(105)에 의해 비트스트림으로 부호화된 영상은 실시간 또는 비실시간으로 인터넷, 근거리 무선 통신망, 무선랜망, 와이브로망, 이동통신망 등의 유무선 통신망(Network) 등을 통하거나 케이블, 범용 직렬 버스(USB: Universal Serial Bus) 등과 같은 다양한 통신 인터페이스를 통해 영상 복호화 장치(100)로 전송되어 영상 복호화 장치(100)에서 복호화되어 영상으로 복원되고 재생될 수 있다. 또한, 영상 부호화 장치(105)에 의해 비트스트림으로 부호화된 영상은 컴퓨터 판독 가능한 기록 매체를 통하여 영상 부호화 장치(105)에서 영상 복호화 장치(100)로 전달될 수 있다.
도 2는 본 발명의 일 실시예에 따른 영상 부호화 장치에 대한 블록도이다.
본 실시예에 따른 영상 부호화 장치(20)는, 도 2에 나타낸 바와 같이, 예측부(200), 감산부(205), 변환부(210), 양자화부(215), 역양자화부(220), 역변환부(225), 가산부(230), 필터부(235), 복호화 픽쳐 버퍼(240) 및 엔트로피 부호화부(245)를 포함할 수 있다.
예측부(200)는 영상에서 현재 부호화하고자 하는 블록에 대하여 화면 내 예측 또는 화면 간 예측을 통해 예측을 수행할 수 있다. 화면 내 예측 또는 화면 간 예측의 기 결정된 최적의 예측 모드에 따라 예측 블록을 생성하며, 이 때, 예측 모드는 화면 내 예측 모드, 움직임 관련 정보 등이 포함될 수 있다.
감산부(205)는 부호화할 현재 블록의 화소값으로부터 예측 블록의 화소값들을 감산하여 화소 차이 값들을 도출함으로써, 잔차(residue) 영상 블록을 생성할 수 있다.
변환부(210)는 감산부(205)로부터 전달받은 잔차 블록을 변환하여 변환 블록을 생성할 수 있다. 즉, 공간 영역에 속하는 잔차 신호를 주파수 영역에 속하는 잔차 변환 신호로 변환할 수 있다. 이 때, 사용되는 변환 방법으로서는 하마다드 변환(Hadamard Transform), 이산 코사인 변환(DCT Based-Transform: Discrete Cosine Transform), 이산 사인 변환(DST Based-Transform: Discrete Sine Transform) 등과 같은 변환 기법이 이용될 수도 있지만, 이에 한정되지 않고 이를 개량 및 변형한 기법과 같은 다양한 변환 기법이 이용될 수 있다.
양자화부(215)는 변환 블록을 양자화하여 양자화된 변환 블록을 생성할 수 있다. 즉, 변환부로부터 획득되는 잔차 변환 신호를 양자화된 잔차 변환 신호로 양자화할 수 있다. 이 때, 사용되는 양자화 방법으로는 데드존 균일 경계 양자화(DZUTQ: Dead Zone Uniform Threshold Quantization), 양자화 가중치 매트릭스(Quantization weighted matrix) 또는 이를 개량한 기법을 사용할 수 있다.
엔트로피 부호화부(245)는 양자화된 변환 블록을 부호화 하여 비트스트림을 출력할 수 있다. 이 때 부호화 방법으로는, 문맥 적응 가변 길이 부호화(Context-Adaptive Variable Length Coding), 문맥 적응 이진 산술 부호화(Context-Adaptive Binary Arithmetic Coding) 등을 사용할 수 있다. 또한, 부호화 과정에 필요한 부가적인 정보를 포함하는 비트스트림을 생성하고 출력할 수 있으며, 이 때, 부가적인 정보는 블록 분할에 대한 정보, 예측 모드에 대한 정보, 변환 정보, 양자화 계수 등이 포함될 수 있다.
역양자화부(220) 및 역변환부(225)는 역양자화 및 역변환을 각각 적용하여 화소 신호로 잔차 블록을 재구성할 수 있다. 재구성된 잔차 블록은 가산부(230)에서 예측 블록과 가산되어 복원 블록을 생성할 수 있고, 복원된 블록은 복호화 픽쳐 버퍼(240)에 저장되어 블록 단위 또는 픽쳐 단위로 누적되어 예측부(200)로 전달되어 다음 블록 또는 다음 픽쳐 등에서 참조되어 사용될 수 있다.
필터부(235)는 상기 복원된 영상 블록에 대하여, 필요에 따라 블로킹(blocking) 현상을 제거하기 위하여 디블로킹 필터를 적용할 수도 있고, 상기 비디오 품질을 향상시키기 위해 추가적인 루프 필터가 적용되어 필터링할 수 있다.
도 3은 본 발명의 일 실시예에 따른, 영상 복호화 장치(30)에 대한 구성도이다.
도 3을 참조하면, 영상 복호화 장치(30)는, 부호화 픽쳐 버퍼(300), 엔트로피 복호화부(305), 예측부(310), 역양자화부(315), 역변환부(320), 가감산기(325), 필터(330), 복호화 픽쳐 버퍼(335)를 포함하여 구성될 수 있다.
또한, 예측부(310)는 다시 화면 내 예측 모듈 및 화면 간 예측 모듈을 포함하여 구성될 수 있다.
먼저, 영상 부호화 장치(20)로부터 전달된 영상 비트스트림이 수신되면, 부호화 픽쳐 버퍼(300)에 저장될 수 있다.
엔트로피 복호화부(305)는 비트스트림으로부터 양자화된 변환 블록을 복원할 수 있다. 또한, 비트스트림으로부터 복호화 과정에 필요한 부가적인 정보를 복원할 수 있으며, 이에 대한 정보는 예측부(310), 역양자화부(315), 역변환부(320) 등으로 전달될 수 있다.
예측부(310)는 엔트로피 복호화부(305)로부터 전달받은 데이터들에 기초하여 현재 블록에 대한 예측 블록을 생성할 수 있다. 예측 블록은 복호화 픽쳐 버퍼(335)에 저장된 참조 영상과 복원된 예측 블록 정보에 기초하여 생성할 수 있으며, 이 때 예측 블록 정보는 예측 모드 정보, 예측 블록 획득 정보(본 예에서 블록의 크기 및 형태, 블록의 분할 정보) 등을 포함할 수 있다.
역양자화부(315)는 비트스트림으로 제공되어 엔트로피 복호화부(305)에 의해 복호화된 양자화된 변환 계수들을 역양자화할 수 있다.
역변환부(320)는 양자화된 변환 계수들에 역변환 기법을 적용하여 잔차 블록을 생성할 수 있다.
이때, 역양자화부(315), 역변환부(320)는 앞서 설명한 영상 부호화 장치(20)의 변환부(210) 및 양자화부(215)에서 수행한 과정을 역으로 수행하며 다양한 방법으로 구현될 수 있다. 예를 들어, 변환부(210) 및 양자화부(215)와 공유하는 동일한 과정 및 역변환을 사용할 수도 있고, 영상 부호화 장치(20)로부터 변환 및 양자화 과정에 관한 정보(예를 들면, 변환 크기, 변환 모양, 양자화 타입 등)를 이용하여 변환 및 양자화 과정을 역으로 수행할 수 있다.
역양자화 및 역변환 과정을 거친 잔차 블록은 예측부(310)에 의해 도출된 예측 블록과 가산되어 복원된 영상 블록이 생성될 수 있다. 이러한 가산은 가감산기(325)에 의해 이루어 질 수 있다.
그 후, 필터(330)는 복원된 영상 블록에 대하여, 필요에 따라 블로킹(blocking) 현상을 제거하기 위하여 디블로킹 필터를 적용할 수도 있고, 상기 복호화 과정 전 후에 다른 루프 필터들을 비디오 품질을 향상시키기 위해 사용할 수 있다.
이렇게 복원 및 필터를 거친 영상 블록은 복호화 픽쳐 버퍼(335)에 저장될 수 있다.
다음은 본 발명의 블록 설정부에 대한 상세한 설명을 포함한다.
영상 부호화 장치(20) 및 영상 복호화 장치(30)에 도시하지 않았지만 블록 설정부가 더 포함될 수 있다. 블록 설정부는 영상 부호화 및 복호화 장치의 각 구성부에 관계되어 설정될 수 있으며, 이 과정을 통해 블록의 크기 및 형태가 정해질 수 있다. 이 때, 설정되는 블록은 구성부에 따라 달리 정의될 수 있으며, 예측부(200)의 경우 예측 블록, 변환부(210)의 경우 변환 블록이 이에 해당할 수 있다. 즉, 구성부에 따라 블록 단위가 정의될 수 있으며 본 발명에서는 부호화 블록, 예측 블록, 변환 블록을 중심으로 설명하지만, 이에 한정되지 않고 다른 구성부에 따른 블록 단위가 추가로 정의될 수 있다. 블록의 크기 및 형태는 블록이 갖는 가로, 세로 길이에 의해 정의될 수 있다.
블록 설정부는 블록 단위가 가질 수 있는 크기 및 형태(본 예에서 최대값과 최소값 관련 정보 등)를 정의할 수 있다. 또한, 블록 설정부는 블록 단위에서의 블록 분할 설정(본 예에서 분할 방식, 분할 심도 등)을 정의할 수 있다. 상기 과정을 통해 블록 단위에서 획득될 수 있는 적어도 하나의 크기와 형태(본 예에서 개별적인 가로/세로 길이로 인한 정사각 또는 적어도 하나의 가로/세로 비율을 갖는 직사각 형태)를 갖는 블록이 정의될 수 있다. 상기 정의된 설정은 시퀀스, 픽쳐, 슬라이스, 타일 등의 단위로 결정될 수 있고 비트스트림에 수록될 수도 있으며, 복호화기에서 파싱되어 관련 정보로 복원될 수 있다. 이는 부호화 및 복호화 과정의 시작 전 단계에서 수행될 수 있다. 또한, 각 영상 단위별로 하나의 설정을 가질 수 있고, 둘 이상의 설정을 가질 수 있으며, 이는 슬라이스 타입(I/P/B), 부호화 모드(Intra/Inter), 컬러 성분(Y/Cb/Cr), 시간적 계층(Temporal Id) 등의 정보 중 하나 또는 둘 이상의 정보 조합에 따라 결정될 수가 있다. 둘 이상의 설정을 가질 경우에 묵시적으로 관련 정보가 정해질 수 있고, 또는 명시적으로 관련 정보가 생성될 수도 있다.
상기 정의에 따라 블록 단위에서 획득될 수 있는 적어도 하나의 크기와 형태를 갖는 블록 중 최적의 블록 단위(본 예에서 블록의 크기 및 형태)를 결정하기 위한 블록 정보가 생성될 수 있다. 상기 블록 분할 설정에 의한 정의(본 예에서 분할 방식, 분할 심도 등)에 따라 관련 정보가 생성(본 예에서 분할 플래그, 분할 인덱스 등)될 수 있다. 블록 분할 정보는 블록 단위로 결정되어 비트스트림에 수록될 수 있고, 복호화기에서 파싱되어 관련 정보로 복원될 수 있다. 이는 부호화 및 복호화 과정의 구성부 시작 전 단계에서 결정될 수 있다. 상기 정의와 현재 블록 단위의 상태(본 예에서 분할 수행 전 또는 분할 수행 중인 블록의 크기 및 형태)에 기초하여 획득될 수 있는 블록이 하나일 경우에는 묵시적으로 블록 분할 정보(본 예에서 분할 수행 후의 블록의 크기 및 형태 정보)가 결정될 수 있고, 둘 이상일 경우에는 명시적으로 블록 분할 정보가 생성될 수도 있다. 예를 들어, 해당 블록 단위의 최대 블록 크기, 최소 블록 크기, 심도, 현재 블록의 크기 등의 정보가 고려되어 묵시적 또는 명시적인 방법 중 하나가 결정될 수 있다.
또한, 블록 단위에 따라 동일한 분할 설정 또는 다른 분할 설정을 따를 수 있다. 예를 들어, 부호화 블록과 예측 블록에서 동일한 분할 방식(본 예에서 트리 구조에 따른 분할을 수행하며 그 중 쿼드트리 방식)을 사용할 수 있고, 동일한 분할 허용 심도 깊이를 사용할 수 있다. 또는, 예측 블록과 변환 블록에서 다른 분할 방식(본 예에서 예측 블록은 인덱스 선택에 따른 분할을 수행하며, 변환 블록은 트리 구조에 따른 분할을 수행하며 그 중 쿼드트리 방식)을 사용할 수 있고, 다른 계층적 분할 방식(본 예에서 예측 블록은 단일 계층 내에서 인덱스 선택에 따른 분할을 수행하며, 변환 블록은 분할 심도가 1 이상인 다중 계층에서 트리 구조에 따른 분할을 수행)을 사용할 수 있다. 또는, 부호화 블록과 변환 블록에서 다른 분할 방식(본 예에서 트리 구조에 따른 분할을 수행하며 부호화 블록은 쿼드트리 방식과 바이너리트리 방식, 변환 블록은 쿼드트리 방식)을 사용할 수 있고, 동일한 분할 허용 심도 깊이를 사용할 수 있다.
블록 분할 설정 중 분할 심도는 블록 단위의 초기 블록을 기준으로 공간적으로 분할한 횟수(본 예에서 초기 블록의 심도는 0)를 의미하며, 심도가 증가할수록 더 작은 블록으로 분할될 수 있다. 이는 분할 방식에 따라 심도 관련 설정을 달리할 수 있다. 예를 들어, 트리 구조에 따른 분할을 수행하는 방식 중 쿼드트리 방식에서의 심도와 바이너리트리 방식에서의 심도는 공통되는 하나의 심도를 사용할 수 있고, 개별적인 심도를 사용할 수 있다.
상위 블록 단위의 분할 결과에 따라 하위 블록 단위의 초기 블록(본 예에서 분할 수행 전 블록)의 크기 및 형태가 결정되며 분할 관련 정보(본 예에서 분할 수행 후 블록 정보) 생성에 영향을 줄 수 있다. 부호화 블록은 예측 블록과 변환 블록의 상위 단위일 수 있고, 예측 블록은 변환 블록의 상위 단위일 수 있고 아닐 수도 있다. 이는 부호화 설정에 따라 결정될 수 있다. 예를 들어, 부호화 모드가 Intra일 경우에는 예측 블록은 변환 블록의 상위 단위일 수 있고, Inter일 경우에는 예측 블록은 변환 블록에 독립적인 단위일 수 있다.
또한, 하나 이상의 블록 단위가 결합되어 하나의 분할 방식을 공유할 수 있다. 예를 들어, 부호화 블록과 예측 블록이 하나의 단위로 결합될 경우 분할을 통해 획득된 하나의 최적의 블록(본 예에서 하나의 블록 크기 및 형태)을 가질 수 있으며, 이는 부호화 및 예측의 기본 단위(본 예에서 추가로 분할을 수행하지 않는 단위)일 수 있다. 또는, 부호화 블록과 변환 블록이 하나의 단위로 결합될 경우 하나의 최적의 블록을 가질 수 있으며, 이는 부호화 및 변환의 기본 단위일 수 있다. 또는, 부호화 블록과 예측 블록, 변환 블록이 하나의 단위로 결합될 경우 하나의 최적의 블록을 가질 수 있으며, 이는 부호화, 예측 및 변환의 기본 단위일 수 있다. 이는 슬라이스 타입, 부호화 모드, 컬러 성분 등의 정보 중 하나 또는 둘 이상의 정보 조합에 따라 결정될 수가 있다.
본 발명은 각 블록 단위가 개별적인 경우를 중심으로 설명하지만, 다른 블록 단위로의 적용이 가능할 수 있고, 각 블록 단위의 둘 이상의 통합적인 경우로의 변형 적용 또한 가능할 수 있다.
도 4는 본 발명의 일 실시예에 따른 블록 분할을 설명하기 위한 예시도이다.
도 4를 참조하면, 부호화 블록을 분할하는 방법으로서, 트리 구조에 따른 분할 형태를 설명할 수 있다.
본 발명은 트리 구조에 따른 분할에 대한 예로 쿼드트리(Quad tree) 방식과 바이너리트리(Binary tree) 방식에 따른 분할의 경우를 예로 설명을 할 것이나, 이에 한정되지 않으며 이를 개량 및 변형한 분할 방법도 이용될 수 있다.
먼저, 쿼드트리 방식을 부호화 블록 획득 방식으로 사용하는 HEVC의 경우 획득가능한 부호화 블록은 4a(분할하지 않음)와 4d(가로와 세로 방향으로 각각 2분할)일 수 있다. 한편, 바이너리트리 방식을 사용할 경우 획득가능한 부호화 블록은 4a, 4b(가로 방향으로 2분할), 4c(세로 방향으로 2분할)일 수 있으며, 두 방식의 혼용할 경우 획득가능한 부호화 블록은 4a, 4b, 4c, 4d일 수 있다. 쿼드트리 방식의 경우 분할 관련하여 하나의 분할 플래그를 지원하며 해당 플래그가 0일 경우에는 4a, 1일 경우에는 4d의 블록 형태를 가질 수 있다. 바이너리트리 방식의 경우 하나 이상의 분할 플래그를 지원하며, 그 중 하나는 분할 여부를 나타내는 플래그일 수 있고, 그 중 하나는 가로/세로 분할 여부를 나타내는 플래그일 수 있고, 그 중 하나는 가로/세로 분할 겸침 여부를 나타내는 플래그일 수 있다.
L1(가로 분할)과 L2(세로 분할)는 바이너리트리 분할을 수행할 경우 블록 간의 경계를 가르는 선일 수 있으며, L3와 L4는 쿼드트리 분할을 수행할 경우 블록 간의 경계를 가르는 선일 수 있다. 분할 방식 및 설정에 따라 L3와 L4는 L1과 L2와 같이 가로 분할, 세로 분할과 같은 바이너리트리 분할에서의 경계선일 수 있으며, L3와 L4의 경계선이 겹침 허용되는 사용 설정 하에는 L3와 L4 경계선으로 쿼드트리 분할을 수행할 수도 있다. 다른 예로, L3와 L4의 경계선이 겹침 허용이 되지 않는 설정 하에는 획득가능한 부호화 블록은 4a, 4b, 4c일 수 있고, 경계선이 겹침 허용되는 설정 하에는 획득가능한 부호화 블록은 4a, 4b, 4c, 4d일 수 있다.
따라서, 분할 전 부호화 블록이 4a 내지 4d와 같이 정사각 형태(M×M)일 경우 M×M/2, M/2×M, M/2×M/2 등과 같은 분할 블록이 획득될 수 있다.
분할 전 부호화 블록이 직사각 형태(M×N)일 경우 M×N/2, M/2×N, M/2×N/2 등과 같은 분할 블록이 획득될 수 있다. 부호화 블록의 가로/세로 비와 심도에 따라 M×N/4, M×N/8, M/4×N, M/8×N, M/2×N/4, M/4×N/2 등과 같은 가로/세로 비를 갖는 부호화 블록이 획득될 수 있다.
또한, 상기 예에서 쿼드트리, 바이너리트리, 이를 변형한 그 외 방식 등을 통해 추가적인 분할 블록(예를 들어, 가로/세로 비가 상기 예와 다른 형식)이 가능할 수 있다.
도 4에 따른 예시는 M×M 의 크기를 갖는 분할 형태로 설명하였으나, 최대 부호화 블록 크기, 최소 부호화 블록 크기, 허용 가능한 심도, 분할 방식, 부호화 모드, 슬라이스 타입 등에 따라 획득될 수 있는 부호화 블록은 다를 수 있다. 최대 부호화 단위의 블록이 M×M의 정사각 형태를 가지는 것에 비해, 사용되는 분할 방식에 따라 (상기 예에서) 2M×M, M×2M과 같은 M×N의 직사각 형태일 수 있다.
도 5는 본 발명의 일 실시예에 따른 쿼드트리 방식과 바이너리트리 방식의 분할을 설명하기 위한 예시도이다.
도 5를 참조하면, 굵은 실선(L0)은 최대 부호화 블록을, 굵은 실선과 다른 선(L1~L5)으로 구획된 블록은 분할된 부호화 블록을 의미하며, 블록 내부의 숫자는 분할된 서브 블록의 위치(본 예에서 Raster Scan 순서를 따름)를 의미하며 '-'의 개수는 해당 블록이 갖는 심도 깊이를 의미하고, 블록 간의 경계선의 숫자는 분할된 횟수를 의미할 수 있다. 예를 들어, 4분할된 경우(본 예에서 쿼드트리 방식) UL(0)-UR(1)-DL(2)-DR(3)의 순서로, 2분할된 경우(본 예에서 바이너리트리 방식) L 또는 U(0) - R 또는 D(1)의 순서를 가질 수 있으며, 이는 각 심도 깊이에서 정의될 수 있다.
한편, 여러 가지 요인에 따라 획득가능한 부호화 블록이 제한적일 수 있다.
일 예로 5a의 최대 부호화 블록이 64×64이고, 최소 부호화 블록은 16×16이며 쿼드트리 분할을 사용한다고 가정하자. 이 경우, 2-0, 2-1, 2-2 블록(본 예에서 16×16 크기)이 최소 부호화 블록 크기와 같기 때문에, 2-3-0, 2-3-1, 2-3-2. 2-3-3 블록(본 예에서 8×8크기)과 같은 더 작은 블록으로 분할되지 않을 수 있다. 이 경우 2-0, 2-1, 2-2, 2-3 블록에서는 획득가능한 블록은 16×16 블록, 즉 하나의 후보군을 갖기 때문에 블록 분할 정보가 생성되지 않는다.
일 예로 5b의 최대 부호화 블록이 64×64이고, 최소 부호화 블록은 가로 또는 세로 길이로 8, 허용가능한 심도는 3이라고 가정하자. 이 경우, 1-0-1-1(본 예에서 16×16 크기. 심도 깊이는 3) 블록이 최소 부호화 블록 조건을 만족하기 때문에 더 작은 블록으로 분할될 수 있다. 그러나 허용가능한 심도와 같기 때문에 더 높은 심도의 블록(본 예에서 1-0-1-0-0, 1-0-1-0-1 블록)으로 분할되지 않을 수 있다. 이 경우 1-0-1-0, 1-0-1-1 블록에서는 획득가능한 블록은 16×8 블록, 즉 하나의 후보군을 갖기 때문에 블록 분할 정보가 생성되지 않는다.
이처럼, 부호화 설정에 따라 쿼드트리 방식의 분할을 지원하거나 바이너리트리 방식의 분할을 지원할 수 있다. 또는, 쿼드트리 방식의 분할과 바이너리트리 방식의 분할을 혼합하여 지원할 수도 있다. 예를 들어, 블록 크기, 심도 등에 따라 상기 방식 중 하나 또는 그들을 혼합하여 지원할 수 있다. 블록이 제 1 블록 범위(Min_Q~Max_Q)에 속할 경우에는 쿼드트리 방식을, 제 2 블록 범위(Min_B~Max_B)에 속할 경우에는 바이너리트리 방식을 지원할 수 있다. 하나 이상의 분할 방식이 지원될 경우 가질 수 있는 각 방식에 따른 최대 부호화 블록 크기, 최소 부호화 블록 크기, 허용가능한 심도 등의 설정을 하나 이상 가질 수 있다. 상기 범위는 서로의 범위가 중첩되어 설정될 수도 있고, 그렇지 않을 수도 있다. 또는, 어느 하나의 범위가 다른 범위를 포함하는 설정 또한 가능할 수 있다. 이에 대한 설정은 슬라이스 타입, 부호화 모드, 컬러 성분 등의 개별적이거나 혼합적인 요소에 따라 결정될 수 있다.
일 예로, 슬라이스 타입에 따라 블록 분할 설정이 결정될 수 있다. I 슬라이스일 경우에 지원되는 블록 분할 설정은 쿼드트리 방식의 경우 128×128 ~ 32×32 범위에서의 분할을, 바이너리트리 방식의 경우 32×32 ~ 8×8 범위에서의 분할을 지원할 수 있다. P/B 슬라이스일 경우에 지원되는 블록 분할 설정은 쿼드트리 방식의 경우 128×128 ~ 32×32 범위에서의 분할을, 바이너리트리 방식의 경우 64×64 ~ 8×8 범위에서의 분할을 지원할 수 있다.
일 예로, 부호화 모드에 따라 블록 분할 설정이 결정될 수 있다. Intra일 경우에 지원되는 블록 분할 설정은 바이너리트리 방식의 경우 64×64 ~ 8×8 범위에서의 분할과 허용가능한 심도를 2를 지원할 수 있다. Inter일 경우에 지원되는 블록 분할 설정은 바이너리트리 방식의 경우 32×32 ~ 8×8 범위에서의 분할과 허용가능한 심도를 3을 지원할 수 있다.
일 예로, 컬러 성분에 따라 블록 분할 설정이 결정될 수 있다. 휘도 성분일 경우에 쿼드트리 방식의 경우 256×256 ~ 64×64 범위에서의 분할을, 바이너리트리 방식의 경우 64×64 ~ 16×16 범위에서의 분할을 지원할 수 있다. 색차 성분일 경우에 쿼드트리 방식의 경우 휘도 성분과 동일한 설정(본 예에서 색차 포맷에 따라 각 블록의 길이가 비례하는 설정)을, 바이너리트리 방식의 경우 64×64 ~ 4×4 범위(본 예에서 이에 동일한 휘도 성분에서의 범위는 128×128 ~ 8×8. 4:2:0에서의 가정)에서의 분할을 지원할 수 있다.
도 6은 본 발명의 일 실시예에 따른 부호화 블록을 분할하여 획득되는 예측 블록의 형태에 대한 예시도이다.
예측 블록을 분할하는 방법으로 단일 계층(본 예에서 하나의 심도. 0)에서 하나 이상의 후보군을 갖는 블록 분할 형태를 지원할 수 있으며, 추가적인 심도 지원 하에 블록 분할을 지원할 수 있다. 단일 계층에서 예측 블록의 분할을 지원할 경우에는 둘 이상의 블록 분할 형태에 대한 다양한 이진화 과정을 통해 인덱스 정보를 생성하여 블록 분할 형태에 대한 정보를 나타낼 수 있고, 다중 계층에서 예측 블록의 분할을 지원할 경우에는 분할 방식(본 예에서 쿼드트리, 바이너리트리 등)에 따른 분할 플래그에 대한 정보를 생성하여 블록 분할 형태에 대한 정보를 나타낼 수 있다. 본 발명의 예측 블록 분할에서는 단일 계층에서 둘 이상의 블록 형태를 인덱스 정보 생성을 통해 블록 분할 형태에 대한 정보를 나타내는 방법을 중심으로 설명한다.
도 6은 단일 계층에서 획득 가능한 블록 분할 형태에 대한 예를 나타내고 있다. 여기서는 부호화 블록이 정사각 형태일 때를 나타내고 있으나, 직사각 형태일 때는 도 6과 동일한 가로/세로 비로 변경 적용될 수 있다.
부호화 설정에 따라 도 6의 후보군 중 일부를 예측 블록 후보군으로 설정할 수 있다. HEVC의 경우 부호화 모드가 화면 내 예측(Intra)일 경우 6a와 6h를 예측 블록 형태의 후보군을 둘 수 있다. 화면 간 예측(Inter)일 경우 6a, 6b, 6c, 6d를 후보군으로 둘 수 있다. 비균등한 분할 후보군을 포함하는 설정에서는 6a 내지 6h를 후보군에 둘 수 있다.
도 7은 본 발명의 일 실시예에 따른 예측 블록을 부호화 블록으로부터 분할하는 예시도이다.
도 7을 참조하면, 실선은 부호화 블록을, 실선과 점선으로 구획된 블록은 예측 블록을 의미하며, 블록 내부 숫자는 각 부호화 블록에서 분할된 예측 블록의 위치(본 예에서 Raster Scan 순서를 따름)를 의미한다.
7a는 쿼드트리 분할을 통해 정사각 형태의 부호화 블록이 획득이 되고 부호화 블록에서 예측 블록이 획득되는 예를 나타내며, 7b는 바이너리트리 분할을 통해 직사각 형태의 부호화 블록이 획득이 되고 부호화 블록에서 예측 블록이 획득되는 예를 나타낸다. 또는, 7a는 부호화 블록에서 예측 블록으로의 분할은 쿼드트리 방식 또는 바이너리트리 방식을 사용할 수 있고, 7b는 부호화 블록에서 예측 블록으로의 분할은 쿼드트리 방식 또는 바이너리트리 방식을 사용할 수 있다.
여기서 지원되는 예측 블록 형태가 도 6의 6a, 6b, 6c, 6h라고 가정할 때, 정사각 형태의 부호화 블록에서 획득되는 예측 블록은 M×M, M×M/2, M/2×M, M/2×M/2일 수 있고, 직사각 형태의 부호화 블록에서 획득되는 예측 블록은 M×N, M×N/2, M/2×N, M/2×N/2일 수 있다. 정사각 형태의 부호화 블록에서 획득되는 예측 블록은 가로/세로 또는 세로/가로 비가 1:1 또는 1:2의 비율을 갖는 것에 비해, 직사각 형태의 부호화 블록에서 획득되는 예측 블록은 예측 블록 분할 전에 부호화 블록의 가로/세로 또는 세로/가로 비에 따라 1:1에서 1:k의 비율을 가질 수 있다. 이 때, k는 최대 부호화 블록 크기, 최소 부호화 블록 크기, 허용가능한 심도, 예측 블록의 형태, 예측 블록의 분할 방식 등에 의해 결정될 수 있다.
부호화 블록의 분할 방식에 따라 예측 블록의 분할 형태 또는 방식을 달리 설정할 수 있다. 또는, 예측 블록 분할 전 부호화 블록이 정사각 형태일 때와 직사각 형태일 때에 따라 예측 블록의 분할 형태 또는 방식을 달리 설정할 수 있다. 또는, 부호화 모드에 따라 예측 블록의 분할 형태 또는 방식을 달리 설정할 수 있다. 또는, 부호화 블록의 크기 또는 심도에 따라 예측 블록의 분할 형태 또는 방식을 달리 설정할 수 있다.
일 예로 쿼드트리 방식으로 부호화 블록을 분할하거나 부호화 블록이 정사각 형태일 때는 도 6의 6a 내지 6h와 그 외 추가적인 분할 형태를 포함하는 후보군 중 일부를 예측 블록의 분할 형태에 포함할 수 있다. 또는 쿼드트리 방식으로 예측 블록을 분할하여 도 6의 6a, 6b, 6c의 분할 형태를 포함할 수 있다.
일 예로 바이너리트리 방식으로 부호화 블록을 분할하거나 부호화 블록이 직사각 형태일 때는 6a를 예측 블록의 분할 형태(M×N)에 포함할 수 있다. 또는 바이너리트리 방식으로 예측 블록을 분할하여 6a의 분할 형태(M×N)를 포함할 수 있다. 이는 예측 블록 단위에서는 추가적인 분할을 지원하지 않는 것을 의미할 수 있다. 이는 부호화 블록 획득 과정에서 정사각 형태에 추가적으로 직사각 형태의 부호화 블록 획득이 가능하므로 예측 단위에서의 분할을 따로 지원하지 않는 것을 의미할 수 있다. 이는 부호화 블록과 예측 블록이 결합되어 하나의 분할 방식을 공유하는 예로, 예측 블록 분할 형태에 대한 정보는 생성하지 않을 수 있다.
일 예로 부호화 블록이 직사각 형태이고 부호화 모드는 Intra이며 화면 내 예측의 예측 블록은 정사각 형태를 지원할 때는 부호화 블록의 짧은 길이를 갖는 가로 또는 세로에 맞춰 예측 블록이 분할될 수 있다. 부호화 블록이 2M×M이고 부호화 모드는 Intra일 때, 이 때 예측 블록은 2개의 M×M 블록으로 분할될 수 있다. 이는 분할에 대한 정보는 생성하지 않을 수 있다.
일 예로 부호화 블록이 직사각 형태이고 부호화 모드는 Intra이며 화면 내 예측 블록은 정사각과 직사각 형태를 지원할 때는 도 6의 6a 내지 6h와 그 외 추가적인 분할 형태를 포함하는 후보군 중 일부를 예측 블록의 분할 형태에 포함할 수 있다. 또는, 쿼드트리 방식으로 예측 블록을 분할하여 도 6의 6a, 6h의 분할 형태를 포함할 수 있다.
일 예로 부호화 블록이 정사각 형태이고 부호화 모드는 Intra이며 화면 내 예측 블록은 정사각과 직사각 형태를 지원할 때는 도 6의 6a 내지 6h와 그 외 추가적인 분할 형태를 포함하는 후보군 중 일부를 예측 블록의 분할 형태에 포함할 수 있다. 또는, 바이너리트리 방식으로 예측 블록을 분할하여 도 6의 6a, 6b, 6c의 분할 형태를 포함할 수 있다.
일 예로 부호화 블록이 제 1 블록 범위(Min1~Max1)에 속할 때는 도 6의 6a 내지 6h와 그 외 추가적인 블록 형태를 포함하는 후보군 중 일부(후보군1)를 예측 블록 분할 형태에 포함할 수 있고, 제 2 블록 범위(Min2~Max2)에 속할 때는 도 6의 6a 내지 6h와 그 외 추가적인 분할 형태를 포함하는 후보군 중 일부(후보군2)를 예측 블록 분할 형태에 포함할 수 있다.
예측 블록의 최대 크기는 최대 부호화 블록 크기와 같거나 작을 수 있고, 예측 블록의 최소 크기는 최소 부호화 블록 크기와 같거나 작을 수 있다. 이에 따라 예측 블록의 분할 형태는 제한적으로 지원될 수 있다.
일 예로 최대 부호화 블록의 크기는 64×64이고 현재 부호화 블록은 64×64이고 최대 예측 블록의 크기는 32×32이고 지원가능한 예측 블록 후보군이 M×N(부호화 블록 기준), M×N/2, M/2×N, M/2×N/2라고 가정할 때, 이 때 예측 블록 후보군은 64×64, 64×32, 32×64, 32×32일 수 있다. 이 중 32×32이 지원가능한 후보군일 수 있으며 예측 블록 후보군에 대한 정보 생성없이 묵시적으로 32×32로 분할 정보가 결정될 수 있다.
일 예로 최소 부호화 블록의 크기가 8×8이고 현재 부호화 블록은 16×8이고 최소 예측 블록의 크기는 8×8이고 지원 가능한 예측 블록 후보군이 M×N(부호화 블록 기준), M×N/2, M/2×N, M/2×N/2라고 가정할 때, 이 때 예측 블록 후보군은 16×8, 16×4, 8×8, 8×4일 수 있다. 이 중 일부는 최소 예측 블록 크기보다 작기 때문에 이를 제외한 16×8, 8×8이 예측 블록 후보군에 포함될 수 있고, 이를 후보군으로 한 이진화를 통해 인덱스 정보를 생성할 수 있다.
도 8은 본 발명의 일 실시예에 따른 변환 블록의 분할 형태를 설명하기 위한 예시도이다.
변환 블록의 경우 변환의 기본 단위이며 부호화 블록의 분할을 통해 하나 이상의 블록 형태를 가질 수 있다. 또는, 예측 블록의 분할을 통해 하나 이상의 블록 형태를 가질 수 있다.
HEVC의 경우 부호화 블록으로부터 쿼드트리 방식을 통해 분할을 할 수 있으며, 최소 변환 블록 크기, 허용가능한 심도 등에 따라 하나 이상의 정사각 형태의 변환 블록을 획득할 수 있다.
부호화 블록이 정사각 형태에 추가적으로 직사각 형태로 구성이 될 경우에는 부호화기 설정에 따라 지원가능한 변환 블록 크기 및 형태가 결정될 수 있다.
도 8을 참조하면, 쿼드트리 방식을 변환 블록 획득 방식으로 사용하는 HEVC의 경우 획득가능한 변환 블록은 8a와 8d(본 예는 하나의 심도를 기준)일 수 있다. 이에 바이너리트리 방식을 사용할 경우 획득가능한 변환 블록은 8a, 8b, 8c일 수 있으며, 두 방식을 혼용할 경우 획득가능한 변환 블록은 8a, 8b, 8c, 8d일 수 있다. 쿼드트리 방식의 경우 분할 관련하여 분할 플래그를 지원하며 해당 플래그가 1일 경우에는 8a, 0일 경우에는 8d의 블록 형태를 나타낸다. 바이너리트리 방식의 경우 하나 이상의 분할 플래그를 지원하며, 그 중 하나는 분할 여부를 나타내는 플래그일 수 있고, 그 중 하나는 가로/세로 분할 여부를 나타내는 플래그일 수 있고, 그 중 하나는 가로/세로 분할 겸침 여부를 나타내는 플래그일 수 있다.
분할 전 부호화 블록이 상기 예와 같이 정사각 형태(M×M)일 경우 M×M/2, M/2×M, M/2×M/2 등과 같은 변환 블록을 획득할 수 있다.
분할 전 부호화 블록이 직사각 형태(M×N)일 경우 M×N/2, M/2×N, M/2×N/2 등과 같은 변환 블록을 획득할 수 있다. 부호화 블록의 가로/세로 비와 심도에 따라 M×N/4, M×N/8, M/4×N, M/8×N, M/2×N/4, M/4×N/2 등과 같은 가로/세로 비를 갖는 변환 블록이 획득될 수 있다.
여기서, 쿼드트리, 바이너리트리, 이를 변형한 그 외 방식 등을 통해 추가적인 분할 블록(예를 들어, 가로/세로 비가 상기 예와 다른 형식)이 가능할 수 있다.
변환 블록은 부호화기의 설정에 따라 최대 변환 블록의 크기, 최소 변환 블록의 크기, 허용가능한 심도, 분할 방법 등의 정보에 따라 다양한 크기 및 형태의 변환 블록이 획득될 수 있다. 이 때, 심도는 부호화 블록을 기준(본 예에서 부호화 블록에서의 심도는 0)으로 체크가 되며, 심도가 커질수록 더 작은 변환 단위로 분할되며 최소 변환 단위까지 분할할 수 있다.
도 9는 본 발명의 일 실시예에 따른 변환 블록이 부호화 블록으로부터 분할되는 방법을 설명하기 위한 예시도이다.
도 9를 참조하면, 9a와 9b는 부호화 블록 기초로 실선 또는 점선으로 분할한 변환 블록을 나타내며, 각 변환 블록을 지시하기 위해 블록 내에 숫자로 표기하였다.
9a의 경우 부호화 블록은 쿼드트리 방식으로 분할이 되고, 9b는 바이너리트리 방식으로 분할이 되었으며, 9a와 9b의 변환 블록은 쿼드트리 방식과 바이너리트리 방식이 혼용된 형태를 가진다고 가정하면, 변환 블록은 도 8의 8a, 8b, 8c, 8d가 획득가능한 변환 블록이라고 가정할 수 있다. 또한, 본 예에서 부호화 블록은 도 7의 분할 형태를 가지며, 도 9와 도 7은 변환 단위의 분할과 예측 단위의 분할에 대한 예를 나타내고 있다고 가정한다.
9a에서 4번 블록은 쿼드트리 방식으로 분할된 정사각의 부호화 블록이며 심도 0에서 분할되지 않는 도 8의 8a와 같은 형태의 변환 블록을 의미하고, 1, 2 및 3번 블록의 결합으로 구성되는 블록은 쿼드트리 방식으로 분할된 정사각 부호화 블록이며 1번과 2번 블록은 심도 1에서 분할된 도 8의 8c와 같은 형태의 변환 블록들을 의미하고, 3번 블록은 심도 0에서 분할된 도 8의 8b와 같은 형태의 변환 블록을 의미한다. 4번 블록(변환 블록)을 도 7의 7a에서 상기 4번 블록과 같은 위치에 있는 0과 1번 블록(예측 블록)과 비교하면, 7a에서 0과 1번 블록으로 분할된 것과 달리 8a의 4번 블록은 분할되지 않아 예측 블록과 변환 블록 상호간에 영향이 없다. 그러나, 1 내지 3번 블록(변환 블록)을 도 7의 7a에서 상기 1 내지 3번 블록과 같은 위치에 있는 0 내지 1번 블록(예측 블록)과 비교하면, 7a의 예측 블록의 분할 형태가 상기 1 내지 3번 블록의 분할 형태에 영향을 미쳤음을 확인할 수 있다. 즉, 부호화기의 설정에 따라 변환 블록의 분할과 예측 블록의 분할이 독립적인 분할을 수행할지 의존적인 분할을 수행할 지를 결정할 수 있다.
부호화 블록의 분할 방식에 따라 변환 블록의 분할 형태를 달리 설정할 수 있다. 또는, 변환 블록 분할 전 부호화 블록이 정사각 형태일 때와 직사각 형태일 때에 따라 변환 블록의 분할 형태를 달리 설정할 수 있다. 또는, 부호화 모드에 따라 변환 블록의 분할 형태를 달리 설정할 수 있다. 또는, 부호화 블록의 크기 또는 심도에 따라 변환 블록의 분할 형태를 달리 설정할 수 있다.
일 예로 쿼드트리 방식으로 부호화 블록을 분할하거나 부호화 블록이 정사각 형태이고 변환 블록은 정사각 형태를 지원할 때는 도 8의 8a, 8d와 같이 쿼드트리 방식의 변환 블록의 분할 형태를 포함할 수 있다. 8d와 같이 두 개 이상의 블록으로 분할되었을 경우 심도에 따라 추가적인 쿼드트리 방식의 분할이 가능하다.
일 예로 쿼드트리 방식으로 부호화 블록을 분할하거나 부호화 블록이 정사각 형태이고 변환 블록은 정사각과 직사각 형태를 지원할 때는 도 8의 8a, 8b, 8c와 같이 바이너리트리 방식의 변환 블록의 분할 형태를 포함할 수 있다. 8b, 8c와 같이 두 개 이상의 블록으로 분할되었을 경우 심도에 따라 추가적인 바이너리트리 방식의 분할이 가능하다.
일 예로 바이너리트리 방식으로 부호화 블록을 분할하거나 부호화 블록이 직사각 형태이고 변환 블록은 정사각 형태를 지원할 때는 도 8의 8b, 8c와 같이 바이너리트리 방식의 변환 블록의 분할 형태를 포함할 수 있다. 즉, 블록의 짧은 길이를 갖는 가로 또는 세로에 맞춰 변환 블록을 분할할 수 있다. 예를 들어, 2N×N이 부호화 블록일 경우 8c는 두 개의 N×N 변환 블록을 획득할 수 있으나 8b의 경우 두 개의 2N×N/2 변환 블록을 획득하게 되어 정사각 형태의 변환 블록을 지원하는 조건과 맞지 않아 이는 변환 블록의 분할 후보에서 제외될 수 있다. 이 경우 바이너리트리 방식의 변환 블록 분할 플래그는 생략될 수 있는데 그 이유는 8c가 유일한 후보이기 때문이다. 다른 예로, N×4N이 부호화 블록일 경우 이 때는 8b나 8c를 통해서는 정사각 형태의 변환 블록을 획득하기 어렵다. 이 경우, 심도 0에서 8b를 통해 2개의 N×2N의 변환 블록으로 분할이 되고, 각 심도 1에서 8b를 통해 2개의 NxN 변환 블록으로 분할되어 총 4개의 N×N 변환 블록으로 분할이 될 수 있다. 이 경우 변환 블록 분할 플래그는 역시 생략될 수 있는데 그 이유는 각 심도에서의 분할 플래그 후보가 8b만이 존재하기 때문이다.
일 예로 바이너리트리 방식으로 부호화 블록을 분할하거나 부호화 블록이 직사각 형태일 때는 도 8의 8a를 변환 블록의 분할 형태(M×N)에 포함할 수 있다. 이는 변환 블록 단위에서는 추가적인 분할을 지원하지 않는 것을 의미할 수 있다. 이는 변환 블록 분할 플래그가 생략될 수 있다는 것을 의미한다.
부호화 설정에 따라 쿼드트리 방식의 분할을 지원하거나 바이너리트리 방식의 분할을 지원할 수 있다. 또는, 쿼드트리 방식의 분할과 바이너리트리 방식의 분할을 혼합하여 지원할 수도 있다. 예를 들어, 블록 크기, 심도 등에 따라 상기 방식 중 하나 또는 그들을 혼합하여 지원할 수 있다. 블록이 제 1 블록 범위(Min_Q~Max_Q)에 속할 경우에는 쿼드트리 방식을, 제 2 블록 범위(Min_B~Max_B)에 속할 경우에는 바이너리트리 방식을 지원할 수 있다. 하나 이상의 분할 방식이 지원될 경우 가질 수 있는 각 방식에 따른 최대 변환 블록 크기, 최소 변환 블록 크기, 허용가능한 심도 등의 설정을 하나 이상 가질 수 있다. 상기 범위는 서로의 범위가 중첩되어 설정될 수도 있고, 그렇지 않을 수도 있다. 또는, 어느 하나의 범위가 다른 범위를 포함하는 설정 또한 가능할 수 있다. 이에 대한 설정은 슬라이스 타입, 부호화 모드, 컬러 공간 등의 개별적이거나 혼합적인 요소에 따라 결정될 수 있다.
일 예로, 슬라이스 타입에 따라 블록 분할 설정이 결정될 수 있다. I 슬라이스일 경우에 지원되는 블록 분할 설정은 쿼드트리 방식의 경우 64×64 ~ 16×16 범위에서의 분할을, 바이너리트리 방식의 경우 16×16 ~ 4×4 범위에서의 분할을 지원할 수 있다. P 슬라이스일 경우에 지원되는 블록 분할 설정은 쿼드트리 방식의 경우 64×64 ~ 16×16 범위에서의 분할을, 바이너리트리 방식의 경우 32×32 ~ 4×4 범위에서의 분할을 지원할 수 있다.
일 예로, 부호화 모드에 따라 블록 분할 설정이 결정될 수 있다. Intra일 경우에 지원되는 블록 분할 설정은 바이너리트리 방식의 경우 16×16 ~ 4×4 범위에서의 분할과 허용가능한 심도를 3을 지원할 수 있다. Inter일 경우에 지원되는 블록 분할 설정은 바이너리트리 방식의 경우 32×32 ~ 4×4 범위에서의 분할과 허용가능한 심도를 4를 지원할 수 있다.
일 예로, 컬러 성분에 따라 블록 분할 설정이 결정될 수 있다. 휘도 성분일 경우에 쿼드트리 방식의 경우 64×64 ~ 8×8 범위에서의 분할을, 바이너리트리 방식의 경우 32×32 ~ 8×8 범위에서의 분할을 지원할 수 있다. 색차 성분일 경우에 쿼드트리 방식의 경우 휘도 성분과 동일한 설정(본 예에서 색차 포맷에 따라 각 블록의 길이가 비례하는 설정)을, 바이너리트리 방식의 경우 8×8 ~ 4×4 범위에서의 분할을 지원할 수 있다.
또한, 부호화 설정에 따라 정사각 형태의 변환 블록을 지원하거나 직사각 형태의 변환 블록을 지원할 수 있다. 또는, 정사각 형태의 변환 블록과 직사각 형태의 변환 블록을 혼합하여 지원할 수 있다. 예를 들어, 블록 크기, 심도 등에 따라 상기 형태 중 하나 또는 그들을 혼합하여 지원할 수 있다. 블록이 제 1 블록 범위(Min_S~Max_S)에 속할 경우에는 정사각 형태를, 제 2 블록 범위(Min_R~Max_R)에 속할 경우에는 직사각 형태를 지원할 수 있다. 하나 이상의 블록 형태가 지원될 경우 가질 수 있는 각 형태에 따른 최대 변환 블록 크기, 최소 변환 블록 크기, 허용가능한 심도 등의 설정을 하나 이상 가질 수 있다. 상기 범위는 서로의 범위가 중첩되어 설정될 수도 있고, 그렇지 않을 수도 있다. 또는, 어느 하나의 범위가 다른 범위를 포함하는 설정 또한 가능할 수 있다. 이에 대한 설정은 슬라이스 타입, 부호화 모드, 컬러 공간 등의 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있다.
변환 블록의 최대 크기는 최대 부호화 블록 크기와 같거나 작을 수 있고, 변환 블록의 최소 크기는 최소 부호화 블록 크기와 같거나 작을 수 있다. 이에 따라 변환 블록의 분할 형태는 제한적으로 지원될 수 있다.
일 예로 최대 부호화 블록의 크기가 64×64이고 현재 부호화 블록은 64×64이고 최대 변환 블록의 크기는 32×32이고 지원되는 변환 블록 후보는 32×32, 32×16, 16×32, 16×16이며, 지원되는 변환 블록 분할 방법으로 바이너리트리 방식과 쿼드트리 방식이 혼용되는 도 8의 8a, 8b, 8c, 8d가 후보군이라고 할 때, 심도 0에서 8a, 8b, 8c는 분할 후보에서 제외될 수 있다. 분할하지 않는 8a의 경우 지원되는 변환 블록이 존재하지 않고, 8b, 8c의 경우 분할하여 획득되는 64×32, 32×64는 추가로 분할할 경우에 지원되는 변환 블록 분할 후보군은 (64×32를 기준으로 설명) 64×32(a), 32×32(b), 64×16(c), 32×16(d)일 수 있는데, 심도 1에서도 여전히 64×32, 64×16은 지원되는 변환 블록이 아닐 수 있다. 반면, 심도 1에서 도 8의 8d를 분할할 경우 지원되는 변환 블록 분할 후보군은 32×32(a), 32×16(b), 16×32(c), 16×16(d)일 수 있는데, 심도 1에서 모든 후보군이 지원되는 변환 블록일 수 있다.
일 예로 현재 부호화 블록이 16×8이고 변환 블록의 최소 크기는 4×4이고 지원되는 변환 블록 후보는 16×16, 16×8, 8×16, 8×8, 8×4, 4×8, 4×4이고 허용가능한 심도는 2이며 지원되는 변환 블록 분할 방법으로 바이너리트리 방식과 쿼드트리 방식이 혼용되는 도 8의 8a, 8b, 8c, 8d가 후보군이라고 할 때, 심도 0에서 지원되는 변환 블록 분할 후보군은 16×8(a), 16×4(b), 8×8(c), 8×4(d)일 수 있는데, 16×4의 경우 지원되는 변환 블록이 아니므로 이를 제외한 16×8, 8×8, 8×4이 변환 블록 후보군에 포함될 수 있고, 이를 후보군으로 한 이진화를 통해 분할 정보를 생성할 수 있다.
다음은 본 발명의 변환부에 대한 상세한 설명을 포함한다.
변환부에 사용되는 변환 방법으로 하다마드 변환, 이상 코사인 변환, 이산 사인 변환 등과 같은 기법이 이용될 수 있다. 상기 변환 중 적어도 하나의 변환 기법이 지원될 수 있으며, 각 변환 기법에서 적어도 하나의 세부 변환 기법이 지원될 수 있다. 이 때, 적어도 하나의 세부 변환 기법은 각 변환 기법에서 기저 벡터의 일부가 달리 구성되는 변환 기법일 수 있다. 예를 들어, 변환 기법으로 DCT 기반의 변환과 DST 기반의 변환이 지원될 수 있으며, DCT의 경우 DCT-I, DCT-II, DCT-III, DCT-V, DCT-VI 등의 세부 변환 기법이 지원될 수 있다.
상기 변환 중 하나의 변환(하나의 변환 기법 && 하나의 세부 변환 기법)이 기본 변환 기법으로 설정될 수 있으며, 이에 추가적인 변환 기법(둘 이상의 변환 기법 || 둘 이상의 세부 변환 기법)을 지원할 수 있다. 추가적인 변환 기법 지원 여부는 시퀀스, 픽쳐, 슬라이스, 타일 등의 단위로 결정되며 상기 단위로 관련 정보가 생성될 수 있다.
변환은 수평, 수직 방향으로 수행될 수 있다. 예를 들어, 변환에서의 기저 벡터를 이용하여 수평 방향으로 1차원 변환을 수행하고 수직 방향으로 1차원 변환을 수행하여 총 2차원 변환을 수행함으로써 공간축의 화소값을 주파수축으로 변환할 수 있다.
또한, 수평, 수직 방향으로 변환이 적응적으로 적용될 수 있다. 예를 들어, 화면 내 예측의 경우에서 예측 모드가 수평 모드일 경우에는 수평 방향으로는 DCT-I가, 수직 방향으로는 DST-I가 사용될 수 있고, 수직 모드일 경우에는 수평 방향으로는 DST-II가, 수직 방향으로는 DCT-II가 사용될 수 있고, Diagonal down left일 경우에는 수평 방향으로는 DCT-I, 수직 방향으로는 DCT-II가 사용될 수 있고, Diagonal down right일 경우에는 수평 방향으로는 DST-I, 수직 방향으로는 DST-II가 사용될 수 있다.
부호화 설정에 따라 정사각 형태의 변환에 추가적으로 직사각 형태의 변환을 지원할 수 있다. 정사각과 직사각 형태의 변환이 지원될 경우에 대한 다양한 경우를 변환 블록 분할 과정을 통해 설명하였다.
상기 변환 형태 중 정사각 형태의 변환이 기본 변환 형태로 설정될 수 있으며, 이에 대한 추가적인 변환 형태(본 예에서 직사각 형태)를 지원할 수 있다. 추가적인 변환 형태 지원 여부는 시퀀스, 픽쳐, 슬라이스, 타일 등의 단위로 결정되며 상기 단위로 관련 정보가 생성될 수 있다.
변환 블록 형태의 지원은 부호화 정보에 따라 결정될 수 있다. 이 때, 부호화 정보는 슬라이스 타입, 부호화 모드, 블록의 크기 및 형태, 블록 분할 방식 등이 해당될 수 있다. 적어도 하나의 부호화 정보에 따라 하나의 변환 형태가 지원될 수 있으며, 적어도 하나의 부호화 정보에 따라 둘 이상의 변환 형태가 지원될 수 있다. 전자의 경우 묵시적인 상황일 수 있으며, 후자의 경우 명시적인 상황일 수 있다. 명시적인 경우는 둘 이상의 후보군 중 최적의 후보군을 가리키는 적응적인 선택 정보를 생성하여 이를 비트스트림에 수록할 수 있다.
일 예로, 슬라이스 타입에 따라 직사각 형태의 변환 지원이 결정될 수 있다. I 슬라이스일 경우에 지원되는 변환 형태는 정사각 형태의 변환일 수 있으며, P/B 슬라이스일 경우 정사각 형태 또는 직사각 형태의 변환일 수 있다.
일 예로, 부호화 모드에 따라 직사각 형태의 변환 지원이 결정될 수 있다. Intra일 경우에 지원되는 변환 형태는 정사각 형태의 변환일 수 있으며, Inter일 경우에 지원되는 변환 형태는 정사각 형태와 또는 직사각 형태의 변환일 수 있다.
일 예로, 블록의 크기 및 형태에 따라 직사각 형태의 변환 지원이 결정될 수 있다. 일정 크기 이상의 블록에서 지원되는 변환 형태는 정사각 형태의 변환일 수 있으며, 일정 크기 미만의 블록에서 지원되는 변환 형태는 정사각 형태 또는 직사각 형태의 변환일 수 있다.
일 예로, 블록 분할 방식에 따라 직사각 형태의 변환 지원이 결정될 수 있다. 변환이 수행되는 블록이 쿼드트리 분할 방식을 통해 획득된 블록일 경우 지원되는 변환의 형태는 정사각 형태의 변환일 수 있고, 바이너리트리 분할 방식을 통해 획득된 블록일 경우 지원되는 변환의 형태는 정사각 형태 또는 직사각 형태의 변환일 수 있다.
상기 예는 하나의 부호화 정보에 따른 변환 형태 지원에 대한 예이며, 둘 이상의 정보가 조합되어 추가적인 변환 형태 지원 설정에 관여할 수도 있다. 상기 예는 다양한 부호화 설정에 따라 추가적인 변환 형태 지원에 대한 일 예일 뿐 위에 한정되지 않으며 다양한 변형의 예가 가능할 수 있다.
부호화 설정 또는 영상의 특성에 따라 변환 과정은 생략할 수 있다. 예를 들어, 양자화 파라미터(본 예에서는 QP=0. 무손실 압축 환경)에 따라 변환 과정은 생략할 수 있다. 다른 예로, 영상의 특성에 따라 변환을 통한 압축 성능이 발휘되지 않는 경우에 변환 과정을 생략할 수 있다. 이 때 생략하는 변환은 전체 단위일 수 있거나, 수평, 수직 단위 중 하나의 단위가 생략될 수 있으며, 이는 블록의 크기 및 형태에 따라 이와 같은 생략의 지원 여부가 결정될 수 있다.
예를 들어, 수평과 수직의 변환의 생략이 묶이는 설정에서는 변환 생략 플래그가 1일 경우에는 수평, 수직 방향으로 변환이 수행되지 않고, 0일 때는 수평, 수직 방향으로 변환이 수행될 수 있다. 수평과 수직의 변환의 생략이 독립적으로 동작하는 설정에서는 제 1 변환 생략 플래그가 1일 경우에는 수평 방향으로 변환이 수행되지 않고, 0일 경우에는 수평 방향으로 변환이 수행되며, 제 2 변환 생략 플래그 가 1일 경우에는 수직 방향으로 변환이 수행되지 않고, 0일 경우에는 수직 방향으로 변환이 수행된다.
블록의 크기가 범위 A에 해당되는 경우에는 변환 생략이 지원될 수 있고, 범위 B에 해당되는 경우에는 변환 생략이 지원될 수 없다. 예를 들어, 블록의 가로 길이가 M보다 크거나 블록의 세로 길이가 N보다 큰 경우에는 상기 변환 생략 플래그는 지원될 수 없고, 블록의 가로 길이가 m보다 작거나 블록의 세로 길이가 n보다 작은 경우에는 상기 변환 생략 플래그가 지원될 수 있다. M(m)과 N(n)은 같거나 다를 수 있다. 상기 변환 관련 설정은 시퀀스, 픽쳐, 슬라이스 등의 단위에서 결정될 수 있다.
추가적인 변환 기법이 지원될 경우, 변환 기법 설정은 부호화 정보에 따라 결정될 수 있다. 이 때, 부호화 정보는 슬라이스 타입, 부호화 모드, 블록의 크기 및 형태, 예측 모드 등이 해당될 수 있다.
일 예로, 슬라이스 타입에 따라 변환 기법의 지원이 결정될 수 있다. I 슬라이스일 경우에 지원되는 변환 기법은 DCT-I, DCT-II, DST-I, DST-II 일 수 있으며, P 슬라이스일 경우에 지원되는 변환 기법은 DCT-I, DST-I, DST-II 일 수 있으며, B 슬라이스일 경우에 지원되는 변환 기법은 DCT-I, DCT-II, DST-I일 수 있다.
일 예로, 부호화 모드에 따라 변환 기법의 지원이 결정될 수 있다. Intra일 경우에 지원되는 변환 기법은 DCT-I, DCT-II, DCT-III, DST-I, DST-II 일 수 있으며, Inter일 경우에 지원되는 변환 기법은 DCT-I, DCT-II, DST-II 일 수 있다.
일 예로, 블록의 크기 및 형태에 따라 변환 기법의 지원이 결정될 수 있다. 일정 크기 이상의 블록에서 지원되는 변환 기법은 DCT-I 일 수 있으며, 일정 크기 미만의 블록에서 지원되는 변환 기법은 DCT-I, DST-I 일 수 있으며, 일정 크기 이상과 일정 크기 미만의 블록에서 지원되는 변환 기법은 DCT-I, DCT-II, DST-I 일 수 있다. 또한, 정사각 형태에서 지원되는 변환 기법은 DCT-I, DCT-II 일 수 있고, 직사각 형태에서 지원되는 변환 기법은 DCT-I, DST-I 일 수 있다.
일 예로, 예측 모드에 따라 변환 기법의 지원이 결정될 수 있다. 예측 모드 A에서 지원되는 변환 기법은 DCT-I, DCT-II 일 수 있고, 예측 모드 B에서 지원되는 변환 기법은 DCT-I, DST-I 일 수 있고, 예측 모드 C에서 지원되는 변환 기법은 DCT-I 일 수 있다. 이 때, 예측 모드 A, B는 방향성 모드, 예측 모드 C는 비방향성 모드일 수 있다.
상기 예는 하나의 부호화 정보에 따른 변환 기법 지원에 대한 예이며, 둘 이상의 정보가 조합되어 추가적인 변환 기법 지원 설정에 관여할 수도 있다. 또한, 상기 예의 경우에만 한정되지 않으며 다른 예로의 변형 또한 가능할 수 있다.
다음은 본 발명의 예측부의 화면 내 예측에 대한 상세한 설명을 포함한다.
화면 내 예측의 예측 블록 생성 전에 참조 화소 준비 과정이 필요하다. 이웃하는 부호화가 완료된 블록(본 예에서 왼쪽, 왼쪽 아래, 왼쪽 위, 위쪽, 오른쪽 위 블록)의 화소들을 그 대상으로 할 수 있으며, 현재 블록에 인접한 이웃 블록의 화소를 예측 블록 생성에 참조 화소로 사용할 수 있다. 이웃하는 블록이 이용가능하지 않은 경우에는 이용가능한 이웃 블록으로부터의 하나 이상의 화소들을 이용하여 이용가능하지 않은 블록의 화소위치에 채워 넣을 수 있다. 이 때, 이용가능하지 않는 경우는 해당 블록의 위치에 영상(픽쳐, 슬라이스, 타일 등)의 경계 밖에 위치하거나 부호화 모드(Intra/Inter)에 따라 사용을 제한하는 조건에 속할 수 있다. 이 때, 이용가능한 이웃 블록의 위치는 부호화 설정에 따라 결정될 수 있다. 예를 들어, 채워넣는 화소와 공간적인 거리가 가까운 이용가능한 화소를 사용할 수 있거나 채워넣는 화소와 상관성이 높을 것이라 판단되는 이용가능한 화소(예측 모드와 관계될 수 있음)를 사용할 수 있다. 이는 현재 블록의 서브 블록 위치에 따라 결정될 수도 있으며, 이는 후술하는 실시예를 통해 설명할 것이다. 현재 블록의 예측에 사용되는 참조 화소는 하나의 임시 메모리를 통해 관리될 수 있으며, 이는 현재 블록의 예측 과정에서만 사용되는 메모리일 수 있다.
이와 같이 구성된 참조 화소에 필터링을 적용할 수 있다. 이는 양자화 에러가 포함된 적어도 하나의 참조 화소에 저대역 통과(Low Pass filter) 필터를 적용하여 양자화 에러에 의한 예측 오차를 줄이기 위한 목적이다. 예측 블록 또는 변환 블록의 크기 및 형태, 화면 내 예측 모드, 현재 블록 내의 서브 블록 위치 등에 따라 적용되는 필터 정보(하나 이상의 필터 계수, 하나 이상의 필터 길이), 필터링 적용 참조 화소 위치 및 개수, 필터링 정보 생성 여부 등의 설정이 적응적으로 정해질 수 있다.
예측 모드에 따라 정수 단위의 참조 화소 뿐만 아니라 소수 단위의 참조 화소를 보간하여 예측을 수행할 수 있다. 이 때, 보간에 사용되는 화소는 보간하고자 하는 위치의 인접한 양쪽 화소가 될 수 있고, 그 이상의 화소가 사용될 수 있다. 보간에 사용되는 화소의 개수에 따라 4-tap, 6-tap 필터 등이 적용될 수 있으며, 필터 정보(하나 이상의 필터 길이, 하나 이상의 필터 계수)는 블록의 크기 및 형태에 따라 적응적으로 결정될 수 있다.
도 10은 HEVC에서 수행되는 화면 내 예측 모드를 설명하기 위한 예시도이다.
도 10을 참조하면, HEVC에서는 총 35가지의 모드(방향성 모드 33개, 비방향성 모드 2개)를 포함하여 화면 내 예측을 지원하고 있다. 지원되는 화면 내 예측 모드는 블록의 크기에 따라 가변적일 수 있다. 예를 들어, 64×64 블록에는 67개의 예측 모드를, 32×32 블록에는 35개의 예측 모드를, 16×16 블록에는 19개의 예측 모드를 지원할 수 있다.
또한, 지원되는 화면 내 예측 모드는 블록의 형태에 따라 가변적이거나 또는 화면 내 모드에 대한 정의(본 예에서는 방향성을 갖는 모드 간격)가 변경될 수 있다.
도 11은 본 발명의 일 실시예에 따른 화면 내 예측 모드를 설명하기 위한 예시도이다.
도 11을 참조하면, 예측 블록의 형태가 정사각(2N×2N)의 경우 도 11의 11a, 가로가 긴 직사각(2N×N)의 경우 11b, 세로가 긴 직사각(N×2N)의 경우 11c와 같은 화면 내 예측 모드가 지원될 수 있다. 상기 예는 가로, 세로 중 길이가 긴 방향으로 좁은 모드 간격을 갖고, 짧은 방향으로 넓은 모드 간격을 갖는 예일 수 있다. 예측 블록의 크기, 형태에 따라 예측 모드의 수, 예측 모드의 간격 등의 요소는 고정적이거나 또는 상기 예의 가변적인 경우를 포함하여 다양한 변형이 가능하다.
도 12는 본 발명의 일 실시예에 따른 수평 또는 수직모드에서 적용 가능한 참조 화소를 설명하기 위한 예시도이다.
도 12를 참조하면, 방향성 모드에서 수평 모드와 수직 모드에 대한 화면 내 예측을 설명할 수 있다. p는 참조 화소로부터 예측되는 화소를 나타내며, q는 예측하는데 사용하는 이웃 블록의 참조 화소를 의미한다. 참조 화소의 경우 부호화가 완료된 블록으로부터 획득될 수 있으며, 왼쪽, 왼쪽 위, 왼쪽 아래, 위쪽, 오른쪽 위 블록에 속한 화소(현재 블록의 크기가 M×N<p0,0~pM- 1,N - 1>일 경우 q-1,0 ~ q-1,2N-1, q-1,-1 ~ q2M-1,-1) 일 수 있다.
도 13은 일반적인 블록 기반 예측과 화소 기반 예측을 비교하기 위한 예시도이다.
방향성을 갖는 화면 내 예측 모드의 경우 예측 모드의 방향에 따라 참조 화소 q를 외삽함으로써 p의 화소값을 예측할 수 있다. 방향성을 갖는 화면 내 예측 모드의 경우 두 가지의 방법을 사용하여 예측 블록을 생성할 수 있는데, 그 중 하나는 블록 기반의 예측 방법 또는 화소 기반의 예측 방법일 수 있다.
도 13을 참조하면, 13a는 블록 기반 화면 내 예측 방법으로서, 현재 블록과 인접한 블록에 속하는 참조화소 q가 현재 블록내의 화소를 예측하는데 모두 적용될 수 있다.
반면에 13b는 화소 기반 화면 내 예측 방법으로서, 여기서 참조화소 q는 인접 화소의 예측에만 사용되며, 각각의 화소는 그와 인접하고 부호화가 완료된 화소로부터 예측이 수행될 수 있다.
Figure PCTKR2017004696-appb-M000001
수학식 1에서 d는 블록 기반의 예측 방법에서 입력 화소와 예측 화소의 차이값을 나타내며, (1), (2)번 수식은 예측 모드가 각각 수평과 수직 모드의 경우(아래 수식들도 이와 같은 모드 순서로)를 나타낸다. 위와 모드를 포함하는 정수 단위의 참조 화소만 사용하여 예측값을 생성하는 경우도 있고 다른 방향성을 갖는 모드에서는 정수 단위의 참조 화소 사이의 소수 단위의 참조 화소를 획득하여 예측값을 생성하는 경우도 있다. 본 발명에서는 설명의 편의를 위해 정수 단위의 참조 화소를 사용하는 경우의 예를 들 것이다. 이는 소수 단위의 참조 화소를 사용하는 다른 예측 모드에 따라 변경적용될 수 있다.
Figure PCTKR2017004696-appb-M000002
상기 수식에서 d’은 화소 기반의 예측 방법에서 입력 화소와 예측 화소의 차이값을 나타내며, (3), (4)번 수식은 예측 모드가 각각 수평과 수직 모드인 경우를 나타낸다. 화소 단위의 예측에서는 예측 방향 이전에 놓인 가장 인접한 화소를 이용하여 예측을 하기 때문에 각 예측 모드에서 첫 열과 첫 행에 있는 화소들은 참조 화소와의 차이값을, 그 외의 화소들은 이전 화소의 차이값을 얻을 수 있다. 예를 들어, 수평 모드일 경우 dx,y는 px,y와 px- 1,y의 차분치 일 수 있고, 수직 모드일 경우 dx,y는 px,y와 px,y -1의 차분치 일 수 있다.
Figure PCTKR2017004696-appb-M000003
수학식 3을 참조하면, 블록 기반의 예측을 통해 획득된 차이값을 이용하여 화소 기반의 차이값을 (5), (6)과 같이 나타낼 수 있다. 즉, 블록 기반의 예측을 통해 획득된 차이값으로 화소 기반의 예측을 통한 차이값을 획득할 수 있다는 것을 의미한다. 각 예측 모드에서 첫 열과 첫 행에 있는 화소들의 차이값은 블록 기반의 차이값과 화소 기반의 차이값과 같은 점을 제외하면 (5), (6)의 수식을 통해 화소 기반의 예측을 통한 차이값을 획득할 수 있다.
상기 차이값들의 집합인 잔차 블록을 구성하여 이를 변환, 양자화와 그의 역과정을 통해 잔차 블록을 복원할 수 있다. 양자화 파라미터에 따라 무손실 또는 손실된 잔차 블록을 획득할 수 있으며, 이를 블록 또는 화소 기반의 예측 블록을 가산하여 화소를 복원할 수 있다.
Figure PCTKR2017004696-appb-M000004
수학식 4는 블록 기반의 예측을 통해 복원되는 과정을 담고 있다. p’x,y는 복원 화소를 의미하며, d*x,y는 복원된 차이값을 의미하며 양자화 파라미터에 따라 무손실 또는 손실된 값을 획득할 수 있다.
Figure PCTKR2017004696-appb-M000005
수학식 5는 화소 기반의 예측을 통해 복원되는 과정을 담고 있다. p’x,y는 복원 화소를 의미하며, d'*x,y는 복원된 차이값을 의미하며 양자화 파라미터에 따라 무손실 또는 손실된 값을 획득할 수 있다.
Figure PCTKR2017004696-appb-M000006
수학식 6은 수학식 3의 (5), (6)에 따른 표현 방법을 수학식 5에 적용하여 유도된 식이다.
화소 기반의 예측의 경우 기본적인 예측 및 부호화를 수행한 후 후처리로 추가적인 예측을 하는 것 또는 기본적인 예측 및 부호화에서 화소 기반의 예측을 적용하는 것이 가능하다. 본 발명에서는 블록 기반의 예측의 경우 손실 압축에서, 화소 기반의 예측의 경우 무손실 압축에서의 예를 들 것이며, 기본적인 설명은 블록 기반의 예측을 기준으로 설명할 것이다. 화면 내 예측의 경우 예측 블록, 변환 블록의 크기 및 형태에 따라 예측 및 부호화 순서가 다르게 적용될 수 있다. 하기 예에서 부호화 블록의 형태를 정사각, 예측 블록과 변환 블록의 경우 정사각과 직사각 형태가 가능하다는 가정 하에 설명하지만 부호화 블록의 형태가 직사각에도 적용가능하는 등 상기 조건에만 한정되지 않고 다른 조건에도 변경 적용 가능하다. 이하에서 본 발명의 일 실시예에 따른 화면 내 예측 방법을 설명한다.
도 14는 일반적인 화면 내 예측 방법을 설명하기 위한 예시도이다.
도 14를 참조하면, 인접블록에 속하고 부호화할 현재 블록과 인접한 참조 화소를 이용하여 현재 블록(2N×2N)의 화면 내 예측을 수행하고, 예측 블록(14-2)를 생성할 수 있다. 부호화할 현재 블록(2N×2N, 14-1)과 예측 블록(2N×2N, 14-2)의 차분으로 잔차 블록(2N×2N, 14-3)을 획득한 후에 변환하여 변환 블록(2N×2N)을 획득하고 변환 블록에 양자화를 수행하여 부호화 과정을 전개할 수 있다. 복호화측에서는 다시 역양자화 및 역번환을 통하여 잔차 블록(14-3)을 복원하고, 복원된 잔차 블록과 예측 블록(14-2)를 결합하여 현재 블록(14-1)을 복원할 수 있다.
도 15는 본 발명의 일 실시예에 따른 화면 내 예측 이후에 독립적으로 잔차 블록에 대한 변환과 양자화가 진행되는 과정을 설명하기 위한 예시도이다.
도 15를 참조하면, 현재 블록은 2N×2N의 블록 형태를 가지며, 변환 블록은 N×N의 형태를 가질 수 있다. 이때, 변환 블록의 크기에 맞추어 부호화 과정을 전개하면, 인접 블록에 있는 참조화소를 이용하여, 현재 블록(14-1)의 서브 블록(변환 블록의 크기를 가짐) a, b, c, d 가 각각 독립적으로 예측이 수행될 수 있고, 그에 따라 획득된 A, B, C, D로 구성된 예측 블록(14-2)은 다시 a와 A의 잔차블록에 대한 부호화 및 b와 B의 잔차 블록, c와 C의 잔차 블록 및 d와 D의 잔차 블록에 대한 독립적 부호화가 수행될 수 있다. 이와 같은 독립적 부호화를 통하여 부호화의 병렬 처리가 가능할 수 있다. 다만, 독립적 부호화는 예측의 정확도가 떨어지는 문제가 발생할 수 있다.
도 16은 본 발명의 일 실시예에 따른 화면 내 예측에서 현재 블록내에 부호화가 완료된 서브 블록을 참조하여 의존적 화면 내 예측을 설명하기 위한 예시도이다.
도 16을 참조하면, 도 15와 마찬가지로 현재 블록은 2N×2N의 블록 형태를 가지며, 변환 블록은 N×N의 형태를 가질 수 있다. 먼저, 인접한 블록에 속하고 현재 블록과 인접한 참조 화소를 이용하여 현재 블록의 서브 블록 a에 대한 화면 내 예측을 수행하고, 그 결과 예측 블록 A가 먼저 생성될 수 있다. 그 다음으로 a와 A의 잔차 블록을 도출하고, 변환, 양자화, 역양자화, 역변환 과정을 거쳐, a의 복원 블록을 생성하고, 그 다음 서브 블록 b에 대한 화면 내 예측에 활용할 수 있다.
즉, 서브 블록 b의 화면 내 예측에서 인접 블록에 속하고 현재 블록과 인접한 참조 화소 뿐만 아니라, 이미 부호화가 완료되어 복원된 서브 블록 a 내에 서브 블록 b와 인접한 화소들을 추가적인 참조 화소로 이용하여 예측을 수행함으로써 B를 도출할 수 있다. 마찬가지로, c 및 d에 대해서도 먼저 부호화된 서브 블록을 이용하여 예측 및 부호화가 수행될 수 있다.
이처럼, 이미 부호화가 완료된 서브 블록의 화소를 참조할 경우 예측 과정이 의존적으로 수행되므로 병렬처리에 제약이 있을 수 있으나 예측의 정확도가 높아질 수 있다.
도 17은 본 발명의 일 실시예에 따른 바이너리 분할이 적용된 현재 블록에 대하여 잔차블록의 독립적인 변환 및 양자화가 진행되는 과정을 설명하기 위한 예시도이다.
도 17을 참조하면, 현재 블록은 2N×2N의 블록 형태를 가지며, 변환 블록은 바이너리 분할에 의하여 2N×N의 형태를 가질 수 있다.
여기서, 서브블록 a 및 b에 대한 독립한 화면 내 예측이 수행되는 경우, 인접 블록에 속하고 현재 블록과 인접한 참조화소를 이용하여 서브 블록 a와 b의 예측 및 부호화가 독립적으로 수행될 수 있다.
따라서, 여기서는 도 15와 변환 블록의 형태는 상이하나 예측 과정은 동일한 방법으로 수행될 수 있다.
도 18은 본 발명의 일 실시예에 따른 바이너리 분할이 적용된 현재 블록에 대하여, 현재 블록의 부호화가 완료된 서브 블록을 참조하여 의존적 화면 내 예측을 설명하기 위한 예시도이다.
도 18을 참조하면, 도 17과 같이 현재 블록은 2N×2N의 블록 형태를 가지며, 변환 블록은 바이너리 분할에 의하여 2N×N의 형태를 가질 수 있다.
도 18은 도 16의 예측 과정과 마찬가지로, 서브 블록 a를 먼저 현재 블록과 인접한 블록에 속하는 화소를 주 참조 화소로 이용하여 부호화가 수행되고, 서브 블록 b의 예측에서는 부호화가 완료된 a에 속하는 화소를 참조하여 화면 내 예측이 수행될 수 있다. 즉, 여기서도 도 16과 마찬가지로, 부호화가 완료된 서브 블록의 참조 화소도 함께 활용하여 예측이 수행될 수 있고, 예측의 의존성으로 인하여 순차적인 예측 및 부호화가 진행될 수 있다.
이하에서는 이처럼 부호화가 완료된 서브 블록의 참조화소를 이용하는 방법을 예를 들어 설명하며 이때, 화소를 표현하는 방법으로서, d[x][y]는 임의의 (x,y) 화소 좌표에서 현재 화소에 대한 예측값을 뺀 차분 화소를 지시하며, r[x][y]는 차분 화소에 대하여 변환 및 양자화와 그 역 과정이 진행된 후의 복원된 차분 화소를 지시하며, p'[x][y]는 현재 화소에 대한 예측 및 부호화를 거쳐 복원된 화소를 지시는 것으로 정의한다.
도 19는 일반적인 화소 기반 화면 내 예측과 블록 기반 화면 내 예측을 수직 모드에서 설명한 예시도이다.
먼저, 19a는 화소 기반 화면 내 예측으로, 부호화가 완료되어 복원된 인접 참조 화소로부터 현재 화소의 예측 및 부호화가 진행되고, 부호화가 완료되어 복원된 현재 화소를 참조하여 예측방향으로 인접한 화소의 예측 및 부호화가 순차적으로 수행될 수 있다.
현재 블록(2M×2N)의 화소 좌표[x][y]를 기초로 예측 화소의 도출 과정을 수식으로 나타내면 다음의 수학식 7과 같이 나타낼 수 있다.
Figure PCTKR2017004696-appb-M000007
또한, 예측 화소는 복원된 차분화소 r로 표현하면 다음의 수학식 8과 같이 표현할 수도 있다.
Figure PCTKR2017004696-appb-M000008
다음으로 19b는 블록 기반 화면 내 예측으로서, 현재 블록과 인접한 블록에 속하는 참조 화소를 이용하여 현재 블록을 예측할 수 있으며, 구체적으로 참조 화소를 수직 방향으로 복사함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다. 이를 수식으로 표현하면 아래 수학식 9와 같다.
Figure PCTKR2017004696-appb-M000009
도 20은 본 발명의 일 실시예에 따른 블록 기반 화면 내 예측에서 참조 화소의 기울기 또는 차분값을 이용하여 예측하는 방법에 대한 예시도이다.
도 20을 참조하면, 19a 및 19b와 달리 블록 기반 예측을 일부 결합하여 현재 화소를 예측하는 방법을 설명할 수 있다. 현재 블록 내의 임의의 화소(20-1)를 예측할 경우, 화소 기반 예측이라면 현재 화소(20-1) 및 현재 화소와 인접한 복원 화소(20-2)를 참조 화소로 이용하여 예측하게 되는데, 그대로 복사하여 예측값으로 사용한다면 예측이 부정확할 수 있다. 따라서, 현재 화소(20-1) 및 현재 화소와 인접한 복원 복원 화소(20-2) 사이의 차분값을 현재 화소와 인접한 화소를 참조하여 예측함으로써 현재 화소와 인접한 복원 화소(20-2)를 보정할 수 있다.
예를 들어, 현재 화소(19-1) 및 현재 화소와 인접한 복원 화소(20-2)의 위치와 화면 내 예측 모드 방향(수직 모드일 경우)을 기준으로 상응하는 위치에 있는 두 화소의 차분값인 d2 또는 d4를 현재 화소(20-1)와 인접한 복원 화소(20-2)에 부가함으로써 현재 화소(20-1)를 예측할 수 있다. 이때, d2를 이용할 것인지 d4를 이용할 것인지 여부는 어느 것을 이용한 예측 결과가 현재 화소(20-1)와 가까운지에 따라 결정될 수 있고, 가중치가 d2나 d4에 적용될 수도 있다.
여기서, 차분값 d3 또는 d4를 이용하여 현재 화소를 예측하는 것은 d3 및 d4의 값을 도출하는 화소가 복원되어야 하므로, 일반적으로는 화소 기반 예측에서 사용될 수 있다. 그러나, 본 발명의 경우 현재 블록보다 예측의 블록 단위(HEVC에서의 변환 블록)가 상이할 경우 그러한 예측 블록의 단위로서 현재 블록의 서브 블록이 먼저 부호화 및 복원될 수 있는 점을 고려하여 블록 기반 예측에서 적용한다. 예를 들어, 도 20에서 d4를 도출하는데 사용되는 두 화소가 현재 블록 내의 복원된 서브 블록에 속한다면, 도 20과 같이 차분값 d4를 참조하는 것이 가능할 수 있다.
한편, 현재 화소(20-1)를 블록 기반의 예측에 의한다면, 현재 화소(20-1)와 인접한 복원 화소(20-2)가 아니라 현재 블록과 인접한 복원 화소(20-3)를 참조하여 화면 내 예측이 수행될 수 있다. 이때도 앞서 설명한 방법과 동일하게, 현재 화소(20-1) 및 현재 블록과 인접한 복원 화소(20-3)의 위치와 화면 내 예측 모드 방향(수직 모드일 경우)을 기준으로 상응하는 위치에 있는 두 화소의 차분값 d1, d3를 현재 블록과 인접한 복원 화소(20-3)에 부가함으로써 현재 화소(20-1)의 예측값을 생성할 수 있다. 이때, d1을 이용할 것인지 d3를 이용할 것인지 여부는 어느 것을 이용한 예측 결과가 현재 화소(20-1)와 가까운지에 따라 결정될 수 있고, 가중치가 d1이나 d3에 적용될 수도 있다.
여기서, 차분값 d1 내지 d4는 이하에서 두 화소 사이의 기울기값으로 표현할 수도 있다.
하나의 예로서, 차분값 d4와 현재 화소(20-1) 및 현재 화소와 인접한 복원 화소(20-2)의 관계를 수식으로 표현하면, 다음의 수학식 10과 같이 도출될 수 있다.
Figure PCTKR2017004696-appb-M000010
여기서, w0, w1, w2, w3는 가중치를 의미할 수 있고, 가중치는 서로 같을 수도 있으며, 1보다 작은 값일 수 있다.
또 다른 예로서, 차분값 d1과 현재 화소(20-1) 및 현재 블록과 인접한 복원 화소(20-3)의 관계를 수식으로 표현하면, 다음의 수학식 11과 같이 도출될 수 있다.
Figure PCTKR2017004696-appb-M000011
수학식 11에서, k는 차분값 d1을 적용하는 영역을 설정하는 값으로서, 설정에 따라 일정 범위의 x좌표를 갖는 화소에 대해서만 차분값을 이용하고, 그외에는 사용하지 않는 목적으로 적용될 수 있다. 또한, w0는 차분값 d1에 적용되는 가중치를 의미하며 1보다 작을 수 있고, w0의 영향을 조절하는 추가적인 가중치를 둘 수도 있다. 또한, k값에 따라 차분값이 적용되는 가중치를 달리 설정할 수도 있다. 또한, 가중치는 예측하려는 현재 화소(20-1)와 주 참조화소 사이의 거리에 기반하여 결정될 수 있다.
이하에서는 현재 블록에 속한 현재 화소의 화면 내 예측값을 생성하는데 있어서, 현재 화소(20-1)와 인접한 복원 화소(20-2)를 주 참조화소로 하거나, 현재 블록과 인접한 복원 화소(20-3)를 주 참조 화소로 하여 예측하는 방법을 설명하고, 더 나아가서 d1 내지 d4 중 적어도 하나의 차분값을 이용하는 방법까지 예를 들어 설명한다.
도 21은 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 가로 분할된 서브 블록의 예측 방법에 대한 예시도이다.
도 21을 참조하면, 화면 내 예측 모드로 수직 모드(vertical)가 수행되었을 때, 각각의 서브 블록 단위로 예측블록을 생성하는 과정을 설명할 수 있다. 여기서, 각각의 서브 블록은 화면 내 예측이 수행되는 단위로서, 현재 블록과 예측이 수행되는 단위가 상이할 경우에 해당할 수 있으며, 현재 블록을 2M×2N으로 정의하면 서브 블록은 2M×N으로 정의될 수 있다. 또한, 각각의 서브 블록은 HEVC의 용어로 변환 블록을 지칭할 수도 있다.
먼저 21a에서는 제1 서브 블록에 대하여 현재 블록보다 먼저 부호화되어 복원된 인접 블록에 속하고 현재 블록과 인접한 화소를 참조하여 예측이 수행될 수 있다. 더 상세하게는 현재 블록과 인접한 블록에 속하는 화소의 화소값을 수직 방향으로 복사하여 제1 서브 블록에 대한 예측 블록을 생성할 수 있다. 다만 이때 추가적으로, 예측하려는 현재 화소 및 현재 블록과 인접한 참조 화소의 위치와 화면 내 예측 모드 방향(수직 모드일 경우)을 기준으로 상응하는 위치에 있는 두 화소의 차분값으로 참조 화소를 보정함으로써 현재 화소의 예측값을 생성할 수 있다. 상세하게는 참조 화소에 차분값을 더한 값을 제1 서브 블록 내에 화소에 대한 예측값으로 하여 제1 서브 블록의 예측 블록을 생성할 수 있다.
다음으로, 21b를 참조하면, 부호화되어 복원된 제1 서브 블록 내에 제2 서브 블록과 인접한 화소를 주 참조화소로 하여 제2 서브 블록에 대한 예측이 수행될 수 있다. 여기서도 마찬가지로, 예측하려는 현재 화소 및 현재 블록과 인접한 주 참조 화소의 위치와 화면 내 예측 모드 방향(수직 모드일 경우)을 기준으로 상응하는 위치에 있는 두 화소의 차분값으로 주 참조 화소를 보정함으로써 현재 화소의 예측값을 생성할 수 있다. 상세하게는 주 참조 화소에 상기 차분값을 더한 값을 제2 서브 블록 내에 화소에 대한 예측값으로 하여 제2 서브 블록의 예측 블록을 생성할 수 있다.
21c를 21b와 비교하여 참조하면, 21b에서의 주 참조화소에 대하여 화면 내 예측 방향과 동일한 방향에 놓은 화소들에 필터링을 수행하여 양자화 에러 등을 제거한 후 참조화소로 사용할 수 있다. 이때, 필터링된 주 참조화소를 그대로 사용할 수 있음은 물론이고, 21b와 같이 차분값으로 보정하여 사용할 수도 있다. 이는 현재 블록 내의 화면 내 예측 모드, 서브 블록 위치에 따라 적응적인 참조 화소 필터링이 적용되는 예일 수 있다. 상세하게는, 동일한 예측 블록(본 예에서는 변환 블록 단위로 예측이 수행되지만 블록 구성부에서 획득되는 블록을 의미하며, 해당 블록 내의 서브 블록들은 동일한 예측 모드를 갖는 경우에 해당)에 속하며, 서브 블록이 참조하는 영역이 현재 블록 내의 부호화된 서브 블록일 때 적용되는 예일 수 있다. 또는, 서브 블록이 참조하는 영역이 현재 블록에 인접한 블록일 때, 참조 블록의 예측 모드가 현재 블록의 예측 모드가 동일한 경우에 적용될 수 있는 예일 수 있다.
21d를 참조하면, 앞서 설명한 주 참조화소로 현재 화소를 예측하는데 있어서, 21b와는 상이한 차분값을 사용할 수 있다. 구체적으로, 현재 블록과 인접한 블록에 속하는 화소와 주 참조화소 사이의 차분값을 이용하여 주 참조화소를 보정함으로써 현재 화소에 대한 예측값을 생성할 수 있다. 즉, 화면 내 예측 모드 방향을 기준으로 상응하는 위치에 놓인 화소들의 기울기 정보가 아닌 주 참조 화소를 포함하여 화면 내 예측 모드 방향으로 놓인 이전의 화소들의 기울기 정보를 주 참조화소에 보정함으로써 예측값을 생성할 수 있다. 상기 기울기 정보는 현재 화소와 주 참조화소의 거리에 기반하여 보정될 수 있다.
도 22는 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 세로 분할된 서브 블록의 예측 방법에 대한 예시도이다.
22a를 참조하면, 현재 블록과 인접한 블록에 속하는 화소를 주 참조 화소로 하여 제1 서브 블록에 대한 예측이 수행될 수 있다. 여기서, 제1 서브 블록에 속하는 현재 화소의 예측값은 주 참조화소를 복사하여 사용할 수 있다.
그러나, 22b를 참조하면, 예측하려는 현재 화소 및 현재 블록과 인접한 주 참조 화소의 위치와 화면 내 예측 모드 방향(수직 모드일 경우)을 기준으로 상응하는 위치에 있는 두 화소의 차분값으로 주 참조 화소를 보정함으로써 현재 화소의 예측값을 생성할 수 있다. 상세하게는 주 참조 화소에 차분값을 더한 값을 제1 서브 블록 내에 있는 화소에 대한 예측값으로 하여 제1 서브 블록의 예측 블록을 생성할 수 있다.
22c를 참조하면, 현재 블록과 인접한 블록에 속하는 화소가 화면 내 예측 방향 상에 위치하고 있으므로 주 참조 화소가 되며, 여기서도 22b와 같이 예측하려는 현재 화소 및 주 참조 화소의 위치와 화면 내 예측 모드 방향(수직 모드일 경우)을 기준으로 상응하는 위치에 있는 두 화소의 차분값으로 주 참조 화소를 보정함으로써 현재 화소의 예측값을 생성할 수 있다. 다만, 제1 서브 블록이 이미 부호화가 완료되어 복원되었기 때문에, 현재 화소 및 주 참조 화소의 위치와 화면 내 예측 모드 방향을 기준으로 상응하는 위치에 있는 화소는 두개 이상 특정될 수 있다. 즉, 21c에서의 차분값은 d1과 d2가 고려될 수 있다. 여기서, d1으로 주 참조 화소를 보정할 수도 있고, d2로 주 참조 화소를 보정할 수도 있으며, d1과 d2를 모두 이용하여 주 참조 화소를 보정할 수 있다. 또한, d1과 d2에 대한 가중치를 부여한 값으로 주 참조 화소를 보정할 수도 있다.
도 23은 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 화소 라인으로 분할된 서브 블록의 예측 방법에 대한 제1 예시도이다.
먼저, 23a를 참조하면, 부호화하려는 현재 블록의 제1 서브 블록은 현재 블록에 대하여 가로로 짝수 번째 위치한 화소 라인들로 설정될 수 있다. 여기서, 제1 서브 블록에 대한 예측 블록을 생성하는 과정은, 현재 블록과 인접한 블록에 속하는 화소를 주 참조 화소로 하여 제1 서브 블록내의 각 화소에 예측값을 생성할 수 있다. 더 상세하게는 주 참조 화소의 화소값을 화면 내 예측 방향으로 복사하여 제1 서브 블록에 대한 예측 블록을 생성할 수 있다.
23b를 참조하면, 제1 서브 블록에 대한 예측 및 복원이 완료된 후에 제2 서브 블록에 대한 예측이 수행될 수 있다. 여기서, 제2 서브 블록은 현재 블록에 대하여 가로로 홀수 번째 위치한 화소 라인들로 설정될 수 있다. 여기서, 제2 서브 블록에 대한 예측 블록을 생성하는 과정은, 현재 블록과 인접한 블록에 속하는 화소 뿐만 아니라 부호화되어 복원된 제1 서브 블록의 화소도 화면 내 예측 방향 상에 위치하고 있으므로, 그러한 화소 모두가 제2 서브 블록의 예측에 참조될 수 있다.
상세하게는, 예측하려는 현재 화소와 화면 내 예측 방향상에 위치하고 현재 화소와 인접한 두 화소를 참조하여 제2 서브 블록에 대한 예측을 수행할 수 있다. 이때, 23b를 참조하면, 예측 모드가 수직 모드이기 때문에 현재 화소와 인접한 화소는 현재 화소의 상하에 위치하고 있고, 따라서 상하에 위치한 두 화소를 이용하여 제2 서브 블록에 대한 예측 블록을 생성할 수 있다. 예를 들면, 상하에 위치한 두 화소값에 대한 각각의 가중치를 부여하여 더한 값을 예측값으로 하여 예측 블록을 생성할 수 있다.
도 24는 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 화소 라인으로 분할된 서브 블록의 예측 방법에 대한 제2 예시도이다.
24a를 참조하면, 부호화하려는 현재 블록의 제1 서브 블록은 현재 블록에 대하여 세로로 짝수 번째 위치한 화소 라인들로 구성되는 영역으로 설정될 수 있다. 여기서, 제1 서브 블록에 대한 예측 블록을 생성하는 과정은, 현재 블록과 인접한 블록에 속하고 화면 내 예측 방향 상에 위치한 화소를 주 참조 화소로 하여 제1 서브 블록내의 각 화소에 예측값을 생성할 수 있다. 더 상세하게는 주 참조 화소의 화소값을 화면 내 예측 방향으로 복사하여 제1 서브 블록에 대한 예측 블록을 생성할 수 있다.
24b를 참조하면, 제1 서브 블록에 대한 예측 및 복원이 완료된 후에 제2 서브 블록에 대한 예측이 수행될 수 있다. 여기서, 제2 서브 블록은 현재 블록에 대하여 세로로 홀수 번째 위치한 화소 라인들로 구성되는 영역으로 설정될 수 있다. 여기서, 제2 서브 블록에 대한 예측 블록을 생성하는 과정은, 현재 블록과 인접한 블록에 속하는 화소를 주 참조화소로 사용할 수 있다. 또한, 화면 내 예측 방향 상에 위치하지 않은 제1 서브 블록의 화소들은 주 참조 화소를 보정하는데 사용할 수 있다.
예를 들면, 예측하려는 현재 화소 및 주 참조 화소의 위치와 화면 내 예측 모드 방향(수직 모드일 경우)을 기준으로 상응하는 위치에 있는 두 화소의 차분값으로 주 참조 화소를 보정할 수 있는데, 두 화소는 24b에서와 같이 제1 서브 블록에 속하는 화소와 현재 블록과 인접한 블록에 속하는 화소들로 구성될 수 있다.
24b를 참조하면, 주 참조 화소를 보정하는 차분값은 d1과 d2가 도출될 수 있는데, d1만을 이용할 수도 있고, d2만을 이용할 수도 있으며, d1과 d2에 가중치를 부여한 값으로 사용할 수도 있다.
도 25는 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 쿼드트리 방식으로 분할된 서브 블록의 예측 방법에 대한 제1 예시도이다.
도 25의 25a, 25b, 25c, 25d를 참조하면, 부호화하려는 현재 블록에 대하여 쿼드트리 방식으로 분할된 제1 서브 블록 내지 제4 서브 블록에 대한 부호화 과정을 설명할 수 있다.
구체적으로, 25a를 참조하면, 현재 블록과 인접한 블록에 속하고 화면 내 예측 방향 상에 위치한 화소를 주 참조 화소로 하여 제1 서브 블록에 대한 예측이 수행될 수 있다.
다음으로, 25b와 같이 현재 블록과 인접한 블록에 속하고 화면 내 예측 방향 상에 위치한 화소를 주 참조 화소로 하여 제2 서브 블록에 대한 예측이 수행될 수 있다.
25c를 참조하면, 제1 서브 블록이 부호화 및 복원이 완료되어있기 때문에, 제1 서브 블록내에 속하고 제3 서브 블록과 인접한 화소가 화면 내 예측 방향 상에 위치하고 있으므로, 이러한 화소들을 주 참조화소로 하여 제3 서브 블록에 대한 예측이 수행될 수 있다.
25d를 참조하면, 제2 서브 블록에 대한 부호화 및 복원이 완료되면, 제2 서브 블록 내에 속하고 제4 서브 블록과 인접한 화소를 주 참조 화소로 하여 제4 서브 블록에 대한 예측이 수행될 수 있다.
도 26은 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 쿼드트리 방식으로 분할된 서브 블록의 예측 방법에 대한 제2 예시도이다.
도 26을 참조하면, 도 25과 같이 제1 서브 블록 내지 제4 서브 블록으로 분할된 현재 블록의 부호화가 수행되며, 다만 이때 차분값을 이용하여 주 참조화소를 보정하거나, 주 참조화소에 대한 필터링을 추가로 적용할 수 있다.
먼저, 26a를 참조하면, 제 1서브 블록에 대한 예측 블록을 수행하는 과정은, 현재 블록과 인접한 블록에 속하는 화소를 주 참조 화소로 할 수 있고, 예측하려는 현재 화소 및 주 참조 화소의 위치와 화면 내 예측 방향으로 상응하는 위치에 있는 두 화소의 차분값을 이용하여 주 참조 화소를 보정할 수 있다. 또한, 여기서 차분값을 이용하여 주 참조 화소를 보정하는 것은 26a의 k 범위와 같이 일정한 거리 내에 있는 화소에 대해서만 수행될 수도 있다.
26b를 참조하면, 제2 서브 블록에 대한 예측 블록을 수행하는 과정은, 현재 블록과 인접한 블록에 속하는 화소를 주 참조 화소로 하고, 예측하려는 현재 화소 및 주 참조 화소의 위치화 화면 내 예측 방향으로 상응하는 위치에 있는 두 화소의 차분값을 이용하여 주 참조 화소를 보정할 수 있다. 여기서, 두 화소는 부호화 및 복원이 완료된 제1 서브 블록내에 위치할 수 있다.
26c를 참조하면, 부호화가 완료된 제1 서브 블록내에 위치하고 제3 서브 블록과 인접한 화소들을 주 참조 화소로 하여 제3 서브 블록에 대한 예측이 수행될 수 있으며, 이때, 주 참조 화소에 대하여 화면 내 예측 방향과 동일한 방향에 놓인 화소들에 필터링이 추가로 수행될 수 있다.
26d를 참조하면, 제 4 서브 블록에 대한 예측 블록을 생성하는 과정은, 부호화 및 복원이 완료된 제2 서브 블록에 속하고 제4 서브 블록과 인접한 화소를 주 참조화소로 하여 예측이 수행될 수 있다. 여기서, 주 참조 화소에 대하여, 26d에 표기된 차분값을 이용하여 추가적인 보정이 수행되고, 보정된 주 참조 화소로 예측이 수행될 수 있다. 또한, 차분값에 대해서 가중치가 적용될 수 있으며, 가중치는 주 참조화소와 예측하고자 하는 현재 화소 사이의 거리에 기초하여 설정될 수 있다.
도 27은 본 발명의 일 실시예에 따른 수직 모드 화면 내 예측에서 홀수 또는 짝수 좌표에 따라 분할된 서브 블록의 예측 방법에 대한 제2 예시도이다.
27a를 참조하면 제1 서브 블록은 부호화하려는 현재 블록 x와 y 좌표가 홀수인 화소들로 구성될 수 있다. 제 1 서브 블록에 대한 예측 블록을 생성하는 과정은 현재 블록과 인접한 블록에 속하는 화소를 주 참조화소로 하여 예측 블록을 생성할 수 있고, 더 상세하게는 주 참조 화소를 화면 내 예측 방향(수직)으로 제1 서브 블록에 복사하여 예측 블록을 생성할 수 있다.
27b를 참조하면, 제2 서브 블록은 현재 블록의 x좌표는 홀수이고, y좌표는 짝수인 화소들로 구성될 수 있다. 제2 서브 블록에 대한 예측 블록을 생성하는 과정에서, 주 참조 화소는 현재 블록과 인접한 블록에 속하는 화소가 포함될 수 있다. 또한, 여기서 주 참조 화소는 부호화 및 복원된 제1 서브 블록이 화면 내 예측 방향 상에 위치하고 있으므로, 제1 서브 블록 내의 화소를 더 포함할 수 있다.
여기서, 예측하려는 제2 서브 블록의 각 화소는 그 상하에 복원이 완료된 화소를 주 참조화소로 하여 예측이 수행될 수 있고, 더 상세하게는 상하에 위치한 주 참조 화소에 대하여 각각 가중치를 부여하여 예측값으로 사용할 수 있다.
27c를 참조하면, 제3 서브 블록은 현재 블록의 x좌표는 짝수이고, y좌표는 홀수인 화소들로 구성될 수 있다. 제3 서브 블록에 대한 예측 블록을 생성하는 과정에서, 주 참조 화소는 화면 내 예측 방향 상에 복원된 서브 블록이 없으므로, 현재 블록과 인접한 블록에 속하는 화소일 수 있다.
여기서, 예측하려는 제3 서브 블록의 현재 화소 및 주 참조 화소의 위치와 화면 내 예측 방향으로 상응하는 위치에 있는 두 화소 사이의 차분값을 이용하여 주 참조 화소를 보정할 수 있다. 27c에서 화면 내 예측 방향으로 상응하는 위치에 있는 두 화소는 예측하려는 현재 화소의 좌우 모두 존재할 수 있으므로, 차분값 d1 및 d3가 예측에 이용될 수 있다.
27d를 참조하면, 제4 서브 블록은 현재 블록의 x와 y좌표가 짝수인 화소들로 구성될 수 있다. 여기서 제4 서브 블록의 각 화소에 대한 예측값은 화면 내 예측 방향 상에 위치한 화소가 제4 서브 블록의 상하에 위치하고 있으므로, 상하에 위치한 두 화소를 주 참조화소로 사용할 수 있으며, 현재 화소의 상하에 위치한 두 화소에 가중치를 부여하여 예측값으로 사용할 수도 있다.
또한, 27d에서 제4 서브 블록의 각 화소의 주변 8개 화소가 모두 복원되어 있으므로, 복원되어 있는 주변 8개 화소를 모두 주 참조 화소로 하여 제4 서브 블록에 대한 예측 블록을 생성할 수 있는데, 예측하려는 현재 화소 주변 8개 화소에 대하여 각각 가중치를 부여한 값을 예측값으로 사용할 수 있다.
도 28은 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 참조 화소의 기울기 또는 차분값을 추가로 이용하여 예측을 수행하는 방법에 대한 예시도이다.
도 28의 28a와 28b에서 빗금으로 표시된 화소는 현재 블록과 인접한 블록에 속하는 화소로서, 부호화 및 복원이 완료된 화소를 지시할 수 있다.
28a를 참조하면, 일반적인 대각선 모드의 예측으로서 화면 내 예측 방향(대각선)에 위치하고, 현재 블록과 인접한 블록에 속하는 화소를 주 참조 화소로 하여 예측을 수행할 수 있다. 더 상세하게는 주 참조 화소의 화소값을 화면 내 예측 방향으로 현재 블록에 복사함으로써 현재 블록의 각 화소에 대한 예측값을 생성할 수 있다.
28b를 참조하면, 현재 블록과 인접한 블록에 속하는 화소 중에서 화면 내 예측 방향 상에 위치하는 화소를 주 참조 화소로 하여 예측을 수행할 수 있다. 이때, 28b에서의 예측 방향을 살펴보면, 빗금으로 표시된 화소들이 q[-1][-1]을 제외하면, 모두 예측 방향 상에 위치하고 있으므로, 주 참조 화소가 될 수 있다. 더 상세하게는, 하나의 화면 내 예측 방향에 대하여 두 개의 빗금으로 표시된 화소가 존재하고 있으므로, 두 개의 화소의 평균값을 예측값으로 하거나, 두개의 화소 각각에 대한 가중치를 적용하여 더한 값을 예측값으로 할 수 있다.
여기서, 주 참조 화소로 설정되는 두 개의 참조 화소 중에서, k로 표시된 영역 밖에 있는 화소들은 예측 방향의 시작점에 있는 제1 주 참조 화소만을 이용하여 예측값을 생성할 수도 있으며, 28b의 k로 표시된 영역에 있는 화소들에 대해서는 제1 주 참조 화소와 제2 주 참조 화소를 이용하여 예측값을 생성할 수도 있다.
이하에서는 수직 모드가 아니라 대각선 모드를 기준으로 본 발명의 일 실시예에 따른 화면 내 예측 방법을 설명하며, 이때, 수직 모드에서 설명한 방법이 예측 방향을 달리하여 동일하게 적용될 수 있음은 자명하므로, 중복된 설명은 생략될 수 있고 일부 서브 블록 형태도 생략될 수 있다.
상기 예와 달리 적어도 하나의 모드 중 일부 모드의 경우 제 1 주 참조 화소만 이용하여 예측값을 생성할 수도 있다. 예를 들어, Diagonal Down Left와 같은 모드(본 예에서 왼쪽 위에서 시작점을 갖고 오른쪽 아래 방향으로 복사되는 모드라 가정)는 참조할 수 있는 제 2 주 참조 화소가 존재하지 않을 수 있다. 제 1 주 참조 화소를 기본 참조 화소으로 설정할 수 있으며, 추가적인 참조 화소(본 예에서 제 2 주 참조 화소)를 예측값 생성에 사용할 수 있다. 제 1 주 참조 화소와 제 2 주 참조 화소를 사용할 수 있는 모든 모드에 대해서 제 1 주 참조 화소와 추가적인 주 참조 화소를 사용하여 예측값을 생성할 수도 있고, 일부 모드에 대해서만 적용될 수 있으며, 이는 블록의 크기 및 형태, 예측 모드 등에 따라 정해질 수 있다.
도 29는 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 바이너리 모드로 가로 분할된 서브 블록에 대하여 예측을 수행하는 방법에 대한 제1 예시도이다.
29a 및 29b에서 제1 서브 블록(2M×N) 및 제2 서브 블록(2M×N)은 현재 블록(2M×2N)을 가로 분할하여 획득될 수 있다.
29a를 참조하면, 제1 서브 블록은 현재 블록과 인접한 블록에 속하는 화소 중에서 화면 내 예측 방향(대각선) 상에 위치한 화소를 주 참조 화소로 결정하고, 주 참조 화소를 이용하여 예측이 수행될 수 있다. 더 상세하게는 화면 내 예측 방향의 시작점에 위치하고, 현재 블록과 인접한 블록에 속하는 화소를 주 참조 화소로 하여 제1 서브 블록에 대한 예측값을 생성할 수 있다. 예를 들면, 주 참조 화소를 예측 방향으로 복사함으로써 예측값을 생성할 수 있다.
29b를 참조하면, 화면 내 예측 방향의 시작점에 위치하고, 제2 서브 블록에 속하는 화소를 주 참조 화소로 하여 예측값을 생성할 수 있다. 이때, 화면 내 예측 방향 상에 제1 서브 블록의 화소가 존재하지 않을 수 있는데, 이러한 경우 현재 블록과 인접한 블록에 속하는 화소를 주 참조 화소로 하거나, 제1 서브 블록의 화소를 예측 방향 상에 복사(padding)하여 주 참조 화소로 사용할 수 있다.
도 30은 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 바이너리 모드로 가로 분할된 서브 블록에 대하여 예측을 수행하는 방법에 대한 제1 예시도이다.
30a를 참조하면, 현재 블록과 인접한 블록에 속하는 화소가 화면 내 예측 방향(대각선) 상으로 두 개씩 존재하기 때문에 두 개의 화소(제1 주 참조 화소, 제2 주 참조 화소)를 주 참조 화소로 결정하고, 주 참조 화소를 이용하여 제1 서브 블록에 대한 예측값을 생성할 수 있다. 여기서, 제1 주 참조 화소는 예측 방향의 시작점에 위치하고, 제2 주 참조 화소는 예측 방향의 끝점에 위치할 수 있다. 또한, k로 표현된 영역 내에 위치한 화소들에 대하여 제1 주 참조 화소와 제2 주 참조 화소를 모두 이용하여 예측값을 생성할 수 있고, k로 표현된 영역 밖에 위치한 화소들에 대해서는 제1 주 참조 화소만을 이용하여 예측값을 생성할 수도 있다. 구체적으로, 제1 주 참조 화소를 복사한 값을 제 1 서브 블록에 대한 예측값으로 하거나, 제1 주 참조 화소 및 제2 주 참조 화소의 평균 또는 각각에 가중치를 부여한 값을 제1 서브 블록에 대한 예측값으로 할 수 있다.
30b를 참조하면, 제1 서브 블록에 대한 예측 및 복원이 완료된 후 제2 서브 블록에 대한 예측 블록을 생성하는 과정을 설명할 수 있다. 여기서, 화면 내 예측 방향의 시작점에는 복원된 제1 서브 블록에 속하는 화소가 위치하고, 끝점에는 현재 블록과 인접한 화소가 위치하므로 두 화소를 주 참조 화소로 하여 제2 서브 블록에 대한 예측을 수행할 수 있다. 여기서도, k로 설정된 범위내의 화소에 대해서는 제1 서브 블록에 속하는 화소만을 주 참조 화소로 하여 예측하고, k로 설정된 범위 밖에 위치한 화소들에 대해서는 예측 방향의 끝점에 위치한 화소를 추가로 주 참조 화소로 하여 예측을 수행할 수도 있다. 또한, 예측 방향의 시작점에 위치한 제1 서브 블록에 속하는 화소가 일부 예측 방향에 대해서는 존재하지 않을 수 있는데, 이때는 29b에서와 마찬가지로 제1 서브 블록에 속하는 화소를 예측 방향 상에 복사하거나, 현재 블록과 인접한 블록에 속하는 화소를 이용하여 예측을 수행할 수 있다.
30c를 참조하면, 제2 서브 블록에 대한 예측 블록을 생성하는 또 다른 과정을 설명할 수 있다. 30b에서와 같이 예측 방향 상에 위치하고, 제1 서브 블록에 속하는 화소를 주 참조 화소로 사용할 수 있음은 물론이고, 제1 서브 블록에 속하는 화소에 대하여 필터링을 수행하고, 필터링이 수행된 화소값을 주 참조 화소로 사용할 수도 있다. 이때, 필터링이 수행되는 방향은 예측 방향과 동일하거나 비슷할 수 있으며 해당 방향에 놓인 화소들에 필터링이 수행될 수 있다.
30d를 참조하면, 제2 서브 블록에 대한 예측 블록을 생성하는 또 다른 과정을 설명할 수 있다. 구체적으로, 제1 서브 블록에 속하고, 화면 내 예측 방향의 시작점에 위치한 화소를 제1 주 참조 화소로 하되, 현재 블록과 인접한 블록에 속하고 화면 내 예측 방향의 연장된 시작점에 위치한 화소를 제2 주 참조 화소로 하여 예측을 수행할 수 있다. 예를 들면, 제1 주 참조 화소와 제2 주 참조 화소 사이의 차분값으로 제1 주 참조 화소를 보정한 값을 제2 서브 블록의 예측값으로 결정할 수 있다. 또는, 제1 주 참조 화소와 제2 주 참조 화소 사이의 차분값을 제1 주 참조 화소에 더하거나, 차분값에 가중치를 부여하여 제1 참조 화소에 더한 값을 제2 서브 블록의 예측값으로 결정할 수 있다. 상세하게는, 제 1 주 참조 화소를 포함하여 화면 내 예측 모드 방향으로 놓인 이전 화소들(본 예에서 제 2 주 참조 화소 포함)의 기울기 정보를 제 1 주 참조 화소에 보정할 수 있으며, 상기 기울기 정보는 현재 화소와 제 1 주 참조 화소의 거리에 기반하여 보정될 수 있다.
도 31은 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 바이너리 모드로 세로 분할된 서브 블록에 대하여 예측을 수행하는 방법에 대한 제1 예시도이다.
31a 및 31b에서 제1 서브 블록 및 제2 서브 블록은 현재 블록(2M×2N)을 기준으로 M×2N의 크기를 가질 수 있다.
31a를 참조하면, 제1 서브 블록에 대하여, 현재 블록과 인접한 블록에 속하고, 화면 내 예측 방향 상에 위치한 화소를 주 참조 화소로 하여 예측이 수행될 수 있다. 더 상세하게는 화면 내 예측 방향의 시작점에 위치한 화소를 주 참조 화소로 하여 예측이 수행될 수 있다.
31b를 참조하면, 31a의 제1 서브 블록과 마찬가지로, 제2 서브 블록에 대하여, 현재 블록과 인접한 블록에 속하고, 화면 내 예측 방향의 시작점에 위치한 화소를 주 참조 화소로 하여 예측이 수행될 수 있다.
도 32은 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 바이너리 모드로 세로 분할된 서브 블록에 대하여 예측을 수행하는 방법에 대한 제2 예시도이다.
32a를 참조하면, 현재 블록과 인접한 블록에 속하는 화소 중에서 화면 내 예측 방향 상에 위치한 화소가 현재 블록의 상단과 좌측에 두 개씩 위치할 수 있다. 따라서, 현재 블록의 상단에 화면 내 예측 방향의 시작점에 위치한 화소를 제1 주 참조 화소로 하고, 현재 블록의 좌측에 화면 내 예측 방향의 끝점에 위치한 화소를 제2 주 참조 화소로 하여 제1 서브 블록에 대한 예측을 수행할 수 있다. 이때, k로 설정된 영역 내에 위치한 화소에 대해서는 제1 주 참조 화소 및 제2 주 참조 화소를 모두 이용하고, k로 설정된 영역 밖에 위치한 화소에 대해서는 제1 주 참조 화소만을 이용할 수 있다. 제1 주 참조 화소 및 제2 주 참조화소를 모두 이용할 경우 두 화소의 평균 또는 두 화소 각각에 가중치를 부여하여 더한 값을 제1 서브 블록 내의 각 화소에 대한 예측값으로 결정할 수 있다.
32b를 참조하면, 현재 블록과 인접한 블록에 속하는 제1 주 참조 화소를 이용할 수 있음은 32a와 같으나, 부호화 및 복원이 완료된 제1 서브 블록 내의 화소가 화면 내 예측 방향 상에 위치하므로, 제1 서브 블록 내의 화소를 제2 주 참조 화소로 하여 이용할 수 있다. 제1 주 참조 화소 및 제2 주 참조 화소를 이용하는 방법은 32a와 같으므로 중복 설명은 생략한다.
32c를 참조하면, 32b와 같이 제1 주 참조 화소를 이용하거나, 부호화 및 복원이 완료된 제1 서브 블록 내의 화소를 추가로 이용할 수 있다. 이때, 제2 주 참조 화소에서 더 나아가 제2 주 참조 화소와 화면 내 예측 방향으로 인접하고, 제1 서브 블록내에 위치한 제3 주 참조 화소를 추가로 이용하여 제2 서브 블록의 예측을 수행할 수 있다. 예를 들면, 제1 주 참조 화소, 제2 주 참조 화소 및 제3 주 참조 화소 각각에 가중치를 부여하여 더한 값을 제2 서브 블록의 각 화소에 대한 예측값으로 하거나, 제1 주 참조 화소 내지 제3 주 참조 화소의 평균값을 제2 서브 블록의 각 화소에 대한 예측값으로 할 수 있다.
도 33은 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 화소 라인으로 분할된 서브 블록의 예측 방법에 대한 제1 예시도이다.
33a를 참조하면, 부호화하려는 현재 블록의 제1 서브 블록은 현재 블록에 대하여 가로로 짝수 번째 위치한 화소 라인들로 구성될 수 있다. 여기서, 제1 서브 블록의 각 화소에 대한 예측값은 현재 블록의 상단 또는 우상단에 위치한 블록 내에 속하는 화소를 주 참조 화소로 하여, 주 참조 화소값을 예측 방향으로 복사함으로써 생성할 수 있다.
33b를 참조하면, 부호화하려는 현재 블록의 제2 서브 블록은 현재 블록에 대하여 가로로 홀수 번째 위치한 화소 라인들로 구성될 수 있다. 여기서, 예측하려는 현재 화소의 예측 방향 전후에 이미 복원된 제1 서브 블록의 화소 또는 현재 블록과 인접한 블록에 속하는 화소가 존재하므로, 예측 방향 전후에 있는 두 화소를 각각 주 참조 화소로 하여, 제2 서브 블록에 대한 예측이 수행될 수 있다. 구체적으로 현재 화소의 예측 방향 전과 후에 있는 두 화소의 평균 또는 두 화소 각각에 가중치를 부여하여 더한 값을 현재 화소의 예측값으로 결정할 수 있다.
33a 또는 33b에서 화면 내 예측 방향 상에 위치한 주 참조 화소가 없는 경우에는 앞에서와 동일하게 주 참조 화소를 예측 방향 위에 복사(padding)하여 참조할 수 있다.
도 34는 본 발명의 일 실시예에 따른 대각선 모드의 화면 내 예측에서 화소 라인으로 분할된 서브 블록의 예측 방법에 대한 제2 예시도이다.
34a를 참조하면, 부호화하려는 현재 블록의 제1 서브 블록은 현재 블록에 대하여 세로로 짝수 번째 위치한 화소 라인들로 구성될 수 있다. 여기서, 제1 서브 블록의 각 화소에 대한 예측값은 현재 블록의 상단 또는 우상단에 위치한 블록 내에 속하는 화소를 주 참조 화소로 하여, 주 참조 화소값을 예측 방향으로 복사함으로써 생성할 수 있다.
34b를 참조하면, 부호화하려는 현재 블록의 제2 서브 블록은 현재 블록에 대하여 세로로 홀수 번째 위치한 화소 라인들로 구성될 수 있다. 여기서, 예측하려는 현재 화소의 예측 방향 전후에 이미 복원된 제1 서브 블록의 화소 또는 현재 블록과 인접한 블록에 속하는 복원된 화소가 존재하므로, 예측 방향 전후에 있는 두 화소를 각각 주 참조 화소로 하여, 제2 서브 블록에 대한 예측이 수행될 수 있다. 구체적으로 현재 화소의 예측 방향 전과 후에 있는 두 화소의 평균 또는 두 화소 각각에 가중치를 부여하여 더한 값을 현재 화소의 예측값으로 결정할 수 있다.
34a 또는 34b에서 화면 내 예측 방향 상에 위치한 주 참조 화소가 없는 경우에는 앞에서와 동일하게 주 참조 화소를 예측 방향 위에 복사(padding)하여 참조할 수 있다.
상기 실시예는 대각선 방향의 예측 모드에서 참조 화소는 정수 단위의 화소를 사용하여 예측이 수행되는 경우를 포함한다. 일부 모드의 경우 예측 모드 방향에 따라 정수 단위의 화소 뿐만 아니라 소수 단위의 화소를 보간하여 예측이 수행되는 경우도 포함할 수 있다. 상기 예에서는 제 1 주 참조 화소는 예측 방향의 시작점에 위치하는 정수 단위 화소를, 제 2 주 참조 화소는 예측 방향의 끝점에 위치하는 정수 단위 화소에 대한 예를 들었으나, 일부 예측 모드에 따라 제 1 주 참조 화소는 예측 방향의 시작점에 놓인 정수 단위 화소 또는 소수 단위 화소를 의미할 수 있고, 제 2 주 참조 화소는 예측 방향의 끝점에 위치하는 정수 단위 화소 또는 소수 단위의 화소를 의미할 수 있다. 또는, 제 1주 참조 화소는 예측 방향의 시작점에 놓인 하나의 정수 단위 화소 또는 소수 단위 화소를 의미할 수 있고, 제 2 주 참조 화소는 예측 방향의 끝점에 위치하는 둘 이상의 정수 단위 화소를 의미할 수 있다. 이 때, 둘 이상의 정수 단위 화소는 예측 방향의 끝점 위치에 인접하는 화소일 수 있다.
상기 실시예에서 둘 이상의 서브 블록 단위로 분할되어 부호화가 진행되었을 때, 서브 블록 단위로 같거나 다른 변환 기법을 사용하여 변환을 수행할 수 있다. 예를 들어, 부호화 블록 단위에서 변환 관련 설정(본 예에서 변환의 수행 여부, 변환의 종류 등)을 완료한 경우 서브 블록에는 상기 단위에서 결정된 동일한 변환 기법을 적용할 수 있다. 다른 예로, 변환 블록 단위에서 변환 관련 설정을 완료한 경우 서브 블록에서 독립적인 변환 기법을 적용할 수 있다.
도 35는 변환 블록 단위로 부호화 계수 유무를 지시하는 플래그에 대한 예시도이다.
도 35의 35a 및 35b에서, 굵은 실선은 부호화 블록 구획선을, 얇은 실선은 부호화 블록 기준 심도 0에서 변환 블록 구획선을, 점선은 심도 1에서 변환 블록 구획선을 의미한다.
35a는 쿼드트리 방식으로 부호화 블록을 분할하거나 부호화 블록이 정사각 형태이고, 쿼드트리 방식으로 변환 블록을 변환하거나 변환 블록이 정사각 형태일 때, 부호화 계수 유무 플래그(본 예에서 cbf. coded block flag)의 설정에 대한 예를 나타낸다. 35a의 (큰 블록이 2N×2N이라 했을 경우) 왼쪽 위 블록(N×N)과 오른쪽 위 블록(N×N)은 변환 블록의 분할을 지원하지 않고 부호화 블록이 결정되면서 같이 변환 블록의 크기 및 형태가 결정된 블록의 예일 수 있다. 즉, 부호화 블록에서 변환 블록의 크기 및 형태에 대한 정보를 지원하지 않는 블록일 수 있다.
왼쪽 위 블록(N×N)과 오른쪽 위 블록(N×N)은 변환 블록의 분할이 없이 변환 블록이 결정된 블록들이기에 각 컬러 성분들에 대한 cbf를 지원하고 추가적인 cbf 정보를 생성하지 않는다.
왼쪽 아래 블록(N×N)의 경우 변환 블록이 분할(N/2×N/2)되었으며 분할된 블록의 부호화 계수 유무에 대한 정보가 필요할 수 있다. 이 때, cbf의 정보에 따라 하위 단위로 분할된 변환 블록들에 추가적인 cbf 정보 생성을 결정할 수 있다. 본 예에서는 각 컬러 성분에 대한 cbf 정보가 0이기 때문에 분할된 변환 블록에는 각 성분들의 부호화 계수가 발생하지 않으므로 cbf 정보를 추가로 생성하지 않는다.
오른쪽 아래 블록(N×N)의 경우 변환 블록이 분할(N/2×N/2)되었으며 분할된 블록의 부호화 계수 유무에 대한 정보가 필요할 수 있다. 이 때, 일부의 cbf 정보는 생략될 수 있다. 일부 컬러 성분(Luma)의 경우 변환 블록이 분할되었을 때 하위 변환 블록 중 최소 하나의 블록에서 부호화 계수가 발생한다는 가정 하에 그와 같이 설정될 수 있다(왼쪽 아래 블록에선 그대로 전송). 그래서 오른쪽 아래 블록의 경우 cbf_cb, cbf_cr의 정보만 생성할 수 있다. 본 예에서는 luma는 부호화 계수가 존재한다는 설정(cbf_L=1) 하에 생략되었고, cbf_cb가 1이기 때문에 하위 변환 블록들에 대한 cbf_cb를 추가로 생성할 수 있다.
오른 쪽 아래 블록(N×N)에서 추가로 변환 블록이 쪼개지지 않는 블록(왼쪽 위와 왼쪽 아래, 오른쪽 아래 블록<N/2×N/2>)의 경우 cbf_cr은 상위 단위에서 0으로 설정되어 생성하지 않고 cbf_L과 cbf_cb의 정보가 생성될 수 있으며 추가적인 cbf 정보를 생성하지 않는다.
오른쪽 위 블록(N/2×N/2)의 경우 변환 블록이 분할(N/4×N/4)되었으며 상위 단위에서와 같이 변환 블록이 분할되었기 때문에 cbf_L의 정보가 생성되지 않고(cbf_L=1), cbf_cb에 대한 정보만 생성할 수 있다. 본 예에서는 cbf_cb가 0으로 설정이 되어 하위 단위에서는 cbf_cb에 대한 추가적인 정보를 생성하지 않는다.
상기 하위 블록(N/4×N/4)에서는 추가적인 변환 블록의 분할은 없을 경우 현재 단계까지 남아 있는 cbf 정보를 생성할 수 있다. 본 예에서는 cbf_L이 그에 따른 cbf 정보일 수 있다.
35b는 바이너리트리 방식으로 부호화 블록을 분할하거나 부호화 블록이 직사각 형태이고, 바이너리트리 방식으로 변환 블록을 분할하거나 변환 블록이 직사각 형태일 때, 부호화 계수 유무 플래그의 설정에 대한 예를 나타낸다. 35b의 (상기 큰 블록이 2N×2N이라 했을 경우) 왼쪽에서 첫 번째 블록(N/2×2N)과 두 번째 블록(N/2×2N)은 변환 블록의 분할을 지원하지 않고 부호화 블록이 결정되면서 같이 변환 블록의 크기 및 형태가 결정된 블록의 예일 수 있다. 즉, 부호화 블록에서 변환 블록의 크기 및 형태에 대한 정보를 지원하지 않는 블록일 수 있다.
오른쪽 위 블록(N×N)의 경우 변환 블록이 분할(N×N/2)되었으며 분할된 블록의 부호화 계수 유무에 대한 정보가 필요할 수 있다. 이 때, cbf의 정보에 따라 하위 단위로 분할된 변환 블록들에 추가적인 cbf 정보 생성을 결정할 수 있다. 본 예에서는 각 컬러 성분에 대한 cbf_L이 0이기 때문에 분할된 변환 블록에는 각 성분들의 부호화 계수가 발생하지 않으므로 cbf_L 정보를 추가로 생성하지 않는다. 위에서 블록 분할 과정에서 설명한 것과 같이 부호화, 예측, 변환 블록은 Luma에서의 분할 형태를 Cb, Cr에서 컬러 포맷에 따라 리사이징(Resizing)된 후 따라하는 의존적인 설정이 가능할 수 있으며, Luma와 Cb, Cr의 분할 형태를 독립적인 설정 또한 가능할 수 있다. 이 경우 cbf_cr, cbf_cb 는 cbf_L과 독립적으로 처리될 수 있다. 본 예에서는 Luma의 경우 점선 형태로 추가 분할된 형태를 가지나 cbf_L=0이어서 하위 단위에 추가적인 cbf_L 정보를 생성하지 않고, cb, cr의 경우 N×N의 분할 형태(부호화 블록과 동일한 크기 및 형태)여서 cbf_cb, cbf_cr을 추가적으로 생성하지 않는 경우일 수 있다. 위에 대한 설정은 슬라이스 타입, 블록의 크기 및 형태 등에 조건에 따라 독립적인 분할을 지원할지 의존적인 분할을 지원할 지가 결정될 수 있다.
오른쪽 아래 블록(N×N)의 경우(cb, cr이 luma를 따르는 설정) 변환 블록이 분할(N/2×N)되었으며 분할된 블록의 부호화 계수 유무에 대한 정보가 필요할 수 있다. 일부 컬러 성분(Luma)의 cbf는 하위 단위의 변환 블록이 존재한다는 가정 하에 생략되었다고 가정하자(cbf_L=1). 본 예에서 cbf_cb는 0이므로 하위 단위에서의 cbf_cb 정보는 더 이상 생성되지 않고, cbf_cr은 1이므로 하위 단위의 변환 블록에 추가적인 cbf_cr 정보가 생성될 수 있다. 분할된 변환 블록 중 왼쪽 블록(N/2×N)은 추가적인 분할이 없기 때문에 cbf_L과 cbf_cr를 생성할 수 있다. 분할된 변환 블록 중 오른쪽 블록(N/2×N)은 변환 블록 분할(점선)이 이뤄지므로 cbf_L은 생락하고 cbf_cr을 생성할 수 있다. 추가적으로 분할된 변환 블록(N/4×N)은 더 이상 분할이 이뤄지지 않으므로 cbf_L과 cbf_cr의 정보를 각각 생성할 수 있다.
그래서 오른쪽 아래 블록의 경우 cbf_cb, cbf_cr의 정보만 생성할 수 있다. 본 예에서는 luma는 부호화 계수가 존재한다는 설정(cbf_L=1) 하에 생략되었고, cbf_cb가 1이기 때문에 하위 변환 블록들에 대한 cbf_cb를 추가로 생성할 수 있다.
위와 같은 과정을 통해 각 변환 블록 단위로 부호화 계수 존재 유무에 대한 정보를 확인할 수 있다. 상기 cbf_가 1일 경우에만 부호화 계수를 위한 부호화 과정을 수행할 수 있다.
도 36은 HEVC에서 잔차 블록에 대한 신택스의 예이다.
부호화 계수(손실 압축의 경우)는 변환, 양자화 과정으로 인해 DC와 저주파 성분쪽으로 많이 발생하는 성질이 있다. 그렇기 때문에, 변환 블록(M×N)의 모든 위치에서의 계수 성분을 부호화하는 것은 비효율적일 수 있다. 어느 위치에서 부호화 계수가 마지막으로 발생했는지에 대한 정보(x,y)를 보내주면 효율적일 수 있다. 블록의 어느 특정 좌표(블록의 왼쪽 위, 오른쪽 위, 왼쪽 아래, 오른쪽 아래 중 하나. 부호화 설정<예를 들어, QP>에 따라 결정될 수 있으며, 2개 이상의 후보군을 두어 이를 결정할 수 있음)를 기준으로 가로 및 세로의 길이 정보를 보내줌으로써 이를 표현할 수 있다. 도 36을 참조하면, 어느 위치에서 부호화 계수가 마지막으로 발생했는지에 대한 정보에 관한 신택스는 last_sig_coeff_x_prefix ~ last_sig_coeff_y_suffix이다.
HEVC에서는 변환 블록을 4×4 단위의 서브블록으로 분할하여 부호화 계수를 처리한다. 도 35의 cbf와 비슷하게 각 4×4 서브블록 내에 0이 아닌 부호화 계수 유무에 대한 내용을 다루는 신택스는 coded_sub_block_flag이며, 이 값이 1일 경우에만 해당 블록의 부호화 계수를 부호화한다. 위와 같이 변환 블록의 크기와 형태에 관계없이 항상 고정된 크기 및 형태를 갖는 (부호화 계수 부호화를 위한) 서브블록 단위를 가질 수도 있고, 변환 블록의 크기와 형태에 따라 적응적인 크기 및 형태를 갖는 서브 블록 단위를 가질 수도 있다. 예를 들어, 서브 블록의 단위는 4×4를 포함하여 추가적인 크기 및 형태(예로, 8×8)를 지원할 수 있으며, 이 때 coded_sub_block_flag가 지원되는 단위는 4×4 또는 추가적인 크기 및 형태 단위가 될 수 있다. 또한, 서브 블록의 단위의 크기 및 형태에 따라 상기 신택스에 대한 설정이 달라질 수 있다. 또한, 부호화 모드에 따라 상기 신택스에 대한 설정이 달라질 수 있다. 예를 들어, 제1 서브블록에서는 각 coeff_abs_level_greater1_flag(부호화 계수의 절대값이 1보다 큰 지를 나타내는 플래그), coeff_abs_level_greater2_flag(부호화 계수의 절대값이 2보다 큰 지를 나타내는 플래그)를 최대 a, b개까지 지원한다면, 제 2 서브블록에는 각 신택스를 최대 c, d개까지 지원할 수 있으며, a는 c보다 크거나 같을 수 있고, b는 d보다 크거나 같을 수 있으며, 이 때 제 1 서브 블록 크기는 제 2 서브 블록보다 클 수 있다. 다른 예로, 부호화 모드가 Intra일 경우에 coeff_abs_level_greater1_flag, coeff_abs_level_greater2_flag를 최대 a, b개까지 지원한다면, Inter일 경우에 최대 c, d개까지 지원할 수 있으며, a와 c는 같거나 다를 수 있고, b와 d는 같거나 다를 수 있다.
현재 변환 블록은 4×4이고 이 경우 하나의 4×4 서브 블록으로 구성되어 있기 때문에 coded_sub_block_flag는 생성하지 않고, cbf 정보(변환 블록 단위로 지원)를 생성하며 4×4 블록이 부호화 계수 스캔 순서는 위와 같은 대각선 스캔(오른쪽 위에서 왼쪽 아래로) 순서를 따른다는 가정 하에 설명한다.
도 37은 본 발명의 일 실시예에 따른 부호화 계수의 부호화를 설명하기 위한 예시도이다.
37a는 부호화 계수를, 37b는 부호화 계수의 스캔 순서를 나타낸다. 각 부호화 계수마다 sig_coeff_flag가 생성되며 이는 부호화 계수가 0인지 아닌지를 의미하는 신택스일 수 있다다. 부호화 계수가 아닐 때 이 값은 0일 때는 해당 계수에 추가적인 신택스는 발생하지 않으며, 1일 때는 부호화 계수에 대한 추가적인 신택스 정보가 생성될 수 있다. coeff_sign_flag는 해당 계수가 어떤 부호를 갖는지에 대한 정보를 담고 있으며, 이 값이 0이면 양수, 1이면 음수를 의미할 수 있다. 그리고 해당 계수의 절대값이 1보다 큰지를 지시하는 신택스(coeff_abs_level_greater1_flag)를 확인하고, 이 값이 0일 때는 추가적인 신택스는 발생하지 않고, 1일 때는 해당 계수의 절대값이 2보다 큰지를 지시하는 신택스(coeff_abs_level_greater2_flag)를 확인하고, 이 값이 0일 때는 추가적인 신택스는 발생하지 않고, 1일 때는 해당 계수의 나머지 값에 대한 신택스(coeff_abs_level_remaining)가 지원될 수 있다.
여기서, coeff_abs_level_remaining은 서브블록 단위로 지원되는 각 계수에 대한 신택스들로 처리할 수 없는 경우에 지원되는 신택스라고 할 수 있다.
Figure PCTKR2017004696-appb-T000001
상기 표 1은 coeff_abs_level_greater1_flag와 coeff_abs_level_greater2_flag가 각각 최대 8개, 1개가 지원되는 경우 37a의 부호화 계수 및 37b의 스캔 순서(scanning order)에 따라 부호화 계수(coefficient) 및 관련 신택스를 나타낸 것이다. 스캔 순서에서 최초로 0이 아닌 부호화 계수부터 시작하여 상기 신택스들이 지원되며 상기 최대개수만큼 발생하면 이 후에 발생하는 계수들은 충분히 큰 계수들이 발생한다는 가정 하에 위와 같이 설정될 수 있으며, 이는 서브블록의 크기 및 형태 등에 따라 달리 설정될 수 있다.
coeff_abs_level_remaining의 경우 부호화 계수에서 sig_coeff_flag, coeff_abs_level_greater1_flag, coeff_abs_level_greater2_flag를 고려하여 남은 계수값이 하기 수학식 12에 의해 계산될 수 있다.
Figure PCTKR2017004696-appb-M000012
각 계수마다 생성되는 신택스에 따라 상기 수학식 12가 계산될 수 있으며, 신택스coeff_abs_level_remaining가 생성되지 않을 경우에 해당 신택스의 값은 0으로 설정할 수 있다. 아래에서 언급되는 신택스 외에도 coeff_abs_level_remaining에 도달하기 위해 사용되는 추가적인 신택스 요소가 고려될 수도 있다.
상기 신택스들의 기본 설정은 손실 부호화에 맞춰서 설정이 되어 있다. 일반적인 손실 부호화의 경우 주파수 도메인에서의 잔차 계수는 변환 블록의 왼쪽 위인 DC 성분 근처에 많이 발생한다는 전제 조건이 포함되어 있는 것이다. 그러나 일부 영상 특성 및 양자화 파라미터 설정에 따라 기본 전제 조건에 위배되는 상황이 발생할 수 있다. 예를 들어, 변환 계수 분포가 일반적인 DC 성분에 모이지 않는 경우를 대비하여 변환 또는 양자화를 생략할 수 있고, 상기 신택스의 동작에 대한 정의를 변경할 수 있다.
coeff_abs_level_remaining는 아래와 같은 조건식을 통해 이진화를 지원할 수 있다.
Figure PCTKR2017004696-appb-M000013
수학식 13에서, prefix(p)는 truncated unary binarization, suffix(s)는 binary representation으로 구성하며, 하기 표2와 같은 이진화 테이블을 갖는다고 하자.
Figure PCTKR2017004696-appb-T000002
상기 표 2에서, k는 이진화 테이블을 위한 변수이며, k에 따라 v에 할당되는 코드워드가 조정될 수 있다. k에 따라 v에 다른 코드워드가 할당되는 것이 특징이다. 예를 들어, 작은 값이 많이 발생하는 상황에서는 k는 낮은 값을 갖는 것이 v에 평균적으로 더 짧은 코드워드를 발생하게 하고, 큰 값이 많이 발생하는 상황에서는 k는 큰 값을 갖는 것이 v에 평균적으로 더 짧은 코드워드를 발생하게 하게 하여 평균 코드워드를 짧게 유지하기 위해 조정되는 변수 일 수 있다. 상기 prefix, suffix 등과 같이 코드워드 생성에 사용되는 이진화와 prefix, suffix의 분류는 상기 방법을 포함한 다른 방법이 사용될 수 있으며, 특정 파라미터 변수에 따라 각 값(본 예에서는 부호화 계수)에 할당되는 코드워드를 조절함으로써 평균적으로 짧은 코드워드를 발생시키게 하는 방법의 한 예라고 할 수 있으며, 이와 같은 개념을 포함하는 다른 변형의 사례 또한 가능할 수 있다.
Figure PCTKR2017004696-appb-M000014
수학식 14는 k 파라미터의 업데이트 조건을 위한 수식이며, 수학식 14의 조건을 만족할 경우 k는 k’로 업데이트 될 수 있고, k가 도달할 수 있는 최대 값은 4이다. k는 비트 심도(bit_depth)와 양자화 파라미터 등의 조건에 따라 설정할 수 있다.
서브 블록에서의 스캔 순서에 따라 부호화 계수의 부호화를 수행할 때, 처음에 설정되는 k는 0일 수 있다. 상기 coeff_abs_level_remaining의 값(v)에 따른 코드워드를 할당한 후에 상기 수식 조건과 비교하여 k값의 업데이트 조건을 확인한다. 만약 상기 조건에 만족할 경우 k값은 k‘로 업데이트 되어 다음 coeff_abs_level_remaning의 값의 부호화 때의 k로 사용할 수 있다. k값은 한 번의 업데이트 과정에서 최대 1만큼의 증가가 가능하며 위에서 설정된 최대값(4)까지 증가하여 coeff_abs_level_remaining의 코드워드 할당에 관여할 수 있다. 또한, k는 업데이트 과정에서 변동이 없거나 증가하는 성질을 가질 수 있다. 이는 스캔 순서 방향이 진행될수록 일반적인 부호화 환경(손실)에서는 주파수 도메인으로 변환 후 양자화를 수행하기 때문에 DC 성분(잔차 블록의 왼쪽 위)에서 절대값이 큰 계수가 많이 발생하며 오른쪽 아래(고주파 영역)에 위치할수록 절대값이 작은 계수가 발생하는 특성을 고려했기 때문이다. k값에 대한 업데이트 조건은 변환 블록 단위로 다른 설정을 가질 수 있다. 또한, 부호화 설정(본 예에서는 양자화 파라미터, 화면 내 예측 방법<블록 단위의 예측/화소 단위의 예측>)에 따라 다른 설정을 가질 수 있다. 예를 들어, 예측 및 부호화 과정에서 현재 블록과 인접한 블록에 속하는 참조 화소를 통해 예측 및 부호화된 블록과 현재 블록과 인접한 블록에 속하는 화소 뿐만 아니라, 현재 블록 내에 이미 복원된 서브 블록 내의 화소를 추가로 참조하여 예측 및 부호화된 블록의 경우 다른 k값 업데이트 조건을 적용할 수 있다. 후자의 경우 정확한 예측 블록 생성으로 인한 변환 및 양자화 과정 후의 부호화 계수(양자화된 변환계수열 또는 예측 후 차분화소열)의 특성이 다를 수 있기 때문이다. 이는 화면 내 예측 방식에 따라 다른 업데이트 조건을 갖는 예와 연결될 수 있는데, 블록 기반의 예측과 화소 기반의 예측 방법에 따라 그에 따른 부호화 계수의 특성이 다를 수 있기 때문이다. 다른 예로, 무손실 압축의 경우 손실 압축의 경우는 다른 부호화 계수 특성을 갖기 때문에 다른 업데이트 조건을 적용할 수 있다.
위와 같은 k 파라미터의 업데이트 설정은 영상의 특성을 잘 고려하지 못하여 적당하지 않은 코드워드 할당에 영향을 미칠 수가 있다. 또한, 다른 부호화 설정에 따른 특성을 또한 고려하지 못할 수도 있다.
k값에 대한 특성(기존의 경우 k값은 감소하지 않고 증가하는 성질을 가지며 한번의 증가폭은 1)에 대한 후보군을 2개 이상 설정하여 효율적인 부호화를 수행할 수 있다. 일 예로 k값의 특성은 k값은 증가 또는 감소하는 성질을 가질 수 있다. 일 예로, k값의 증가폭(또는 감소폭)은 1 이상일 수 있다. 일 예로, k의 범위는 0부터 t까지로 설정할 수 있으며 t는 하나 이상의 후보군을 가질 수 있다. 위와 같은 다양한 설정 등의 조합하여 하나 이상의 k에 대한 설정을 둘 수 있다. 이에 대한 설정은 시퀀스, 픽쳐, 슬라이스 등의 단위에서 결정할 수 있다.
만약 위에서 추가 언급한 k값의 특성을 정의하다면, 기존의 coeff_abs_level_remaining에 대한 이진화를 결정하는 수식 또한 변경될 필요가 있다.
Figure PCTKR2017004696-appb-M000015
수학식 15에서 Si는 각 (0이 아닌) 부호화 계수를 의미하며 T()는 상기 k에 따른 이진화 테이블에서 어느 k값을 가질 지를 결정하는 경계값 조건을 의미한다. N은 T()를 구하기 위하여 사용되는 현재 부호화 계수 위치 이전에 (0이 아닌) 부호화 계수의 개수를 의미한다. T(Si)는 현재 부호화 계수 이전의 연속하는 부호화 계수의 평균을 이용하여 구할 수 있다.
도 38은 현재 부호화 계수 이전에 부호화 계수 및 수학식 15의 값을 결정하는 계수에 관한 예시도이다.
38a는 현재 부호화 계수 이전에 부호화 계수(회색이 0이 아닌 계수)를 나타내며, 그 중 일부의 부호화 계수가 T(Si)를 계산하기 위하여 사용되었다. 수학식 14를 통해 k값이 k’을 업데이트 되는 계수의 범위는 하기 표 3과 같이 정리할 수 있다.
Figure PCTKR2017004696-appb-T000003
표 3에서, 0부터 2까지의 T(si)는 k=0인 코드워드를 할당하고, 3부터 5까지는 k=1인 코드워드를 할당할 수 있다. 즉, T(si)를 통해 업데이트 된 k의 코드워드를 할당하는데 이를 표 3과 같이 정리할 수 있다. 아래와 k 파라미터에 따라 각 계수값이 가질 수 있는 최소 코드워드를 갖는 하나의 테이블로 정리할 수 있다. 예를 들어, 현재 계수(3이라고 가정)에 대한 상기 업데이트 과정을 통해 k가 1로 업데이트 되었다면, k가 1일 때 3에 대한 코드워드인 101을 할당할 수 있다.
이와 같은 추가적인 k 업데이트 설정을 두어 적응적인 코드워드를 할당할 수 있다. 예를 들어, 양자화 파라미터에 따라 무손실 압축 환경에서는 상기 방법을, 손실 압축 환경에서는 기존의 방법을 사용할 수 있다. 위와 같이 신택스의 동작에 대한 설정뿐만 아니라 엔트로피 부호화 단계에서 스캔에 대한 설정을 바꾸는 것으로도 부호화 효율의 향상이 가능하다.
Figure PCTKR2017004696-appb-T000004
표 4는 화면 내 예측에서의 스캔 방법에 대해 정의하고 있다. HEVC에서는 화면 내 예측 모드에 따라서 스캔 방법을 달리 두고 있다. 그러나 영상 특성 또는 양자화 파라미터 등에 의해 기존의 스캔 방향이 맞지 않을 수가 있다. 상기 테이블에서는 블록 크기 및 예측 모드에 따라서 diag, ver, hor 세가지 스캔 패턴을 두고 있는데, 예를 들어 양자화 파라미터가 0이 아닐 때와 양자화 파라미터가 0일 때(즉, 무손실)의 스캔 패턴를 변경(화살표 방향으로)할 수 있다. 즉, 기존의 블록 크기, 예측 모드에 따라 스캔 방법을 달리 했다면 이 예에서는 양자화 파라미터에 의해 또 다시 다른 스캔 방법을 적용한다는 것이다. 상기 경우에는 스캔 패턴은 3가지로 양자화 파라미터 조건에 따라서도 기존의 스캔 패턴을 사용하지만, 이는 양자화 파라미터 조건에 따라서 기존의 스캔 패턴 외의 추가적인 패턴을 적용할 수도 있다. 상기 스캔 패턴 설정에 영향을 주는 추가적인 요소로 블록의 형태, 블록 분할 방법(본 예에서 변환 블록) 등이 고려될 수 있다.
도 39는 본 발명의 일 실시예에 따른 화면 내 예측을 이용한 복호화 방법에 대한 흐름도이다.
도 39를 참조하면, 복호화 장치에서 수행되는 화면 내 예측을 이용한 복호화 방법은, 비트 스트림을 수신하는 단계(S100), 수신된 비트 스트림에서 복호화 정보를 획득하는 단계(S200), 획득한 복호화 정보를 이용하여 복호화하려는 현재 블록에 대한 예측 블록을 생성하는 단계(S300) 및 비트 스트림에서 획득된 잔차 블록과 예측 블록을 가산하여 현재 블록을 복원하는 단계(S400)를 포함할 수 있다.
여기서, 예측 블록을 생성하는 단계(S300)는, 현재 블록과 인접한 블록에 속하거나 또는 현재 블록의 적어도 하나의 서브 블록에 속하는 복원 화소 중에서 선정된 적어도 하나의 주 참조 화소를 이용하여 현재 블록의 각 화소에 대한 예측값을 생성함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다.
여기서, 주 참조 화소는, 복원 화소 중에서 화면 내 예측 방향 상에 위치한 화소일 수 있다.
여기서, 예측 블록을 생성하는 단계(S300)는, 화면 내 예측 방향 상에 위치한 주 참조 화소가 두 개 이상인 경우, 현재 블록 내에 예측하려는 현재 화소를 기준으로 화면 내 예측 방향의 전후에 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 현재 블록에 대한 예측 블록을 생성하는 단계를 포함할 수 있다.
여기서, 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 현재 블록에 대한 예측 블록을 생성하는 단계는, 두 개의 주 참조 화소의 평균 또는 두 개의 주 참조 화소에 가중치를 각각 적용하여 더한 값을 현재 화소에 대한 예측값으로 하여 예측 블록을 생성할 수 있다.
여기서, 적어도 하나의 서브 블록은, 쿼드트리 방식 및 바이너리트리 방식 중 하나를 이용하여 현재 블록을 분할함으로써 획득되거나, 쿼드트리 방식과 바이너리트리 방식을 혼용하여 현재 블록을 분할함으로써 획득될 수 있다.
여기서, 적어도 하나의 서브 블록은, 현재 블록 내에서 가로로 짝수 또는 홀수번째에 위치한 화소 라인들로 구성될 수 있다.
여기서, 적어도 하나의 서브 블록은, 현재 블록 내에서 세로로 짝수 또는 홀수번째에 위치한 화소 라인들로 구성될 수 있다.
여기서, 적어도 하나의 서브 블록은, 현재 블록 내의 각 화소 좌표(x,y)의 x 및 y 좌표가 짝수인 좌표들로 구성되거나, x 및 y 좌표 중 하나는 짝수이고 다른 하나는 홀수인 좌표로 구성되거나, x 및 y 좌표가 홀수인 좌표들로 구성될 수 있다.
여기서, 예측 블록을 생성하는 단계(S300)는, 복원 화소 중에서 주 참조 화소 및 현재 블록 내에 예측하려는 현재 화소 사이의 위치와 화면 내 예측 방향을 기준으로 상응하는 위치에 있는 두 화소 사이의 차분값을 이용하여 주 참조 화소를 보정하는 단계 및 보정된 주 참조 화소를 이용하여 예측 블록을 생성하는 단계를 포함할 수 있다.
여기서, 주 참조 화소를 보정하는 단계는, 차분값을 주 참조 화소에 더하거나, 차분값에 가중치를 적용한 값을 주 참조 화소에 더함으로써 주 참조 화소를 보정할 수 있다.
여기서, 주 참조 화소를 보정하는 단계는, 현재 화소 중에서 일정한 범위 내에 속하는 화소에 대한 예측시에 한하여 주 참조 화소를 보정할 수 있다.
여기서, 주 참조 화소를 보정하는 단계는, 차분값이 두개 이상 도출되는 경우, 두 개 이상의 차분값들에 대한 평균 또는 두개 이상의 차분값들 각각에 가중치를 부여하여 도출된 값을 이용하여 주 참조 화소를 보정할 수 있다.
도 40은 본 발명의 일 실시예에 따른 화면 내 예측을 이용한 복호화 장치에 대한 블록도이다.
도 40을 참조하면, 화면 내 예측을 이용한 복호화 장치(30)는, 적어도 하나의 프로세서(processor, 31) 및 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 명령하는 명령어들을 저장하는 메모리(memory, 32)를 포함할 수 있다.
여기서, 적어도 하나의 단계는, 비트 스트림을 수신하는 단계, 수신된 비트 스트림에서 복호화 정보를 획득하는 단계, 획득한 복호화 정보를 이용하여 복호화하려는 현재 블록에 대한 예측 블록을 생성하는 단계 및 비트 스트림에서 획득된 잔차 블록과 예측 블록을 가산하여 현재 블록을 복원하는 단계를 포함할 수 있다.
여기서, 예측 블록을 생성하는 단계는, 현재 블록과 인접한 블록에 속하거나 또는 현재 블록의 적어도 하나의 서브 블록에 속하는 복원 화소 중에서 선정된 적어도 하나의 주 참조 화소를 이용하여 현재 블록의 각 화소에 대한 예측값을 생성함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다.
여기서, 주 참조 화소는, 복원 화소 중에서 화면 내 예측 방향 상에 위치한 화소일 수 있다.
여기서, 예측 블록을 생성하는 단계는, 화면 내 예측 방향 상에 위치한 주 참조 화소가 두 개 이상인 경우, 현재 블록 내에 예측하려는 현재 화소를 기준으로 화면 내 예측 방향의 전후에 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 현재 블록에 대한 예측 블록을 생성하는 단계를 포함할 수 있다.
여기서, 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 현재 블록에 대한 예측 블록을 생성하는 단계는, 두 개의 주 참조 화소의 평균 또는 두 개의 주 참조 화소에 가중치를 각각 적용하여 더한 값을 현재 화소에 대한 예측값으로 하여 예측 블록을 생성할 수 있다.
여기서, 적어도 하나의 서브 블록은, 쿼드트리 방식 및 바이너리트리 방식 중 하나를 이용하여 현재 블록을 분할함으로써 획득되거나, 쿼드트리 방식과 바이너리트리 방식을 혼용하여 현재 블록을 분할함으로써 획득될 수 있다.
여기서, 예측 블록을 생성하는 단계는, 복원 화소 중에서 주 참조 화소 및 현재 블록 내에 예측하려는 현재 화소 사이의 위치와 화면 내 예측 방향을 기준으로 상응하는 위치에 있는 두 화소 사이의 차분값을 이용하여 주 참조 화소를 보정하는 단계 및 보정된 주 참조 화소를 이용하여 예측 블록을 생성하는 단계를 포함할 수 있다.
여기서, 주 참조 화소를 보정하는 단계는, 차분값을 주 참조 화소에 더하거나, 차분값에 가중치를 적용한 값을 주 참조 화소에 더함으로써 주 참조 화소를 보정할 수 있다.
여기서, 주 참조 화소를 보정하는 단계는, 현재 화소 중에서 일정한 범위 내에 속하는 화소에 대한 예측시에 한하여 주 참조 화소를 보정할 수 있다.
그 밖에도 본 발명의 일 실시예에 따른 복호화 장치(30)는 도 39에 따른 복호화 방법과 동일 또는 상응하는 방법을 수행하도록 구성될 수 있으며, 중복 서술은 생략하였다.
또한, 복호화 장치(30)는 예를 들면, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.
또한, 복호화 장치(30)는 사용자의 입력을 수신하고 복호화된 영상을 표시하는 입출력부(33)를 더 포함할 수 있는데, 입출력부(33)는 예를 들면, 키보드, 마우스, 터치 스크린, 디스플레이 장치 등을 포함할 수 있다.
또한, 복호화 장치(30)는 복호화 과정 전후의 처리된 영상, 프레임, 블록 등을 저장하는 저장소(storage, 34)를 더 포함할 수 있는데, 저장소(34)는 예를 들면, HDD(Hard Disk Drive), SSD(Solid State Disk) 등을 포함할 수 있다.
본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (20)

  1. 복호화 장치에서 수행되는 화면 내 예측을 이용한 복호화 방법에서,
    비트 스트림을 수신하는 단계;
    수신된 비트 스트림에서 복호화 정보를 획득하는 단계;
    획득한 복호화 정보를 이용하여 복호화하려는 현재 블록에 대한 예측 블록을 생성하는 단계; 및
    상기 비트 스트림에서 획득된 잔차 블록과 상기 예측 블록을 가산하여 상기 현재 블록을 복원하는 단계를 포함하고,
    상기 예측 블록을 생성하는 단계는,
    상기 현재 블록과 인접한 블록에 속하거나 또는 상기 현재 블록의 적어도 하나의 서브 블록에 속하는 복원 화소 중에서 선정된 적어도 하나의 주 참조 화소를 이용하여 상기 현재 블록의 각 화소에 대한 예측값을 생성함으로써 상기 현재 블록에 대한 예측 블록을 생성하는, 화면 내 예측을 이용한 복호화 방법.
  2. 청구항 1에서,
    상기 주 참조 화소는,
    상기 복원 화소 중에서 화면 내 예측 방향 상에 위치한 화소인, 화면 내 예측을 이용한 복호화 방법.
  3. 청구항 2에서,
    상기 예측 블록을 생성하는 단계는,
    상기 화면 내 예측 방향 상에 위치한 주 참조 화소가 두 개 이상인 경우,
    상기 현재 블록 내에 예측하려는 현재 화소를 기준으로 상기 화면 내 예측 방향의 전후에 상기 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계를 포함하는, 화면 내 예측을 이용한 복호화 방법.
  4. 청구항 3에서,
    상기 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계는,
    상기 두 개의 주 참조 화소의 평균 또는 상기 두 개의 주 참조 화소에 가중치를 각각 적용하여 더한 값을 상기 현재 화소에 대한 예측값으로 하여 상기 예측 블록을 생성하는, 화면 내 예측을 이용한 복호화 방법.
  5. 청구항 1에서,
    상기 적어도 하나의 서브 블록은,
    쿼드트리 방식 및 바이너리트리 방식 중 하나를 이용하여 상기 현재 블록을 분할함으로써 획득되거나, 상기 쿼드트리 방식과 상기 바이너리트리 방식을 혼용하여 상기 현재 블록을 분할함으로써 획득되는, 화면 내 예측을 이용한 복호화 방법.
  6. 청구항 1에서,
    상기 적어도 하나의 서브 블록은,
    상기 현재 블록 내에서 가로로 짝수 또는 홀수번째에 위치한 화소 라인들로 구성되는, 화면 내 예측을 이용한 복호화 방법.
  7. 청구항 1에서,
    상기 적어도 하나의 서브 블록은,
    상기 현재 블록 내에서 세로로 짝수 또는 홀수번째에 위치한 화소 라인들로 구성되는, 화면 내 예측을 이용한 복호화 방법.
  8. 청구항 1에서,
    상기 적어도 하나의 서브 블록은,
    상기 현재 블록 내의 각 화소 좌표(x,y)의 x 및 y 좌표가 짝수인 좌표들로 구성되거나, x 및 y 좌표 중 하나는 짝수이고 다른 하나는 홀수인 좌표로 구성되거나, x 및 y 좌표가 홀수인 좌표들로 구성되는, 화면 내 예측을 이용한 복호화 방법.
  9. 청구항 1에서,
    상기 예측 블록을 생성하는 단계는,
    상기 복원 화소 중에서 상기 주 참조 화소 및 상기 현재 블록 내에 예측하려는 현재 화소 사이의 위치와 화면 내 예측 방향을 기준으로 상응하는 위치에 있는 두 화소 사이의 차분값을 이용하여 상기 주 참조 화소를 보정하는 단계; 및
    보정된 주 참조 화소를 이용하여 상기 예측 블록을 생성하는 단계를 포함하는, 화면 내 예측을 이용한 복호화 방법.
  10. 청구항 9에서,
    상기 주 참조 화소를 보정하는 단계는,
    상기 차분값을 상기 주 참조 화소에 더하거나, 상기 차분값에 가중치를 적용한 값을 상기 주 참조 화소에 더함으로써 상기 주 참조 화소를 보정하는, 화면 내 예측을 이용한 복호화 방법.
  11. 청구항 9에서,
    상기 주 참조 화소를 보정하는 단계는,
    상기 현재 화소 중에서 일정한 범위 내에 속하는 화소에 대한 예측시에 한하여 상기 주 참조 화소를 보정하는, 화면 내 예측을 이용한 복호화 방법.
  12. 청구항 9에서,
    상기 주 참조 화소를 보정하는 단계는,
    상기 차분값이 두개 이상 도출되는 경우,
    두 개 이상의 차분값들에 대한 평균 또는 상기 두개 이상의 차분값들 각각에 가중치를 부여하여 도출된 값을 이용하여 상기 주 참조 화소를 보정하는, 화면 내 예측을 이용한 복호화 방법.
  13. 화면 내 예측을 이용한 복호화 장치에서,
    상기 복호화 장치는,
    적어도 하나의 프로세서(processor); 및
    상기 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 명령하는 명령어들을 저장하는 메모리(memory)를 포함하고,
    상기 적어도 하나의 단계는,
    비트 스트림을 수신하는 단계;
    수신된 비트 스트림에서 복호화 정보를 획득하는 단계;
    획득한 복호화 정보를 이용하여 복호화하려는 현재 블록에 대한 예측 블록을 생성하는 단계; 및
    상기 비트 스트림에서 획득된 잔차 블록과 상기 예측 블록을 가산하여 상기 현재 블록을 복원하는 단계를 포함하고,
    상기 예측 블록을 생성하는 단계는,
    상기 현재 블록과 인접한 블록에 속하거나 또는 상기 현재 블록의 적어도 하나의 서브 블록에 속하는 복원 화소 중에서 선정된 적어도 하나의 주 참조 화소를 이용하여 상기 현재 블록의 각 화소에 대한 예측값을 생성함으로써 상기 현재 블록에 대한 예측 블록을 생성하는, 화면 내 예측을 이용한 복호화 장치.
  14. 청구항 13에서,
    상기 주 참조 화소는,
    상기 복원 화소 중에서 화면 내 예측 방향 상에 위치한 화소인, 화면 내 예측을 이용한 복호화 장치.
  15. 청구항 14에서,
    상기 예측 블록을 생성하는 단계는,
    상기 화면 내 예측 방향 상에 위치한 주 참조 화소가 두 개 이상인 경우,
    상기 현재 블록 내에 예측하려는 현재 화소를 기준으로 상기 화면 내 예측 방향의 전후에 상기 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계를 포함하는, 화면 내 예측을 이용한 복호화 장치.
  16. 청구항 15에서,
    상기 현재 화소와 가장 가까운 두 개의 주 참조 화소를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계는,
    상기 두 개의 주 참조 화소의 평균 또는 상기 두 개의 주 참조 화소에 가중치를 각각 적용하여 더한 값을 상기 현재 화소에 대한 예측값으로 하여 상기 예측 블록을 생성하는, 화면 내 예측을 이용한 복호화 장치.
  17. 청구항 13에서,
    상기 적어도 하나의 서브 블록은,
    쿼드트리 방식 및 바이너리트리 방식 중 하나를 이용하여 상기 현재 블록을 분할함으로써 획득되거나, 상기 쿼드트리 방식과 상기 바이너리트리 방식을 혼용하여 상기 현재 블록을 분할함으로써 획득되는, 화면 내 예측을 이용한 복호화 장치.
  18. 청구항 13에서,
    상기 예측 블록을 생성하는 단계는,
    상기 복원 화소 중에서 상기 주 참조 화소 및 상기 현재 블록 내에 예측하려는 현재 화소 사이의 위치와 화면 내 예측 방향을 기준으로 상응하는 위치에 있는 두 화소 사이의 차분값을 이용하여 상기 주 참조 화소를 보정하는 단계; 및
    보정된 주 참조 화소를 이용하여 상기 예측 블록을 생성하는 단계를 포함하는, 화면 내 예측을 이용한 복호화 장치.
  19. 청구항 18에서,
    상기 주 참조 화소를 보정하는 단계는,
    상기 차분값을 상기 주 참조 화소에 더하거나, 상기 차분값에 가중치를 적용한 값을 상기 주 참조 화소에 더함으로써 상기 주 참조 화소를 보정하는, 화면 내 예측을 이용한 복호화 장치.
  20. 청구항 18에서,
    상기 주 참조 화소를 보정하는 단계는,
    상기 현재 화소 중에서 일정한 범위 내에 속하는 화소에 대한 예측시에 한하여 상기 주 참조 화소를 보정하는, 화면 내 예측을 이용한 복호화 장치.
PCT/KR2017/004696 2016-05-02 2017-05-02 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 장치 WO2017192011A2 (ko)

Priority Applications (8)

Application Number Priority Date Filing Date Title
EP22160975.3A EP4030754A1 (en) 2016-05-02 2017-05-02 Image encoding/decoding method and computer-readable medium
EP17792913.0A EP3442231A4 (en) 2016-05-02 2017-05-02 BILDCODE / DECODE PROCESS AND DEVICE USING INTRA-SCREEN PREDICTION
CN201780027691.6A CN109155851A (zh) 2016-05-02 2017-05-02 利用画面内预测的影像编码、解码方法及装置
US16/098,325 US10834408B2 (en) 2016-05-02 2017-05-02 Image encoding/decoding method and apparatus using intra-screen prediction
JP2018557891A JP2019515570A (ja) 2016-05-02 2017-05-02 画面内予測を利用した映像符号化/復号化方法および装置
US17/037,887 US20210014507A1 (en) 2016-05-02 2020-09-30 Image encoding/decoding method and apparatus using intra-screen prediction
US18/105,968 US11825099B2 (en) 2016-05-02 2023-02-06 Image encoding/decoding method and apparatus using intra-screen prediction
US18/481,623 US20240107029A1 (en) 2016-05-02 2023-10-05 Image encoding/decoding method and apparatus using intra-screen prediction

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160054279 2016-05-02
KR10-2016-0054279 2016-05-02

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/098,325 A-371-Of-International US10834408B2 (en) 2016-05-02 2017-05-02 Image encoding/decoding method and apparatus using intra-screen prediction
US17/037,887 Continuation US20210014507A1 (en) 2016-05-02 2020-09-30 Image encoding/decoding method and apparatus using intra-screen prediction

Publications (2)

Publication Number Publication Date
WO2017192011A2 true WO2017192011A2 (ko) 2017-11-09
WO2017192011A3 WO2017192011A3 (ko) 2018-08-02

Family

ID=60202967

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/004696 WO2017192011A2 (ko) 2016-05-02 2017-05-02 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 장치

Country Status (6)

Country Link
US (4) US10834408B2 (ko)
EP (2) EP3442231A4 (ko)
JP (2) JP2019515570A (ko)
KR (6) KR102028015B1 (ko)
CN (1) CN109155851A (ko)
WO (1) WO2017192011A2 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020106124A1 (ko) * 2018-11-23 2020-05-28 가온미디어 주식회사 효율적 블록 분할을 처리하는 영상 복호화 및 부호화 방법
JP2021517391A (ja) * 2018-06-01 2021-07-15 テンセント・アメリカ・エルエルシー ビデオ符号化のための方法、及び装置
JP2022177266A (ja) * 2018-04-01 2022-11-30 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 映像符号化/復号化方法及び装置
US11889072B2 (en) 2018-12-28 2024-01-30 Hangzhou Hikvision Digital Technology Co., Ltd. Video encoding and decoding

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102582918B1 (ko) 2015-09-02 2023-09-26 도요보 가부시키가이샤 푸란디카르복실레이트 단위를 함유하는 폴리에스테르 필름
JP2019515570A (ja) 2016-05-02 2019-06-06 漢陽大学校産学協力団Industry−University Cooperation Foundation Hanyang University 画面内予測を利用した映像符号化/復号化方法および装置
US10567808B2 (en) * 2016-05-25 2020-02-18 Arris Enterprises Llc Binary ternary quad tree partitioning for JVET
WO2018216862A1 (ko) * 2017-05-24 2018-11-29 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
CN108933941A (zh) * 2017-05-26 2018-12-04 富士通株式会社 图像编码方法和装置以及图像解码方法和装置
KR102501105B1 (ko) * 2017-09-20 2023-02-17 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN117376558A (zh) * 2017-10-16 2024-01-09 数字洞察力有限公司 用于将图像编码/解码的方法和存储比特流的记录介质
KR102500762B1 (ko) * 2018-01-02 2023-02-16 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
CN112005550B (zh) 2018-04-19 2024-05-03 Oppo广东移动通信有限公司 用于处理图像的方法及其设备
EP3567860A1 (en) * 2018-05-09 2019-11-13 InterDigital VC Holdings, Inc. Method and apparatus for blended intra prediction
US20190373292A1 (en) * 2018-06-01 2019-12-05 Qualcomm Incorporated In-loop bilateral filter type decision based on block information
MX2021000168A (es) 2018-06-29 2021-03-25 Huawei Tech Co Ltd Dispositivo y metodo para intra-pediccion.
EP3884669A1 (en) * 2018-11-21 2021-09-29 InterDigital VC Holdings, Inc. Residual coding with reduced usage of local neighborhood
EP3922029A4 (en) * 2019-02-05 2022-08-24 Beijing Dajia Internet Information Technology Co., Ltd. VIDEO CODING USING AN INTRA SUBPARTITION CODING MODE
US10984560B1 (en) * 2019-03-29 2021-04-20 Amazon Technologies, Inc. Computer vision using learnt lossy image compression representations
US11197009B2 (en) * 2019-05-30 2021-12-07 Hulu, LLC Processing sub-partitions in parallel using reference pixels
CN112135147B (zh) * 2019-06-24 2023-02-28 杭州海康威视数字技术股份有限公司 编码方法、解码方法及装置
WO2021049890A1 (ko) 2019-09-10 2021-03-18 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2024085566A1 (ko) * 2022-10-16 2024-04-25 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100727972B1 (ko) * 2005-09-06 2007-06-14 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR100750128B1 (ko) 2005-09-06 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR101246294B1 (ko) * 2006-03-03 2013-03-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP2009094828A (ja) * 2007-10-10 2009-04-30 Hitachi Ltd 画像符号化装置及び画像符号化方法、画像復号化装置及び画像復号化方法
KR101623124B1 (ko) * 2009-12-03 2016-05-24 에스케이 텔레콤주식회사 비디오 인코딩 장치 및 그 인코딩 방법, 비디오 디코딩 장치 및 그 디코딩 방법, 및 거기에 이용되는 방향적 인트라 예측방법
MX2012011772A (es) 2010-04-13 2012-12-17 Samsung Electronics Co Ltd Metodo de codificacion de video y aparato de codificacion de video a base de unidades de codificacion determinadas de acuerdo con una estructura de arbol, y metodo de decodificacion de video y aparato de decodificacion de video a base de unidades de decodificacion determinadas de acuerdo con una estructura de arbol.
KR101530284B1 (ko) 2010-07-16 2015-06-19 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
HUE059881T2 (hu) 2010-09-27 2023-01-28 Lg Electronics Inc Blokkfelosztási eljárás és dekódoló eszköz
US9532058B2 (en) * 2011-06-03 2016-12-27 Qualcomm Incorporated Intra prediction mode coding with directional partitions
US9769472B2 (en) * 2011-08-17 2017-09-19 Mediatek Singapore Pte. Ltd. Method and apparatus for Intra prediction using non-square blocks
EP4366307A3 (en) 2012-01-18 2024-07-17 Electronics and Telecommunications Research Institute Method and device for encoding and decoding image
KR101629999B1 (ko) 2012-06-25 2016-06-13 한양대학교 산학협력단 무손실 비디오 부호화/복호화 방법 및 장치
KR101587927B1 (ko) * 2013-06-24 2016-01-22 한양대학교 산학협력단 인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치
CN104838650B (zh) * 2012-09-28 2018-03-30 日本电信电话株式会社 帧内预测编码方法、帧内预测解码方法、帧内预测编码装置、帧内预测解码装置以及记录程序的记录介质
KR101596085B1 (ko) * 2012-12-18 2016-02-19 한양대학교 산학협력단 적응적인 인트라 예측을 이용한 영상 부호화/복호화 장치 및 방법
US9961358B2 (en) * 2013-04-09 2018-05-01 Mediatek Singapore Pte. Ltd. Method and apparatus for non-square intra mode coding
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
KR101537767B1 (ko) 2014-10-06 2015-07-20 에스케이텔레콤 주식회사 서브블록 내 임의 화소를 이용한 영상 부호화/복호화 방법 및 장치
KR101608885B1 (ko) 2014-11-13 2016-04-05 에스케이텔레콤 주식회사 영상 부호화/복호화 방법 및 장치
WO2016090568A1 (en) * 2014-12-10 2016-06-16 Mediatek Singapore Pte. Ltd. Binary tree block partitioning structure
US20180139453A1 (en) * 2015-03-13 2018-05-17 Lg Electronics Inc. Method of processing video signal and device for same
US20180255304A1 (en) 2015-03-29 2018-09-06 Lg Electronics Inc. Method and device for encoding/decoding video signal
KR20150081240A (ko) 2015-06-22 2015-07-13 한양대학교 산학협력단 무손실 비디오 부호화/복호화 방법 및 장치
KR101607614B1 (ko) * 2015-07-23 2016-03-30 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR102199463B1 (ko) 2015-08-31 2021-01-06 삼성전자주식회사 스캔 순서를 고려한 영상의 변환 방법 및 그 장치, 및 역변환 방법 및 그 장치
US10491922B2 (en) * 2015-09-29 2019-11-26 Qualcomm Incorporated Non-separable secondary transform for video coding
JP2019515570A (ja) 2016-05-02 2019-06-06 漢陽大学校産学協力団Industry−University Cooperation Foundation Hanyang University 画面内予測を利用した映像符号化/復号化方法および装置
EP3499884B1 (en) * 2016-08-08 2022-12-14 LG Electronics Inc. Intra-prediction mode-based video coding methods and video processing apparatus thereof
FI20175006A1 (en) * 2017-01-03 2019-02-15 Nokia Technologies Oy Video and image coding using wide-angle intra-prediction
KR101763111B1 (ko) 2017-02-24 2017-07-31 에스케이 텔레콤주식회사 다양한 형태의 블록 분할을 이용하는 영상 부호화/복호화 장치 및 방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022177266A (ja) * 2018-04-01 2022-11-30 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 映像符号化/復号化方法及び装置
JP2021517391A (ja) * 2018-06-01 2021-07-15 テンセント・アメリカ・エルエルシー ビデオ符号化のための方法、及び装置
JP7025562B2 (ja) 2018-06-01 2022-02-24 テンセント・アメリカ・エルエルシー ビデオ符号化のための方法、及び装置
JP2022051929A (ja) * 2018-06-01 2022-04-01 テンセント・アメリカ・エルエルシー ビデオ符号化のための方法、及び装置
JP7234429B2 (ja) 2018-06-01 2023-03-07 テンセント・アメリカ・エルエルシー ビデオ符号化のための方法、及び装置
JP2023054257A (ja) * 2018-06-01 2023-04-13 テンセント・アメリカ・エルエルシー ビデオ符号化のための方法、及び装置
US11722661B2 (en) 2018-06-01 2023-08-08 Tencent America LLC Method and apparatus for video coding
JP7420991B2 (ja) 2018-06-01 2024-01-23 テンセント・アメリカ・エルエルシー ビデオ符号化のための方法、及び装置
WO2020106124A1 (ko) * 2018-11-23 2020-05-28 가온미디어 주식회사 효율적 블록 분할을 처리하는 영상 복호화 및 부호화 방법
US11889072B2 (en) 2018-12-28 2024-01-30 Hangzhou Hikvision Digital Technology Co., Ltd. Video encoding and decoding

Also Published As

Publication number Publication date
KR102125956B1 (ko) 2020-06-23
KR20230104571A (ko) 2023-07-10
CN109155851A (zh) 2019-01-04
WO2017192011A3 (ko) 2018-08-02
EP3442231A2 (en) 2019-02-13
KR102028015B1 (ko) 2019-10-02
KR20170124477A (ko) 2017-11-10
KR20220057513A (ko) 2022-05-09
KR20190111882A (ko) 2019-10-02
US11825099B2 (en) 2023-11-21
EP4030754A1 (en) 2022-07-20
JP2019515570A (ja) 2019-06-06
US20190149828A1 (en) 2019-05-16
EP3442231A4 (en) 2019-12-04
KR20200074076A (ko) 2020-06-24
US20210014507A1 (en) 2021-01-14
KR102394226B1 (ko) 2022-05-04
KR102551731B1 (ko) 2023-07-05
KR20210065919A (ko) 2021-06-04
JP2021052425A (ja) 2021-04-01
US10834408B2 (en) 2020-11-10
US20240107029A1 (en) 2024-03-28
US20230188727A1 (en) 2023-06-15

Similar Documents

Publication Publication Date Title
WO2017192011A2 (ko) 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2019182385A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018097693A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020096389A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2018097692A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2017171370A1 (ko) 비디오 신호 처리 방법 및 장치
WO2019172705A1 (ko) 샘플 필터링을 이용한 영상 부호화/복호화 방법 및 장치
WO2017222237A1 (ko) 화면 내 예측 방법 및 장치
WO2020141813A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018030773A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2019240493A1 (ko) 문맥 적응적 이진 산술 부호화 방법 및 장치
WO2020096388A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020005035A1 (ko) 처리율 향상을 위한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018174617A1 (ko) 블록 형태에 기반한 예측 방법 및 장치
WO2019027241A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019017651A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2020017910A1 (ko) 지역 조명 보상을 통한 효과적인 비디오 부호화/복호화 방법 및 장치
WO2020222617A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020111843A1 (ko) 화면 내 예측 필터링을 이용한 비디오 신호 처리 방법 및 장치
WO2020060329A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020096428A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020096427A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020005045A1 (ko) 머지 모드 기반의 인터 예측 방법 및 장치
WO2017222331A1 (ko) 비디오 신호 처리 방법 및 장치
WO2020032531A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018557891

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017792913

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017792913

Country of ref document: EP

Effective date: 20181108

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17792913

Country of ref document: EP

Kind code of ref document: A2