WO2013157828A1 - 복수의 계층을 지원하는 비트스트림의 디코딩 방법 및 이를 이용하는 장치 - Google Patents
복수의 계층을 지원하는 비트스트림의 디코딩 방법 및 이를 이용하는 장치 Download PDFInfo
- Publication number
- WO2013157828A1 WO2013157828A1 PCT/KR2013/003206 KR2013003206W WO2013157828A1 WO 2013157828 A1 WO2013157828 A1 WO 2013157828A1 KR 2013003206 W KR2013003206 W KR 2013003206W WO 2013157828 A1 WO2013157828 A1 WO 2013157828A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- layer
- luma
- layers
- samples
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/188—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
Definitions
- the present invention relates to video encoding and decoding processing, and more particularly, to a method and apparatus for encoding and decoding a video supporting a plurality of layers in a bitstream.
- an inter prediction technique for predicting a pixel value included in a current picture from a previous and / or subsequent picture in time, and for predicting a pixel value included in a current picture using pixel information in the current picture.
- An intra prediction technique an entropy encoding technique of allocating a short code to a symbol with a high frequency of appearance and a long code to a symbol with a low frequency of appearance may be used.
- Video compression technology is a technology that provides a constant network bandwidth under a limited operating environment of hardware without considering a fluid network environment.
- a new compression technique is required to compress image data applied to a network environment in which bandwidth changes frequently, and a scalable video encoding / decoding method may be used for this purpose.
- An object of the present invention is to provide a method and apparatus for describing extraction and scalability information in a hierarchical bitstream.
- Another technical problem of the present invention is to provide a method and apparatus for representing scalability information of various types of bitstreams in a flexible manner.
- Another technical problem of the present invention is to provide a method and apparatus for adaptively converting extraction and scalability information in a hierarchical bitstream at a packet level.
- a decoding method of a bitstream supporting a plurality of layers may include receiving information on a video parameter set including information on the plurality of layers, parsing the video parameter set, and then bitifying the bitstream. It may include the step of identifying the information of the layer included in.
- the information on the plurality of layers may include a maximum number (num_frame_sizes_minus1) of size information of other types of pictures included in an encoded video sequence.
- the size information applied to the other kinds of pictures includes luma samples width (pic_width_in_luma_samples) representing the number of luma samples included in the picture's width, and luma samples representing the number of luma samples included in the picture's height ( At least one of pic_height_in_luma_samples, a bit depth for luma samples (bit_depth_luma_minus8), a bit depth for color difference samples (bit_depth_chroma_minus8), and index information (chroma_format_idc) for a set of chroma formats.
- the information on the plurality of layers may include index information (frame_size_idx) for a set of frame sizes applied to a predetermined layer.
- the information on the plurality of layers may include index information (rep_format_idx) for a set of representation formats representing bit depths and chroma formats applied to a predetermined layer. .
- the information about the plurality of layers includes a maximum number (num_rep_formats_minus1) of different representation formats included in an encoded video sequence.
- the information about the representation format includes a luma sample width (pic_width_in_luma_samples) representing the number of luma samples included in the picture width, and a luma sample height (pic_height_in_luma_samples) representing the number of luma samples included in the picture length. It may include at least one of a bit depth (bit_depth_luma_minus8) for the luma sample, a bit depth (bit_depth_chroma_minus8) for the color difference sample, and index information (chroma_format_idc) for the set of the chroma format.
- the bitstream may include a plurality of layer dimensions supporting a plurality of layers, and the information on the plurality of layers indicates whether a specific layer of all the layer dimensions refers to a layer immediately below the specific layer.
- Basic reference flag information may be included.
- the specific layer may receive type information about the layer dimension that refers to a layer immediately below the specific layer.
- the information on the plurality of layers may include direct reference flag information indicating that a layer directly referenced by the specific layer exists.
- the direct reference flag is 1, the number of layers directly referenced by the specific layer and index information of the layer directly referenced may be received.
- An apparatus for decoding a bitstream supporting a plurality of layers receives information on a video parameter set including information on the plurality of layers, parses the video parameter set, and parses the bitstream. It may include a parser for grasping the information of the layer included in.
- a method and apparatus for describing extraction and scalability information in a hierarchical bitstream may be provided.
- a method and apparatus for representing scalability information of various kinds of bitstreams in a flexible manner are provided. .
- a method and apparatus for adaptively converting at a packet level extracting and scalability information in a hierarchical bitstream is provided.
- FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment.
- FIG. 2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment.
- FIG. 3 is a conceptual diagram schematically illustrating an embodiment of a scalable video coding structure using multiple layers to which the present invention can be applied.
- FIG. 4 is a control flowchart illustrating a method of encoding video information according to the present invention.
- FIG. 5 is a control flowchart illustrating a decoding method of image information according to the present invention.
- FIG. 6 is a control flowchart illustrating a method of signaling layer reference information according to the present invention.
- first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
- the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
- each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit.
- each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function.
- Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
- the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
- the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
- FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment.
- a scalable video encoding / decoding method or apparatus may be implemented by an extension of a general video encoding / decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 1 is scalable.
- An embodiment of an image encoding apparatus that may be the basis of a video encoding apparatus is illustrated.
- the image encoding apparatus 100 may include a motion predictor 111, a motion compensator 112, an intra predictor 120, a switch 115, a subtractor 125, and a converter 130. And a quantization unit 140, an entropy encoding unit 150, an inverse quantization unit 160, an inverse transform unit 170, an adder 175, a filter unit 180, and a reference image buffer 190.
- the image encoding apparatus 100 may perform encoding in an intra mode or an inter mode on an input image and output a bit stream.
- Intra prediction means intra prediction and inter prediction means inter prediction.
- the switch 115 is switched to intra, and in the inter mode, the switch 115 is switched to inter.
- the image encoding apparatus 100 may generate a prediction block for an input block of an input image and then encode a difference between the input block and the prediction block.
- the intra predictor 120 may generate a predictive block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
- the motion predictor 111 may obtain a motion vector by searching for a region that best matches an input block in the reference image stored in the reference image buffer 190 during the motion prediction process.
- the motion compensator 112 may generate a prediction block by performing motion compensation using the motion vector and the reference image stored in the reference image buffer 190.
- the subtractor 125 may generate a residual block by the difference between the input block and the generated prediction block.
- the transform unit 130 may output a transform coefficient by performing transform on the residual block.
- the quantization unit 140 may output the quantized coefficient by quantizing the input transform coefficient according to the quantization parameter.
- the entropy encoding unit 150 entropy encodes a symbol according to a probability distribution based on values calculated by the quantization unit 140 or encoding parameter values calculated in the encoding process, thereby generating a bit stream. You can print
- the entropy encoding method is a method of receiving a symbol having various values and expressing it in a decodable column while removing statistical redundancy.
- Encoding parameters are parameters necessary for encoding and decoding, and may include information that may be inferred during encoding or decoding, as well as information encoded by an encoder and transmitted to a decoder, such as syntax elements. Means necessary information. Coding parameters may be, for example, intra / inter prediction modes, moving / motion vectors, reference picture indexes, coding block patterns, presence or absence of residual signals, transform coefficients, quantized transform coefficients, quantization parameters, block sizes, block division information, or the like. May include statistics.
- the residual signal may mean a difference between the original signal and the prediction signal, and a signal in which the difference between the original signal and the prediction signal is transformed or a signal in which the difference between the original signal and the prediction signal is converted and quantized It may mean.
- the residual signal may be referred to as a residual block in block units.
- the entropy encoder 150 may store a table for performing entropy encoding, such as a variable length coding (VLC) table, and the entropy encoder 150 may store the stored variable length encoding. Entropy encoding may be performed using the (VLC) table. In addition, the entropy encoder 150 derives a binarization method of a target symbol and a probability model of a target symbol / bin, and then performs entropy encoding using the derived binarization method or a probability model. You may.
- VLC variable length coding
- CABAC context-adaptive binary arithmetic coding
- the quantized coefficients may be inversely quantized by the inverse quantizer 160 and inversely transformed by the inverse transformer 170.
- the inverse quantized and inverse transformed coefficients are added to the prediction block through the adder 175 and a reconstruction block can be generated.
- the reconstruction block passes through the filter unit 180, and the filter unit 180 applies at least one or more of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the reconstructed block or reconstructed picture. can do.
- the reconstructed block that has passed through the filter unit 180 may be stored in the reference image buffer 190.
- FIG. 2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment.
- a scalable video encoding / decoding method or apparatus may be implemented by extension of a general video encoding / decoding method or apparatus that does not provide scalability
- the block diagram of FIG. 2 is scalable video decoding.
- An embodiment of an image decoding apparatus that may be the basis of an apparatus is shown.
- the image decoding apparatus 200 may include an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, an intra predictor 240, a motion compensator 250, and a filter. 260 and a reference picture buffer 270.
- the image decoding apparatus 200 may receive a bitstream output from the encoder and perform decoding in an intra mode or an inter mode, and output a reconstructed image, that is, a reconstructed image.
- the switch In the intra mode, the switch may be switched to intra, and in the inter mode, the switch may be switched to inter.
- the image decoding apparatus 200 may generate a reconstructed block, that is, a reconstructed block by obtaining a residual block reconstructed from the received bitstream, generating a prediction block, and adding the reconstructed residual block and the prediction block.
- the entropy decoder 210 may entropy decode the input bitstream according to a probability distribution to generate symbols including symbols in the form of quantized coefficients.
- the entropy decoding method is a method of generating each symbol by receiving a binary string.
- the entropy decoding method is similar to the entropy coding method described above.
- the quantized coefficients are inversely quantized by the inverse quantizer 220 and inversely transformed by the inverse transformer 230, and as a result of the inverse quantization / inverse transformation of the quantized coefficients, a reconstructed residual block may be generated.
- the intra predictor 240 may generate a predictive block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
- the motion compensator 250 may generate a prediction block by performing motion compensation using the motion vector and the reference image stored in the reference image buffer 270.
- the reconstructed residual block and the prediction block are added through the adder 255, and the added block passes through the filter unit 260.
- the filter unit 260 may apply at least one or more of the deblocking filter, SAO, and ALF to the reconstructed block or the reconstructed picture.
- the filter unit 260 outputs the reconstructed image, that is, the reconstructed image.
- the reconstructed picture may be stored in the reference picture buffer 270 to be used for inter prediction.
- components directly related to the decoding of an image in the reference image buffer 270 for example, an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, an intra predictor 240, and motion compensation.
- the unit 250, the filter unit 260, and the like may be distinguished from other components and expressed as a decoder or a decoder.
- the image decoding apparatus 200 may further include a parsing unit (not shown) which parses information related to an encoded image included in a bitstream.
- the parser may include the entropy decoder 210 or may be included in the entropy decoder 210. Such a parser may also be implemented as one component of the decoder.
- FIG. 3 is a conceptual diagram schematically illustrating an embodiment of a scalable video coding structure using multiple layers to which the present invention can be applied.
- a GOP Group of Picture
- FIG. 3 a GOP (Group of Picture) represents a picture group, that is, a group of pictures.
- a transmission medium In order to transmit image data, a transmission medium is required, and its performance varies depending on the transmission medium according to various network environments.
- a scalable video coding method may be provided for application to such various transmission media or network environments.
- the scalable video coding method is a coding method that improves encoding / decoding performance by removing redundancy between layers by using texture information, motion information, and residual signals between layers.
- the scalable video coding method may provide various scalability in terms of spatial, temporal, and image quality according to ambient conditions such as a transmission bit rate, a transmission error rate, and a system resource.
- Scalable video coding may be performed using multiple layers structure to provide a bitstream applicable to various network situations.
- the scalable video coding structure may include a base layer that compresses and processes image data by using a general image encoding method, and compresses the image data by using the encoding information of the base layer and a general image encoding method together. May include an enhancement layer for processing.
- a layer is an image and a bit divided based on spatial (eg, image size), temporal (eg, coding order, image output order, frame rate), image quality, complexity, and the like.
- the base layer may mean a reference layer or a base layer
- the enhancement layer may mean an enhancement layer.
- the plurality of layers may have a dependency between each other.
- the base layer may be defined as a standard definition (SD), a frame rate of 15 Hz, and a 1 Mbps bit rate
- the first enhancement layer may be a high definition (HD), a frame rate of 30 Hz, and a 3.9 Mbps bit rate
- the second enhancement layer may be defined as an ultra high definition (4K-UHE), a frame rate of 60 Hz, and a bit rate of 27.2 Mbps.
- 4K-UHE ultra high definition
- the format, frame rate, bit rate, etc. are exemplary and may be determined differently as necessary.
- the number of hierarchies used is not limited to this embodiment and may be determined differently according to a situation.
- the frame rate of the first enhancement layer HD may be reduced and transmitted at 15 Hz or less.
- the scalable video coding method can provide temporal, spatial and image quality scalability by the method described above in the embodiment of FIG. 3.
- Scalable video coding has the same meaning as scalable video coding from a coding point of view and scalable video decoding from a decoding point of view.
- Scalable Video Coding an extension of Advanced Video Coding (AVC) was developed to generate bitstreams with a wide range of bitrates while maintaining maximum compression efficiency.
- SVC bitstreams can be easily extracted in various ways to meet the characteristics and changes of various devices and networks.
- the SVC standard provides spatial, temporal, image quality (SNR) scalability.
- the bitstream including a plurality of layers is composed of Network Abstraction Layer (NAL) units that facilitate the adaptive transmission of video through a packet-switching network.
- NAL Network Abstraction Layer
- the relationship between the plurality of viewpoints is a spatial layer in video supporting the plurality of layers. Similar to the relationship between.
- the scalability information of the bitstream is very important to effectively and efficiently convert the bitstream at all nodes in the content delivery path.
- temporal_id having a length of 3 bits indicates a temporal layer of the video bitstream
- reserved_one_5bits corresponds to an area for later indicating other layer information.
- the temporal layer refers to a layer of a temporally scaleable bitstream composed of a video coding layer (VCL) NAL unit, and the temporal layer has a specific temporal_id value.
- VCL video coding layer
- the present invention relates to a method for effectively describing extraction information and scalability information of an image in a bitstream supporting a plurality of layers, and to signaling the same, and an apparatus for implementing the same.
- bitstreams two types, a base type supporting only temporal scalability, and an extended type capable of having scalability supporting space / image quality / time including time Divided into and explained.
- the first type of bitstream is for the bitstream supporting single layer video
- the second type is for the enhancement layer in HEVC based hierarchical video coding.
- an improvement scheme for representing scalability information of two bitstream types is proposed.
- 5 bits of reserved_one_5bits in the extended type may be used as a layer_id indicating an identifier of the scalable layer.
- nal_ref_flag is used to indicate a non-reference picture. This information indicates an approximate priority between the non-reference picture and the reference picture, but the use of nal_ref_flag for transmission is somewhat limited.
- a reference picture refers to a picture including samples that can be used for inter prediction when decoding subsequent pictures that follow in decoding order.
- a non-reference picture refers to a picture including samples that are not used for inter prediction when decoding a subsequent picture in decoding order.
- nal_ref_flag is a flag indicating information indicating whether the corresponding nal unit is a non-reference picture or a reference picture on the entire bitstream at the time of encoding.
- NALU means to include a sequence parameter set (SPS), picture parameter set (PPS), adaptation parameter set (APS), or slice of a reference picture. If nal_ref_flag is 0, NALU is part of a non-reference picture. Or it means to include a slice containing all.
- a NALU having a nal_ref_flag value of 1 may include a slice of a reference picture, and nal_ref_flag may have a value of 1 for NALUs of a video parameter set (VPS), a sequence parameter set (SPS), and a picture parameter set (PPS).
- VPS video parameter set
- SPS sequence parameter set
- PPS picture parameter set
- nal_ref_flag has a value of 0 for all VCL NALUs of the picture.
- nal_ref_flag of all pictures remaining after extraction becomes 1.
- temporal_id may be more effective in supporting adaptive transformation (extraction). That is, a bitstream including a desired temporal layer may be extracted using the total number of temporal layers included in the bitstream and the temporal_id value of the NALU header.
- nal_ref_flag when nal_ref_flag decodes (restores) a picture composed of NALUs including nal_ref_flag and stores it in a memory such as a decoded picture buffer (DPB), nal_ref_flag may also be used to indicate whether to use the picture later as a reference picture. . When nal_ref_flag is 1, it may be indicated to be used as a reference picture later. If nal_ref_flag is 0, it may be indicated that it is not used as a reference picture later.
- the nal_ref_flag may be used as a reference picture when the decoded picture is stored in the DPB without determining whether the corresponding NALU is a non-reference picture or a reference picture. In this case, even if the decoded picture is a non-reference picture but is displayed as a reference picture, in decoding the next picture of the picture in decoding order, the picture is included in the reference picture list delivered to the next picture header. Since it will not be, the problem does not occur.
- the reference picture list included in the slice header indicates whether the previously decoded picture is a reference picture or a non-reference picture. Therefore, even if it is determined whether the picture decoded through nal_ref_flag is a reference picture and is displayed as a reference picture, there is no problem in determining the decoded picture as a reference picture or a non-reference picture.
- the present invention proposes to delete nal_ref_flag or change the semantics of nal_ref_flag in the NALU header.
- An embodiment related to deleting nal_ref_flag is as follows.
- a value of slice_ref_flag of 1 indicates that the slice is part of the reference picture, and 0 indicates that the slice is part of the non-reference picture.
- the syntax of the access unit delimiter may be as shown in Table 2.
- au_ref_flag 1
- au_ref_flag 1
- nal_ref_flag which is one-bit flag information indicating whether a reference picture or a reference picture is deleted in the entire bitstream during encoding
- the determination as to whether a picture performed by nal_ref_flag is a reference picture may be performed through another process. have.
- the decoded picture is unconditionally indicated as a reference picture in a decoded picture buffer (DPB). That is, it may be displayed as a reference picture without determining whether the decoded picture is a reference picture.
- DPB decoded picture buffer
- the slice header for the next picture of the decoded picture may be parsed, and it may be indicated whether the decoded picture is a reference picture or a non-reference picture based on reference picture information included in the slice header.
- the temporal_id may be used to delete nal_ref_flag from the NALU header and indicate NALU information of a non-reference picture.
- the temporal_id may be a predetermined value except “7”, or the number of maximum temporal layers included in the bitstream-1 (ie, max_temporal_layers_minus1), or “0”.
- Nal_ref_flag may be deleted from the NALU header, and reserved_one_5bits may be used as the priority_id component to indicate the NALU information of the non-reference picture.
- priority_id is an identifier indicating a priority of a corresponding NALU and is used to provide a bitstream ejection function according to priority regardless of different space, time and image quality.
- temporal_id Ta is an identifier of the highest temporal layer
- nal_ref_flag One bit used to signal nal_ref_flag may be used as one of the following.
- nal_unit_type may be a 7-bit signal, and the number of NALU types may be doubled.
- the temporal_id may be a 4bist signal and the number of maximum temporal layers may be doubled.
- the layer_id means an identifier of the scalable layer of the hierarchical bitstream and may be signaled by the reserved_one_5bits syntax element.
- One bit used for signaling nal_ref_flag is added to 5 bits of reserved_one_5bits used to identify the scalable layer, so that the layer_id may be a 6 bit signal. Using 6 bits can identify 64 scalable layers.
- nal_ref_flag is not deleted from the NALU header, the meaning of nal_ref_flag can be modified as follows.
- NALU indicates that it contains only slices of non-reference pictures, and if nal_ref_flag is 1, NALU indicates that it may include slices of reference pictures or non-reference pictures.
- the video parameter set includes most basic information for decoding an image and may include contents existing in the existing SPS.
- the video parameter set includes information about sub-layers that refer to temporal scalability and spatial, quality, and view scalability. It may include information about the number of layers. That is, the video parameter set may include a plurality of layer information, that is, syntax for HEVC extension.
- -video_parameter_set_id means an identifier of a video parameter set, and can be referenced in a sequence parameter set (SPS), supplemental enhancement information (SEI), and access unit delimiters.
- priority_id_flag 1
- reserved_one_5bits may be used in the same manner as priority_id of the SVC standard. If priority_id_flag is 0, reserved_one_5bits is used as layer_id.
- extension_info_flag indicates that the bitstream follows the single layer standard of HEVC, and if 1, it indicates an enhancement layer (if HEVC extension is supported) for scalability support and information related to the layer is provided.
- vps_id syntax element may be added to the SPS.
- the added SPS syntax of vps_id is shown in Table 4.
- the syntax deleted in Table 4 is represented by the line passing through the middle of the syntax.
- vps_id indicates an identifier for identifying a video parameter set referred to by the SPS, and vps_id may have a range of 0 to X.
- the slice header includes index information of a picture parameter set referred to by the slice, and the picture parameter set includes index information of a sequence parameter set referenced by the picture.
- the sequence parameter set includes information about the video parameter set referenced by the sequence. In this way, parsing information about a parameter set and referring to the parsed corresponding parameter set information is called activation.
- an extractor When extracting a part of a sublayer (temporal layer) of a bitstream including a single layer, an extractor needs to analyze (parse) a NALU header and a plurality of parameter sets.
- the extractor must parse the upper parameter set sequentially from the slice header. This means that the extractor must understand all the syntax elements of the parameter sets and slice header.
- activation of a parameter set means that the extractor signals to know which parameter set is activated without analyzing the slice header and its associated picture parameter set (PPS).
- PPS picture parameter set
- the extractor can reduce the burden of analyzing all slice headers and associated PPS.
- the video parameter set may be updated.
- One of the following methods may be used so that the extractor knows the currently active VPS and its associated SPS or PPS without analyzing the slice header.
- vps_id, sps_id, and pps_id may be included in an access unit delimiter.
- vps_id, sps_id, and pps_id respectively indicate identifiers of a video parameter set, a sequence parameter set, and a picture parameter set used for NALUs in an associated AU.
- vps_id_present_flag In order to indicate whether each identifier exists in an access unit delimiter, vps_id_present_flag, sps_id_present_flag, and pps_id_present_flag are used.
- the syntax of the proposed access unit delimiter is shown in Table 5.
- vps_id may be included in an access unit delimiter except for sps_id and pps_id as shown in Table 6.
- the SEI message includes syntax for indicating the presence or absence of vps_id, sps_id, pps_id indicating identifiers of the video parameter set, sequence parameter set, picture parameter set used for NALUs in the associated AU.
- vps_id_present_flag, sps_id_present_flag, pps_id_present_flag syntax may be used to indicate the existence of each identifier, and the SEI syntax is shown in Table 7 below.
- sps_id and vps_id may be included in an SEI message to inform activation.
- the sps_id and vps_id included in the SEI message may include sps_id and vps_id referenced by the video coding layer NALU of an access unit associated with the corresponding SEI message. Accordingly, sps_id and vps_id may represent information of a parameter set that may be activated.
- vps_id represents a video_parameter_set_id of a video parameter set currently activated.
- the vps_id value may have a value of 0 to 15.
- sps_id_present_flag When sps_id_present_flag has a value of 1, it indicates that the sequence_parameter_set_id of the currently activated sequence parameter set is included in the corresponding SEI message. When sps_id_present_flag has a value of 0, the sequence_parameter_set_id of the activated sequence parameter set is not included in the corresponding SEI message. Indicates no.
- sps_id represents the sequence_parameter_set_id of the currently activated sequence parameter set.
- sps_id may have a value of 0 to 31, more specifically 0 to 15.
- psr_extension_flag 0 indicates that the parameter set reference SEI message extension syntax element is not included in the parameter set reference SEI message. If psr_extension_flag is 1, the parameter set reference SEI message extension syntax element is extended to include the parameter set reference SEI message. Means to use.
- psr_extension_length represents the length of psr_extension_data.
- psr_extension_length may have a value in the range of 0 to 256, and psr_extension_data_byte may have any value.
- one or more sps_ids and vps_ids may be included in the SEI message except for the pps_id and may be signaled.
- vps_id represents a video_parameter_set_id of a video parameter set currently activated.
- vps_id may have a value of 0 to 15.
- num_reference_sps represents the number of sequence parameter sets referring to the currently active vps_id.
- sps_id (i) represents the sequence_parameter_set_id of the currently activated sequence parameter set, and sps_id may have a value of 0 to 31, more specifically 0 to 15.
- Another method for activation signaling of a video parameter set is to include information indicating vps_id, sps_id, and pps_id in a buffering period SEI message.
- Table 11 shows a syntax including vps_id_present_flag, sps_id_present_flag, and pps_id_present_flag for indicating whether or not the identifier vps_id, sps_id, or pps_id is present.
- vps_id may be included in the buffering period SEI message to signal activation of a parameter set.
- Another method for activation signaling of a parameter set is to include information indicating vps_id, sps_id, and pps_id in a recovery point SEI message.
- Table 13 shows a syntax including vps_id_present_flag, sps_id_present_flag, and pps_id_present_flag for indicating whether the identifier of vps_id, sps_id, and pps_id is present.
- vps_id or sps_id may be included in an intra random access point (IRAP) access unit.
- IRAP intra random access point
- the extractor finds the values of vps_id, sps_id, pps_id and manages one or more vps / sps / pps through the signaling method in order to extract the bitstream. Can be.
- the decoding apparatus or the decoding unit that performs decoding may find out the vps_id, sps_id, and pps_id values through the signaling method, and activate the corresponding parameter set to decode AUs associated with the parameter set.
- extension_info () of a VPS and a new SEI message are proposed to display and signal information about the scalable layer.
- the following information may be signaled.
- layer_id signals whether or not to convey a priority value of a layer.
- the spatial layer (identified by the dependency_id value), the image quality layer (identified by the quality_id value), and the viewpoints (identified by the view_id value), etc. may be signaled corresponding to each layer_id value
- the temporal layer may be a NALU header. It can be identified by the temporal_id of.
- the region of the video associated with the layer_id may be signaled by the region_id.
- dependency information among scalable layers, bitrate information of each scalable layer, and quality information of each scalable layer may be signaled.
- extension_info () syntax is shown in Table 15.
- num_frame_sizes_minus1 plus 1 indicates size information of other types of images included in an encoded video sequence (for example, pic_width_in_luma_samples [i], pic_height_in_luma_samples [i], pic_cropping_flag [i], pic_cropping_flag [i], pic_crop_left_offset [i], pic_crop_top_offset [i], pic_crop_bottom_offset [i]).
- the num_frame_sizes_minus1 value may have a range of 0 to X.
- Another kind of image may include an image having a different resolution.
- num_rep_formats_minus1 plus 1 is another type of bit depth and chroma format (e.g., bit_depth_luma_minus8 [i], bit_depth_chroma_minus8 [i], and chroma_format_idc values [i]) included in the encoded video sequence. Represents the maximum number of.
- the num_rep_formats_minus1 value has a range of 0 to X.
- bit_depth_luma_minus8 [i] represent the i-th bit_depth_luma_minus8, bit_depth_chroma_minus8, and chroma_format_idc values of the encoded video sequence.
- num_layers_minus1 indicates the number of scalable layers possible in the bitstream.
- dependency_id_flag When dependency_id_flag is 1, it indicates that there is at least one dependency_id value associated with the layer_id value.
- quality_id_flag When quality_id_flag is 1, it indicates that there is at least one quality_id value associated with the layer_id value.
- view_id_flag 1, it indicates that there is at least one view_id value associated with the layer_id value.
- region_id_flag is 1, it indicates that there is at least one region_id value associated with the layer_id value.
- layer_dependency_info_flag 1 If layer_dependency_info_flag is 1, it indicates that dependency information of the scalable layer is provided.
- frame_size_idx [i] indicates an index to a set of frame sizes applied to the layer whose layer_id value is i.
- frame_size_idx [i] has a value ranging from 0 to X.
- rep_format_idx [i] indicates an index into a set of bit depths and chroma formats applied to a layer having a layer_id value of i.
- rep_format_idx [i] has a value in the range of 0 to X.
- one_dependency_id_flag [i] is 1, only one dependency_id value of layer_id is associated with i. If one_dependency_id_flag [i] is 0, two or more dependency_id values of layer_id value are associated with i.
- dependency_id [i] indicates a dependency_id value whose layer_id value is associated with i.
- dependency_id_min [i] and dependency_id_max [i] indicate a minimum dependency_id value and a maximum dependency_id value with layer_id values associated with i, respectively.
- one_quality_id_flag [i] is 1, it indicates that there is only one quality_id whose layer_id value is associated with i. If one_quality_id_flag [i] is 0, it indicates that two or more quality_id values related to layer_id value i exist.
- quality_id [i] indicates a quality_id value whose layer_id value is associated with i.
- quality_id_min [i] and quality_id_max [i] indicate a minimum qualtiy_id value and a maximum quality_id value with layer_id values associated with i, respectively.
- one_view_id_flag [i] is 1, one view_id value of layer_id is associated with i. If 0, two or more view_id values of layer_id value are associated with i.
- view_id [i] indicates a view_id value whose layer_id value is associated with i.
- depth_flag [i] When depth_flag [i] is 1, it indicates that the current scalable layer having the layer_id value of i includes depth information of the 3D video bitstream.
- view_id_min [i] and view_id_max [i] indicate a minimum view_id value and a maximum view_id value with layer_id values associated with i, respectively.
- num_regions_minus1 plus1 indicates the number of regions whose layer_id value is associated with i.
- region_id [j] indicates an identifier of a region j whose layer_id value is associated with i.
- num_directly_dependent_layers [i] indicates the number of scalable layers (layers necessary for forming a prediction signal during decoding) to which the current scalable layer i is directly associated.
- directly_dependent_layer_id_delta_minus1 [i] [j] plus 1 represents the difference between the layer identifier of the j-th scalable layer to which the current scalable layer is directly associated with layer_id [i] which is the current scalable layer.
- the layer identifier of the jth directly related scalable layer is equal to (layer_id [i]? directly_dependent_layer_id_delta_minus1 [i] [j]? 1).
- extension_info () syntax according to another embodiment is shown in Table 16.
- pic_width_in_luma_samples [i], pic_height_in_luma_samples [i], bit_depth_luma_minus8 [i], bit_depth_chroma_minus8 [i], and chroma_format_idc [i] may be signaled with information about different images, that is, pictures having different resolutions.
- num_layers_minus1 indicates the number of scalable layers that can be provided in the bitstream.
- bitrate_info_flag 1 indicates that bit rate information for each scalable layer is provided.
- quality_info_flag 1
- quality_type_flag 1
- max_bitrate [i] indicates the maximum bit rate of the scalable layer whose layer_id value is i
- average_bitrate [i] indicates the average bit rate of the scalable layer whose layer_id value is i.
- quality_value [i] represents the quality value of scalable layer i.
- QualityTypeUriIdx is a QualityTypeUriIdx-th byte of a null0terminated string encoded with UTF-8 characters and indicates a URI (universal resource identifier) including a representation of the type of quality values.
- a first method for indicating a mapping method between layer_id and scalability dimension ID as a method of indicating a relationship between layer_id and scalability dimension ID in a bitstream supporting a plurality of layers;
- a dimension type refers to a type of scalability such as spatial scalability and quality scalability
- a dimension ID refers to a dimension type that a specific dimension type may have. It can mean an index to a layer.
- a particular dimension may have a specific layer (for example, a temporal scalability in a single layer's bitstream, for example, sub-layer 3). It may be common to refer directly to this next lower layer (eg a sub-layer).
- spatial layer 2 directly refers to the next lower spatial layer 1.
- Table 18 shows the syntax that maps the layer_id and the scalability dimension ID using the first method.
- the meaning of the syntax of Table 18 is as follows.
- all_default_dependency_flag is 0, it indicates that not all hierarchical dimensions have default references. If all_default_dependency_flag is 0, the following num_default_dim_minus1 is signaled.
- num_default_dim_minus1 indicates the number of dimensions having a default dependency.
- dimension [j] specifies the type of the hierarchical dimension with the default dependency. That is, one by one the number of dimensions that have a default dependency
- the direct reference of layer C to layer B means that in order to decode layer C, the decoder must use the information of layer B (decoded or not decoded). However, if layer B directly uses layer A's information, layer C is not considered to refer directly to layer A.
- Table 19 shows a syntax for allocating bits of layer_id to a scalability dimension type using a second method and signaling a length of the allocated dimension type.
- Num_dimensions_minus1 included in Table 19 indicates the number of hierarchical dimensions existing in the NALU header. That is, the number of hierarchical dimensions existing in the NALU header is identified, and the number of bits allocated to the hierarchical type and the dimension type existing for each hierarchical dimension is determined.
- Tables 20 and 21 show syntax different from Tables 18 and 19.
- Table 20 shows another syntax indicating a default reference when using the first method
- Table 21 shows another syntax indicating a default reference when using the second method.
- the new syntax default_dependency_flag [i] included in Table 20 and Table 21 indicates whether dimension type i uses a default reference.
- num_dimensions_minus1 and dimension_type [i] it signals whether the corresponding dimension type uses a basic reference. Otherwise, it signals information about a layer directly referenced by the layer.
- Table 22 shows the dimension types according to the present invention.
- a type representing dimension types 4 and 5, namely priority ID and region ID, has been added from the existing dimension types.
- dimension_type [i] [j] can basically have a value between 0 and 5. Other values can be defined later, and the decoder can ignore the value of dimension_type [i] [j] if it is not between 0 and 5.
- the corresponding dimension_id indicates an ID of a priority layer of the bitstream in the SVC standard.
- the corresponding dimension_id indicates an id of a specific region of the bitstream.
- the particular region may be one or more spatial-temporal segments in the bitstream.
- FIG. 4 is a control flowchart illustrating a method of encoding video information according to the present invention.
- the encoding apparatus encodes information about a video parameter set including information about a plurality of layers (S401).
- the information about the plurality of layers included in the video parameter set may include the maximum number (num_frame_sizes_minus1) of size information for other types of pictures included in the encoded video sequence. That is, information about the number of pictures having different resolutions may be included.
- the information about the size applied to the different kinds of pictures that is, the width of the luma samples (pic_width_in_luma_samples) representing the number of luma samples included in the picture width, and the number of luma samples included in the picture length
- the width of the luma samples (pic_width_in_luma_samples) representing the number of luma samples included in the picture width, and the number of luma samples included in the picture length
- At least one of the height of the luma sample (pic_height_in_luma_samples), the bit depth for the luma sample (bit_depth_luma_minus8), the bit depth for the color difference sample (bit_depth_chroma_minus8), and the number of index information (chroma_format_idc) for the set of chroma formats.
- bit depths and color difference formats for luma samples and chrominance samples may be set differently.
- the maximum number (num_frame_sizes_minus1) of the size information may be additionally increased in consideration of different bit depths. It may be.
- the information on the plurality of layers may include index information (frame_size_idx) for a set of frame sizes applied to a predetermined layer.
- the information on the plurality of layers may include index information (rep_format_idx) for a set of representation formats representing bit depths and chroma formats applied to a predetermined layer. .
- the information about the representation format includes the width of the luma samples (pic_width_in_luma_samples) representing the number of luma samples included in the picture width, and the height of the luma samples representing the number of luma samples included in the picture length. At least one of pic_height_in_luma_samples, a bit depth for luma samples (bit_depth_luma_minus8), a bit depth for color difference samples (bit_depth_chroma_minus8), and index information (chroma_format_idc) for a set of chroma formats.
- the information about the plurality of layers is a basic reference indicating whether a specific layer of all the layer dimensions refers to a layer immediately below the specific layer. It may include flag information and direct reference flag information indicating that a layer directly referenced by a specific layer exists.
- the encoding apparatus transmits information about the encoded video parameter set in a bitstream (S402).
- FIG. 5 is a control flowchart illustrating a decoding method of image information according to the present invention.
- the decoding apparatus receives information about a video parameter set including information about a plurality of layers (S501).
- the decoding apparatus parses the video parameter set to grasp the information of the layer included in the bitstream (S502). Parsing of the image information may be performed by an entropy decoder or a separate parser.
- the information on the plurality of layers included in the video parameter set may include the maximum number (num_frame_sizes_minus1) of size information for other types of pictures included in the encoded video sequence.
- the information about the size applied to the different kinds of pictures that is, the width of the luma samples (pic_width_in_luma_samples) representing the number of luma samples included in the picture width, and the number of luma samples included in the picture length
- the width of the luma samples (pic_width_in_luma_samples) representing the number of luma samples included in the picture width, and the number of luma samples included in the picture length
- At least one of the height of the luma sample (pic_height_in_luma_samples), the bit depth for the luma sample (bit_depth_luma_minus8), the bit depth for the color difference sample (bit_depth_chroma_minus8), and the number of index information (chroma_format_idc) for the set of chroma formats.
- the information on the plurality of layers may include index information (frame_size_idx) for a set of frame sizes applied to a predetermined layer.
- the information on the plurality of layers may include index information (rep_format_idx) for a set of representation formats representing bit depths and chroma formats applied to a predetermined layer. .
- the information about the representation format includes the width of the luma samples (pic_width_in_luma_samples) representing the number of luma samples included in the picture width, and the height of the luma samples representing the number of luma samples included in the picture length. At least one of pic_height_in_luma_samples, a bit depth for luma samples (bit_depth_luma_minus8), a bit depth for color difference samples (bit_depth_chroma_minus8), and index information (chroma_format_idc) for a set of chroma formats.
- the information about the plurality of layers is a basic reference indicating whether a specific layer of all the layer dimensions refers to a layer immediately below the specific layer. It may include flag information and direct reference flag information indicating that a layer directly referenced by a specific layer exists.
- FIG. 6 is a control flowchart illustrating a method of signaling layer reference information according to the present invention.
- signaling is described as a concept including encoding and transmitting image information, and receiving and decoding encoded image information.
- basic reference flag (all_default_dependency_flag) information indicating whether a specific layer of every layer dimension refers to a layer immediately below the specific layer may be signaled.
- any layer of all hierarchical dimensions the following specific layer refers to the layer immediately below the specific layer (S602). This indicates that all hierarchical dimensions have a default dependency.
- the specific layer signals the type information for the layer dimension that refers to the immediately lower layer of the specific layer, that is, the basic reference (S603).
- Direct reference flag information (specific_dependency_flag [i]) indicating that a layer directly referenced by a specific layer may be signaled.
- the direct reference flag is 1 (S604), it indicates that there is a layer directly referenced by a specific layer, and thus signal the number of layers directly referenced by a specific layer and index information of the layer directly referenced (S605).
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Control Of El Displays (AREA)
Abstract
본 발명은 복수의 계층을 지원하는 비트스트림의 디코딩 방법에 관한 것으로, 디코딩 방법은 상기 복수의 계층에 대한 정보를 포함하는 비디오 파라미터 세트에 대한 정보를 수신하는 단계와 상기 비디오 파라미터 세트를 파싱하여 상기 비트스트림에 포함되어 있는 계층의 정보를 파악하는 단계를 포함할 수 있다.
Description
본 발명은 비디오 부호화 및 복호화 처리에 관한 것으로서, 보다 상세하게는 비트스트림 내 복수의 레이어를 지원하는 비디오의 부호화 및 복호화 방법 및 장치에 관한 것이다.
최근 HD(High Definition) 해상도를 가지는 방송 서비스가 국내뿐만 아니라 세계적으로 확대되면서, 많은 사용자들이 고해상도, 고화질의 영상에 익숙해지고 있으며 이에 따라 많은 기관들이 차세대 영상기기에 대한 개발에 박차를 가하고 있다. 또한 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)에 대한 관심이 증대되면서 보다 높은 해상도, 고화질의 영상에 대한 압축기술이 요구되고 있다.
영상 압축을 위해, 시간적으로 이전 및/또는 이후의 픽처로부터 현재 픽처에 포함된 화소값을 예측하는 인터(inter) 예측 기술, 현재 픽처 내의 화소 정보를 이용하여 현재 픽처에 포함된 화소값을 예측하는 인트라(intra) 예측 기술, 출현 빈도가 높은 심볼(symbol)에 짧은 부호를 할당하고 출현 빈도가 낮은 심볼에 긴 부호를 할당하는 엔트로피 부호화 기술 등이 사용될 수 있다.
영상 압축 기술에는 유동적인 네트워크 환경을 고려하지 않고 하드웨어의 제한적인 동작 환경하에서 일정한 네트워크 대역폭을 제공하는 기술이 있다. 그러나 수시로 대역폭이 변화하는 네트워크 환경에 적용되는 영상 데이터를 압축하기 위해서는 새로운 압축 기술이 요구되고, 이를 위해 스케일러블(scalable) 비디오 부호화/복호화 방법이 사용될 수 있다.
본 발명의 기술적 과제는 계층적 비트스트림 내 추출 및 스케일러빌리티 정보를 기술하는 방법 및 장치를 제공함에 있다.
본 발명의 다른 기술적 과제는 유연한 방식으로 다양한 종류의 비트스트림의 스케일러빌리티 정보를 표현하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 기술적 과제는 계층적 비트스트림 내 추출 및 스케일러빌리티 정보를 패킷 레벨에서의 적응적으로 변환 가능하게 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 일 실시예인 복수의 계층을 지원하는 비트스트림의 디코딩 방법은상기 복수의 계층에 대한 정보를 포함하는 비디오 파라미터 세트에 대한 정보를 수신하는 단계와, 상기 비디오 파라미터 세트를 파싱하여 상기 비트스트림에 포함되어 있는 계층의 정보를 파악하는 단계를 포함할 수 있다.
상기 복수의 계층에 대한 정보는 인코딩된 비디오 시퀀스 내에 포함되어 있는 다른 종류의 픽처에 대한 크기 정보의 최대 개수(num_frame_sizes_minus1)를 포함할 수 있다.
상기 다른 종류의 픽처에 적용되는 크기 정보는 픽처의 가로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 폭(pic_width_in_luma_samples), 픽처의 세로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 높이(pic_height_in_luma_samples), 루마 샘플에 대한 비트 뎁스(bit_depth_luma_minus8), 색차 샘플에 대한 비트 뎁스(bit_depth_chroma_minus8) 및 색차 포맷(chroma format)의 세트에 대한 인덱스 정보(chroma_format_idc) 중 적어도 하나를 포함할 수 있다.
상기 복수의 계층에 대한 정보는 소정 계층에 적용되는 프레임 사이즈의 세트에 대한 인덱스 정보(frame_size_idx)를 포함할 수 있다.
상기 복수의 계층에 대한 정보는 소정 계층에 적용되는 비트 뎁스(bit depth)와 색차 포맷(chroma format)를 나타내는 리프리젠테이션 포맷(representation format)의 세트에 대한 인덱스 정보(rep_format_idx)를 포함할 수 있다.
상기 복수의 계층에 대한 정보는 인코딩된 비디오 시퀀스 내에 포함되어 있는 다른 리프리젠테이션 포맷(representation format)의 최대 개수(num_rep_formats_minus1)를 포함하는 것을 특징으로 하는 디코딩 방법.
상기 리프리젠테이션 포맷에 대한 정보는 픽처의 가로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 폭(pic_width_in_luma_samples), 픽처의 세로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 높이(pic_height_in_luma_samples), 루마 샘플에 대한 비트 뎁스(bit_depth_luma_minus8), 색차 샘플에 대한 비트 뎁스(bit_depth_chroma_minus8) 및 색차 포맷(chroma format)의 세트에 대한 인덱스 정보(chroma_format_idc) 중 적어도 하나를 포함할 수 있다.
상기 비트스트림은 복수의 계층을 지원하는 계층 차원을 복 수개 포함할 수 있고, 상기 복수의 계층에 대한 정보는 모든 계층 차원의 특정 계층이 상기 특정 계층의 바로 하위의 계층을 참조하는지 여부를 지시하는 기본 참조 플래그 정보를 포함할 수 있다.
상기 기본 참조 플래그가 0이면, 상기 특정 계층이 상기 특정 계층의 바로 하위의 계층을 참조하는 상기 계층 차원에 대한 타입 정보를 수신할 수 있다.
상기 복수의 계층에 대한 정보는 상기 특정 계층이 직접적으로 참조하는 계층이 존재하는 것을 지시하는 직접 참조 플래그 정보를 포함할 수 있다.
상기 직접 참조 플래그가 1이면, 상기 특정 계층이 직접 참조하는 계층의 개수와 직접 참조하는 계층의 인덱스 정보를 수신할 수 있다.
본 발명의 다른 실시예에 따른 복수의 계층을 지원하는 비트스트림의 디코딩 장치는 상기 복수의 계층에 대한 정보를 포함하는 비디오 파라미터 세트에 대한 정보를 수신하고, 상기 비디오 파라미터 세트를 파싱하여 상기 비트스트림에 포함되어 있는 계층의 정보를 파악하는 파싱부를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 계층적 비트스트림 내 추출 및 스케일러빌리티 정보를 기술하는 방법 및 장치가 제공될 수 있다.
본 발명의 일 실시예에 따르면 유연한 방식으로 다양한 종류의 비트스트림의 스케일러빌리티 정보를 표현하는 방법 및 장치가 제공된다. .
본 발명의 다른 실시예에 따르면 계층적 비트스트림 내 추출 및 스케일러빌리티 정보를 패킷 레벨에서의 적응적으로 변환 가능하게 제공하는 방법 및 장치가 제공된다.
도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 2는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 3은 본 발명이 적용될 수 있는, 복수 계층을 이용한 스케일러블 비디오 코딩 구조의 일 실시예를 개략적으로 나타내는 개념도이다.
도 4는 본 발명에 따른 영상 정보의 인코딩 방법을 설명한 제어 흐름도이다.
도 5는 본 발명에 따른 영상 정보의 디코딩 방법을 설명하기 위한 제어 흐름도이다.
도 6은 본 발명에 따른 계층 참조 정보를 시그널링하는 방법을 설명하기 위한 제어 흐름도이다.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다. 스케일러블(scalable) 비디오 부호화/복호화 방법 또는 장치는 스케일러빌리티(scalability)를 제공하지 않는 일반적인 영상 부호화/복호화 방법 또는 장치의 확장(extension)에 의해 구현될 수 있으며, 도 1의 블록도는 스케일러블 비디오 부호화 장치의 기초가 될 수 있는 영상 부호화 장치의 일 실시예를 나타낸다.
도 1을 참조하면, 상기 영상 부호화 장치(100)는 움직임 예측부(111), 움직임 보상부(112), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조영상 버퍼(190)를 포함한다.
영상 부호화 장치(100)는 입력 영상에 대해 인트라(intra) 모드 또는 인터(inter) 모드로 부호화를 수행하고 비트스트림(bit stream)을 출력할 수 있다. 인트라 예측은 화면 내 예측, 인터 예측은 화면 간 예측을 의미한다. 인트라 모드인 경우 스위치(115)가 인트라로 전환되고, 인터 모드인 경우 스위치(115)가 인터로 전환된다. 영상 부호화 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성한 후, 입력 블록과 예측 블록의 차분을 부호화할 수 있다.
인트라 모드인 경우, 인트라 예측부(120)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다.
인터 모드인 경우, 움직임 예측부(111)는, 움직임 예측 과정에서 참조 영상 버퍼(190)에 저장되어 있는 참조 영상에서 입력 블록과 가장 매치가 잘 되는 영역을 찾아 움직임 벡터를 구할 수 있다. 움직임 보상부(112)는 움직임 벡터와 참조 영상 버퍼(190)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다.
감산기(125)는 입력 블록과 생성된 예측 블록의 차분에 의해 잔여 블록(residual block)을 생성할 수 있다. 변환부(130)는 잔여 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 출력할 수 있다. 그리고 양자화부(140)는 입력된 변환 계수를 양자화 파라미터에 따라 양자화하여 양자화된 계수(quantized coefficient)를 출력할 수 있다.
엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터 값 등을 기초로, 심볼(symbol)을 확률 분포에 따라 엔트로피 부호화하여 비트스트림(bit stream)을 출력할 수 있다. 엔트로피 부호화 방법은 다양한 값을 갖는 심볼을 입력 받아, 통계적 중복성을 제거하면서, 복호 가능한 2진수의 열로 표현하는 방법이다.
여기서, 심볼이란 부호화/복호화 대상 구문 요소(syntax element) 및 부호화 파라미터(coding parameter), 잔여 신호(residual signal)의 값 등을 의미한다. 부호화 파라미터는 부호화 및 복호화에 필요한 매개변수로서, 구문 요소와 같이 부호화기에서 부호화되어 복호화기로 전달되는 정보뿐만 아니라, 부호화 혹은 복호화 과정에서 유추될 수 있는 정보를 포함할 수 있으며 영상을 부호화하거나 복호화할 때 필요한 정보를 의미한다. 부호화 파라미터는 예를 들어 인트라/인터 예측모드, 이동/움직임 벡터, 참조 영상 색인, 부호화 블록 패턴, 잔여 신호 유무, 변환 계수, 양자화된 변환 계수, 양자화 파라미터, 블록 크기, 블록 분할 정보 등의 값 또는 통계를 포함할 수 있다. 또한 잔여 신호는 원신호와 예측 신호의 차이를 의미할 수 있고, 또한 원신호와 예측 신호의 차이가 변환(transform)된 형태의 신호 또는 원신호와 예측 신호의 차이가 변환되고 양자화된 형태의 신호를 의미할 수도 있다. 잔여 신호는 블록 단위에서는 잔여 블록이라 할 수 있다.
엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 따라서 엔트로피 부호화를 통해서 영상 부호화의 압축 성능이 높아질 수 있다.
엔트로피 부호화를 위해 지수 골룸(exponential golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법이 사용될 수 있다. 예를 들어, 엔트로피 부호화부(150)에는 가변 길이 부호화(VLC: Variable Lenghth Coding/Code) 테이블과 같은 엔트로피 부호화를 수행하기 위한 테이블이 저장될 수 있고, 엔트로피 부호화부(150)는 저장된 가변 길이 부호화(VLC) 테이블을 사용하여 엔트로피 부호화를 수행할 수 있다. 또한 엔트로피 부호화부(150)는 대상 심볼의 이진화(binarization) 방법 및 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출한 후, 도출된 이진화 방법 또는 확률 모델을 사용하여 엔트로피 부호화를 수행할 수도 있다.
양자화된 계수는 역양자화부(160)에서 역양자화되고 역변환부(170)에서 역변환될 수 있다. 역양자화, 역변환된 계수는 가산기(175)를 통해 예측 블록과 더해지고 복원 블록이 생성될 수 있다.
복원 블록은 필터부(180)를 거치고, 필터부(180)는 디블록킹 필터(deblocking filter), SAO(Sample Adaptive Offset), ALF(Adaptive Loop Filter) 중 적어도 하나 이상을 복원 블록 또는 복원 픽처에 적용할 수 있다. 필터부(180)를 거친 복원 블록은 참조 영상 버퍼(190)에 저장될 수 있다.
도 2는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다. 도 1에서 상술한 바와 같이 스케일러블 비디오 부호화/복호화 방법 또는 장치는 스케일러빌리티를 제공하지 않는 일반적인 영상 부호화/복호화 방법 또는 장치의 확장에 의해 구현될 수 있으며, 도 2의 블록도는 스케일러블 비디오 복호화 장치의 기초가 될 수 있는 영상 복호화 장치의 일 실시예를 나타낸다.
도 2를 참조하면, 상기 영상 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 및 참조 영상 버퍼(270)를 포함한다.
영상 복호화 장치(200)는 부호화기에서 출력된 비트스트림을 입력 받아 인트라 모드 또는 인터 모드로 복호화를 수행하고 재구성된 영상, 즉 복원 영상을 출력할 수 있다. 인트라 모드인 경우 스위치가 인트라로 전환되고, 인터 모드인 경우 스위치가 인터로 전환될 수 있다. 영상 복호화 장치(200)는 입력 받은 비트스트림으로부터 복원된 잔여 블록(residual block)을 얻고 예측 블록을 생성한 후 복원된 잔여 블록과 예측 블록을 더하여 재구성된 블록, 즉 복원 블록을 생성할 수 있다.
엔트로피 복호화부(210)는, 입력된 비트스트림을 확률 분포에 따라 엔트로피 복호화하여, 양자화된 계수(quantized coefficient) 형태의 심볼을 포함한 심볼들을 생성할 수 있다. 엔트로피 복호화 방법은 2진수의 열을 입력 받아 각 심볼들을 생성하는 방법이다. 엔트로피 복호화 방법은 상술한 엔트로피 부호화 방법과 유사하다.
양자화된 계수는 역양자화부(220)에서 역양자화되고 역변환부(230)에서 역변환되며, 양자화된 계수가 역양자화/역변환 된 결과, 복원된 잔여 블록(residual block)이 생성될 수 있다.
인트라 모드인 경우, 인트라 예측부(240)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다. 인터 모드인 경우, 움직임 보상부(250)는 움직임 벡터 및 참조 영상 버퍼(270)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다.
복원된 잔여 블록과 예측 블록은 가산기(255)를 통해 더해지고, 더해진 블록은 필터부(260)를 거친다. 필터부(260)는 디블록킹 필터, SAO, ALF 중 적어도 하나 이상을 복원 블록 또는 복원 픽처에 적용할 수 있다. 필터부(260)는 재구성된 영상, 즉 복원 영상을 출력한다. 복원 영상은 참조 영상 버퍼(270)에 저장되어 화면 간 예측에 사용될 수 있다.
상기 영상 복호화 장치(200)에 포함되어 있는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 및 참조 영상 버퍼(270) 중 영상의 복호화에 직접적으로 관련된 구성요소들, 예컨대, 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 등을 다른 구성요소와 구분하여 복호화부 또는 디코딩부로 표현할 수 있다.
또한, 영상 복호화 장치(200)는 비트스트림에 포함되어 있는 인코딩된 영상에 관련된 정보를 파싱하는 도시하지 않은 파싱부를 더 포함할 수 있다. 파싱부는 엔트로피 복호화부(210)를 포함할 수도 있고, 엔트로피 복호화부(210)에 포함될 수도 있다. 이러한 파싱부는 또한 디코딩부의 하나의 구성요소로 구현될 수도 있다.
도 3은 본 발명이 적용될 수 있는, 복수 계층을 이용한 스케일러블 비디오 코딩 구조의 일 실시예를 개략적으로 나타내는 개념도이다. 도 3에서 GOP(Group of Picture)는 픽처군 즉, 픽처의 그룹을 나타낸다.
영상 데이터를 전송하기 위해서는 전송 매체가 필요하며, 그 성능은 다양한 네트워크 환경에 따라 전송 매체별로 차이가 있다. 이러한 다양한 전송 매체 또는 네트워크 환경에의 적용을 위해 스케일러블 비디오 코딩 방법이 제공될 수 있다.
스케일러블 비디오 코딩 방법은 계층(layer) 간의 텍스쳐 정보, 움직임 정보, 잔여 신호 등을 활용하여 계층 간 중복성을 제거하여 부호화/복호화 성능을 높이는 코딩 방법이다. 스케일러블 비디오 코딩 방법은, 전송 비트율, 전송 에러율, 시스템 자원 등의 주변 조건에 따라, 공간적, 시간적, 화질적 관점에서 다양한 스케일러빌리티를 제공할 수 있다.
스케일러블 비디오 코딩은, 다양한 네트워크 상황에 적용 가능한 비트스트림을 제공할 수 있도록, 복수 계층(multiple layers) 구조를 사용하여 수행될 수 있다. 예를 들어 스케일러블 비디오 코딩 구조는, 일반적인 영상 부호화 방법을 이용하여 영상 데이터를 압축하여 처리하는 기본 계층을 포함할 수 있고, 기본 계층의 부호화 정보 및 일반적인 영상 부호화 방법을 함께 사용하여 영상 데이터를 압축 처리하는 향상 계층을 포함할 수 있다.
여기서, 계층(layer)은 공간(spatial, 예를 들어, 영상 크기), 시간(temporal, 예를 들어, 부호화 순서, 영상 출력 순서, 프레임 레이트), 화질, 복잡도 등을 기준으로 구분되는 영상 및 비트스트림(bitstream)의 집합을 의미한다. 또한 기본 계층은 참조 계층 또는 Base layer, 향상 계층은 Enhancement layer를 의미할 수 있다. 또한 복수의 계층들은 서로 간에 종속성을 가질 수도 있다.
도 3을 참조하면, 예를 들어 기본 계층은 SD(standard definition), 15Hz의 프레임율, 1Mbps 비트율로 정의될 수 있고, 제1 향상 계층은 HD(high definition), 30Hz의 프레임율, 3.9Mbps 비트율로 정의될 수 있으며, 제2 향상 계층은 4K-UHE(ultra high definition), 60Hz의 프레임율, 27.2Mbps 비트율로 정의될 수 있다. 상기 포맷(format), 프레임율, 비트율 등은 하나의 실시예로서, 필요에 따라 달리 정해질 수 있다. 또한 사용되는 계층의 수도 본 실시예에 한정되지 않고 상황에 따라 달리 정해질 수 있다.
예를 들어, 전송 대역폭이 4Mbps라면 상기 제1향상계층 HD의 프레임 레이트를 줄여서 15Hz이하로 전송할 수 있다. 스케일러블 비디오 코딩 방법은 상기 도 3의 실시예에서 상술한 방법에 의해 시간적, 공간적, 화질적 스케일러빌리티를 제공할 수 있다.
스케일러블 비디오 코딩은 이하 부호화 관점에서는 스케일러블 비디오 부호화, 복호화 관점에서는 스케일러블 비디오 복호화와 동일한 의미를 가진다.
상술한 바와 같이, 이종의 통신망 및 다양한 단말로 인해 스케일러빌리티는 현재 비디오 포맷의 중요한 기능이 되었다. AVC(Advanced Video Coding)의 확장 표준인 SVC(Scalable Video Coding)는 압축효율을 최대한 유지하면서 다양한 범위의 비트레이트를 가지는 비트스트림을 생성할 수 있도록 개발되었다. 다양한 디바이스 및 네트워크의 특성과 변화를 만족시키기 위해서 SVC 비트스트림은 쉽게 다양한 방식으로 추출될 수 있다. 즉, SVC 표준은 공간적(spatial), 시간적(temporal), 화질(SNR) 스케일러빌리티를 제공한다.
한편, 복수의 계층을 포함하는 비트스트림은 패킷 스위칭 네트워크(packet-switching network)를 통하여 비디오의 적응적 전송을 용이하게 하는 NAL (Network Abstraction Layer) unit들로 구성된다. 복수의 계층과 유사하게 비트스트림 내 복수의 다시점 영상을 포함하는 멀티 뷰 비디오 코딩(multi-view video coding)에서 복수의 시점간의 관계는 복수의 레이어를 지원하는 비디오에서의 공간적 계층(spatial layer)간의 관계와 유사하다.
콘텐츠 전달경로(content delivery path)에서의 모든 노드에서 비트스트림을 효과적이며 효율적으로 변환하기 위해서는 비트스트림의 스케일러빌리티 정보가 매우 중요하다. 현재 단일 레이어에 대한 비디오 코딩에 대한 표준(high efficiency video coding)에서는 NAL Unit(이하, NALU) 헤더(header)에 계층 정보와 관련된 2개의 필드인 temporal_id와 reserved_one_5bits가 존재한다. 3 bits의 길이를 갖는 temporal_id는 비디오 비트스트림의 시간적 레이어(temporal layer)를 나타내며, reserved_one_5bits는 추후에 다른 계층 정보를 나타내기 위한 영역에 해당한다.
시간적 레이어는 비디오 코딩 레이어(video coding layer, VCL) NAL unit으로 구성된 시간적으로 스케일될 수 있는 비트스트림의 레이어를 의미하며, 시간적 레이어는 특정의 temporal_id 값을 갖는다.
본 발명은 복수의 레이어를 지원하는 비트스트림 내에서 영상의 추출 정보(extraction) 및 계층적 정보(scalability information)를 효과적으로 기술하고, 이를 시그널링 하기 위한 방법 및 이를 구현하는 장치에 관한 발명이다.
본 발명에서는 비트스트림을 2가지 타입, 시간 스케일러빌리티(temporal scalability)만을 지원하는 기본 타입(base type)과 시간을 포함한 공간/화질/시점을 지원하는 스케일러빌리티를 가질 수 있는 확장 타입(extended type)으로 나누어 설명한다.
비트스트림의 첫 번째 타입은 단일 계층 비디오를 지원하는 비트스트림에 대한 것이며, 두 번째 타입은 HEVC 기반 계층적 비디오 부호화에서 향상 계층을 위한 것이다. 이하에서는 두 가지 비트스트림 타입들의 스케일러빌리티 정보를 표현하기 위한 개선 방안을 제안한다. 본 발명에 따르면, 확장 타입에서 5bit의 reserved_one_5bits는 스케일러블 계층의 식별자를 나타내는 layer_id로 사용될 수 있다.
NALU 헤더에서 nal_ref_flag 제거
nal_ref_flag는 비 참조 픽처(non-reference picture)를 나타내기 위해서 사용된다. 이 정보는 비 참조 픽처와 참조 픽처(reference picture) 사이의 대략적인 우선 순위를 나타내기는 하지만, 전송을 위한 nal_ref_flag의 사용은 다소 제한적이다.
참조 픽처(Reference picture)는 디코딩 순서상 뒤따라오는 픽처(subsequent pictures)의 디코딩 시 화면 간 예측을 위해 사용될 수 있는 샘플들을 포함하는 픽처를 의미하다.
비 참조 픽처(non-reference picture)는 디코딩 순서상 뒤따라오는 픽처의 디코딩 시 화면 간 예측을 위하여 사용되지 않는 샘플들을 포함하는 픽처를 의미한다.
nal_ref_flag는 인코딩 할 당시 해당 nal 유닛이 전체 비트스트림 상에서 비 참조 픽처인지 참조 픽처인지 여부를 나타내는 정보를 나타내는 플래그이다.
nal_ref_flag가 1이면, NALU는 SPS(sequence parameter set), PPS(picture parameter set), APS(adaptation parameter set) 또는 참조 픽처의 슬라이스를 포함하는 것을 의미하고, nal_ref_flag가 0이면 NALU는 비 참조 픽처의 일부 혹은 전부를 포함하는 슬라이스를 포함하는 것을 의미한다.
이때, nal_ref_flag 값이 1인 NALU는 참조 픽처의 슬라이스를 포함할 수 있으며, nal_ref_flag는 VPS(video parameter set), SPS(sequence parameter set), PPS(picture parameter set)의 NALU들에 대해서 1의 값을 가진다. 특정 픽처의 VCL NALU 중 하나가 nal_ref_flag 값이 0인 경우, 해당 픽처의 모든 VCL NALU에 대해 nal_ref_flag는 0의 값을 가진다.
한편, 모든 비 참조 픽처(non-reference picture)들, 특히 대부분 최상위 시간적 레이어에 해당하는 비 참조 픽처가 추출된다면, 추출 후 남은 모든 픽처들의 nal_ref_flag 는 1이 된다.
그러나, 적응 변환된(추출된) 비트스트림의 일부 픽처들, 즉 남은 비트스트림에서 최상위 시간적 레이어에 해당하는 픽처는 nal_ref_flag가 1이 라고 하더라도 비 참조 픽처들이 된다.
다시 말해서, NALU 헤더의 다른 신택스 요소들(예를 들어, temporal_id)이 적응 변환(추출)을 지원하는데 있어서 보다 효과적일 수 있다. 즉, 비트스트림이 포함하는 전체 시간적 레이어의 개수와 NALU 헤더의 temporal_id 값을 이용하여, 원하는 시간적 레이어를 포함하는 비트스트림을 추출할 수 있다.
또한, nal_ref_flag는 nal_ref_flag를 포함하는 NALU으로 구성된 픽처를 디코딩(복원)한 다음 DPB(decoded picture buffer)와 같은 메모리에 저장할 때, 해당 픽처를 추후에 참조 픽처로 사용할지 여부를 표시할 때도 사용될 수 있다. nal_ref_flag가 1 인 경우 추후에 참조 픽처로 사용되는 것으로 표시하고, nal_ref_flag가 0 인 경우 추후에 참조 픽처로 사용하지 않는 다고 표시할 수 있다.
nal_ref_flag를 통하여 해당 NALU이 비 참조 픽처 인지 참조 픽처 인지 여부를 판단하지 않고, 디코딩된 픽처를 DPB에 저장할 때 참조 픽처로 표시할 수 있다. 이 경우, 디코딩된 픽처가 비 참조 픽처이지만 참조 픽처로 표시되더라도, 디코딩 순서상 해당 픽처의 다음 픽처를 디코딩 함에 있어서, 다음 픽처의 헤더(slice header)에 전달되는 참조 픽처 리스트에 해당 픽처가 포함되어 있지 않을 것이므로, 문제가 발생하지 않는다.
즉, 다음 픽처를 디코딩할 때 슬라이스 헤더에 포함되어 있는 참조 픽처 리스트에 의하여 이전에 디코딩된 픽처가 참조 픽처인지 또는 비 참조 픽처 인지 표시된다. 따라서, nal_ref_flag를 통하여 디코딩된 픽처가 참조 픽처 인지 여부가 판단되지 않고 참조 픽처로 표시된다 하여도 디코딩된 픽처를 참조 픽처 또는 비 참조 픽처로 판단하는데 문제가 발생하지 않는다.
본 발명에서는 NALU 헤더에서 nal_ref_flag을 삭제하거나 nal_ref_flag의 의미(semantics)를 변경할 것을 제안한다. nal_ref_flag 삭제와 관련된 실시예는 다음과 같다.
실시예 1
nal_ref_flag를 slice_ref_flag로 변경하고, 플래그의 위치를 NALU 헤더에서 슬라이스 헤더(slice header)로 옮긴다. 슬라이스 헤더의 신택스는 표 1과 같이 수정될 수 있다.
표 1에서, slice_ref_flag의 값이 1이면 슬라이스가 참조 픽처의 일부인 것을 지시하며, 0 이면 슬라이스가 비 참조 픽처의 일부인 것을 지시한다.
실시예 2
nal_ref_flag를 au_ref_flag로 변경하고, 플래그의 위치를 NALU 헤더에서 억세스 유닛 디리미터(access unit delimiter)로 옮긴다. 억세스 유닛 디리미터의 신택스는 표 2과 같을 수 있다
표 2에서, au_ref_flag이 1 이면, 억세스 유닛이 참조 픽처를 포함하는 것을 지시하며, 0 이면 억세스 유닛이 비 참조 픽처를 포함하는 것을 지시한다.
실시예 3
nal_ref_flag을 다른 신택스로 이동시키지 않고 nal_ref_flag을 NALU 헤더에서 삭제한다.
인코딩 시 전체 비트스트림에서 비 참조 픽처 인지 또는 참조 픽처 인지 여부를 나타내는 1 비트의 플래그 정보인 nal_ref_flag가 삭제되면, nal_ref_flag에 의하여 수행되었던 픽처가 참조 픽처 인지 여부에 대한 판단은 다른 과정을 통하여 수행될 수 있다. 수신된 픽처를 디코딩하고 난 후, 디코딩된 픽처를 DPB(decoded picture buffer)에 무조건 참조 픽처로 표시한다. 즉, 디코딩된 픽처가 참조 픽처인지 여부를 판단하지 않고 참조 픽처로 표시될 수 있다.
그런 후, 디코딩된 픽처의 다음 픽처에 대한 슬라이스 헤더를 파싱하고, 슬라이스 헤더에 포함되어 있는 참조 픽처 정보에 기초하여 디코딩된 픽처가 참조 픽처인지 비 참조 픽처인지 여부를 표시 할 수 있다.
실시예 4
NALU 헤더에서 nal_ref_flag를 삭제하고, 비 참조 픽처의 NALU 이라는 정보를 나타내기 위해서 temporal_id를 사용할 수 있다. temporal_id는 “7”, 또는 비트스트림에 포함된 최대 시간적 레이어의 개수-1 (즉, max_temporal_layers_minus1), 또는“0”을 제외한 기설정된 값이 될 수 있다.
실시예 5
NALU 헤더에서 nal_ref_flag를 삭제하고, 비 참조 픽처의 NALU이라는 정보를 나타내기 위해서 reserved_one_5bits를 priority_id 구성 요소로 사용할 수 있다. priority_id는 해당 NALU의 우선순위(priority)를 나타내는 식별자로서 상이한 공간, 시간 및 화질에 관계없이 우선순위에 따른 비트스트림 축출 기능을 제공하기 위하여 사용된다.
즉, 만약에 temporal_id = Ta가 최상위 시간적 레이어의 식별자라면, temporal_id = Ta 이며 priority_id = 31 (혹은 다른 특정 값)인 NALU를 비 참조 픽처의 NALU 임을 나타내기 위해서 사용한다.
nal_ref_flag을 시그널링 하기 위하여 사용되었던 1 bit은 다음 중 어느 하나로 사용될 수 있다.
(1) nal_unit_type을 지시하는 데 사용될 수 있다. nal_unit_type은 7bits 신호가 될 수 있고, NALU 타입의 개수는 2배로 증가할 수 있다.
(2) temporal_id를 지시하는데 사용될 수 있다. temporal_id는 4bist 신호가 될 수 있으며, 최대 시간적 레이어의 수가 2배로 증가될 수 있다.
(3) layer_id를 지시하기 위해 사용될 수 있다. layer_id는 계층적 비트스트림의 스케일러블 계층의 식별자를 의미하며, reserved_one_5bits 신택스 요소에 의하여 시그널링될 수 있다. 스케일러블 계층을 식별하기 위하여 사용되었던 reserved_one_5bits의 5bit에 nal_ref_flag 의 시그널링을 위해 사용하였던 1 bit이 추가되어 layer_id는 6 bit 신호가 될 수 있다. 6bit을 사용하게 되면 64개의 스케일러블 계층을 식별할 수 있다.
(4) reserved_one_5bits가 priority를 나타내는지의 여부를 알려주는 flag로 사용될 수 있다.
(5) reserved_bit으로 사용될 수 있다.
만약 nal_ref_flag를 NALU 헤더에서 삭제하지 않는다면, nal_ref_flag의 의미는 다음과 같이 수정될 수 있다.
nal_ref_flag가 0이면 NALU는 비 참조 픽처의 슬라이스만을 포함하는 것을 지시하고 nal_ref_flag가 1이면 NALU는 참조 픽처 또는 비 참조 픽처의 슬라이스를 포함할 수 있다는 것을 지시한다.
비디오 파라미터 세트의 활성화 시그널링
비디오 파라미터 세트(video parameter set)는 영상을 디코딩하기 위한 가장 기본적인 정보를 포함하며 기존의 SPS에 존재했던 내용을 포함할 수 있다.
비디오 파라미터 세트에는 시간적 스케일러빌러티를 지원하는 시간적 레이어를 지칭하는 서브 레이어(sub-layer)에 대한 정보와 공간적(spatial), 퀄러티적(quality) 및 시점적(view) 스케일러빌러티를 지원하는 복 수의 계층에 대한 정보를 포함할 수 있다. 즉, 비디오 파라미터 세트는 복수의 계층 정보, 즉 HEVC extension을 위한 신택스를 포함할 수도 있다.
A. 비디오 파라미터 세트(Video Parameter Set)
비디오 파라미터 세트에 대한 신택스는 <표 3>와 같다.
표 3에서 대부분의 신택스들은 단일 레이어를 포함하는 비트스트림에 적용되는 SPS 신택스들과 동일한 의미를 가지며, 추가적인 부분은 다음과 같다.
- video_parameter_set_id은 비디오 파라미터 세트(video parameter set)의 식별자를 의미하며, SPS(sequence parameter set), SEI(supplemental enhancement information), 억세스 유닛 디리미터(access unit delimiter)들에서 참조될 수 있다.
- priority_id_flag가 1이면 reserved_one_5bits가 SVC 표준의 priority_id와 동일하게 사용될 수 있음을 나타내고, priority_id_flag가 0이면 reserved_one_5bits가 layer_id로 사용됨을 의미한다.
- extension_info_flag가 0이면 비트스트림이 HEVC의 단일계층 표준을 따른다는 것을 지시하고, 1이면 스케일러빌러티 지원을 위한 향상 계층(HEVC extension을 지원하는 경우)을 나타내고 계층과 관련된 정보가 제공된다.
B. 시퀀스 파라미터 세트(Sequence Parameter Set, SPS) 수정
표 4와 같이 기존 신택스 중 일부는 VPS에 반영되고, SPS에서 삭제될 수 있다. 한편, SPS에는 vps_id 신택스 요소가 추가될 수 있다. vps_id 추가된 SPS 신택스는 표 4와 같다. 표 4에서 삭제된 신택스는 신택스 중간을 지나는 선으로 표현된다.
vps_id는 SPS에 의해 참조되는 비디오 파라미터 세트(video parameter set)를 식별하기 위한 식별자를 지시하며, vps_id는 0에서 X의 범위를 가질 수 있다.
C. 비디오 파라미터 세트(Video Parameter Set)를 위한 활성화(activation) 시그널링
슬라이스 헤더에는 해당 슬라이스가 참조하는 픽처 파라미터 세트에 대한 인덱스 정보가 포함되어 있고, 픽처 파라미터 세트에는 해당 픽처가 참조하는 시퀀스 파라미터 세트에 대한 인덱스 정보가 포함되어 있다. 시퀀스 파라미터 세트에는 해당 시퀀스가 참조하는 비디오 파라미터 세트에 대한 정보가 포함되어 있다. 이와 같이 파라미터 세트에 대한 정보를 파싱하여 파싱된 해당 파라미터 세트 정보를 참조하는 것을 활성화(activation)라고 한다.
특정 파라미터 세트에 대한 정보를 이용하기 위하여, 즉 파라미터 세트를 활성화하기 위하여는 슬라이스 헤더부터 점차적으로 파싱되어야 한다. 어느 SPS가 활성화되는지(active) 알기 위해서 모든 슬라이스 헤더(slice header) 및 관련된 PPS가 분석되어야 함을 의미한다.
단일 계층을 포함하는 비트스트림 중 서브 레이어(시간적 레이어) 중 일부를 추출할 때, 추출기(extractor)는 NALU 헤더와 복수의 파라미터 세트(parameter set)들을 분석(파싱)할 필요가 있다.
만약, 비디오 파라미터 세트 또는 시퀀스 파라미터 세트에 NALU의 추출을 위한 정보가 포함되어 있다면 추출기는 슬라이스 헤더부터 순차적으로 상위의 파라미터 세트를 파싱해야 한다. 이는 추출기가 파라미터 세트(parameter set)들과 슬라이스 헤더(slice header)의 모든 신택스 요소들을 이해해야 한다는 것을 의미한다.
또한, 영상의 디코딩 과정에서도 복잡한 파싱 과정 없이 vps_id 또는 sps_id를 찾고 필요한 파라미터 세트만을 활성화할 수 있다. 이 경우, 비디오 파라미터 세트 또는 시퀀스 파라미터 세트가 활성화될 파라미터 인덱스 정보를 포함할 경우 복잡한 슬라이스 헤더(slice header) 및 관련된 PPS에 대한 파싱 절차를 감소시킬 수 있다.
한편 이러한 신택스들의 요소 가운데 일부분만이 비트스트림 추출을 위해서 필요한 정보들을 포함할 수 있다. 그럼에도 불구하고 추출기가 모든 신택스 요소들을 분석하는 것은 커다란 부담이 될 수 있다. 이러한 문제를 해결하기 위해서, 다음과 같은 방법을 제안한다.
본 발명에서, 파라미터 세트의 활성화(activation)는 추출기가 슬라이스 헤더(slice header) 및 이와 관련된 PPS(picture parameter set)의 분석 없이 어떠한 파라미터 세트가 활성화 되는지 알 수 있도록 시그널링 하는 것을 의미한다.
본 발명에 따르면, 어떠한 비디오 파라이터 세트, 시퀀스 파라미터 세트 또는 픽처 파라미터 세트가 활성화되는지 여부를 별도로 시그널링하여 추출기는 모든 슬라이스 헤더(slice header) 및 관련되는 PPS를 분석해야 하는 부담을 감소시킬 수 있다.
비디오 파라미터 세트는 업데이트 될 수도 있다. 추출기가 슬라이스 헤더를 분석하지 않고, 현재 활성화되는 VPS 및 관련된 SPS 혹은 PPS를 알 수 있도록 다음의 방법 가운데 한 가지가 사용될 수 있다.
(1) vps_id, sps_id, pps_id를 억세스 유닛 디리미터(access unit delimiter)에 포함시킬 수 있다. vps_id, sps_id, pps_id은 각각 관련된 AU 내의 NALU들을 위해 사용된 비디오 파라미터 세트, 시퀀스 파라미터 세트, 픽처 파라미터 세트의 식별자들을 나타낸다.
억세스 유닛 디리미터(Access unit delimiter) 내에 각 식별자의 존재 여부를 나타내기 위해서 vps_id_present_flag, sps_id_present_flag, pps_id_present_flag를 사용하였으며, 제안하는 억세스 유닛 디리미터의 신택스는 표 5와 같다.
(1-1) 또 다른 방법은 표 6과 같이 sps_id 및 pps_id를 제외하고 vps_id만을 억세스 유닛 디리미터(access unit delimiter)에 포함시킬 수 있다.
(2) 비디오 파라미터 세트의 활성화 시그널링을 위한 또 다른 방법은 새로운 SEI 메시지(parameter_set_reference)를 사용하는 것이다. SEI 메시지는 관련된 AU내의 NALU들을 위해 사용된 비디오 파라미터 세트, 시퀀스 파라미터 세트, 픽처 파라미터 세트의 식별자들을 나타내는 vps_id, sps_id, pps_id의 존재 여부를 알려주기 위한 신택스를 포함한다.
각 식별자의 존재 여부를 나타내기 위해서 vps_id_present_flag, sps_id_present_flag, pps_id_present_flag신택스가 사용될 수 있으며, SEI 신택스는 표 7과 같다.
(2-1) 또한, <표 8>과 같이 pps_id를 제외하고 sps_id와 vps_id를 SEI 메시지에 포함시켜서 활성화를 알려줄 수도 있다. SEI 메시지에 포함되어 있는 sps_id와 vps_id는 해당 SEI 메시지와 관련된 억세스 유닛(access unit)의 비디오 코딩 레이어 NALU이 참조하는 sps_id와 vps_id를 포함할 수 있다. 따라서, sps_id와 vps_id는 활성화되는 가능성이 있는 파라미터 세트의 정보를 나타낼 수 있다.
표 8에서, vps_id는 현재 활성화되는 비디오 파라미터 세트의 video_parameter_set_id를 나타낸다. vps_id 값은 0~15의 값을 가질 수 있다.
sps_id_present_flag 가 1의 값을 가지는 경우 현재 활성화 되는 시퀀스 파라미터 세트의 sequence_parameter_set_id 가 해당 SEI 메시지에 포함되어 있다는 것을 나타내고, sps_id_present_flag가 0의 값을 가지는 경우, 활성화되는 시퀀스 파라미터 세트의 sequence_parameter_set_id가 해당 SEI 메시지에 포함되지 않음을 나타낸다.
sps_id는 현재 활성화되는 시퀀스 파라미터 세트의 sequence_parameter_set_id를 나타낸다. sps_id 는 0~31의 값, 더 한정적으로는 0~15의 값을 가질 수 있다.
psr_extension_flag 가 0인 경우 parameter set reference SEI message extension 신택스 요소가 parameter set reference SEI 메시지에 포함되지 않음을 나타내고, psr_extension_flag는 1이면 parameter set reference SEI message extension 신택스 요소를 parameter set reference SEI 메시지가 포함되어 신택스를 확장하여 사용하는 것을 의미한다.
psr_extension_length는 psr_extension_data의 길이를 나타낸다. psr_extension_length는 0~256의 범위를 값을 가질 수 있고, psr_extension_data_byte는 어떠한 값도 가질 수 있다.
(2-2) 또한, 표 9와 같이 pps_id를 제외하고 한 개 이상의 sps_id와 vps_id를 SEI 메시지에 포함시켜서 시그널링 할 수도 있다.
표 9에서, vps_id는 현재 활성화되는 비디오 파라미터 세트의 video_parameter_set_id를 나타낸다. vps_id는 0~15의 값을 가질 수 있다.
num_reference_sps는 현재 활성화되는 vps_id를 참조하는 시퀀스 파라미터 세트의 개수를 나타낸다.
sps_id(i)는 현재 활성화되는 시퀀스 파라미터 세트의 sequence_parameter_set_id를 나타내며, sps_id는 0~31의 값, 더 한정적으로는 0~15의 값을 가질 수 있다.
(2-3) 또한, 표 10과 같이 sps_id 및 pps_id를 제외하고 vps_id만을 SEI 메시지에 포함시켜서 시그널링 할 수도 있다.
(3) 비디오 파라미터 세트의 활성화 시그널링을 위한 또 다른 방법은 Buffering period SEI 메시지에 vps_id, sps_id, pps_id를 알려주는 정보를 포함시키는 것이다. 표 11은 vps_id, sps_id, pps_id 식별자의 존재 여부를 나타내기 위한 vps_id_present_flag, sps_id_present_flag, pps_id_present_flag를 포함하고 있는 신택스를 나타낸다.
(3-1) 또한, 표 12와 같이, sps_id 및 pps_id를 제외하고 vps_id만을 Buffering period SEI 메시지에 포함시켜서 파라미터 세트의 활성화를 시그널링 할 수도 있다.
(4) 파라미터 세트의 활성화 시그널링을 위한 또 다른 방법은 Recovery point SEI 메시지에 vps_id, sps_id, pps_id 들을 알려주는 정보를 포함시키는 것이다. 표 13은 vps_id, sps_id, pps_id 식별자의 존재 여부를 나타내기 위한 vps_id_present_flag, sps_id_present_flag, pps_id_present_flag를 포함하고 있는 신택스를 나타낸다.
(4-1) 또한, 표 14와 같이, sps_id 및 pps_id를 제외하고 vps_id만을 Recovery point SEI 메시지에 포함시켜서 알려주는 방법도 있을 수 있다.
상술한 vps_id 혹은 sps_id를 전달하는 메시지들은 IRAP(intra random access point) 억세스 유닛에 포함될 수 있다.
상술한 정보 시그널링 방법 중 적어도 하나가 억세스 유닛에 포함되어 사용된다면, 추출기는 비트스트림을 추출하기 위해서 상기 시그널링 방법을 통하여 vps_id, sps_id, pps_id 값을 알아내고, 하나 이상의 vps/sps/pps를 관리할 수 있다.
또한, 디코딩 장치 또는 디코딩을 수행하는 디코딩부는 상기 시그널링 방법을 통하여 vps_id, sps_id, pps_id 값을 알아 내고, 해당 파라미터 세트를 활성화하여 파라미터 세트와 관련된 AU들을 디코딩할 수 있다.
확장 타입(Extended type)에서 비트스트림의 표현
이하에서는 계층 확장을 지원하는 비트스트림을 포함하는 경우 스케일러블 계층에 대한 정보를 표시하고 이를 시그널링 하기 위한 VPS의 extension_info()와 새로운 SEI 메시지를 제안한다. 확장 타입(Extended type)에서 비트스트림을 표현하기 위하여는 다음과 같은 정보들이 시그널링 될 수 있다.
layer_id는 레이어의 우선선위(priority) 값을 전달하는지 여부를 나타내는지를 시그널링 한다.
이 때, 각 layer_id 값에 대응하여 공간 계층(dependency_id 값에 의해 식별), 화질 계층(quality_id 값에 의해 식별), 시점들(view_id 값에 의해 식별) 등을 시그널링할 수 있으며, 시간적 레이어는 NALU 헤더의 temporal_id에 의해 식별될 수 있다.
또한, layer_id와 관련되는 비디오의 영역은 region_id에 의해 시그널링 될 수 있다.
또한, 스케일러블 계층 가운데 dependency 정보, 각 스케일러블 계층의 bitrate 정보, 각 스케일러블 계층의 품질 정보들이 시그널링 될 수 있다.
extension_info() 신택스는 표 15와 같다.
표 15의 신택스에 대한 의미는 다음과 같다.
- num_frame_sizes_minus1 plus 1은 부호화된 비디오 시퀀스 내에 포함된 다른 종류의 영상의 크기 정보(예를 들어, pic_width_in_luma_samples[i], pic_height_in_luma_samples[i], pic_cropping_flag[i], pic_cropping_flag[i], pic_crop_left_offset[i], pic_crop_right_offsetv[i], pic_crop_top_offset[i], pic_crop_bottom_offset[i])의 최대 개수를 나타낸다. num_frame_sizes_minus1값은 0~X의 범위를 가질 수 있다. 다른 종류의 영상이란 상이한 해상도를 갖는 영상을 포함할 수 있다.
- num_rep_formats_minus1 plus 1은 부호화된 비디오 시퀀스 내에 포함된 다른 종류의 비트 뎁스(bit depth)와 색차 포맷(chroma format) (예를 들어, bit_depth_luma_minus8[i], bit_depth_chroma_minus8[i], and chroma_format_idc values[i])의 최대 개수를 나타낸다. num_rep_formats_minus1값은 0~X의 범위를 갖는다.
- pic_width_in_luma_samples[i], pic_height_in_luma_samples[i], pic_cropping_flag[i], pic_cropping_flag[i], pic_crop_left_offset[i], pic_crop_right_offsetv[i], pic_crop_top_offset[i], pic_crop_bottom_offset[i]는 부호화된 비디오 시퀀스의 i번째 pic_width_in_luma_samples, pic_height_in_luma_samples, pic_cropping_flag, pic_cropping_flag, pic_crop_left_offset, pic_crop_right_offsetv, pic_crop_top_offset, pic_crop_bottom_offset 값들을 나타낸다.
- bit_depth_luma_minus8[ i ], bit_depth_chroma_minus8[ i ], 및chroma_format_idc[ i ]는 부호화된 비디오 시퀀스의 i번째 bit_depth_luma_minus8, bit_depth_chroma_minus8, and chroma_format_idc 값을 나타낸다.
- num_layers_minus1은 비트스트림에서 가능한 스케일러블 계층의 수를 나타낸다.
- dependency_id_flag가 1이면 layer_id 값과 관련된 한 개 이상의 dependency_id값이 있음을 나타낸다.
- quality_id_flag 가 1이면 layer_id 값과 관련된 한 개 이상의 quality_id 값이 있음을 나타낸다.
- view_id_flag이 1이면 layer_id값과 관련된 한 개 이상의 view_id값이 있음을 나타낸다.
- region_id_flag 이 1이면 layer_id 값과 관련된 한 개 이상의 region_id 값이 있음을 나타낸다.
- layer_dependency_info_flag 이 1이면, 스케일러블 계층의 dependency 정보를 제공함을 나타낸다.
- frame_size_idx[i]은 layer_id값이 i 인 계층에 적용되는 frame size의 세트에 대한 인덱스를 나타낸다. frame_size_idx[i]는 0 ~ X 범위의 값을 갖는다.
- rep_format_idx[i]는 layer_id 값이 i인 계층에 적용되는 비트 뎁스(bit depth)와 색차 포맷(chroma format)의 세트에 대한 인덱스를 나타낸다. rep_format_idx[i]는 0 ~ X 범위의 값을 갖는다.
- one_dependency_id_flag[i] 이 1이면 layer_id 값이 i와 관련된 한 개의 dependency_id만이 존재함을 나타내고, one_dependency_id_flag[i] 이 0이면 layer_id값이 i와 관련된 두 개 혹은 그 이상의 dependency_id 값이 존재함을 나타낸다.
- dependency_id[i]는 layer_id 값이 i와 관련된 dependency_id 값을 나타낸다.
- dependency_id_min[i] 및 dependency_id_max[i]는 layer_id 값이 i와 관련된 최소 dependency_id 값과 최대 dependency_id 값을 각각 나타낸다.
- one_quality_id_flag[i] 이 1이면 layer_id 값이 i와 관련된 한 개의 quality_id만이 존재함을 나타내고. one_quality_id_flag[i] 이 0이면 layer_id 값이 i와 관련된 두 개 혹은 그 이상의 quality_id 값이 존재함을 나타낸다.
- quality_id[i]은 layer_id값이 i와 관련된 quality_id 값을 나타낸다.
- quality_id_min[i] 및 quality_id_max[i]는 layer_id값이 i와 관련된 최소 qualtiy_id 값과 최대 quality_id 값을 각각 나타낸다.
- one_view_id_flag[i] 이 1이면 layer_id 값이 i와 관련된 한 개의 view_id가 존재함을 나타내고, 0이면 layer_id값이 i와 관련된 두 개 혹은 그 이상의 view_id 값이 존재함을 나타낸다.
- view_id[i]은 layer_id 값이 i와 관련된 view_id 값을 나타낸다.
- depth_flag[i] 이 1이면 layer_id값이 i인 현재 스케일러블 계층이 3D 비디오 비트스트림의 깊이 정보를 포함하고 있음을 나타낸다.
- view_id_min[i] 및 view_id_max[i]은 layer_id 값이 i와 관련된 최소 view_id 값과 최대 view_id 값을 각각 나타낸다.
- num_regions_minus1 plus1는 layer_id 값이 i와 관련된 영역의 개수를 나타낸다.
- region_id[j]는 layer_id값이 i와 관련된 영역 j의 식별자를 나타낸다.
- num_directly_dependent_layers[ i ]는 현재 스케일러블 계층 i가 직접적으로 연관이 되는 스케일러블 계층(디코딩시 예측신호를 형성하는데 필요한 계층)의 수를 나타낸다.
- directly_dependent_layer_id_delta_minus1[ i ][ j ] plus 1는 현재 스케일러블 계층인 layer_id[i]와 현재 스케일러블 계층이 직접적으로 연관이 있는 j번째 스케일러블 계층의 계층 식별자 사이의 차이를 나타낸다. j번째 직접적으로 연관이 되는 스케일러블 계층의 계층 식별자는 (layer_id[i] ? directly_dependent_layer_id_delta_minus1[ i ][ j ] ? 1 )과 같다.
또 다른 실시예에 따른 extension_info() 신택스는 표 16과 같다.
다른 실시예에 따르면, pic_width_in_luma_samples[i], pic_height_in_luma_samples[i], bit_depth_luma_minus8[i], bit_depth_chroma_minus8[i], 및 chroma_format_idc[i]는 상이한 영상, 즉 상이한 해상도를 갖는 픽처에 대한 정보로 시그널링 될 수 있다.
비트 레이트와 퀄러티 정보의 시그널링을 위한 활성화 SEI 메시지에 대한 신택스는 표 17과 같다.
표 17의 신택스에 대한 의미는 다음과 같다
- num_layers_minus1는 비트스트림에서 제공 가능한 스케일러블 계층의 수를 나타낸다.
- bitrate_info_flag이 1이면 각각의 스케일러블 계층에 대한 비트 레이트 정보가 제공되는 것을 지시한다.
- quality_info_flag이 1이면 각각의 스케일러블 계층에 대한 퀄러티 값에 대한 정보가 제공됨을 나타낸다.
- quality_type_flag이 1이면 각각의 스케일러블 계층에 대한 퀄러티 타입에 대한 정보가 제공됨을 나타낸다.
- max_bitrate[i]는 layer_id값이 i인 스케일러블 계층의 최대 비트 레이트를 나타내고, average_bitrate[i]는 layer_id값이 i인 스케일러블 계층의 평균 비트 레이트를 나타낸다.
- quality_value[i]는 스케일러블 계층 i의 퀄러티 값을 나타낸다.
- quality_type_uri[ QualityTypeUriIdx ]는 UTF-8 character들로 부호화된 null0terminated string의 QualityTypeUriIdx-th 바이트(byte)이며, 퀄러티 값들의 타입에 대한 표현을 포함하는 URI(universal resource identifier)를 나타낸다.
이하에서는 효율적인 비트스트림 추출을 위한 기술 방식 개선으로 VPS(video parameter set)를 개선시키는 방안을 제안한다.
계층 참조(Layer referencing)
복수의 계층을 지원하는 비트스트림에서 layer_id와 스케일러빌러티 차원 ID(scalability dimension ID)간의 관계를 지시하는 방법으로 layer_id와 스케일러빌러티 차원 ID(scalability dimension ID) 간의 매핑 방법을 알려주는 제1 방법과 layer_id의 비트를 분할(partitioning 또는 splicing)하여 할당된 비트에 어떠한 차원 타입이 존재하는지를 알려주는 제2 방법이 존재할 수 있다.
복수의 계층을 지원하는 비트스트림에서 차원 타입(dimension type)이란 공간적 스케일러빌러티, 퀄러티적 스케일러빌러티와 같은 스케일러빌러티의 타입을 의미하고 차원 ID(dimension ID)는 특정한 차원 타입이 가질 수 있는 레이어에 대한 인덱스를 의미할 수 있다.
복수의 계층을 지원하는 비트스트림에서, 특정 차원(dimension)에서는 특정 계층(이해를 돕기 위해 단일계층의 비트스트림에서 시간적 스케일러빌리티를 지원하는 경우를 예를들어, 시간적 레이어(sub-layer) 3)이 다음의 낮은 계층(예를 들어 시간적 레이어 (sub-layer)를 직접적으로 참조하는 것은 일반적일 수 있다.
공간 스케일러빌리티를 지원하는 경우를 예를 들면, 공간 레이어 2가 다음의 낮은 공간 계층1을 직접적으로 참조한다거나 함을 의미한다.
따라서, 상기와 같은 경우를 나타내기 위하여 기본 참조(default direct dependency)를 가지는 차원을 먼저 기술할 것을 제안한다.
그런 후, 특정 연관성(dependency)을 계층(scalable layer)에 대한 설명 파트(description loop)에서 구체적으로 기술할 수 있다.
이하에서는 상기 두 가지 방법을 이용하여 계층 참조에 대한 시그널링을 하기 위한 방안을 제시한다. vps_extension을 위한 개선된 신택스는 표 18 내지 표 21과 같다.
표 18은 제1 방법을 이용하여 layer_id와 스케일러빌러티 차원 ID(scalability dimension ID)를 매핑시키고 있는 신택스를 나타내고 있다. 표 18의 신택스에 대한 의미는 다음과 같다.
- all_default_dependency_flag이 1이면 모든 계층 차원들이 기본 참조(default dependency)를 가진다는 것을 지시한다. 즉, 특정 차원 i에서 dimension_id[i] = n인 계층은 디폴트로 dimension_id[i] = n-1을 가지는 다른 계층을 직접적으로 참조함을 의미한다.
all_default_dependency_flag이 0이면 모든 계층 차원들이 기본 참조를 가지는 것은 아님을 나타낸다. all_default_dependency_flag이 0이면 아래의 num_default_dim_minus1이 시그널링 된다.
- num_default_dim_minus1 은 기본 참조(default dependency)를 가지는 차원들의 수를 나타낸다.
- dimension [j] 는 기본 참조(default dependency)를 가지는 계층 차원의 타입을 명시한다. 즉, 기본 참조(default dependency)를 가지는 차원들의 수를 하나씩
증가시키면서 기본 참조를 갖는 계층 차원의 타입에 대한 정보가 시그널링된다. 해당 차원에서 상위 계층(예를 들어 dimension_id =n)은 다음 하위 계층(예를 들어, dimension_id = n-1)을 직접적으로 참조할 것이다.
-specific_dependency_flag[i]이 1이면 해당 계층을 위해 구체적으로 기술된 직접 참조(direct dependences/references)가 있음을 의미한다. 따라서, specific_dependency_flag[i]이 1이면 해당 계층이 직접 참조하는 레이어의 개수와 해당 레이어의 ID가 시그널링 된다.
계층 C가 계층 B를 직접적으로 참조한다는 것은 계층 C를 복호화 하기 위해서, 디코더는 계층 B의 정보(디코딩 되거나 디코딩 되지 않은)를 사용해야만 한다는 의미이다. 그러나, 만약 계층 B가 직접적으로 계층 A의 정보를 사용한다면, 계층 C는 계층 A를 직접적으로 참조한다고 여겨지지 않는다.
표 19는 제2 방법을 이용하여 layer_id의 비트를 스케일러빌러티 차원 타입에 할당하고, 할당된 차원 타입의 길이를 시그널링하는 신택스를 나타내고 있다.
표 19에 포함된 num_dimensions_minus1 는 NALU 헤더 내에 존재하는 계층 차원의 수를 나타낸다. 즉, NALU 헤더에 존재하는 계층 차원의 수를 파악하고, 해당 계층 차원 마다 존재하는 계층 타입과 차원 타입에 할당된 비트 수를 파악한다.
표 19의 신택스 계층 참조를 위한 신택스 all_default_dependency_flag, num_default_dim_minus1, dimension [j] 및 specific_dependency_flag[i]에 대한 설명은 표 18에 포함되어 있는 신택스와 동일한 의미를 갖는다.
표 20과 표 21은 표 18 및 표 19와 다른 방식의 신택스를 나타낸다. 표 20은 제1 방법을 이용하는 경우 기본 참조(default dependency)를 나타내는 다른 신택스를 나타내고, 표 21은 제2 방법을 이용하는 경우 기본 참조(default dependency)를 나타내는 다른 신택스를 나타낸다.
표 20 및 표 21의 신택스 중 표 18 및 표 19와 중복되는 신택스에 대한 설명은 생략된다.
표 20 및 표 21에 포함되어 있는 새로운 신택스 default_dependency_flag [i]는 차원 타입 i 가 기본 참조를 사용하는지 여부를 나타낸다. 해당 차원에서 높은 계층(예를 들어 dimension_id[i]=n)은 바로 아래 계층(예를 들어, dimension_id[i]=n-1)을 직접적으로 참조한다.
즉, num_dimensions_minus1 와 dimension_type[i]에 의하여 특정 차원 타입이 지정되면, 해당 차원 타입이 기본 참조를 사용하는지 여부를 시그널링하고, 그렇지 않은 경우 해당 계층이 직접적으로 참조하는 레이어에 대한 정보를 시그널링한다.
본 발명에 따른 차원 타입(dimensions type)을 나타내면 표 22와 같다.
본 발명에 따를 경우, 기존의 차원 타입에서 차원 타입 4 및 5, 즉 priority ID 및 region ID를 나타내는 타입이 추가되었다.
dimension_type[i][j]은 기본적으로 0에서 5사이의 값을 가질 수 있다. 다른 값들은 추후에 정의될 수 있으며, 디코더는 0에서 5사이의 값이 아닌 경우에 dimension_type[i][j]의 값을 무시할 수 있다.
dimension_type이 4의 값을 가지는 경우, 해당 dimension_id는 SVC 표준에서 비트스트림의 priority 계층의 id를 나타낸다.
dimension_type이 5의 값을 가지는 경우, 해당 dimension_id는 비트스트림의 특정 영역의 id를 나타낸다. 특정 영역은 비트스트림 내에서 하나 이상의 시공간 세그먼트(spatial-temporal segment)가 될 수 있다.
도 4는 본 발명에 따른 영상 정보의 인코딩 방법을 설명하기 위한 제어 흐름도이다.
도시된 바와 같이, 부호화 장치는 복수의 계층에 대한 정보를 포함하는 비디오 파라미터 세트에 대한 정보를 인코딩 한다(S401).
비디오 파라미터 세트에 포함되어 있는 복수의 계층에 대한 정보는 인코딩된 비디오 시퀀스 내에 포함되어 있는 다른 종류의 픽처에 대한 크기 정보의 최대 개수(num_frame_sizes_minus1)를 포함할 수 있다. 즉, 상이한 해상도를 갖는 픽처의 개수에 대한 정보를 포함할 수 있다.
이 때, 다른 종류의 픽처에 적용되는 크기에 대한 정보, 즉 픽처의 가로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 폭(pic_width_in_luma_samples), 픽처의 세로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 높이(pic_height_in_luma_samples), 루마 샘플에 대한 비트 뎁스(bit_depth_luma_minus8), 색차 샘플에 대한 비트 뎁스(bit_depth_chroma_minus8) 및 색차 포맷(chroma format)의 세트에 대한 인덱스 정보(chroma_format_idc) 중 적어도 하나가 인코딩 될 수 있다.
한편, 특정 해상도를 갖는 픽처에서도 루마 샘플 및 색차 샘플에 대한 비트 뎁스 및 색차 포맷은 상이하게 설정될 수 있으며 이 경우, 상기 크기 정보의 최대 개수(num_frame_sizes_minus1)는 서로 다른 비트 뎁스를 고려하여 추가적으로 증가할 수도 있다.
또한, 복수의 계층에 대한 정보는 소정 계층에 적용되는 프레임 사이즈의 세트에 대한 인덱스 정보(frame_size_idx)를 포함할 수도 있다.
또한, 복수의 계층에 대한 정보는 소정 계층에 적용되는 비트 뎁스(bit depth)와 색차 포맷(chroma format)를 나타내는 리프리젠테이션 포맷(representation)의 세트에 대한 인덱스 정보(rep_format_idx)를 포함할 수도 있다.
이 때, 리프리젠테이션 포맷에 대한 정보는 픽처의 가로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 폭(pic_width_in_luma_samples), 픽처의 세로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 높이(pic_height_in_luma_samples), 루마 샘플에 대한 비트 뎁스(bit_depth_luma_minus8), 색차 샘플에 대한 비트 뎁스(bit_depth_chroma_minus8) 및 색차 포맷(chroma format)의 세트에 대한 인덱스 정보(chroma_format_idc) 중 적어도 하나를 포함할 수 있다.
만약, 비트스트림이 복수의 계층을 지원하는 계층 차원을 복 수개 포함한다면, 복수의 계층에 대한 정보는 모든 계층 차원의 특정 계층이 상기 특정 계층의 바로 하위의 계층을 참조하는지 여부를 지시하는 기본 참조 플래그 정보와 특정 계층이 직접적으로 참조하는 계층이 존재하는 것을 지시하는 직접 참조 플래그 정보를 포함할 수 있다.
부호화 장치는 인코딩된 비디오 파라미터 세트에 대한 정보를 비트스트림으로 전송한다(S402).
도 5는 본 발명에 따른 영상 정보의 디코딩 방법을 설명하기 위한 제어 흐름도이다.
도 5를 참조하면, 복호화 장치는 복수의 계층에 대한 정보를 포함하는 비디오 파라미터 세트에 대한 정보를 수신한다(S501).
그런 후, 복호화 장치는 비디오 파라미터 세트를 파싱하여 비트스트림에 포함되어 있는 계층의 정보를 파악한다(S502). 영상 정보에 대한 파싱은 엔트로피 복호화부 또는 별도의 파싱부에서 수행될 수 있다.
비디오 파라미터 세트에 포함되어 있는 복수의 계층에 대한 정보는 인코딩된 비디오 시퀀스 내에 포함되어 있는 다른 종류의 픽처에 대한 크기 정보의 최대 개수(num_frame_sizes_minus1)를 포함할 수 있다.
이 때, 다른 종류의 픽처에 적용되는 크기에 대한 정보, 즉 픽처의 가로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 폭(pic_width_in_luma_samples), 픽처의 세로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 높이(pic_height_in_luma_samples), 루마 샘플에 대한 비트 뎁스(bit_depth_luma_minus8), 색차 샘플에 대한 비트 뎁스(bit_depth_chroma_minus8) 및 색차 포맷(chroma format)의 세트에 대한 인덱스 정보(chroma_format_idc) 중 적어도 하나가 인코딩 될 수 있다.
또한, 복수의 계층에 대한 정보는 소정 계층에 적용되는 프레임 사이즈의 세트에 대한 인덱스 정보(frame_size_idx)를 포함할 수도 있다.
또한, 복수의 계층에 대한 정보는 소정 계층에 적용되는 비트 뎁스(bit depth)와 색차 포맷(chroma format)를 나타내는 리프리젠테이션 포맷(representation)의 세트에 대한 인덱스 정보(rep_format_idx)를 포함할 수도 있다.
이 때, 리프리젠테이션 포맷에 대한 정보는 픽처의 가로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 폭(pic_width_in_luma_samples), 픽처의 세로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 높이(pic_height_in_luma_samples), 루마 샘플에 대한 비트 뎁스(bit_depth_luma_minus8), 색차 샘플에 대한 비트 뎁스(bit_depth_chroma_minus8) 및 색차 포맷(chroma format)의 세트에 대한 인덱스 정보(chroma_format_idc) 중 적어도 하나를 포함할 수 있다.
만약, 비트스트림이 복수의 계층을 지원하는 계층 차원을 복 수개 포함한다면, 복수의 계층에 대한 정보는 모든 계층 차원의 특정 계층이 상기 특정 계층의 바로 하위의 계층을 참조하는지 여부를 지시하는 기본 참조 플래그 정보와 특정 계층이 직접적으로 참조하는 계층이 존재하는 것을 지시하는 직접 참조 플래그 정보를 포함할 수 있다.
도 6은 본 발명에 따른 계층 참조 정보를 시그널링하는 방법을 설명하기 위한 제어 흐름도이다. 이하에서는 설명의 편의상 시그널링은 영상 정보를 부호화 하여 이를 전송하고, 부호화된 영상 정보를 수신하여 복호화 하는 것을 포함하는 개념으로 기술된다.
도 6을 참조하면, 계층 참조를 시그널링 하기 위하여 우선, 모든 계층 차원의 특정 계층이 상기 특정 계층의 바로 하위의 계층을 참조하는지 여부를 지시하는 기본 참조 플래그(all_default_dependency_flag) 정보가 시그널링 될 수 있다.
기본 참조 플래그가 1이면(S601) 모든 계층 차원의 임의의 계층, 이하 특정 계층이 특정 계층의 바로 하위의 계층을 참조한다(S602). 이는 모든 계층 차원들이 기본 참조(default dependency)를 가진다는 것을 나타낸다.
예를 들면, 특정 차원 i에서 dimension_id[i] = n인 계층은 디폴트로 dimension_id[i] = n-1을 가지는 다른 계층을 직접적으로 참조한다.
기본 참조 플래그가 1이 아닌 0이면(S601), 특정 계층이 특정 계층의 바로 하위의 계층을 참조하는, 즉 기본 참조를 갖는 계층 차원에 대한 타입 정보를 시그널링한다(S603).
특정 계층이 직접적으로 참조하는 계층이 존재하는 것을 지시하는 직접 참조 플래그 정보(specific_dependency_flag[i])가 시그널링 될 수 있다.
직접 참조 플래그가 1이면(S604), 특정 계층이 직접적으로 참조하는 계층이 존재하는 것을 나타내므로, 특정 계층이 직접 참조하는 계층의 개수와 직접 참조하는 계층의 인덱스 정보를 시그널링 한다(S605).
표 20 및 표 21에 따른 신택스의 경우, 도 6에 대한 설명에서 단계 S601 및 S602 없이 계층 참조 정보를 시그널링한다.
상술한 실시예에서, 방법들은 일련의 단계 또는 블록으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
Claims (22)
- 복수의 계층을 지원하는 비트스트림의 디코딩 방법에 있어서,상기 복수의 계층에 대한 정보를 포함하는 비디오 파라미터 세트에 대한 정보를 수신하는 단계와;상기 비디오 파라미터 세트를 파싱하여 상기 비트스트림에 포함되어 있는 계층의 정보를 파악하는 단계를 포함하는 디코딩 방법.
- 제1항에 있어서,상기 복수의 계층에 대한 정보는 인코딩된 비디오 시퀀스 내에 포함되어 있는 다른 종류의 픽처에 대한 크기 정보의 최대 개수(num_frame_sizes_minus1)를 포함하는 것을 특징으로 하는 디코딩 방법.
- 제2항에 있어서,상기 다른 종류의 픽처에 적용되는 크기 정보는 픽처의 가로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 폭(pic_width_in_luma_samples), 픽처의 세로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 높이(pic_height_in_luma_samples), 루마 샘플에 대한 비트 뎁스(bit_depth_luma_minus8), 색차 샘플에 대한 비트 뎁스(bit_depth_chroma_minus8) 및 색차 포맷(chroma format)의 세트에 대한 인덱스 정보(chroma_format_idc) 중 적어도 하나를 포함하는 것을 특징으로 하는 디코딩 방법.
- 제1항에 있어서,상기 복수의 계층에 대한 정보는 소정 계층에 적용되는 프레임 사이즈의 세트에 대한 인덱스 정보(frame_size_idx)를 포함하는 것을 특징으로 하는 디코딩 방법.
- 제1항에 있어서,상기 복수의 계층에 대한 정보는 소정 계층에 적용되는 비트 뎁스(bit depth)와 색차 포맷(chroma format)를 나타내는 리프리젠테이션 포맷(representation format)의 세트에 대한 인덱스 정보(rep_formats_idx)를 포함하는 것을 특징으로 하는 디코딩 방법.
- 제1항에 있어서,상기 복수의 계층에 대한 정보는 인코딩된 비디오 시퀀스 내에 포함되어 있는 다른 리프리젠테이션 포맷(representation format)의 최대 개수(num_ rep_formats _minus1)를 포함하는 것을 특징으로 하는 디코딩 방법.
- 제6항에 있어서,상기 리프리젠테이션 포맷에 대한 정보는 픽처의 가로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 폭(pic_width_in_luma_samples), 픽처의 세로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 높이(pic_height_in_luma_samples), 루마 샘플에 대한 비트 뎁스(bit_depth_luma_minus8), 색차 샘플에 대한 비트 뎁스(bit_depth_chroma_minus8) 및 색차 포맷(chroma format)의 세트에 대한 인덱스 정보(chroma_format_idc) 중 적어도 하나를 포함하는 것을 특징으로 하는 디코딩 방법.
- 제1항에 있어서,상기 비트스트림은 복수의 계층을 지원하는 계층 차원을 복 수개 포함할 수 있고,상기 복수의 계층에 대한 정보는 모든 계층 차원의 특정 계층이 상기 특정 계층의 바로 하위의 계층을 참조하는지 여부를 지시하는 기본 참조 플래그 정보를 포함하는 것을 특징으로 하는 디코딩 방법.
- 제8항에 있어서,상기 기본 참조 플래그가 0이면, 상기 특정 계층이 상기 특정 계층의 바로 하위의 계층을 참조하는 상기 계층 차원에 대한 타입 정보를 수신하는 것을 특징으로 하는 디코딩 방법.
- 제8항에 있어서,상기 복수의 계층에 대한 정보는 상기 특정 계층이 직접적으로 참조하는 계층이 존재하는 것을 지시하는 직접 참조 플래그 정보를 포함하는 것을 특징으로 하는 디코딩 방법.
- 제10항에 있어서,상기 직접 참조 플래그가 1이면, 상기 특정 계층이 직접 참조하는 계층의 개수와 직접 참조하는 계층의 인덱스 정보를 수신하는 것을 특징으로 하는 디코딩 방법.
- 복수의 계층을 지원하는 비트스트림의 디코딩 장치에 있어서,상기 복수의 계층에 대한 정보를 포함하는 비디오 파라미터 세트에 대한 정보를 수신하고, 상기 비디오 파라미터 세트를 파싱하여 상기 비트스트림에 포함되어 있는 계층의 정보를 파악하는 파싱부를 포함하는 디코딩 장치.
- 제12항에 있어서,상기 복수의 계층에 대한 정보는 인코딩된 비디오 시퀀스 내에 포함되어 있는 다른 종류의 픽처에 대한 크기 정보의 최대 개수(num_frame_sizes_minus1)를 포함하는 것을 특징으로 하는 디코딩 장치.
- 제13항에 있어서,상기 다른 종류의 픽처에 적용되는 크기 정보는 픽처의 가로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 폭(pic_width_in_luma_samples), 픽처의 세로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 높이(pic_height_in_luma_samples), 루마 샘플에 대한 비트 뎁스(bit_depth_luma_minus8), 색차 샘플에 대한 비트 뎁스(bit_depth_chroma_minus8) 및 색차 포맷(chroma format)의 세트에 대한 인덱스 정보(chroma_format_idc) 중 적어도 하나를 포함하는 것을 특징으로 하는 디코딩 장치.
- 제12항에 있어서,상기 복수의 계층에 대한 정보는 소정 계층에 적용되는 프레임 사이즈의 세트에 대한 인덱스 정보(frame_size_idx)를 포함하는 것을 특징으로 하는 디코딩 장치.
- 제12항에 있어서,상기 복수의 계층에 대한 정보는 소정 계층에 적용되는 비트 뎁스(bit depth)와 색차 포맷(chroma format)를 나타내는 리프리젠테이션 포맷(representation format)의 세트에 대한 인덱스 정보(rep_format_idx)를 포함하는 것을 특징으로 하는 디코딩 장치.
- 제12항에 있어서,상기 복수의 계층에 대한 정보는 인코딩된 비디오 시퀀스 내에 포함되어 있는 다른 리프리젠테이션 포맷(representation format)의 최대 개수(num_rep_ formats _minus1)를 포함하는 것을 특징으로 하는 디코딩 장치.
- 제17항에 있어서,상기 리프리젠테이션 포맷에 대한 정보는 픽처의 가로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 폭(pic_width_in_luma_samples), 픽처의 세로 길이에 포함되는 루마 샘플의 수를 나타내는 루마 샘플의 높이(pic_height_in_luma_samples), 루마 샘플에 대한 비트 뎁스(bit_depth_luma_minus8), 색차 샘플에 대한 비트 뎁스(bit_depth_chroma_minus8) 및 색차 포맷(chroma format)의 세트에 대한 인덱스 정보(chroma_format_idc) 중 적어도 하나를 포함하는 것을 특징으로 하는 디코딩 장치.
- 제12항에 있어서,상기 비트스트림은 복수의 계층을 지원하는 계층 차원을 복 수개 포함할 수 있고,상기 복수의 계층에 대한 정보는 모든 계층 차원의 특정 계층이 상기 특정 계층의 바로 하위의 계층을 참조하는지 여부를 지시하는 기본 참조 플래그 정보를 포함하는 것을 특징으로 하는 디코딩 장치.
- 제19항에 있어서,상기 기본 참조 플래그가 0이면, 상기 특정 계층이 상기 특정 계층의 바로 하위의 계층을 참조하는 상기 계층 차원에 대한 타입 정보를 수신하는 것을 특징으 하는 디코딩 장치.
- 제19항에 있어서,상기 복수의 계층에 대한 정보는 상기 특정 계층이 직접적으로 참조하는 계층이 존재하는 것을 지시하는 직접 참조 플래그 정보를 포함하는 것을 특징으로 하는 디코딩 장치.
- 제21항에 있어서,상기 직접 참조 플래그가 1이면, 상기 특정 계층이 직접 참조하는 계층의 개수와 직접 참조하는 계층의 인덱스 정보를 수신하는 것을 특징으로 하는 디코딩 장치.
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21177418.7A EP3893511A1 (en) | 2012-04-16 | 2013-04-16 | Decoding method and encoding method for bit stream supporting plurality of layers |
EP13777635.7A EP2840787A4 (en) | 2012-04-16 | 2013-04-16 | METHOD AND DEVICE FOR DECODING FOR A BIT TRAIN HAVING A PLURALITY OF LAYERS |
EP18150626.2A EP3340630B1 (en) | 2012-04-16 | 2013-04-16 | Decoding method and device for bit stream supporting plurality of layers |
PL18150626T PL3340630T3 (pl) | 2012-04-16 | 2013-04-16 | Sposób i urządzenie do dekodowania strumienia bitowego obsługujące liczne warstwy |
US14/391,151 US10595026B2 (en) | 2012-04-16 | 2013-04-16 | Decoding method and device for bit stream supporting plurality of layers |
US16/778,313 US10958918B2 (en) | 2012-04-16 | 2020-01-31 | Decoding method and device for bit stream supporting plurality of layers |
US17/174,843 US11490100B2 (en) | 2012-04-16 | 2021-02-12 | Decoding method and device for bit stream supporting plurality of layers |
US17/951,797 US11949890B2 (en) | 2012-04-16 | 2022-09-23 | Decoding method and device for bit stream supporting plurality of layers |
US18/588,746 US20240205428A1 (en) | 2012-04-16 | 2024-02-27 | Decoding method and device for bit stream supporting plurality of layers |
Applications Claiming Priority (16)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2012-0038870 | 2012-04-16 | ||
KR20120038870 | 2012-04-16 | ||
KR10-2012-0066606 | 2012-06-21 | ||
KR20120066606 | 2012-06-21 | ||
KR10-2012-0067925 | 2012-06-25 | ||
KR20120067925 | 2012-06-25 | ||
KR20120071933 | 2012-07-02 | ||
KR10-2012-0071933 | 2012-07-02 | ||
KR20120077012 | 2012-07-16 | ||
KR10-2012-0077012 | 2012-07-16 | ||
KR10-2012-0108925 | 2012-09-28 | ||
KR1020120108925A KR20130116782A (ko) | 2012-04-16 | 2012-09-28 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
KR1020120112598A KR20130116783A (ko) | 2012-04-16 | 2012-10-10 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
KR10-2012-0112598 | 2012-10-10 | ||
KR1020130041863A KR101953703B1 (ko) | 2012-04-16 | 2013-04-16 | 복수의 계층을 지원하는 비트스트림의 디코딩 방법 및 이를 이용하는 장치 |
KR10-2013-0041863 | 2013-04-16 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US14/391,151 A-371-Of-International US10595026B2 (en) | 2012-04-16 | 2013-04-16 | Decoding method and device for bit stream supporting plurality of layers |
US16/778,313 Continuation US10958918B2 (en) | 2012-04-16 | 2020-01-31 | Decoding method and device for bit stream supporting plurality of layers |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013157828A1 true WO2013157828A1 (ko) | 2013-10-24 |
Family
ID=49635785
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2013/003204 WO2013157826A1 (ko) | 2012-04-16 | 2013-04-16 | 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치 |
PCT/KR2013/003206 WO2013157828A1 (ko) | 2012-04-16 | 2013-04-16 | 복수의 계층을 지원하는 비트스트림의 디코딩 방법 및 이를 이용하는 장치 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2013/003204 WO2013157826A1 (ko) | 2012-04-16 | 2013-04-16 | 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치 |
Country Status (16)
Country | Link |
---|---|
US (10) | US10595026B2 (ko) |
EP (7) | EP2840788B1 (ko) |
JP (29) | JP5933815B2 (ko) |
KR (24) | KR20130116782A (ko) |
CN (12) | CN108769712B (ko) |
CY (1) | CY1122257T1 (ko) |
DK (1) | DK2840788T3 (ko) |
ES (1) | ES2748463T3 (ko) |
HR (1) | HRP20191726T1 (ko) |
HU (1) | HUE045980T2 (ko) |
LT (1) | LT2840788T (ko) |
PL (2) | PL2840788T3 (ko) |
PT (1) | PT2840788T (ko) |
RS (1) | RS59596B1 (ko) |
SI (1) | SI2840788T1 (ko) |
WO (2) | WO2013157826A1 (ko) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015060699A1 (ko) * | 2013-10-26 | 2015-04-30 | 삼성전자 주식회사 | 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치 |
WO2015083987A1 (ko) * | 2013-12-03 | 2015-06-11 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015083985A1 (ko) * | 2013-12-03 | 2015-06-11 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
CN114073073A (zh) * | 2019-07-08 | 2022-02-18 | 华为技术有限公司 | 视频译码中的混合nal单元图像约束 |
CN114503587A (zh) * | 2019-10-07 | 2022-05-13 | Lg电子株式会社 | 点云数据发送装置、点云数据发送方法、点云数据接收装置和点云数据接收方法 |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130116782A (ko) * | 2012-04-16 | 2013-10-24 | 한국전자통신연구원 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
US20150288976A1 (en) * | 2012-09-09 | 2015-10-08 | Lg Electronics Inc. | Image decoding method and apparatus using same |
US10805605B2 (en) * | 2012-12-21 | 2020-10-13 | Telefonaktiebolaget Lm Ericsson (Publ) | Multi-layer video stream encoding and decoding |
US10129550B2 (en) * | 2013-02-01 | 2018-11-13 | Qualcomm Incorporated | Inter-layer syntax prediction control |
WO2014196198A1 (ja) * | 2013-06-05 | 2014-12-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置 |
JP6212212B2 (ja) * | 2013-10-11 | 2017-10-11 | ヴィド スケール インコーポレイテッド | Hevc拡張のための高レベル構文 |
WO2015093811A1 (ko) * | 2013-12-16 | 2015-06-25 | 엘지전자 주식회사 | 트릭 플레이 서비스 제공을 위한 신호 송수신 장치 및 신호 송수신 방법 |
WO2015105399A1 (ko) * | 2014-01-13 | 2015-07-16 | 삼성전자 주식회사 | 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치. |
JP5886341B2 (ja) | 2014-03-07 | 2016-03-16 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
JP6150134B2 (ja) * | 2014-03-24 | 2017-06-21 | ソニー株式会社 | 画像符号化装置および方法、画像復号装置および方法、プログラム、並びに記録媒体 |
WO2016098056A1 (en) * | 2014-12-18 | 2016-06-23 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
EP3313079B1 (en) * | 2015-06-18 | 2021-09-01 | LG Electronics Inc. | Image filtering method in image coding system |
KR102602690B1 (ko) * | 2015-10-08 | 2023-11-16 | 한국전자통신연구원 | 화질에 기반한 적응적 부호화 및 복호화를 위한 방법 및 장치 |
CN109565612B (zh) * | 2016-08-22 | 2021-09-03 | 索尼公司 | 发送装置、发送方法、接收装置和接收方法 |
JP6350638B2 (ja) * | 2016-11-16 | 2018-07-04 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
US10692262B2 (en) | 2017-01-12 | 2020-06-23 | Electronics And Telecommunications Research Institute | Apparatus and method for processing information of multiple cameras |
WO2020004420A1 (en) * | 2018-06-30 | 2020-01-02 | Sharp Kabushiki Kaisha | Systems and methods for signaling picture types of pictures included in coded video |
US10904545B2 (en) * | 2018-12-26 | 2021-01-26 | Tencent America LLC | Method for syntax controlled decoded picture buffer management |
MX2021010711A (es) * | 2019-03-11 | 2021-12-10 | Vid Scale Inc | Extracción y reposicionamiento de secuencia de bits de subimágenes. |
WO2020184673A1 (ja) * | 2019-03-12 | 2020-09-17 | ソニー株式会社 | 画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法 |
US11310560B2 (en) * | 2019-05-17 | 2022-04-19 | Samsung Electronics Co., Ltd. | Bitstream merger and extractor |
WO2020235552A1 (en) * | 2019-05-19 | 2020-11-26 | Sharp Kabushiki Kaisha | Systems and methods for signaling picture property information in video coding |
BR112021021628A2 (pt) * | 2019-05-28 | 2021-12-21 | Samsung Electronics Co Ltd | Método de decodificação de vídeo, aparelho de decodificação de vídeo, e método de codificação de vídeo um |
JP7532362B2 (ja) * | 2019-06-20 | 2024-08-13 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置および方法 |
US11032548B2 (en) * | 2019-06-24 | 2021-06-08 | Tencent America LLC | Signaling for reference picture resampling |
US11457242B2 (en) * | 2019-06-24 | 2022-09-27 | Qualcomm Incorporated | Gradual random access (GRA) signalling in video coding |
CN110446047A (zh) * | 2019-08-16 | 2019-11-12 | 苏州浪潮智能科技有限公司 | 视频码流的解码方法及装置 |
CN118138783A (zh) * | 2019-10-07 | 2024-06-04 | 华为技术有限公司 | 编码器、解码器及对应方法 |
BR112022012507A2 (pt) * | 2019-12-23 | 2022-09-06 | Lg Electronics Inc | Codificação de imagem ou vídeo com base em informações associadas à unidade de nal |
KR20220101712A (ko) * | 2019-12-23 | 2022-07-19 | 엘지전자 주식회사 | 슬라이스 또는 픽처에 대한 nal 유닛 타입 기반 영상 또는 비디오 코딩 |
KR20220100710A (ko) | 2019-12-23 | 2022-07-15 | 엘지전자 주식회사 | Nal 유닛 타입 기반 영상 또는 비디오 코딩 |
EP4082198A4 (en) | 2019-12-27 | 2023-08-16 | Alibaba Group Holding Limited | METHOD AND DEVICE FOR SIGNALING SUBPICTURE PARTITIONING INFORMATION |
WO2021137590A1 (ko) | 2020-01-02 | 2021-07-08 | 엘지전자 주식회사 | Ph nal 유닛 코딩 관련 영상 디코딩 방법 및 그 장치 |
WO2021137592A1 (ko) | 2020-01-02 | 2021-07-08 | 엘지전자 주식회사 | 영상 디코딩 방법 및 그 장치 |
JP7536876B2 (ja) * | 2020-01-02 | 2024-08-20 | エルジー エレクトロニクス インコーポレイティド | ピクチャヘッダを含む映像情報をコーディングする映像デコーディング方法及びその装置 |
KR20220112289A (ko) * | 2020-01-14 | 2022-08-10 | 엘지전자 주식회사 | 서브 픽처 및 픽처 헤더에 관한 정보를 시그널링하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 |
CN115299053A (zh) * | 2020-03-16 | 2022-11-04 | 字节跳动有限公司 | 可缩放视频编解码中的随机访问点访问单元 |
EP4111701A4 (en) * | 2020-03-17 | 2023-06-28 | Huawei Technologies Co., Ltd. | An encoder, a decoder and corresponding methods |
CN113453006B (zh) * | 2020-03-25 | 2024-04-16 | 腾讯美国有限责任公司 | 一种图片封装方法、设备以及存储介质 |
US11418564B2 (en) * | 2020-04-12 | 2022-08-16 | Lg Electronics Inc. | Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method |
WO2021230629A1 (ko) * | 2020-05-12 | 2021-11-18 | 엘지전자 주식회사 | 영상/비디오 코딩 시스템에서 단일 레이어 비트스트림 내 파라미터 세트의 참조를 처리하는 방법 및 장치 |
US11223841B2 (en) | 2020-05-29 | 2022-01-11 | Samsung Electronics Co., Ltd. | Apparatus and method for performing artificial intelligence encoding and artificial intelligence decoding on image |
KR102421720B1 (ko) * | 2020-05-29 | 2022-07-18 | 삼성전자주식회사 | 영상의 ai 부호화 및 ai 복호화를 위한 장치, 및 방법 |
WO2021251611A1 (en) * | 2020-06-11 | 2021-12-16 | Samsung Electronics Co., Ltd. | Apparatus and method for performing artificial intelligence encoding and decoding on image by using low-complexity neural network |
US11895336B2 (en) | 2021-04-02 | 2024-02-06 | Qualcomm Incorporated | Picture orientation and quality metrics supplemental enhancement information message for video coding |
EP4315865A1 (en) * | 2021-04-02 | 2024-02-07 | QUALCOMM Incorporated | Picture orientation and quality metrics supplemental enhancement information message for video coding |
WO2024167266A1 (ko) * | 2023-02-09 | 2024-08-15 | 삼성전자 주식회사 | 전자 장치 및 전자 장치에서 스케일러블 코덱을 처리하는 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100596706B1 (ko) * | 2003-12-01 | 2006-07-04 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
KR20090021136A (ko) * | 2007-08-24 | 2009-02-27 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
KR20090037689A (ko) * | 2007-10-12 | 2009-04-16 | 삼성전자주식회사 | 스케일러블 영상 부호화 방법 및 장치와 그 영상 복호화방법 및 장치 |
KR20110019955A (ko) * | 2009-08-21 | 2011-03-02 | 에스케이 텔레콤주식회사 | 해상도 시그널링을 이용한 스케일러블 비디오 재생 시스템 및 방법 |
KR20110033240A (ko) * | 2008-07-22 | 2011-03-30 | 톰슨 라이센싱 | 스케일러블 비디오 코딩(svc)디코딩에서 향상 계층의 패킷 분실에 기인한 오류 은폐를 위한 방법 |
Family Cites Families (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1578136A3 (en) * | 1998-01-27 | 2005-10-19 | AT&T Corp. | Method and apparatus for encoding video shape and texture information |
US6895048B2 (en) * | 1998-03-20 | 2005-05-17 | International Business Machines Corporation | Adaptive encoding of a sequence of still frames or partially still frames within motion video |
JP2006505024A (ja) * | 2002-04-29 | 2006-02-09 | ソニー エレクトロニクス インク | データ処理方法及び装置 |
US8752197B2 (en) * | 2002-06-18 | 2014-06-10 | International Business Machines Corporation | Application independent system, method, and architecture for privacy protection, enhancement, control, and accountability in imaging service systems |
CN100423581C (zh) * | 2002-12-30 | 2008-10-01 | Nxp股份有限公司 | 动态图形的编码/解码方法及其设备 |
JP4479160B2 (ja) * | 2003-03-11 | 2010-06-09 | チッソ株式会社 | シルセスキオキサン誘導体を用いて得られる重合体 |
AU2004310917B2 (en) | 2003-12-01 | 2009-10-01 | Samsung Electronics Co., Ltd. | Method and apparatus for scalable video encoding and decoding |
US7415069B2 (en) * | 2003-12-09 | 2008-08-19 | Lsi Corporation | Method for activation and deactivation of infrequently changing sequence and picture parameter sets |
US7586924B2 (en) * | 2004-02-27 | 2009-09-08 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for coding an information signal into a data stream, converting the data stream and decoding the data stream |
ES2495391T3 (es) * | 2004-06-02 | 2014-09-17 | Panasonic Corporation | Aparato de codificación de imágenes y aparato de decodificación de imágenes |
JP4575129B2 (ja) * | 2004-12-02 | 2010-11-04 | ソニー株式会社 | データ処理装置およびデータ処理方法、並びにプログラムおよびプログラム記録媒体 |
KR20060068254A (ko) * | 2004-12-16 | 2006-06-21 | 엘지전자 주식회사 | 비디오 부호화 방법, 복호화 방법 그리고, 복호화 장치 |
JP2006203661A (ja) * | 2005-01-21 | 2006-08-03 | Toshiba Corp | 動画像符号化装置、動画像復号装置及び符号化ストリーム生成方法 |
JP2006211274A (ja) * | 2005-01-27 | 2006-08-10 | Toshiba Corp | 記録媒体、この記録媒体を再生する方法並びにその再生装置及び記録媒体に映像データを記録する記録装置並びにその記録方法 |
KR20080006609A (ko) | 2005-04-13 | 2008-01-16 | 노키아 코포레이션 | 스케일링가능성 정보의 코딩, 저장, 및 시그널링 |
EP1869888B1 (en) * | 2005-04-13 | 2016-07-06 | Nokia Technologies Oy | Method, device and system for effectively coding and decoding of video data |
EP1897377A4 (en) | 2005-05-26 | 2010-12-22 | Lg Electronics Inc | METHOD FOR PROVIDING AND USING INTERLOCK PREDICTION INFORMATION FOR VIDEO SIGNAL |
KR100878811B1 (ko) | 2005-05-26 | 2009-01-14 | 엘지전자 주식회사 | 비디오 신호의 디코딩 방법 및 이의 장치 |
EP1773063A1 (en) * | 2005-06-14 | 2007-04-11 | Thomson Licensing | Method and apparatus for encoding video data, and method and apparatus for decoding video data |
FR2888424A1 (fr) * | 2005-07-07 | 2007-01-12 | Thomson Licensing Sas | Dispositif et procede de codage et de decodage de donnees video et train de donnees |
EP1949701A1 (en) * | 2005-10-11 | 2008-07-30 | Nokia Corporation | Efficient decoded picture buffer management for scalable video coding |
WO2007046957A1 (en) * | 2005-10-12 | 2007-04-26 | Thomson Licensing | Method and apparatus for using high-level syntax in scalable video encoding and decoding |
WO2007047736A2 (en) * | 2005-10-19 | 2007-04-26 | Thomson Licensing | Multi-view video coding using scalable video coding |
KR100763196B1 (ko) | 2005-10-19 | 2007-10-04 | 삼성전자주식회사 | 어떤 계층의 플래그를 계층간의 연관성을 이용하여부호화하는 방법, 상기 부호화된 플래그를 복호화하는방법, 및 장치 |
KR100889745B1 (ko) | 2006-01-09 | 2009-03-24 | 한국전자통신연구원 | 날 유닛 타입 표시방법 및 그에 따른 비트스트림 전달장치및 리던던트 슬라이스 부호화 장치 |
JP4731343B2 (ja) * | 2006-02-06 | 2011-07-20 | 富士通東芝モバイルコミュニケーションズ株式会社 | 復号装置 |
EP1827023A1 (en) * | 2006-02-27 | 2007-08-29 | THOMSON Licensing | Method and apparatus for packet loss detection and virtual packet generation at SVC decoders |
US8767836B2 (en) * | 2006-03-27 | 2014-07-01 | Nokia Corporation | Picture delimiter in scalable video coding |
WO2007126511A2 (en) * | 2006-03-29 | 2007-11-08 | Thomson Licensing | Multi view video coding method and device |
CN101455082B (zh) * | 2006-03-30 | 2013-02-13 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
KR101450921B1 (ko) * | 2006-07-05 | 2014-10-15 | 톰슨 라이센싱 | 멀티뷰 비디오 엔코딩 및 디코딩을 위한 방법 및 장치 |
KR20080007086A (ko) | 2006-07-14 | 2008-01-17 | 엘지전자 주식회사 | 비디오 신호의 디코딩/인코딩 방법 및 장치 |
TWI375469B (en) | 2006-08-25 | 2012-10-21 | Lg Electronics Inc | A method and apparatus for decoding/encoding a video signal |
CN101401433A (zh) * | 2006-09-07 | 2009-04-01 | Lg电子株式会社 | 用于解码/编码视频信号的方法及装置 |
CN102158697B (zh) | 2006-09-07 | 2013-10-09 | Lg电子株式会社 | 用于解码/编码视频信号的方法及装置 |
US20100111163A1 (en) * | 2006-09-28 | 2010-05-06 | Hua Yang | Method for p-domain frame level bit allocation for effective rate control and enhanced video encoding quality |
WO2008048605A2 (en) * | 2006-10-16 | 2008-04-24 | Thomson Licensing | Method for using a network abstract layer unit to signal an instantaneous decoding refresh during a video operation |
KR20110123291A (ko) | 2006-10-16 | 2011-11-14 | 노키아 코포레이션 | 멀티뷰 비디오 코딩에서 효율적인 디코딩된 버퍼 관리를 구현하기 위한 시스템 및 방법 |
RU2009119523A (ru) * | 2006-10-24 | 2010-11-27 | Томсон Лайсенсинг (Fr) | Управление изображениями для кодирования видео с множеством видов |
WO2008060125A1 (en) * | 2006-11-17 | 2008-05-22 | Lg Electronics Inc. | Method and apparatus for decoding/encoding a video signal |
JP5157140B2 (ja) * | 2006-11-29 | 2013-03-06 | ソニー株式会社 | 記録装置、記録方法、情報処理装置、情報処理方法、撮像装置およびビデオシステム |
PT2103136T (pt) * | 2006-12-21 | 2017-12-12 | Thomson Licensing | Métodos e aparelhos para sinalização melhorada utilizando sintaxe de nível elevado para a códificação e descodificação de vídeo de visualização múltipla |
ZA200904019B (en) | 2007-01-05 | 2010-08-25 | Thomson Licensing | Hypothetical reference decoder for scalable video coding |
EP3041195A1 (en) | 2007-01-12 | 2016-07-06 | University-Industry Cooperation Group Of Kyung Hee University | Packet format of network abstraction layer unit, and algorithm and apparatus for video encoding and decoding using the format |
JP5023739B2 (ja) | 2007-02-28 | 2012-09-12 | ソニー株式会社 | 画像情報符号化装置及び符号化方法 |
EP2130374A4 (en) * | 2007-03-23 | 2011-03-02 | Lg Electronics Inc | METHOD AND ARRANGEMENT FOR DECODING / CODING A VIDEO SIGNAL |
EP2137973B1 (en) * | 2007-04-12 | 2019-05-01 | InterDigital VC Holdings, Inc. | Methods and apparatus for video usability information (vui) for scalable video coding (svc) |
US20100142613A1 (en) | 2007-04-18 | 2010-06-10 | Lihua Zhu | Method for encoding video data in a scalable manner |
EP2198620A2 (en) * | 2007-10-05 | 2010-06-23 | Thomson Licensing | Methods and apparatus for incorporating video usability information (vui) within a multi-view video (mvc) coding system |
WO2010041856A2 (en) * | 2008-10-06 | 2010-04-15 | Lg Electronics Inc. | A method and an apparatus for processing a video signal |
US20100226227A1 (en) * | 2009-03-09 | 2010-09-09 | Chih-Ching Yu | Methods and apparatuses of processing readback signal generated from reading optical storage medium |
JP5332773B2 (ja) * | 2009-03-18 | 2013-11-06 | ソニー株式会社 | 画像処理装置および方法 |
CA2711311C (en) | 2009-08-10 | 2016-08-23 | Seawell Networks Inc. | Methods and systems for scalable video chunking |
US8976871B2 (en) * | 2009-09-16 | 2015-03-10 | Qualcomm Incorporated | Media extractor tracks for file format track selection |
EP2495973B1 (en) | 2009-10-30 | 2019-02-27 | Sun Patent Trust | Decoding method, decoder apparatus, encoding method, and encoder apparatus |
EP2346261A1 (en) * | 2009-11-18 | 2011-07-20 | Tektronix International Sales GmbH | Method and apparatus for multiplexing H.264 elementary streams without timing information coded |
CN102103651B (zh) | 2009-12-21 | 2012-11-14 | 中国移动通信集团公司 | 一种一卡通系统的实现方法和系统以及一种智能卡 |
US9185439B2 (en) * | 2010-07-15 | 2015-11-10 | Qualcomm Incorporated | Signaling data for multiplexing video components |
KR20120015260A (ko) | 2010-07-20 | 2012-02-21 | 한국전자통신연구원 | 스케일러빌리티 및 뷰 정보를 제공하는 스트리밍 서비스를 위한 방법 및 장치 |
KR20120038870A (ko) | 2010-10-14 | 2012-04-24 | 정태길 | 클라우드 컴퓨팅 기반의 모바일 오피스 프린팅 부가 서비스 방법 |
KR101158244B1 (ko) | 2010-12-14 | 2012-07-20 | 주식회사 동호 | 하천 친환경 생태 조성 구조체 및 시스템 |
JP2012142551A (ja) | 2010-12-16 | 2012-07-26 | Nisshin:Kk | 加熱処理方法およびその装置 |
KR101740425B1 (ko) | 2010-12-23 | 2017-05-26 | 에스케이텔레콤 주식회사 | 중계기 및 상기 중계기의 신호 중계 방법 |
KR101214465B1 (ko) | 2010-12-30 | 2012-12-21 | 주식회사 신한엘리베이타 | 가볍고 방수성이 우수한 방수발판부재가 구비된 에스컬레이터 장치 |
WO2012096981A1 (en) | 2011-01-14 | 2012-07-19 | Vidyo, Inc. | Improved nal unit header |
US20120230409A1 (en) | 2011-03-07 | 2012-09-13 | Qualcomm Incorporated | Decoded picture buffer management |
US20120230431A1 (en) | 2011-03-10 | 2012-09-13 | Jill Boyce | Dependency parameter set for scalable video coding |
JP5708124B2 (ja) | 2011-03-25 | 2015-04-30 | 三菱電機株式会社 | 半導体装置 |
RU2710903C2 (ru) * | 2011-06-30 | 2020-01-14 | Телефонактиеболагет Л М Эрикссон (Пабл) | Сигнализация опорных изображений |
WO2013009237A1 (en) | 2011-07-13 | 2013-01-17 | Telefonaktiebolaget L M Ericsson (Publ) | Encoder, decoder and methods thereof for reference picture management |
US10034018B2 (en) * | 2011-09-23 | 2018-07-24 | Velos Media, Llc | Decoded picture buffer management |
US10154276B2 (en) | 2011-11-30 | 2018-12-11 | Qualcomm Incorporated | Nested SEI messages for multiview video coding (MVC) compatible three-dimensional video coding (3DVC) |
US9451252B2 (en) * | 2012-01-14 | 2016-09-20 | Qualcomm Incorporated | Coding parameter sets and NAL unit headers for video coding |
CN115442611A (zh) | 2012-04-13 | 2022-12-06 | Ge视频压缩有限责任公司 | 用于处理数据流的网络实体 |
KR20130116782A (ko) * | 2012-04-16 | 2013-10-24 | 한국전자통신연구원 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
US9554146B2 (en) | 2012-09-21 | 2017-01-24 | Qualcomm Incorporated | Indication and activation of parameter sets for video coding |
CN105009578B (zh) | 2012-12-21 | 2018-04-13 | 瑞典爱立信有限公司 | 多层视频流编解码方法和设备 |
CN105122816A (zh) | 2013-04-05 | 2015-12-02 | 夏普株式会社 | 层间参考图像集的解码和参考图像列表构建 |
US20140307803A1 (en) * | 2013-04-08 | 2014-10-16 | Qualcomm Incorporated | Non-entropy encoded layer dependency information |
-
2012
- 2012-09-28 KR KR1020120108925A patent/KR20130116782A/ko unknown
- 2012-10-10 KR KR1020120112598A patent/KR20130116783A/ko unknown
-
2013
- 2013-04-16 EP EP13777676.1A patent/EP2840788B1/en active Active
- 2013-04-16 CN CN201810384265.4A patent/CN108769712B/zh active Active
- 2013-04-16 WO PCT/KR2013/003204 patent/WO2013157826A1/ko active Application Filing
- 2013-04-16 CN CN201810384705.6A patent/CN108769687B/zh active Active
- 2013-04-16 ES ES13777676T patent/ES2748463T3/es active Active
- 2013-04-16 CN CN201810384114.9A patent/CN108769708B/zh active Active
- 2013-04-16 DK DK13777676.1T patent/DK2840788T3/da active
- 2013-04-16 CN CN201810384113.4A patent/CN108769707B/zh active Active
- 2013-04-16 CN CN201810384124.2A patent/CN108769710B/zh active Active
- 2013-04-16 CN CN201810384111.5A patent/CN108769705B/zh active Active
- 2013-04-16 CN CN201380025824.8A patent/CN104303503B/zh active Active
- 2013-04-16 EP EP19183291.4A patent/EP3570546A1/en active Pending
- 2013-04-16 HU HUE13777676A patent/HUE045980T2/hu unknown
- 2013-04-16 EP EP21167414.8A patent/EP3866472A1/en active Pending
- 2013-04-16 EP EP21177418.7A patent/EP3893511A1/en active Pending
- 2013-04-16 WO PCT/KR2013/003206 patent/WO2013157828A1/ko active Application Filing
- 2013-04-16 PL PL13777676T patent/PL2840788T3/pl unknown
- 2013-04-16 PL PL18150626T patent/PL3340630T3/pl unknown
- 2013-04-16 PT PT137776761T patent/PT2840788T/pt unknown
- 2013-04-16 CN CN201810384264.XA patent/CN108769711B/zh active Active
- 2013-04-16 CN CN201810384148.8A patent/CN108769686B/zh active Active
- 2013-04-16 CN CN201810384281.3A patent/CN108769713B/zh active Active
- 2013-04-16 LT LT13777676T patent/LT2840788T/lt unknown
- 2013-04-16 US US14/391,151 patent/US10595026B2/en active Active
- 2013-04-16 CN CN201810384112.XA patent/CN108769706B/zh active Active
- 2013-04-16 JP JP2015506892A patent/JP5933815B2/ja active Active
- 2013-04-16 EP EP13777635.7A patent/EP2840787A4/en not_active Ceased
- 2013-04-16 SI SI201331581T patent/SI2840788T1/sl unknown
- 2013-04-16 EP EP16163783.0A patent/EP3086556A1/en not_active Ceased
- 2013-04-16 KR KR1020130041863A patent/KR101953703B1/ko active IP Right Grant
- 2013-04-16 RS RS20191215A patent/RS59596B1/sr unknown
- 2013-04-16 US US14/391,061 patent/US10602160B2/en active Active
- 2013-04-16 EP EP18150626.2A patent/EP3340630B1/en not_active Revoked
- 2013-04-16 KR KR1020130041862A patent/KR101378861B1/ko active IP Right Grant
- 2013-04-16 CN CN201810384123.8A patent/CN108769709B/zh active Active
- 2013-10-22 KR KR1020130125869A patent/KR101640583B1/ko active IP Right Grant
-
2014
- 2014-05-07 KR KR20140054448A patent/KR101488493B1/ko active IP Right Grant
- 2014-05-07 KR KR1020140054449A patent/KR101673291B1/ko active IP Right Grant
- 2014-05-07 KR KR20140054445A patent/KR101488496B1/ko active IP Right Grant
- 2014-05-07 KR KR20140054447A patent/KR101488494B1/ko active IP Right Grant
- 2014-05-07 KR KR20140054446A patent/KR101488495B1/ko active IP Right Grant
-
2016
- 2016-02-22 JP JP2016031335A patent/JP6186026B2/ja active Active
- 2016-05-02 JP JP2016092749A patent/JP6163230B2/ja active Active
- 2016-05-02 JP JP2016092752A patent/JP6224163B2/ja active Active
- 2016-05-02 JP JP2016092743A patent/JP6224162B2/ja active Active
- 2016-05-02 JP JP2016092745A patent/JP6163229B2/ja active Active
- 2016-07-12 KR KR1020160088204A patent/KR101719345B1/ko active IP Right Grant
- 2016-07-12 KR KR1020160088203A patent/KR101719344B1/ko active IP Right Grant
- 2016-07-12 KR KR1020160088205A patent/KR101739748B1/ko active IP Right Grant
-
2017
- 2017-02-02 KR KR1020170015044A patent/KR101843566B1/ko active IP Right Grant
- 2017-07-28 JP JP2017146933A patent/JP6549189B2/ja active Active
- 2017-09-28 KR KR1020170126210A patent/KR101843565B1/ko active IP Right Grant
-
2018
- 2018-03-23 KR KR1020180034057A patent/KR101904255B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034120A patent/KR101904247B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034089A patent/KR101904242B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034040A patent/KR101904258B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034107A patent/KR101904234B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034128A patent/KR101904264B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034131A patent/KR101931719B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034113A patent/KR101904237B1/ko active IP Right Grant
- 2018-04-26 JP JP2018085634A patent/JP6556907B2/ja active Active
- 2018-04-26 JP JP2018085624A patent/JP6556906B2/ja active Active
- 2018-04-26 JP JP2018085588A patent/JP6556904B2/ja active Active
- 2018-04-26 JP JP2018085564A patent/JP6556903B2/ja active Active
- 2018-04-26 JP JP2018085608A patent/JP6556905B2/ja active Active
- 2018-04-27 JP JP2018087426A patent/JP6549283B2/ja active Active
- 2018-04-27 JP JP2018087408A patent/JP6553246B2/ja active Active
- 2018-04-27 JP JP2018087395A patent/JP6553245B2/ja active Active
- 2018-04-27 JP JP2018087416A patent/JP6549282B2/ja active Active
-
2019
- 2019-02-25 KR KR1020190021762A patent/KR102062329B1/ko active IP Right Grant
- 2019-06-28 JP JP2019122072A patent/JP6841869B2/ja active Active
- 2019-06-28 JP JP2019122109A patent/JP6871312B2/ja active Active
- 2019-09-24 HR HRP20191726TT patent/HRP20191726T1/hr unknown
- 2019-09-27 CY CY20191101019T patent/CY1122257T1/el unknown
-
2020
- 2020-01-31 US US16/778,313 patent/US10958918B2/en active Active
- 2020-02-07 US US16/784,714 patent/US10958919B2/en active Active
-
2021
- 2021-01-08 US US17/144,409 patent/US11483578B2/en active Active
- 2021-02-12 US US17/174,843 patent/US11490100B2/en active Active
- 2021-02-18 JP JP2021024625A patent/JP7041294B2/ja active Active
- 2021-04-15 JP JP2021069283A patent/JP7123210B2/ja active Active
-
2022
- 2022-03-10 JP JP2022037465A patent/JP7305831B2/ja active Active
- 2022-08-09 JP JP2022127399A patent/JP7367142B2/ja active Active
- 2022-08-09 JP JP2022127407A patent/JP7367143B2/ja active Active
- 2022-08-09 JP JP2022127436A patent/JP7367145B2/ja active Active
- 2022-08-09 JP JP2022127432A patent/JP7367144B2/ja active Active
- 2022-08-09 JP JP2022127390A patent/JP7367141B2/ja active Active
- 2022-08-10 JP JP2022128498A patent/JP7432668B2/ja active Active
- 2022-08-10 JP JP2022128503A patent/JP7431290B2/ja active Active
- 2022-09-22 US US17/950,248 patent/US12028538B2/en active Active
- 2022-09-23 US US17/951,797 patent/US11949890B2/en active Active
-
2024
- 2024-01-19 US US18/417,415 patent/US20240155140A1/en active Pending
- 2024-02-02 JP JP2024015010A patent/JP2024050775A/ja active Pending
- 2024-02-27 US US18/588,746 patent/US20240205428A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100596706B1 (ko) * | 2003-12-01 | 2006-07-04 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
KR20090021136A (ko) * | 2007-08-24 | 2009-02-27 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
KR20090037689A (ko) * | 2007-10-12 | 2009-04-16 | 삼성전자주식회사 | 스케일러블 영상 부호화 방법 및 장치와 그 영상 복호화방법 및 장치 |
KR20110033240A (ko) * | 2008-07-22 | 2011-03-30 | 톰슨 라이센싱 | 스케일러블 비디오 코딩(svc)디코딩에서 향상 계층의 패킷 분실에 기인한 오류 은폐를 위한 방법 |
KR20110019955A (ko) * | 2009-08-21 | 2011-03-02 | 에스케이 텔레콤주식회사 | 해상도 시그널링을 이용한 스케일러블 비디오 재생 시스템 및 방법 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015060699A1 (ko) * | 2013-10-26 | 2015-04-30 | 삼성전자 주식회사 | 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치 |
KR20150048650A (ko) * | 2013-10-26 | 2015-05-07 | 삼성전자주식회사 | 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치 |
US10827197B2 (en) | 2013-10-26 | 2020-11-03 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding multilayer video and method and apparatus for decoding multilayer video |
KR102248848B1 (ko) * | 2013-10-26 | 2021-05-06 | 삼성전자주식회사 | 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치 |
WO2015083987A1 (ko) * | 2013-12-03 | 2015-06-11 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015083988A1 (ko) * | 2013-12-03 | 2015-06-11 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015083985A1 (ko) * | 2013-12-03 | 2015-06-11 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
CN114073073A (zh) * | 2019-07-08 | 2022-02-18 | 华为技术有限公司 | 视频译码中的混合nal单元图像约束 |
CN114073073B (zh) * | 2019-07-08 | 2023-06-06 | 华为技术有限公司 | 一种支持混合nal单元的编解码方法和编解码器 |
US12041249B2 (en) | 2019-07-08 | 2024-07-16 | Huawei Technologies Co., Ltd. | Mixed NAL unit picture constraints in video coding |
CN114503587A (zh) * | 2019-10-07 | 2022-05-13 | Lg电子株式会社 | 点云数据发送装置、点云数据发送方法、点云数据接收装置和点云数据接收方法 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013157828A1 (ko) | 복수의 계층을 지원하는 비트스트림의 디코딩 방법 및 이를 이용하는 장치 | |
WO2014092407A1 (ko) | 영상의 디코딩 방법 및 이를 이용하는 장치 | |
WO2014003379A1 (ko) | 영상 디코딩 방법 및 이를 이용하는 장치 | |
WO2014038906A1 (ko) | 영상 복호화 방법 및 이를 이용하는 장치 | |
WO2015056941A1 (ko) | 다계층 기반의 영상 부호화/복호화 방법 및 장치 | |
WO2014107069A1 (ko) | 영상 부호화/복호화 방법 및 장치 | |
WO2021177794A1 (ko) | 혼성 nal 유닛 타입에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 | |
WO2021040319A1 (ko) | 비디오/영상 코딩 시스템에서 라이스 파라미터 도출 방법 및 장치 | |
WO2021132964A1 (ko) | Nal 유닛 관련 정보 기반 영상 또는 비디오 코딩 | |
WO2021177791A1 (ko) | 혼성 nal 유닛 타입에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 | |
WO2021132963A1 (ko) | 슬라이스 또는 픽처에 대한 nal 유닛 타입 기반 영상 또는 비디오 코딩 | |
WO2021066618A1 (ko) | 변환 스킵 및 팔레트 코딩 관련 정보의 시그널링 기반 영상 또는 비디오 코딩 | |
WO2022131870A1 (ko) | Nal 유닛 어레이 정보를 포함하는 미디어 파일 생성/수신 방법, 장치 및 미디어 파일 전송 방법 | |
WO2021201513A1 (ko) | Sps 내 ptl, dpb 및 hrd 관련 정보를 시그널링하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 컴퓨터 판독 가능한 기록 매체 | |
WO2021241963A1 (ko) | 비디오 또는 영상 코딩 시스템에서의 poc 정보 및 비-참조 픽처 플래그에 기반한 영상 코딩 방법 | |
WO2021066609A1 (ko) | 변환 스킵 및 팔레트 코딩 관련 고급 문법 요소 기반 영상 또는 비디오 코딩 | |
WO2021125701A1 (ko) | 인터 예측 기반 영상/비디오 코딩 방법 및 장치 | |
WO2020185036A1 (ko) | 비디오 신호를 처리하기 위한 방법 및 장치 | |
WO2021251718A1 (ko) | 서브레이어 레벨 정보에 기반한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체 | |
WO2024049269A1 (ko) | Hrd 파라미터를 시그널링하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 컴퓨터 판독 가능한 기록 매체 | |
WO2021194208A1 (ko) | 혼성 nal 유닛 타입에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체 | |
WO2022071754A1 (ko) | 출력 계층 세트 정보를 포함하는 미디어 파일 생성/수신 방법, 장치 및 미디어 파일 전송 방법 | |
WO2021251752A1 (ko) | 최대 시간 식별자에 기반하여 서브 비트스트림 추출과정을 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 컴퓨터 판독가능한 기록매체 | |
WO2021235802A1 (ko) | 픽처 출력 관련 정보 기반 영상 또는 비디오 코딩 | |
WO2022131845A1 (ko) | Nal 유닛 정보를 포함하는 미디어 파일 생성/수신 방법, 장치 및 미디어 파일 전송 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13777635 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14391151 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2013777635 Country of ref document: EP |