CN101669367A - 用于解码/编码视频信号的方法及设备 - Google Patents
用于解码/编码视频信号的方法及设备 Download PDFInfo
- Publication number
- CN101669367A CN101669367A CN200880013796.7A CN200880013796A CN101669367A CN 101669367 A CN101669367 A CN 101669367A CN 200880013796 A CN200880013796 A CN 200880013796A CN 101669367 A CN101669367 A CN 101669367A
- Authority
- CN
- China
- Prior art keywords
- viewpoint
- information
- picture
- decoding
- pictures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
公开了一种解码视频信号的方法。本发明包括获得指示在视点间图片组中是否包括当前NAL单元的编码图片的识别信息,根据该识别信息获得非视点间图片组的视点间参考信息,根据非视点间图片组的视点间参考信息获得运动向量,使用该运动向量导出第一相应块的位置,并且使用导出的第一相应块的运动信息解码当前块,其中视点间参考信息包括非视点间图片组的参考视点的编号信息。
Description
技术领域
本发明涉及视频信号的编解码。
背景技术
压缩编码表示用于通过通信电路来传输数字化的信息或者以适于存储媒体的形式存储数字化的信息的一系列的信号处理技术。压缩编码的目标是音频、视频、字符等。具体而言,一种用于对视频执行压缩编码的技术被称为视频序列压缩。一般来说视频序列的特征在于其具有空间冗余或时间冗余。
发明内容
技术问题
因此,本发明是针对一种用于解码/编码视频信号的方法及设备,其充分地增强编码视频信号的效率,避免了因相关技术的限制和缺点而导致的一个或多个问题。
技术方案
本发明一个目的在于提供一种用于解码/编码视频信号的方法和设备,其可通过基于视点间图片的关系获得当前图片的运动信息而执行运动补偿。
本发明另一个目的在于提供一种用于解码/编码视频信号的方法和设备,其可通过使用和当前图片的运动信息高度相似的参考视点的运动信息来提高当前图片的恢复率。
本发明另一个目的在于通过定义能够识别图片视点的视点间信息来有效地执行对视频信号的编解码。
本发明另一个目的在于提供一种用于管理用于视点间预测的参考图片的方法,通过该方法可以有效地编码视频信号。
本发明另一个目的在于提供一种用于预测视频信号的运动信息的方法,通过该方法可以有效地处理视频信号。
本发明另一个目的在于提供一种用于搜索相应于当前块的块的方法,通过该方法可以有效地处理视频信号。
本发明另一个目的在于提供一种用于在多视点视频编解码中执行空间直接模式(spatial direct mode)的方法,通过该方法可以有效地处理视频信号。
本发明另一个目的在于通过定义用于编解码器兼容性的语法来增强不同种类编解码器之间的兼容性。
本发明另一个目的在于通过定义用于多视点视频编码比特流的重写的语法来增强编解码器之间的兼容性。
本发明进一步的目的在于使用独立的序列参数集信息来独立地应用关于多种可伸缩性(scalabilities)的信息给每个视点。
有益效果
根据本发明,通过使用视频序列的时间和空间相关性来预测运动信息,可以提高信号处理效率。通过使用与当前块具有高相关性的图片的编解码信息来预测当前块的编解码信息可以实现更精确的预测,从而降低错误值传输量以执行有效的编解码。即使没有传输当前块的运动信息,其也可以计算与当前块的运动信息非常相似的运动信息。因而增强了恢复率。
此外,通过提供一种管理用于视点间预测的参考图片的方法可有效地实现编解码。在通过本发明实现视点间预测的情况下,降低了DPB(解码图片缓存器)的负担。因此,可以增强码率并且实现更精确的预测以降低要被传输的比特的数量。使用关于多视点序列的多种配置信息可以允许更有效的编解码。通过定义用于编解码器兼容性的语法,其可以提高不同种类编解码器之间的兼容性。并且,其可以通过独立地应用关于多种伸缩性的信息给每个视点来执行更有效的编解码。
附图说明
本发明所包括的附图用于提供对本发明的进一步理解,它们被结合在此并构成了本说明书的一部分,这些附图示出了本发明的实施例,并且与说明书一起用于解释本发明的原理。
在附图中:
图1是根据本发明一个实施例的视频信号解码设备的示意方框图;
图2是根据本发明一个实施例的关于可以增加给多视点序列编码比特流的多视点序列的配置信息的框图;
图3是根据本发明一个实施例的多视点序列信号的完整预测结构的框图,用来解释视点间图片组的概念;
图4是根据本发明一个实施例的在通过AVC编解码器解码多视点视频编码比特流的情况下用于将多视点视频编码比特流重写到AVC比特流中的语法结构的框图;
图5是根据本发明一个实施例的用于在多视点视频编解码中管理参考图片的方法;
图6是根据本发明一个实施例的用于解释在多视点视频编解码中的空间直接模式的预测结构的框图;
图7是根据本发明一个实施例的用于解释依照是否存在运动跳跃(motion skip)来执行运动补偿的方法的框图;
图8和图9是根据本发明一个实施例的用于从当前视点的参考视点列表中确定参考视点和相应块的方法的例子的框图;
图10和图11是根据本发明一个实施例的用于在多视点视频编解码中提供多种伸缩性的例子的框图。
最佳模式
本发明的其他优点及特征将在下面的描述中被说明,且其部分将可从说明中被了解,或可通过实施本发明而得到。本发明的目的及其他优点将可通过说明书及其权利要求以及附图中所具体指出的结构来实现并获得。
为了实现这些和其他优点并根据如同包括并广泛描述的本发明的目的,根据本发明的解码视频信号的方法包括获得指示在视点间图片组中是否包括当前NAL单元的编码图片的识别信息,根据该识别信息获得非视点间图片组的视点间参考信息,根据非视点间图片组的视点间参考信息获得运动向量,使用该运动向量导出第一相应块的位置,并且使用导出的第一相应块的运动信息解码当前块,其中视点间参考信息包括非视点间图片组的参考视点的编号信息。
优选的是,该方法进一步包括检查导出的第一相应块的块类型,其中其确定是否基于第一相应块的块类型导出存在于参考视点中的与第一相应块的视点不同的第二相应块的位置。
更优选的是,基于预定顺序导出第一和第二相应块的位置,并且以优先使用用于非视点间图片组的L0方向的参考视点,并且接着使用用于非视点间图片组的L1方向的参考视点的方式来配置预定顺序。
在这种情况下,如果第一相应块的块类型是帧内块,用于L1方向的参考视点是有用的。
并且,以最接近当前视点的顺序来使用用于L0/L1方向的参考视点。
优选的是,该方法进一步包括获得指示是否将导出当前块的运动信息的标记(flag)信息,其中基于该标记信息导出第一相应块的位置。
优选的是,该方法进一步包括获得第一相应块的运动信息,并且基于第一相应块的运动信息导出当前块的运动信息,其中使用当前块的运动信息解码当前块。
优选的是,运动信息包括运动向量和参考索引。
优选的是,运动矢量是视点间图片组的全局运动向量。
为了进一步达到这些和其它优点,以及根据本发明的目的,一种用于解码视频信号的装置包括参考信息获取单元,用于根据指示视点间图片组是否包括当前NAL单元的编码图片的是被信息获得非视点间图片组的视点间参考信息;相应块搜索单元,用于使用根据非视点间图片组的视点间参考信息而获得的视点间图片组的全局运动向量导出相应块的位置,其中视点间参考信息包括非视点间图片组的参考视点的编号信息。
优选的是,视频信号作为广播信号被接收。
优选的是,通过数字媒体接收视频信号。
为了进一步达到这些和其它优点,以及根据本发明的目的,一种计算机可读媒体包括用于执行权利要求1的方法的程序,其中该程序被记录在计算机可读媒体中。
可以理解的是以上的一般描述和以下的详细描述都是示例的和解释性的,并且可以提供对本发明的权利要求的进一步说明。
具体实施方式
现在将参考本发明的优选实施例进行详细说明,其例子已表示在附图中。
首先,视频信号数据的压缩编解码考虑空间冗余、时间冗余(原文错误)、伸缩冗余和视点间(inter-view)冗余。并且,通过考虑压缩编解码期间存在交互冗余的视点间可以实现压缩编解码。考虑了视点间冗余的压缩编解码只是本发明的一个实施例。并且,本发明的技术思想可适用于时间冗余、伸缩冗余等。在本公开中,编解码包括编码和解码的概念。并且,可以灵活地解释编解码以相应于本发明的技术思想和范围。
观察视频信号的比特序列配置,其在VCL(视频编解码层)之间存在用于处理运动图片编码处理本身被称为NAL(网络抽象层)的单独的层结构,和传输以及存储编码的信息的较低系统。编码处理的输出是VCL数据,并且在传输或存储之前,由NAL单元映射VCL数据。每个NAL单元包括压缩的视频数据或相应于头信息的数据的RBSP(原始字节序列净荷(raw byte sequence payload):运动图片压缩的结果数据)。
NAL单元基本上包括两个部分,NAL头和RBSP。NAL头包括指示是否包括作为NAL单元的参考图片的条带(slice)的标记信息(nal_ref_idc),以及指示NAL单元的类型的标识符(nal_unit_type)。在RBSP中存储压缩的原始数据。并且RBSP尾比特被增加到RBSP的最后部分以表示RBSP的长度是8比特的倍数。NAL单元的类型有IDR(即时解码刷新)图片、SPS(序列参数集)、PPS(图片参数集)、SEI(补充增强信息)等。
在标准中,设置不同简表(profile)和等级(level)的需求以允许具有适当成本的目标产品。在这种情况下,解码器应当满足根据相应简表和等级而确定的需求。因此定义了两个概念“简表”和“等级”以指示用于表示解码器可以应对压缩的序列的范围有多远的功能或参数。并且,简表标识符(profile_idc)可以识别比特流是基于预定简表的。简表标识符表示指示比特流所基于的简表的标记。例如,在H.264/AVC中,如果简表标识符为66,其表示比特流是基于基线简表(base profile)。如果简表标识符为77,其表示比特流是基于主简表的。如果简表标识符为88,其表示比特流是基于扩展简表的。此外,简表标识符可包括在序列参数集中。
因此,为了处理多视点序列,其需要识别输出的比特流是否是多视点简表。如果输出的比特流是多视点简表,则必须增加语法以允许传输至少一个用于多视点的附加信息。在这种情况下,多视点简表指示作为H.264/AVC的附加技术的用于处理多视点视频的简表模式。在MVC中,增加语法以作为用于MVC模式的附加信息可能比无条件语法更加有效。例如,当AVC的简表标识符指示多视点标识符时,如果增加了用于多视点序列的信息,其可以提高编码效率。
序列参数集指示包含贯穿整个序列的编码的信息,例如简表、等级等。完整的压缩移动图片,也就是序列,应当从序列头开始。因此,相应于头信息的序列参数集应当在表示参数集到达的数据之前到达编码器。也就是说,序列参数集RBSP扮演着作为用于运动图片压缩的结果数据的头信息的角色。一旦输出了比特流,简表标识符优先识别输出的比特流是基于多种简表中的哪一种。因此,通过增加用于确定输出的比特流是否涉及多视点简表(例如“If(profile_idc==MULTI_VIEW_PROFILE)”)的部分给语法,其可以确定输出的比特流是否涉及多视点简表。仅如果输出的比特流被证明涉及多视点简表,可以增加多种配置信息。例如,其可以增加视点的全部数量、视点间参考图片的数量、视点间参考图片的视点识别数量等。并且,解码图片缓存器可使用多种关于视点间参考图片的信息以构建并管理参考图片列表。
图1是根据本发明一个实施例的用于解码视频信号的设备的示意方框图。
参见图1A,解码设备包括解析单元100、熵解码单元200、逆量化/逆变换单元300、帧内(intra-predicting)预测单元400、解块过滤器单元500、解码图片缓存器单元600、帧间预测((inter-predicting))单元700等。并且解码图片缓存器单元600包括参考图片存储单元610、参考图片列表构建单元620、参考图片管理单元630等。参见图1B,帧间预测单元700包括直接预测模式识别单元710、空间直接预测执行单元720等。并且空间直接预测执行单元720可包括第一变量导出单元721、第二变量导出单元722和运动信息预测单元723。此外,帧间预测单元700可包括运动跳跃(motion skip)确定单元730、相应块搜索单元731、运动信息导出单元732、运动补偿单元733和运动信息获取单元740。
解析单元100通过NAL单元实现解析以解码接收到的视频序列。一般来说,在解码条带头和条带数据之前,传输至少一个序列参数集以及至少一个图片参数集给解码器。在这种情况下,在NAL头区域或NAL头的扩展区域中可包括多种配置信息。因为MVC是用于传统AVC方案的附加方案,仅在MVC比特流的情况下,增加多种配置信息比无条件增加的效率更优。例如,其可以增加用于识别在NAL头区域或NAL头的扩展区域中是否存在MVC比特流的标记信息。只有当根据标记信息输出的比特流是多视点序列编码比特流时,可以增加用于多视点序列的配置信息。例如,配置信息可包括视点识别信息、视点间图片组识别信息、视点间预测标记信息、时间等级信息、优先级识别信息、指示其是否是用于视点的即时解码图片的信息等。以下将参照图2详细描述这些信息。
熵解码单元200实现对解析的比特流和每个宏块的系数、运动向量等的熵解码,然后它们被提取。逆量化/逆变换单元300获得通过将接收到的量化的值与预定常量相乘而转换的系数值,并且接着逆变换系数值以再构建像素值。使用再构建的像素值,帧内预测单元400从在当前图片内的解码采样执行屏幕间预测。同时,解块过滤器单元500被应用到每个解码宏块以减少块失真。过滤器平滑块边缘以增强解码帧的图像质量。过滤处理的选择依据边界强度和在边界周围的图像采样的梯度。通过过滤的图片被传输或存储在解码图片缓冲器单元600中以将被用作参考图片。
解码图片缓冲器单元600扮演存储或打开之前解码的图片以执行图片间预测的角色。这里,为了在解码图片缓冲器单元600中存储图片或者打开图片,使用每个图片的“frame_num”和POC(图片序号)。因此,在MVC中,因此存在处于不同于存在于先前解码图片中的当前图片的视点中的图片,与“frame_num”和POC一起的用于识别图片的视点信息是有用的。解码图片缓冲器单元600包括参考图片存储单元610、参考图片列表构建单元620和参考图片管理单元630。
参考图片存储单元610存储将用于当前图片编解码的被参考的图片。参考图片列表构建单元620构建用于图片间预测的参考图片的列表。在多视点视频编解码中,视点间预测是可行的。因此,如果当前图片参考其他视点的图片,有必要构建用于视点间预测的参考图片列表。而且,可以构建既用于时间预测又用于视点间预测的参考图片列表。举例来说,如果当前图片参考对角方向的图片,可构建对角方向的参考图片列表。在这种情况下,有多种用于构建在对角方向中的参考图片列表的方法。例如,可以定义用于识别参考图片列表的信息(ref_list_idc)。如果ref_list_idc=0,其表示用于时间预测的参考图片列表。如果其等于1,则指示用于视点间预测的参考图片列表。如果其等于2,则指示用于时间预测和视点间预测的参考图片列表。
可以使用用于时间预测的参考图片列表或用于视点间预测的参考图片列表来构建在对角方向中的参考图片列表。例如,可以将在对角方向中的参考图片排列为用于时间预测的参考图片列表中。可选的是,可以将在对角方向中的参考图片排列为用于视点间预测的参考图片列表。因此,如果构建了在多个方向中的列表,更有效的编解码是可能的。在该公开中,主要描述用于时间预测的参考图片列表和用于视点间预测的参考图片列表。并且,本发明的概念也适用于对角方向的参考图片列表。
参考图片列表构建单元620在构建用于视点间预测的参考图片列表时可以使用关于视点的信息。例如,可以使用视点间参考信息。视点间参考信息表示用于指示视点间依赖关系的信息。例如,其可以是视点的全部数量、视点识别号、视点间参考图片的数量、视点间参考图片的视点识别号等。
参考图片管理单元630管理参考图片以更灵活地实现图片间预测。例如,存储器管理控制操作方法和滑动窗口方法是有用的。其是通过将多个存储器统一为一个存储器并且使用小存储器来实现有效的存储器管理而管理参考图片存储器和非参考图片存储器。在多视点视频编解码中,因为在一个视点方向中的图片具有相同的图片序号,使用用于识别每个图片的视点的信息来标记这些图片。并且,帧间预测单元700可以使用以上述方式被管理的参考图片。
参见图1B,帧间预测单元700可包括直接预测模式识别单元710、空间直接预测执行单元720、运动跳跃确定单元730,相应块搜索单元731、运动信息导出单元732、运动信息获取单元733和运动补偿单元740。
运动补偿单元740使用从熵解码单元200传输来的信息补偿当前块的运动。从视频信号中提取出相邻于当前块的块的运动向量,并且接着获得当前块的运动向量。并且,使用获得的运动向量预测值和从视频信号中提取的差分向量来补偿当前块的运动。并且,其可以使用一个参考图片或多个图片执行运动补偿。在多视点视频编解码中,在当前图片涉及不同视点的情况下,其可以使用关于存储在解码图片缓存器单元600中的视点间预测参考图片列表的信息来执行运动补偿。并且,其还可以使用用于识别相应图片的视点的信息来执行运动补偿。直接预测模式是一种用于从编码块的运动信息中预测当前块的运动信息的方法。因此该方法可以节约解码运动信息所需的比特,因此增强了压缩效率。例如,时间直接模式使用在时间方向中的运动信息相关性来预测用于当前块的运动信息。当包括不同运动的序列中的运动的速度是常量时,时间直接模式是高效的。在时间直接模式被用作多视点视频编解码的情况下,应当考虑视点间运动向量。
作为直接预测模式的另一个例子,空间直接模式使用在空间方向中的运动信息相关性来预测当前块的运动信息。当包括相同运动的序列中的运动的速度变化时,空间直接模式是有效的。在当前图片的逆方向参考图片列表(列表1)中的具有最小参考号的参考图片之中,其可以使用与当前块处于相同位置的(co-located)块的的运动信息来预测当前图片的运动信息。但是,在多视点视频编解码中,参考图片可存在于不同于当前图片的视点中。在这种情况下,在应用空间直接模式时多种实施例是可用的。
根据预测模式来选择通过上述处理的帧间预测的图片和帧内预测的图片以重构当前图片。
图2是根据本发明一个实施例的关于可附加到多视点序列编码的比特流上的多视点序列的配置信息的框图。
图2表示关于多视点序列的配置信息可以增加到的NAL单元配置的例子。NAL单元可以主要包括NAL单元头和RBSP(原始字节序列净荷:运动图片压缩的结果数据)。并且,NAL单元头可包括指示NAL单元是否包括参考图片的条带的识别信息(nal_ref_idc)和指示NAL单元的类型的信息(nal_unit_type)。并且,还可以有限地包括NAL单元头的扩展区域。例如,如果指示NAL单元的类型的信息关联于可伸缩视频编解码或者指示前缀NAL单元,NAL单元可以包括NAL单元头的扩展区域。具体而言,如果nal_unit_type=20或14,NAL单元可以包括NAL单元头的扩展区域。并且,根据适于识别其是否是MVC比特流的标记信息(svc_mvc_flag),用于多视点序列的配置信息可被增加到NAL单元头的扩展区域。
作为另一个例子,如果指示NAL单元的类型的信息是指示序列参数集的信息的话,RBSP可包括用于序列参数集的信息。具体而言,如果nal_unit_type=7,RBSP可包括用于序列参数集的信息。在这种情况下,根据简表信息,序列参数集可包括序列参数集的扩展区域。例如,如果简表信息(profile_idc)是关于多视点视频编解码的简表的话,序列参数集可包括序列参数集的扩展区域。可选的是,根据简表信息,子集序列参数集可包括序列的扩展区域。序列参数集的扩展区域可包括指示视点间依赖性的视点间参考信息。此外,序列参数集的扩展区域可包括用于限定用于编解码器兼容性的特定语法的限定标记信息。以下将参照图4详细描述其。
以下将详细解释关于多视点序列的配置信息,例如可以包括在NAL单元头的扩展区域中的配置信息,或者可以包括在序列参数集的扩展区域中的配置信息。
首先,视点识别信息表示用于区分当前视点中的图片和不同视点中的图片的信息。在编解码视频序列信号时,POC(图片序号)和“frame_num”被用于识别每个图片。在多视点视频序列的情况下,执行视点间预测。因此,需要区分在当前视点中的图片和在另一个视点中的图片的识别信息。因此,必须定义用于识别图片的视点的视点识别信息。可从视频信号的头区域中获得视点识别信息。例如,头区域可以是NAL头区域、NAL头的扩展区域或条带头区域。使用视点识别信息获得在不同于当前图片的视点中的图片的信息,并且可以使用关于在不同视点中的图片的信息来解码视频信号。
视点识别信息适用于视频信号的整个编码/解码处理。例如,视点识别信息可被用于指示视点间依赖性。可能需要视点间参考图片的数量信息、视点间参考图片的视点识别信息等来指示视点间依赖性。如同视点间参考图片的数量信息和视点间参考图片的视点识别信息,这些被用于指示视点间依赖性的信息被称为视点间参考信息。在这种情况下,视点识别信息可被用于指示视点间参考图片的视点识别信息。视点间参考图片可以表示在执行用于当前图片的视点间预测中使用的参考图片。并且,视点识别信息可被应用到考虑视点的非考虑特定视点标识符的使用“frame_num”的多视点视频编解码。
视点间图片组识别信息表示适于识别视点间图片组中是否包括当前NAL单元的编码图片的信息。在这种情况下,视点间图片组表示仅参考所有条带存在于相同时间区域中的帧中的条带的编码图片。例如,其表示仅涉及在不同视点中的条带而不涉及在当前视点中的条带的编码图片。在解码多视点序列时,视点间随机访问成为可能。对于视点间预测,视点间参考信息是必须的。在获取视点间参考信息时,使用视点间图片组识别信息。例如,如果当前图片相应于视点间图片组,可以获得关于视点间图片组的视点间参考信息。如果当前图片相应于非视点间图片组,可以获得关于非视点间图片组的视点间参考信息。
因此,在基于视点间图片组识别信息而获得视点间参考信息的情况下,可以更加有效地执行视点间随机访问。这是因为在视点间图片组中的图片之间的视点间参考关系与在非视点间图片组中的图片之间的视点间参考关系不同。并且,在视点间图片组的情况下,其可以涉及在多个视点中的图片。例如,从在多个视点中的图片生成虚拟视点的图片,并且接着其可以使用虚拟视点的图片来预测当前图片。
在构建参考图片列表时,可以使用视点间图片组识别信息。在这种情况下,参考图片列表可以包括用于视点间预测的参考图片列表。并且,用于视点间预测的参考图片列表可被增加到参考图片列表。例如,在初始化参考图片列表或修改参考图片列表时,可以使用视点间图片组识别信息,并且,其还可被用于管理增加的用于视点间预测的参考图片。例如,通过将参考图片划分为视点间图片组和非视点间图片组,可以做出指示在执行视点间预测时没能使用的参考图片不应当被使用的标志。并且,视点间图片组识别信息适用于假设参考解码器。
视点间预测标记信息表示指示当前NAL单元的编码图片是否用于视点间预测的信息。视点间预测标记信息适用于执行时间预测或视点间预测的那一部分。在这种情况下,可以一起使用指示NAL单元是否包括参考图片的条带的识别信息。例如,尽管根据识别信息当前NAL单元没有包括参考图片的条带,但是如果其被用于视点间预测,当前NAL单元可以是仅用于视点间预测的参考图片。根据识别信息,如果当前NAL单元包括参考图片的条带,并且用于视点间预测,当前NAL单元可以被用于时间预测和视点间预测。如果根据识别信息,NAL单元没有包括参考图片的条带,其可被存储在解码图片缓冲器中。这是因为在根据视点间预测标记信息,当前NAL单元的编码图片用于视点间预测的情况下,需要存储该NAL单元。
除了一起使用标记信息(flag information)和识别信息(identification information)的情况之外,一个识别信息可以指示当前NAL单元的编码图片是否用于时间预测和/或视点间预测。
并且,视点间预测标记信息可被用于单个循环(loop)解码处理。在根据视点间标记信息,当前NAL单元的编码图片没有用于视点间预测的情况下,可以部分的执行解码。例如,宏块内被完全解码,反之可仅对宏块间的剩余信息执行宏块间的解码。因此,其可以降低解码器的复杂度。当某用户仅正看向处于特定视点中的视点,而没有看向在所有视点中的序列时,如果没有必要通过在不同的视点中特别地执行运动补偿而重建序列的话,这就是有效的。
图3所示的框图用于解释本发明的一个实施例。
例如,考虑图3所示的框图的一部分,编解码顺序可对应于S0、S1和S2。假设当前要被编码的图片是在视点S1中并处于时间区域T2中的图片B3。在这种情况下,在视点S0中并处于时间区域T2中的图片B2和在视点S2中并处于时间区域T2中的图片B2可被用于视点间预测。如果在视点S0中处于时间区域T2中的图片B2被用于视点间预测,视点间预测标记信息可被设置为1。如果在视点S0中处于时间区域T2中的图片B2没有被用于视点间预测,该标记信息可被设置为0。在这种情况下,如果在视点S0中的所有条带的视点间预测标记信息为0,其无需解码在视点S0中的所有条带。因此增加了编解码效率。
作为另一个例子,如果在视点S0中的所有条带的视点间预测标记信息不为0,也就是如果至少一个被设置为1,即使一个条带被设置为0,解码也是强制性的。因此在视点S0中处于时间区域T2中的图片B2没有被用于当前图片的解码,假设通过将视点间预测信息设置为0而没有执行解码,其无法重建在视点S0中处于时间区域T1中的图片B3,其在解码视点S0中的条带情况下使用在视点S0中处于时间区域T2中的图片B2和在视点S0中处于时间区域T3中的图片B3。因此,它们应当无视视点间预测标记信息而被重建。
作为进一步的例子,视点间预测标记信息被用于解码图片缓冲器(DPB)。如果没有提供视点间预测标记信息,在视点S0中处于时间区域T2中的图片B2应当被无条件地存储在解码图片缓冲器中。但是,如果其可以得知视点间预测标记信息为0,在视点S0中处于时间区域T2中的图片B2可以不被存储到解码图片缓冲器中。因此其可以节省解码图片缓冲器的存储量。
时间等级信息表示关于分级结构的信息以提供视频信号的时间可伸缩性。尽管时间等级信息无法向用户提供在多个时间区域中的序列。
优先级识别信息表示适于识别NAL单元的优先级的信息。可以使用优先级识别信息来提供视点可伸缩性。例如,可以使用优先级识别信息来定义视点等级信息。在这种情况下,视点等级信息表示关于用于提供视频信号的视点可伸缩性的分级结构的信息。在多视点视频序列中,必须定义用于时间的等级和用于视点的等级以向用户提供多种时间和视点系列。在定义上述等级信息的情况下,可以使用时间可伸缩性和视点可伸缩性。因此用户可以仅观看在特定时间和视点的序列或者仅观看根据另一个用于限制的条件的序列。可以根据参考条件以多种方式来区别地设置等级信息。例如,可根据照相机位置或照相机排列来区别地设置等级信息。并且,可通过考虑视点依赖性来确定等级信息。例如,用于具有I图片的视点间图片组的视点的等级被设为0,用于具有P图片的视点间图片组的视点的等级被设为1,并且用于具有B图片的视点间图片组的视点的等级被设为2。因此等级值可被分配给优先级识别信息。此外,可以随机设置等级信息而不基于特定参考。
限制标记信息可表示用于编解码器兼容性的用于多视点视频编码比特流的重写的标记信息。为了与传统编解码器的兼容性,例如,在通过AVC编解码器解码多视点视频编码比特流的情况下,其必须将多视点视频编码比特流重写为AVC比特流。在这种情况下,限制标记信息可以对仅适用于多视点视频编码比特流的语法信息进行分块。通过分块语法信息,可通过简单的变换处理将多视点视频编码比特流变换为AVC比特流。例如,其可表示为mvc_to_avc_rewrite_flag。以下将参照图4来描述其。
以下描述中将解释用于提供视频信号的有效解码方法的多种实施例。
图3是根据本发明一个实施例的多视点序列信号的完整预测结构的框图以解释视点间图片组的概念。
参见图3,在水平轴上的T0至T100指示根据时间的帧,在垂直轴上的S0至S7指示根据视点的帧。例如,在T0的图片表示由不同照相机在相同的时间区域T0所捕获的序列,而在S0的图片表示由单个照相机在不同的时间区域所捕获的序列。并且,图中的箭头指示各个图片的预测的方向和顺序。例如,在视点S2中处于时间区域T0中的图片P0是从I0预测的图片,其成为在视点S4中处于时间区域T0中的图片P0的参考图片。并且其分别成为在视点S2中处于时间区域T4和T2中的图片B1和B2的参考图片。
对于多视点序列解码处理,需要视点间随机访问。因此,通过最小化解码能力可实现随机视点的访问。在这种情况下,可能需要视点间图片组的概念以实现有效访问。视点间图片组的定义已在图2中示出。例如,在图3中,如果在视点S0中处于时间区域T0中的图片I0相应于视点间图片组,所有在不同视点中处于相同时间区域,也就是时间区域T0的图片可相应于视点间图片组。作为另一个例子,如果在视点S0中处于时间区域T8中的图片I0相应于视点间图片组,所有在不同视点中处于相同时间区域,也就是时间区域T8中的图片可相应于视点间图片组。同样的,在T16、...、T96和T100中的所有图片也变为视点间图片组的例子。
根据另一个实施例,在完整预测中,MVC、GOP的结构可开始于I图片。并且,I图片与H.264/AVC相兼容。因此,所有与H.264/AVC相兼容的视点间图片组可成为I图片。但是,在由P图片代替I图片的情况下,更有效的编解码成为可能。具体而言,使用GOP开始于与H.264/AVC相兼容的P图片的预测结构可以实现更有效的编解码。
在这种情况下,如果重定义了视点间图片组,其成为适于涉及在相同视点间中不同时间区域中的条带以及所有条带存在于相同时间区域中的帧的条带。但是,涉及在相同视点中不同时间区域中的条带的情况被限制于仅与H.264/AVC相兼容。
在解码了视点间图片组之后,以输出顺序从在视点间图片组之前解码的图片开始顺序解码所有编码图片,而不执行帧间预测。
考虑如图3所示的多视点视频序列的完整编解码结果,因为视点间图片组的视点间依赖性不同于非视点间图片组的视点间依赖性,必须根据视点间图片组识别信息来区分视点间图片组和非视点间图片组这两者。
视点间参考信息表示指示使用哪种结构来预测视点间序列的信息。可以从视频信号的数据区域获得该信息。例如,可以从序列参数集区域获得该信息。并且,可以使用参考图片的编号和参考图片的视点信息来获得视点间参考信息。例如,在获得了全部数量的视点之后,其可以基于全部数量的视点来获得用于识别每个视点的视点识别信息。并且,可以获得指示用于每个视点的参考方向的参考图片的编号的视点间参考图片的编号信息。根据视点间参考图片的编号信息,其可以获得每个视点间参考图片的视点识别信息。
根据该方法,可以获得视点间参考信息。并且,可以通过将其分类为视点间图片组的情况和非视点间图片组的情况的方式来获得视点间参考信息。使用指示在当前NAL中的编码条带是否相应于视点间图片组的视点间图片组识别信息来得知该方案。可以从NAL头的扩展区域或条带层区域来获得视点间图片组识别信息。
根据视点间图片组识别信息而获得的视点间参考信息适用于构建、管理参考图片列表。
图4是根据本发明一个实施例的在通过AVC编解码器解码多视点视频编码比特流的情况下用于将多视点视频编码比特流重写为AVC比特流中的语法结构的框图。
对于编解码器兼容性,其它适于限制关于由不同编解码器编码的比特流的信息可能是必须的。其它适于分块关于由不同编解码器所编码的比特流的信息的其它信息可能是必须的,以简化要被变换的比特流格式。例如,对于编解码器兼容性,其可以定义用于多视点视频编码比特流的重写的标记信息。
为了与传统编解码器相兼容,在通过例如AVC编解码器解码多视点视频编码比特流的情况下,其必须将多视点视频编码比特流重写为AVC比特流。在这种情况下,限制标记信息可仅限制适用于多视点视频编码比特流的语法信息。在这种情况下,限制标记信息可表示指示是否将多视点视频编码比特流重写为AVC比特流的标记信息。通过限制仅适于多视点视频编码比特流的语法信息,其可以通过简单的变换处理将多视点视频编码比特流变换为AVC流。例如,其可以表示为mvc_to_avc_rewrite_flag[S410]。可以从序列参数集、子序列参数集或子序列参数集的扩展区域而获得限制标记信息。并且,可从条带头获得限制标记信息。
可以通过限制标记信息来限制仅用于特定编解码器的语法分量。并且,可以限制用于解码处理的特定处理的语法分量。例如,在多视点视频编解码中,限制标记信息可仅被应用到非视点间图片组。通过该信息,每个视点可能不需要完全重建的相邻视点,并且可以以单个视点进行编码。
根据本发明的另一个实施例,参见图4A,基于限制标记信息,其可以定义指示条带头中是否将使用限制标记信息的自适应标记信息。例如,在根据限制标记信息将多视点视频编码比特流重写为AVC比特流的情况下[S420],可以获得自适应标记信息(adaptive_mvc_to_avc_rewrite_flag)[S430]。
对于另一个实施例,可以基于自适应标记信息[S440]获得指示是否将多视点视频编码比特流重写为AVC比特流的标记信息[S450]。例如,其可被表示为rewrite_avc_flag。在这种情况下,步骤S440和S450恰好适用于不是参考视点的视点。并且,步骤S440和S450恰好适用于根据视点间图片组识别信息,当前条带相应于非视点间图片组的情况。例如,如果当前条带的“rewrite_avc_flag=1”,属于参考当前视点的视点的条带的rewrite_avc_flag将为1。也就是说,如果确定了通过AVC重写的当前视点,属于涉及当前视点的视点的条带的rewrite_avc_flag可被自动地设为1。对于属于涉及当前视点的视点的条带,不必须重建所有像素数据,但是仅必须解码当前视点所需的运动信息。可从条带头获得rewrite_avc_flag。从条带头中获得的标记信息可扮演将多视点视频编码比特流的条带头渲染到AVC比特流的相同头中以允许使用AVC编解码器进行解码的角色。
图5是根据本发明一个实施例的用于解释在多视点视频编解码中管理参考图片的方法的框图。
参见图1A,参考图片列表构建单元620可包括变量导出单元(图中未示出),参考图片列表初始化单元(图中未示出),和参考图片列表重排单元(图中未示出)。
变量导出单元导出用于参考图片列表初始化的变量。例如,可使用指示图片识别号的“frame_num”来导出变量。具体而言,变量FrameNum和FrameNumWarp适用于每个短期参考图片。首先,变量FrameNum等于语法分量frame_num的值。变量FrameNumWarp可被用于解码图片缓冲器单元600以分配较小的数给每个参考图片。并且,可从变量FrameNum导出变量FrameNumWarp。因此,其可以使用导出的变量FrameNumWarp来导出变量PicNum。在该情况下,变量PicNum可表示由解码图片缓冲器单元660所使用的图片的识别号。在指示长期参考图片的情况下,可使用变量LongTermPicNum。
为了构建用于视点间预测的参考图片列表,其可以导出第一变量(例如ViewNum)以构建用于视点间预测的参考图片列表。例如,其可以使用用于识别图片的视点的“view_id”来导出第二变量(例如ViewId)。首先,第二变量可以与作为语法分量的“view_id”的值相等。并且,第三变量(例如ViewIdWarp)可被用于解码图片缓冲器单元600以分配小的视点识别号给每个参考图片,并且其可从第二变量中导出。在这种情况下,第一变量ViewNum可以表示由解码图片缓冲器单元600所使用的图片的视点识别号。但是,因为在多视点视频编解码中用于视点间预测的参考图片的数量可能相对小于用于时间预测的数量,其可以不定义单独的变量以指示长期参考图片的视点识别号。
参考图片列表初始化单元(图中未示出)使用上述变量初始化参考图片列表。在这种情况下,根据条带类型,用于参考图片列表的初始化处理可能不同。例如,在解码P条带的情况下,其可以基于解码顺序来分配参考索引。在解码B条带的情况下,其可以基于图片输出顺序来分配参考索引。在初始化用于视点间预测的参考图片列表的情况下,其可以基于第一变量,也就是从视点间参考图片的视点识别信息中导出的变量来分配参考图片的号码。
参考图片列表重排单元(图中未示出)扮演通过分配更小索引给初始化的参考图片列表中经常涉及的图片来提高压缩率的角色。通过块单元来解码指定参考图片的参考索引。这是因为如果用于编解码的参考索引变得更小,则分配较少比特。一旦完成重排步骤,则构建了参考图片列表。
并且,参考图片列表管理单元630管理参考图片以更加灵活地执行帧间预测。在多视点视频编解码中,因为在视点方向上的图片具有相同的图片序号,用于识别每个图片的视点的信息可以用于标记它们。
参考图片可被标记为“非参考图片”、“短期参考图片”或“长期参考图片”。在多视点视频编解码中,当参考图片被标记为短期参考图片或长期参考图片时,其必须区分参考图片是用于在时间方向上的预测的参考图片还是用于在视点方向上的预测的参考图片。
首先,如果当前NAL是参考图片,其可以执行解码图片的标记步骤。如以上在图1A中所述的,自适应存储器管理控制操作方法或滑动窗口方法可作为管理参考图片的方法。其可以获得指示将使用哪个方法的标记信息[S510]。例如,如果adaptive_ref_pic_marking_mode_flag为0,可以使用滑动窗口方法。如果adaptive_ref_pic_marking_mode_flag为1,可以使用自适应存储器管理控制操作方法。
以下将解释根据本发明一个实施例的依照标记信息的自适应存储器管理控制操作方法。首先,其可以获得用于控制参考图片的存储或打开的识别信息以自适应地管理存储器[S520]。例如,获得memory_management_control_operation,并且接着可以根据识别信息(memory_management_control_operation)的值来存储或打开参考图片。具体而言,例如,参见图5B,如果识别信息为1,其可以将用于时间方向预测的短期参考图片标记为“非参考图片”[S580]。也就是说,打开在用于时间方向预测的参考图片之中指定的短期参考图片,并且接着将其改变为非参考图片。如果识别信息为3,其可以将使用于时间方向预测的长期参考图片标记为“短期参考图片”[S581]。也就是说,用于时间方向预测的参考图片中指定的短期参考图片,可以被修改为长期参考图片。
在多视点视频编解码中,当参考图片被标记为短期参考图片或长期参考图片时,可以根据参考图片是用于时间方向预测的参考图片还是用于视点方向预测的参考图片来分配不同的识别信息。例如,如果识别信息为7,可以将用于视点方向预测的短期参考图片标记为“非参考图片”[S582]。也就是说,打开在用于视点方向预测的参考图片之中指定的短期参考图片,并且接着将其修改为非参考图片。如果识别信息为8,可以将用于视点方向预测的长期参考图片标记为“短期参考图片”[S583]。也就是说,可以将在用于视点方向预测的参考图片之中指定的短期参考图片修改为长期参考图片。
如果识别信息为1、3、7或8,其可以获得图片识别号(PicNum)或视点识别号(ViewNum)的差值(difference_of_pic_nums_minus1)[S540]。差值用于分配长期参考图片的帧索引给短期参考图片。并且,差值用于将短期参考图片标记为非参考图片。在参考图片是用于时间方向预测的参考图片的情况下,图片识别数量是可变的。在参考图片是用于视点方向预测的参考图片的情况下,视点识别信息是可变的。
具体而言,如果识别信息为7,其可以将短期参考图片标记为非参考图片。并且,差值可表示视点识别号的差值。短期参考图片的视点识别信息可由以下公式1表示。
[公式1]
ViewNum=(当前视点的view_id)-(difference_of_pic_nums_minusl+1)
相应于视点识别号(ViewNum)的短期参考图片可被标记为非参考图片。
作为另一个例子,如果识别信息为8[S550],差值可被用于分配长期参考图片的帧索引给短期参考图片[S560]。并且,差值可表示视点识别号的差值。使用该差值,可从公式1导出视点识别号(ViewNum)。视点识别信息涉及被标记为短期参考图片的图片。
因此,根据识别信息的参考图片的存储和打开的操作持续被执行。在视点中当识别信息被编码为值0时,中止存储和打开操作。
图6是根据本发明一个实施例的用于解释在多视点视频编解码中的空间直接模式的预测结构的框图。
首先,需要提前定义技术术语以解释应用了空间直接模式的实施例。例如,在直接预测模式中,在列表1参考图片之中具有最小参考索引的图片可被定义为锚图片。按照图片输出顺序,在相反方向最接近当前图片的参考图片(2)可成为锚图片。并且与当前块①处于相同位置的锚图片的块②可被定义为锚块。在这种情况下,可以将在锚块的列表0方向上的运动向量定义为mvCol。如果在锚块的列表0方向上没有运动向量,并且如果在列表1方向上有运动向量,在列表1方向上的运动向量可被设为mvCol。在这种情况下,在B图片的情况下,可以使用两个随机图片作为参考图片而不管时间或空间顺序。用于此的预测被称为列表0预测和列表1预测。例如,列表0预测可表示用于前向方向(时间前向)的预测,并且列表1预测可表示用于反方向的预测。在直接预测模式中,可使用锚块的运动信息来预测当前块的运动信息。在这种情况下,运动信息可表示运动向量、参考索引等。
参见图1,直接预测模式识别单元710识别当前条带的预测模式。例如,在当前条带的条带类型为B条带的情况下,直接预测模式是可用的。在这种情况下,可以使用指示将在直接预测模式中使用时间直接模式还是空间直接模式的直接预测模式标记。可从条带头中获得直接预测模式标记。在根据直接预测模式标记而应用空间直接模式的情况下,可以获得第一位置中相邻于当前块的块的运动信息。例如,假设在当前块①左边的块被称为相邻块A,在当前块①上面的块被称为相邻块B,并且在当前块①右上的块被称为相邻块C,可以获得相邻块A、B和C的每一个的运动信息。
第一变量导出单元721可以使用相邻块的运动信息来导出用于当前块的列表0/1方向的参考索引。并且,可以基于当前块的参考索引导出第一变量。在这种情况下,第一变量可表示用于预测当前块的运动向量的作为随机值的变量(directZeroPredictionFlag)。例如,可将相邻块的参考索引的最小值导出为用于当前块的列表0/1的参考索引。为此,可使用公式2。
[公式2]
refIdxL0=MinPositive(refIdxL0A,MinPostive(refIdxL0B,refIdxL0C))
refIdxL1=MinPositive(refIdxL1A,MinPostive(refIdxL1B,refIdxL1C))
其中MinPositive(x,y)=Min(x,y)(x≥0,y≥0)
Max(x,y)(其它情况)
具体而言,其成为MinPositive(0,1)=0。
也就是说,如果存在两个有效索引,可以获得较小的值。可选的是,其成为MinPositive(-1,0)=0。也就是说,如果存在一个有效索引,可获得作为有效索引值的最大的值。例如,如果两个相邻块是内编码块或不能用的块,获得大值“-1”,如果结果值成为无效值,则不应当存在至少一个有效值。
首先,可以将作为第一变量的初始值的第一变量设为0。在导出的用于列表0/1方向的所有导出的参考索引都大于0的情况下,用于列表0/1方向的当前块的参考索引可被设为0。并且,第一变量可被设为指示当前块的参考图片不存在的值。在这种情况下,用于列表0/1方向的所有导出的参考索引都小于0可表示相邻块是内编码块的情况,或者表示相邻块因为某些原因成为不可用块的情况。如果是,可以通过将第一变量设为1来将当前块的运动向量设为0。
第二变量导出单元722可以使用关于在锚图片中的锚块的运动信息来导出第二变量。在这种情况下,第二变量可表示用于预测当前块的运动向量作为随机值的变量(colZeroFlag)。例如,在锚块的运动信息满足预定条件的情况下,可以将第二变量设为1。如果第二变量被设为1,其可以将用于列表0/1方向的当前块的运动向量设为0。以下将描述预定条件。首先,在用于列表1方向的参考图片之中的具有最小参考索引的图片应当是短期参考图片。第二,锚块的参考图片的参考索引应当为0。第三,锚块的运动向量的水平或垂直分量的大小应当等于或小于±1像素。也就是说,其表示几乎没有运动的情况。因此,如果完全满足预定条件,可确定这是几乎不具有运动的序列。因此接着当前块的运动向量被设为0。
运动信息预测单元723可以基于导出的第一和第二变量来预测当前块的运动信息。例如,如果第一变量被设为1,其可以将用于列表0/1方向的当前块的运动向量设为0。如果第二变量被设为1,其可以将用于列表0/1方向的当前块的运动向量设为0。设置为0或1仅是示例性的,并且第一或第二变量可被设为其它预定值以供使用。另外,可以从在当前图片中的相邻块的运动信息中预测当前块的运动信息。
在应用了本发明的实施例中,因为需要考虑视点方向,必须另外解释上述的技术术语。例如,锚图片可表示在列表0/1参考图片之中在视点方向上的具有最小参考索引的图片。并且锚块表示在时间方向上与当前块处于相同位置的块,或者可表示通过考虑在视点方向上的视点间视差由视差向量偏移的相应块。并且,运动向量可包括指示视点间视差的视差向量的涵义。在这种情况下,视差向量可表示在两个彼此不同的视点之间的对象间或图片间视差,或者可表示全局视差向量。在这种情况下,运动向量可相应于局部区域(例如宏块、块、像素等),并且全局视差向量可表示相应于包括局部区域的整个区域的运动向量。整个区域可相应于宏块、条带、图片或序列。在某些情况下,其可相应于在图片或背景中的至少一个对象区域。并且,参考索引可表示用于识别在视点方向中的图片的视点的视点识别信息。因此可根据本发明的技术思想和技术范围来灵活地解释本公开中的技术术语。
首先,在当前块①参考视点方向的图片的情况下,其可以使用视点方向的参考图片之中具有最小参考索引的图片(3)。在这种情况下,参考索引可表示视点识别信息Vn。并且,可以使用视点方向在参考图片(3)之中偏移视差向量的相应块③的运动信息。在这种情况下,可以将相应块的运动向量定义为mvCor。
根据本发明一个实施例,以下将解释在多视点视频编解码中的空间直接模式。首先,当第一变量导出单元721使用相邻块的运动信息时,相邻块的参考索引可表示视点识别信息。例如,在相邻块的所有参考索引指示视点方向的图片的情况下,用于列表0/1方向的当前块的参考索引可被导出为相邻块的视点识别信息的最小值。在这种情况下,第二变量导出单元722可以在导出第二变量的处理中使用相应块的运动信息。例如,可以通过以下方式应用用于设置用于列表0/1方向的当前块的运动向量的条件。首先,在用于列表0/1方向的参考图片之中的具有最小参考索引的图片应当是短期参考图片。在这种情况下,参考索引可以是视点识别信息。第二,相应块所涉及的图片的参考索引应当为0。在这种情况下,参考索引可以是视点识别信息。第三,相应块③的运动向量mvCor的水平和或垂直分量大小应当等于或小于±1像素。在这种情况下,运动向量可以是视差向量。
作为另一个例子,在相邻块的所有参考索引指示在时间方向上的图片的情况下,可以使用上述方法来执行空间直接模式。
根据本发明另一个实施例,在多视点视频编解码中,必须有效地应用用于导出第二变量的处理。例如,通过检查当前块的运动信息和锚图片的相应块的运动信息之间的相关性可以允许更有效的编解码。具体而言,假设当前块和相应块位于相同视点。在相应块的运动信息指示在不同视点中的块,而当前块的运动信息指示在相同视点中的块的情况下,可以认为在这两个运动信息之间的相关性较低。在相应块的运动信息指示在相同视点中的块,而当前块的运动信息指示在不同视点中的块的情况下,可以认为在这两个运动信息之间的相关性较低。同时,假设当前块和相应块分别存在于彼此不同的视点中。同样的,在相应块的运动信息指示在不同视点中的块,而当前块的运动信息指示在相同视点中的块的情况下,可以认为在这两个运动信息之间的相关性较低。在相应块的运动信息指示在相同视点中的块,而当前块的运动信息指示在不同视点中的块的情况下,可以认为在这两个运动信息之间的相关性较低。
因此,如果通过比较当前块的运动信息和相应块的运动信息而存在相关性,通过导出第二变量可实现更有效的编解码。运动信息预测单元723可以基于导出的第一和第二变量来预测当前块的运动信息。首先,如果第一变量被设为1,用于列表0/1方向的当前块的运动向量可被设为0。如果第二变量被设为1,用于列表0/1方向的当前块的运动向量可被设为0,并且如果在当前块的运动信息和相应块的运动信息之间存在相关性,其可以将当前块的运动向量设为0。在这种情况下,相应块可以是与锚图片处于相同位置的块。并且,如果在当前块的运动信息和相应块的运动信息之间存在相关性,可表示这两个运动信息朝向相同方向的情况。例如,假设当前块和相应块存在于相同视点中。如果当前块的运动信息指示在相同视点中的块,并且如果相应块的运动信息指示在相同视点中的块,可以认为在这两个运动信息之间存在相关性。如果当前块的运动信息指示在不同视点中的块,并且如果相应块的运动信息指示在不同视点中的块,可以认为在这两个运动信息之间存在相关性。同样的,假设当前块和相应块分别存在于彼此不同的视点中,可以通过相同方式作出相应的确定。
根据本发明另一个实施例,以下将解释用于决定在当前和相应块的运动信息之间的相关性的详细方法。
例如,可以定义当前块的运动信息(mvL0,mvL1)的预测类型(predTypeL0,predTypeL1)。也就是说,可以定义指示其是在时间方向上的运动信息还是在视点方向上的运动信息的预测类型。同样的,可以定义相应块的运动信息(mvColL0,mvColL1)的预测类型(predTypeColL0,predTypeColL1)。接着可以确定当前块的运动信息的预测类型是否与相应块的运动信息的预测类型相同。如果这两个预测类型彼此相同,可以确定导出的第二变量是有效的。在这种情况下,可以定义指示导出的第二变量是否有效的变量。如果其被设为“colZeroFlagValidLX”,如果预测类型相同,其可被设为“colZeroFlagValidLX=1”。如果预测类型不相同,其可被设为“colZeroFlagValidLX=0”。
根据本发明另一个实施例,分别定义用于L0方向的第二变量和用于L1方向的第二变量,并且接着用于导出每个mvLX。
图7是根据本发明一个实施例的用于解释依照运动跳跃存在与否来执行运动补偿的方法的框图。
运动跳跃确定单元730确定是否导出当前块的运动信息。例如,其可以使用运动跳跃标记。如果motion_skip_flag=1,运动跳跃确定单元730执行运动跳跃,也就是说,运动跳跃确定单元730导出当前块的运动信息。在另一方面,如果motion_skip_flag=0,运动跳跃确定单元730不执行运动跳跃,但是获得传输的运动信息。在这种情况下,运动信息可包括运动向量、参考索引、块类型等。在通过运动跳跃确定单元730来执行运动跳跃的情况下,相应块搜索单元731搜索相应块。运动信息导出单元732可以使用相应块的运动信息来导出当前块的运动信息。接着运动补偿单元740使用导出的运动信息执行运动补偿。同时,如果运动跳跃确定单元730不执行运动跳跃,运动信息获取单元733获得传输的运动信息。接着运动补偿单元740使用获得的运动信息执行运动补偿。
根据本发明一个实施例,其可以使用用于第二域的第一域的编解码信息来预测用于第二域的当前块的编解码信息。在这种情况下,可以获得块信息和运动信息作为编解码信息。例如,在跳跃模式中,在当前块之前编码的块的信息被利用为当前块的信息。在应用跳跃模式时,存在于不同域中的信息是有用的。以下将参照详细示例来描述这些。
作为第一个例子,可以假设在充分靠近时间Ta的时间Tb相似地获得在时间Ta两个不同视点序列中的对象(或背景)的相关运动关系。在这种情况下,在时间Ta的视点方向编解码信息与在时间Tb的视点方向编解码信息具有高相关性。如果完整使用在不同时间区域中的在相同视点中的相应块的运动信息,可以获得高编解码效率。并且,可以使用指示是否使用该方法的运动跳跃信息。在根据运动跳跃信息应用运动跳跃模式的情况下,可以将这样的运动信息预测为当前块的相应块的块类型、运动向量和参考索引。因此,可以减少编解码运动信息所需的比特量。例如,如果motion_skip_flag为0,不应用运动跳跃模式。如果motion_skip_flag为1,应用运动跳跃模式给当前块。并且,可在宏块层定位运动跳跃信息。例如,运动跳跃信息被定位于宏块层的扩展区域,并且接着可以优先指示解码器是否从比特流中获得运动信息。
作为第二个例子,如同先前的例子,通过改变第一和第二域(第一和第二域为算法应用轴)的方式来使用相同的方法。具体而言,在相同时间Ta时在视点Va内的对象(或背景)和在相邻于视点Va的视点Vb内的对象(或背景)极有可能具有相似的运动信息。在这种情况下,如果直接取出在不同视点中处于相同时间区域中的相应块的运动信息,并且接着使用这些运动信息,则可以获得高编解码效率。并且,可以使用指示是否使用该方法的运动跳跃信息。
编码器使用相邻于当前块的块的运动信息来预测当前块的运动信息,并且接着传输实际运动向量和预测的运动向量之间的差值。同样的,解码器确定当前宏块所涉及的图片的参考索引是否等于相邻宏块所涉及的图片的参考索引,并且接着相应地获得运动向量预测的值。例如,在相邻块中存在具有当前宏块的相同参考索引的单独的块的情况下,将相邻块的运动向量使用为当前块的运动向量。在其它情况下,使用相邻块的运动向量的中值。
在多视点视频编解码中,参考图片不仅可存在于时间轴,还可以存在于视点轴。因为该特征,如果当前块的参考索引不同于相邻块的参考索引,他们的运动向量不具有相关性的可能性非常大。如果这样的话,认为运动向量预测的值的精确度较低。因此,提出了根据本发明一个实施例的使用视点间相关性的新的运动向量预测方法。
例如,在视点之间生成的运动向量可能依赖于每个对象的深度。如果序列的深度不具有显著的空间改变,并且如果根据时间轴的变化的序列的运动不是显著的,在每个宏块的位置上的深度本身将不会发生显著的改变。在这种情况下,深度可表示适于指示视点间视差的信息。因为全局运动向量的影响基本上存在于照相机之间,尽管深度有轻微的变化,如果全局运动向量充分地大于深度改变,使用全局运动向量比使用不具有相关性的相邻块的时间方向运动向量更有效。
在这种情况下,通常全局运动向量可表示适于预测区域的运动向量。例如,如果运动向量相应于部分区域(例如宏块、块、像素等),全局运动向量或全局视差向量是相应于包括该部分区域的完整区域的运动向量。例如,完整区域可相应对单个条带、单个图片或整个序列。并且,完整区域可相应于在图片、背景或预定区域之中的至少一个对象。全局运动向量可以是像素单元或1/4像素单元的值或4×4单元、8×8单元或宏块单元的值。
根据本发明一个实施例,可以使用相同位置的块的视点间运动信息来预测当前块的运动向量。在这种情况下,相同位置的块可以是存在于相同图片中的邻近当前块的块,或者可以是在不同图片中包括的相应于与当前块处于相同位置的块。例如,在处于不同视点的不同图片的情况下,其可以是空间上处于相同位置的块。在处于相同视点的不同图片的情况下,其可以是时间上处于相同位置的块。
在多视点视频编解码结构中,可通过仅将用于预测的图片放置到具有预定时间间隔的视点方向上来执行随机访问。因此,如果仅解码在视点方向上的用于预测运动信息的两个图片,可以应用新的运动向量预测方法到时间性地存在于两个解码图片之间的图片上。例如,可以从仅在视点方向上用于预测的图片中获得视点方向运动向量,并且其可被存储为4×4块单元。在仅执行视点方向预测时亮度差是显著的情况下,通过帧内预测来实现编解码是经常发生的。在这种情况下,运动向量可被设为0。但是,如果主要通过帧内预测来实现编解码,则使用显著的亮度差,生成许多宏块,其关于在视点方向上的运动向量的信息是未知的。为了补偿这些,在帧内预测的情况下,可以使用相邻块的运动向量来计算虚拟视点间运动向量。并且,可以将虚拟视点间运动向量设置为由帧内预测编码的块的运动向量。
在已从两个解码图片中获得视点间运动向量信息之后,可以解码存在于解码图片之间的分级B图片。在这种情况下,两个解码图片可以是视点间图片组。在这种情况下,视点间图片组可表示仅参考所有条带都在处于相同时间区域中的帧中的条带的编码图片。例如,其表示参考仅处于不同视点中的条带而不参考处于当前视点中的条带的编码图片。
同时,在预测当前块的运动向量的方法中,接着可以使用相应块的编解码信息来预测存在于不同于当前块的视点的视点中的相应块和当前块的编解码信息。首先,以下将解释寻找存在于不同于当前块的视点的视点中的相应块的方法。
例如,相应块可以是由当前块的视点方向运动向量来指示的块。在这种情况下,视点方向运动向量表示指示视点间视差或全局运动向量的向量。在这种情况下,全局运动向量的含义已在上述描述中解释了。并且,全局运动向量可指示在当前块的相同时间中的相邻视点的相应宏块位置。参见图7,图片A和B存在于时间Ta,图片C和D存在于时间Tcurr,并且图片E和F存在于时间Tb。在这种情况下,在时间Ta的图片A和B以及在时间Tb的图片可以是视点间图片组。并且,在时间Tcurr的图片C和D可以是非视点间图片组。图片A、C和E存在于相同视点Vn中。并且,图片B、D和F存在于相同视点Vm中。图片C是当前要被解码的图片。并且,图片D的相应宏块(MB)是由在视点方向中的当前块(当前MB)的全局运动向量GDVcurr所指示的块。可以由在当前图片和在相邻视点中的图片之间的宏块单元来获得全局运动向量。在这种情况下,由指示视点间参考关系(视点依赖性)的信息可以知道关于相邻视点的信息。
指示视点间参考关系(视点依赖性)的信息是指示使用哪种结构来预测视点间序列的信息。可以从视频信号的数据区域中获得这些。例如,可以从例如序列参数集中获得。并且,可以使用参考图片的数量信息和参考图片的视点信息来识别视点间参考信息。例如,在获得了所有数量的视点之后,其可以基于全部数量的视点来识别用于区分每个视点的竞争信息(vie information)。并且,其可以获得用于每个视点的参考方向的参考图片的编号。根据参考图片的编号,可以获得每个参考图片的视点信息。通过该处理,可以获得视点间参考信息。并且,可以通过划分为视点间图片组的情况和非视点间图片组的情况这样的方式来识别视点间参考信息。使用指示在当前NAL单元中的编码条带是否相应于视点间图片组的视点间图片组识别信息可以知道以上方式。
根据视点间图片组识别信息,获得全局运动向量的方法可能不同。例如,在当前图片相应于视点间图片组的情况下,其可以从接收到的比特流中获得全局运动向量。在当前图片相应于非视点间图片组的情况下,其可以从视点间图片组的全局运动向量中导出。
在执行以上方法时,可以与视点间图片组的全局运动向量一起使用指示时间和距离的信息。例如,参见图7,假设图片A的全局运动向量被设为GDVa,并且图片E的全局运动向量被设为GDVb,可以使用相应于视点间图片组的图片A和E的全局运动向量以及时间距离信息来获得相应于非视点间图片组的当前图片C的全局运动向量。例如,时间距离信息可包括指示图片输出顺序的POC(图片序号)。因此其可以使用公式3来导出当前图片的全局运动向量。
[公式3]
由导出的当前图片的全局运动向量指示的块可被认为是相应块以预测当前块的编解码信息。
相应块的所有运动信息和模式信息可被用于预测当前块的编解码信息。编解码信息可包括编解码当前块所需的信息,例如运动信息、关于亮度补偿的信息、权重预测信息等。在应用运动跳跃模式给当前宏块的情况下,可以将在不同视点中的先前解码的图片的运动信息直接使用为当前块的运动信息以代替当前宏块的编解码运动信息。在这种情况下,运动跳跃模式可包括通过依赖在相邻视点中的相应块的运动信息来获得当前块的运动信息的情况。例如,在应用运动跳跃模式给当前宏块的情况下,相应块的所有运动信息,例如宏块类型、参考索引、运动向量等可被利用为当前宏块自己的运动信息。但是,运动跳跃模式可能不适用于以下情况。例如,其无法应用到当前图片是在与传统编解码器相兼容的参考视点中的图片,或是相应于视点间图片组的图片的情况。运动跳跃模式适用于相应块存在于相邻视点中,并且以帧间预测模式来解码相应块的情况。如果应用了运动跳跃模式,可根据视点间参考信息来优先地使用列表0参考图片的运动信息。如果必须,也可以使用列表1参考图片的运动信息。
根据本发明一个实施例,以下将解释在使用至少一个参考视点的情况下,更有效地应用运动跳跃的方法。
可以通过比特流在编码器中明确地传输关于参考视点的信息,或者可以由编码器隐含地且随机地确定。以下描述中将解释该明确方法和隐含方法。
首先,可以明确地传输指示包括在参考视点列表中的哪个视点被设为参考视点的信息,也就是参考视点的视点识别信息。在这种情况下,参考视点列表可表示基于视点间参考关系(视点依赖性)构建的参考视点的列表。
例如,如果被设置为检查最靠近当前视点中的视点是否可以作为属于参考视点列表的视点之中的参考视点,则必须明确地传输参考视点的视点识别信息。但是因为在方向L0和L1上的参考视点列表可能存在于这样的情况中,其可以明确的传输指示这两个中的哪一个将首先被检查的标记信息。例如,可以根据标记信息确定首先检查在方向L0中的参考视点列表还是在方向L1中的参考视点列表。
作为另一个例子,可以明确地传输将被用于运动跳跃的参考视点的编号信息。在这种情况下,可以从序列参数集中获得参考视点的编号信息。并且,可以明确地传输具有由编码器计算的最佳效率(bestefficiency)的多个全局运动向量。在这种情况下,可以从非视点间图片组的条带头中获得多个全局运动向量。因此,多个传输的全局运动向量可被顺序的应用。例如,在以帧内模式编码或不适用由具有最佳效率的全局运动向量指示的块的情况下,其可以检查由具有第二最佳效率的全局运动向量指示的块。并且,其可以以相同方式检查由多个明确传输的全局运动向量指示的所有的块。
作为另一个例子,可以定义指示是否将在序列中应用运动跳跃模式的标记信息。例如,如果motion_skip_flag_sequence为1,序列中适用运动跳跃模式。如果motion_skip_flag_sequence为0,序列中不适用运动跳跃模式。如果这样的话,可以再检查是否将在条带或宏块等级中应用运动跳跃模式。
如果根据标记信息在序列中应用运动跳跃模式,可以定义将在运动跳跃模式中使用的参考视点的全部数量。例如num_of_views_minusl_for_ms可表示将在运动跳跃模式中使用的参考视点的全部数量。并且,可从序列参数集的扩展区域中获得num_of_views_minusl_for_ms。其可以获得总计为参考视点的全部数量的全局运动向量。在这种情况下,可从条带头中获得全局运动向量。并且,仅如果当前条带相应于非视点间图片组,可以获得全局运动向量。因此,可以通过上述方式顺序地应用多个获得的全局运动向量。
作为另一个例子,可以基于参考视点的数量从序列参数集的扩展区域中获得全局运动向量。例如,可通过划分为在L0方向上的全局运动向量和在L1方向上的全局运动向量来获得全局运动向量。在这种情况下,可从视点间参考信息中确认参考视点的数量,并且可通过划分为在L0方向上的参考视点的数量和在L1方向上的参考视点的数量来获得参考视点的数量。在这种情况下,在条带内的所有块使用从序列参数集的扩展区域中获得的相同的全局运动信息。并且,可以在宏块层中使用不同的全局运动向量。在这种情况下,指示全局运动向量的索引可以与之前编码的视点间图片组的全局运动向量的索引相同。并且,全局运动向量的视点识别信息可以与由之前编码的视点间图片组的全局运动向量所指示的视点的识别数量相同。
作为另一个例子,可以传输具有由编码器计算的最佳效率的相应块的视点识别数量。也就是说,可以在宏块等级上编码所选择的参考视点的视点识别数量。可选的是,可以在条带等级上编码所选择的参考视点的视点识别数量。可选的是,可以在条带等级上定义允许选择条带等级或宏块等级的标记信息。例如,如果标记信息指示使用宏块等级,可在宏块等级上解析参考视点的视点识别数量。可选的是,在标记信息指示使用条带等级的情况下,可在条带等级上解析参考视点的视点识别数量而不是在宏块等级上解析。
同时,可以不传输指示选择在L0和L1方向上的参考视点列表中包括的哪个参考视点作为参考视点的信息。如果是,通过检查运动信息是否存在于参考视点的每一个的相应块中,可以确定最终参考视点和相应块。可以存在多种关于将最优先地检查属于在L0和L1方向上的参考视点列表的规定的一个的哪一个参考视点的实施例。如果运动信息不存在于参考视点中,可以存在多种关于执行检查的顺序的实施例。
例如,按照属于特定参考视点列表的参考视点之间的优先级,首先,可以以指示在L0方向中的参考视点列表(或者在L1方向中的参考视点列表)所包括的参考视点之中的参考视点的更低索引的顺序来检查参考视点。在这种情况下,指示参考视点的索引可以是在编码编码器中的比特流的一系列参考视点集。例如,在将在序列扩展信息(SPS扩展)中的非视点间图片组的参考视点表示为non_anchor_ref_l0[i]或non_anchor_ref_l1[i]中,“i”可以是指示参考视点的索引。在编码器中,其可以以更接近于当前视点的顺序分配更低索引,其并不是对本发明的限制。如果索引“i”开始于0,检查“i=0”的参考索引,检查“i=1”的参考索引,并且接着检查“i=2”的参考索引。
作为另一个例子,其可以以更接近当前视点的顺序检查在L0方向上的参考视点列表(或在L1方向上的参考视点列表)所包括的参考视点。
作为另一个例子,其可以以更接近基视点的顺序检查在L0方向上的参考视点列表(或在L1方向上的参考视点列表)所包括的参考视点。
在L0方向参考视点列表和L1方向参考时间列表之间的优先级中,可以以检查属于L0方向参考视点列表的参考视点而不是检查属于L1方向参考视点列表的方式来做出设置。在该设置的假设上,以下将分别解释参考视点存在于L0方向和L1方向参考视点列表中的情况,和参考视点存在于L0方向或L1方向参考视点列表中的情况。
图8和图9是根据本发明一个实施例的从用于当前视点的参考视点列表中确定参考视点和相应块的方法的例子的框图。
参见图8和图9,随着参考当前视点Vc和当前块MBc,可以看出存在在L0方向上的参考视点列表RL1和在L1方向上的参考视点列表RL2。在L0方向参考视点列表RL1中,具有指示参考视点被确定为第一参考视点RV1的最低索引的视点(Vc-1=non_anchor_ref_l0[0]),并且在当前视点Vc和第一参考视点RV1之间的由全局运动向量(GDV_l0[0])所指示的块可被确定为第一相应块CB1[S310]。在第一相应块CB1不是帧内块的情况下,也就是说如果存在运动信息[S320],第一相应块被最终确定为相应块,并且可以接着从第一相应块中获得运动信息[S332]。
在另一方面,如果第一相应块CB1的块类型是图片内预测块[S320],具有指示在L1方向参考视点列表RL2中的参考视点的最低索引的视点(Vc+1=non_anchor_ref_l1[0])被确定为第一参考视点RV2,并且在当前视点Vc和第二参考视点RV2之间的由全局运动向量(GDV_l1[0])所指示的块可被确定为第二相应块CB2[S334]。如上述步骤S320、S332和S334,在运动信息不存在于第二相应块CB2中的情况下,通过确定具有指示在L0方向参考视点列表RL1中的参考视点的最低索引的视点(Vc-2=non_anchor_ref_l0[0])作为第三参考视点RV3,并且通过确定具有指示在L1方向参考视点列表RL2中的参考视点的第二最低索引的视点(Vc+2=non_anchor_ref_l1[0])作为第四参考视点RV4,可以顺序的检查第三和第四相应块CB3和CB4。也就是说,通过考虑指示参考视点的索引,其可以通过交替L0方向和L1方向参考视点列表RL1和RL2的各个参考视点来检查是否存在运动信息。
如果具有在关于当前视点的的视点间参考信息中的最低索引的视点(例如non_anchor_ref_l0[i],non_anchor_ref_l1[i],i=0)是最接近当前视点Vc的视点,参考视点的用于候选的参考的选择(也就是第一参考视点、第二参考视点等)可被排序为最接近当前视点Vc。同时,在具有最低索引的视点是接近基视点的视点的情况下,参考视点的用于候选的参考的选择可以是基视点或顺序最接近基视点,其并不是对本发明的限制。
作为另一个例子,其可以基于相邻块的参考信息来选择参考视点。例如,相邻块在视点方向上的参考信息可用的情况下,不存在于相邻于当前块的块中,其可以基于视点间参考关系(视点依赖性)来选择参考视点。可选的是,单个相邻块在视点方向上的参考信息可用的情况下,其存在于相邻于当前块的块中,当前块可使用单个相邻块的视点方向参考信息。可选的是,在至少两个相邻块在视点方向上的参考信息可用的情况下,其存在于相邻于当前块的块中,可以使用具有在相同视点方向上的参考信息的相邻块的视点方向参考信息。
作为另一个例子,可以基于存在于当前块的相同视点的不同时间区域中的块的块类型来选择参考视点。例如,假设16×16宏块、16×8或8×16宏块、8×8宏块、8×4或4×8宏块以及4×4宏块分别为等级0、等级1、等级2、等级3和等级4。可以比较在多个参考视点中的相应块的块类型。如果块类型彼此相同,可以通过应用上述方法从在L0或L1方向上的参考视点列表中选择参考视点。在另一方面,如果块类型彼此不同,可以优先地选择包括在更高等级中的块的参考视点。可选的是,可以优先地选择包括在更低等级中的块的参考视点。
图10和图11是根据本发明一个实施例的在多视点视频编解码中提供多种伸缩性的例子的框图。
图10(a)表示空间伸缩性,图10(b)表示帧/场伸缩性,图10(c)表示比特深度伸缩性,并且图10(d)表示色度格式伸缩性。
根据本发明一个实施例,可以在多视点视频编解码中使用每个视点独立的序列参数集信息。如果使用了每个视点独立的序列参数集信息,关于多种伸缩性的信息可以独立地应用给每个视点。
根据另一个实施例,在多视点视频编解码中所有视点仅可以使用一个序列参数集信息。如果全部视点使用一个序列参数集信息,需要在单个序列参数集中重新定义关于多种伸缩性的信息。以下将详细解释多种伸缩性。
首先,以下将解释在图10(a)中的空间伸缩性。
在多个视点中捕获的序列在空间分辨率上因为多种因素可能彼此不同。例如,每个视点的空间分辨率可能因为照相机的特性差异而不同。在这种情况下,为了更有效编解码用于每个视点的空间分辨率信息是必须。为此,可以定义指示分辨率信息的语法信息[S1300]。
首先,其可以定义指示全部视点的空间分辨率是否彼此相同的标记。例如,如果在图11C中的spatial_scalable_flag=0,其可表示所有视点的编码图片在宽度和高度上彼此相同。
如果spatial_scalable_flag=1,其可表示所有视点的编码图片在宽度和高度上彼此不同。在根据标记信息各个视点的空间分辨率不同的情况下,可以定义在空间分辨率上不同于基视点的视点的全部数量的信息。例如,增加1到num_spatial_scalable_views_minusl1的值所得到的值可表示全部在空间分辨率上不同于基视点的视点的全部数量。
根据以上述方式获得全部数量,可以获得在空间分辨率上不同于基视点的视点的视点识别信息。例如,spatial_scalable_view_id[i]可表示根据全部数量在空间分辨率上不同于基视点的视点的视点识别数量。
根据全部数量,可以获得指示具有视点识别数量的视点的编码图片的宽度的信息。例如,在图11A和图11B中,增加1到pic_width_in_mbs_minus[i]的值所得到的值可表示在空间分辨率上不同于基视点的视点中的编码图片的宽度。在这种情况下,指示宽度的信息可以是关于宏块单元的信息。因此,用于亮度分量的图片的宽度可以是将pic_width_in_mbs_minus[i]的值乘以16所得到的值。
根据全部数量,可以获得指示在视点识别数量的相同视点中的编码图片的高度的信息。例如,增加1到pic_height_in_map_units_minus[i]的值所得到的值可表示在空间分辨率上不同于基视点的视点的编码帧/场的高度。在这种情况下,指示高度的信息可以是关于条带组映射单元的信息。因此,图片的大小可以是将指示宽度的信息乘以指示高度的信息所得到的值。
第二,以下将解释在图10(b)中的帧/场伸缩性。在多个视点中捕获的序列在编解码方案上因为多种因素可能彼此不同。例如,每个视点序列可以由帧编解码方案、场编解码方案、图片等级场/帧自适应编解码方案和宏块等级场/帧自适应编解码方案来编解码。在这种情况下,为了更有效地编解码,必须为每个视点指示编解码方案。为此,可以定义指示编解码方案的语法信息[S1400]。
首先,可以定义指示全部视点序列的编解码方案是否彼此相同的标记。例如,如果在图11C中的frame_field_scalable_flag=0,可表示指示每个视点的编解码方案的标记信息彼此相同。作为一个指示编解码方案的标记信息的例子,参见图11A和图11C,其可以是frame_mbs_only_flag或mb_adaptive_frame_field_flag。frame_mbs_only_flag可表示指示编码图片是否仅包括帧宏块的标记信息。mb_adaptive_frame_field_flag可表示指示是否在帧中发生在帧宏块和场宏块之间的切换的标记信息。如果frame_field_scalable_flag=1,其可表示指示编解码方案的标记信息对于每个视点不同。
在根据标记信息每个视点的编解码方案不同的情况下,可以定义在方案上不同于基视点的视点的全部数量的信息。例如,增加1到num_frame_field_scalable_view_minus1的值所得到的值可表示在帧/场编解码方案上不同于基视点的视点的全部数量。
根据以上述方式获得的全部数量,可以获得在编解码方案上不同于基视点的视点的视点识别信息。例如,frame_field_scalable_view_id[i]可表示在编解码方案上不同于基视点的视点的视点识别信息。
根据全部数量,可以获得指示在视点识别数量的相同视点中的编码图片的编解码方案的信息。例如,其可以是frame_mbs_only_flag[i]和mb_adaptive_frame_field_flag[i]。在以上描述中已详细描述了这些。
第三,以下将描述比特深度可伸缩性。多个视点捕获的序列在亮度信号和色度信号的比特深度和量化参数范围偏移因为多种因素可能彼此不同。在这种情况下,为了更有效地编解码,必须为每个视点指示比特深度和量化参数范围偏移。为此,其可以定义指示比特深度和量化参数范围偏移的语法信息[S1200]。
首先,其可以定义指示全部视点序列的比特深度和量化参数范围偏移是否彼此相同的标记。例如,如果bit_depth_scalable_flag=0,其可表示全部视点序列的比特深度和量化参数范围偏移彼此相同。如果bit_depth_scalable_flag=1,其可表示全部视点序列的比特深度和量化参数范围偏移彼此不同。可以基于简表(profile)标识符从序列参数集的扩展区域中获得标记信息。
如果根据标记信息,视点的比特深度彼此不同,可以定义关于不同于基视点的视点的全部数量的信息。例如,增加1到num_bit_depth_scalabel_views_minus1的值所得到的值表示在比特深度上不同于基视点的视点的全部数量。根据以该方式获得的全部数量,可以获得在比特深度上不同于基视点的视点的视点识别信息。例如,bit_depth_scalabel_view_id[i]可表示在比特深度上不同于基视点的视点的视点识别信息。
根据全部数量,可以获得指示视点识别数量的相同视点的亮度和色度信号的比特深度和量化参数范围偏移的信息。例如,有图11A和图11B中的bit_depth_luma_minus8[i]和bit_depth_chroma_minus8[i]。bit_depth_luma_minus8[i]可表示在比特深度上不同于基视点的视点的比特深度和量化参数范围偏移。在这种情况下,比特深度可以是关于亮度信号的信息。bit_depth_chroma_minus8[i]可表示在比特深度上不同于基视点的视点的比特深度和量化参数范围偏移。在这种情况下,比特深度可以是关于色度信号的信息。使用比特深度信息和宏块的宽度及高度信息,可以得知视点识别号的相同视点的原始宏块的比特(RawMbBits[i])。
第四,以下将解释在图10(d)中所示的色度格式伸缩性。多个视点捕获的序列在每个视点的序列格式因为多种因素可能彼此不同。在这情况下,为了更有效地编解码,其必须指示每个视点的序列格式。为此,可以定义指示序列格式的语法信息[S1100]。
首先,可以定义指示在全部视点中的序列格式是否彼此相同的标记。例如,如果chroma_format_scalable_flag=0,其可表示在全部视点中的序列格式彼此相同。也就是说,其可表示亮度采样与色度采样之比相同。如果chroma_format_scalable_flag=1,其可表示在视点中的序列格式彼此不同。可基于简表标识符从序列参数集的扩展区域中获得该标记。
如果根据标记,各个视点的序列格式彼此不同,可以定义在序列格式上不同于基视点的视点的全部数量。例如,增加1到num_chroma_format_scalable_views_minus1的值所得到的值可表示在序列格式上不同于基视点的视点的全部数量。
根据以上述方式获得的全部数量,可以获得在序列格式上不同于基视点的视点的视点识别信息。例如chroma_format_scalable_id[i]可表示根据全部数量在序列格式上不同于基视点的视点的视点识别数量。
根据全部数量,可以获得指示具有视点识别数量的视点的序列格式的信息。例如在图11B中的chroma_format_idc[i]可表示在序列格式上不同于基视点的视点的序列格式。具体而言,其可表示4:4:4格式,4:2:2格式或4:2:0格式。在这种情况下,可以获得指示是否应用残留颜色变换处理的标记信息(residual_colour_transform_flag[i])。
如以上描述所述,本发明所应用的解码/编码设备被提供给将被用于解码视频和数据信号等的用于多媒体广播,例如DMB(数字多媒体广播)的发射器/接收器。并且,多媒体广播发射器/接收器可包括移动通信终端。
本发明所应用的解码/编码方法被配置为具有用于计算机处理的程序,并且接着被存储到计算机可读记录媒体中。并且,具有本发明的数据结构的多媒体数据可以储存到计算机可读记录媒体中。计算机可读记录媒体包括多种用于存储可由计算机系统读取的数据的存储设备。计算机可读记录媒体包括ROM、RAM、CD-ROM、磁带、软盘、光学数据存储设备等,并且还包括载波实现的设备(例如通过因特网的传输)。并且,由编码方法生成比特流被存储在计算机可读记录媒体中,或通过有线/无线通信网络传输。
工业实用性
从而,尽管本发明已参照其优选实施例进行了描述及说明,很明显本领域的技术人员可对其进行各种修改及变化,而不脱离本发明的精神或范畴。因此,本发明覆盖权利要求书及其等同范围所提供本发明的修改及变化。
Claims (13)
1.一种解码视频信号的方法,所述方法包括:
获得指示视点间图片组中是否包括当前NAL单元的编码图片的识别信息;
根据所述识别信息获得非视点间图片组的视点间参考信息;
根据所述非视点间图片组的视点间参考信息获得运动向量;
使用所述运动向量导出第一相应块的位置;和
使用所述导出的第一相应块的运动信息解码当前块,
其中所述视点间参考信息包括所述非视点间图片组的参考视点的编号信息。
2.根据权利要求1所述的方法,其进一步包括检查所述导出的第一相应块的块类型,其中基于所述第一相应块的块类型确定是否导出存在于不同于所述第一相应块的视点的参考视点中的第二相应块。
3.根据权利要求2所述的方法,其中基于预定顺序导出所述第一和第二相应块的位置,并且其中以优选地使用所述非视点间图片组的用于LO方向的参考视点,并且接着使用所述非视点间图片组的用于L1方向的参考视点这样的方式来配置所述预定顺序。
4.根据权利要求3所述的方法,其中如果所述第一相应块的块类型是帧内块,则使用用于所述L1方向的参考视点。
5.根据权利要求3所述的方法,其中以最接近当前视点的顺序使用用于所述L0/L1方向的参考视点。
6.根据权利要求1所述的方法,其进一步包括获得指示是否将导出所述当前块的运动信息的标记信息,其中基于所述标记信息导出所述第一相应块的位置。
7.根据权利要求1所述的方法,其进一步包括:
获得所述第一相应块的运动信息;和
基于所述第一相应块的运动信息导出所述当前块的运动信息,
其中使用所述当前块的运动信息解码所述当前块。
8.根据权利要求1所述的方法,其中所述运动信息包括运动向量和参考索引。
9.根据权利要求1所述的方法,其中所述运动向量是所述视点间图片组的全局运动向量。
10.一种用于解码视频信号的装置,所述装置包括:
参考信息获取单元,用于根据指示视点间图片组是否包括当前NAL单元的解码图片的识别信息来获得非视点间图片组的视点间参考信息;和
相应块搜索单元,用于根据所述非视点间图片组的所述视点间参考信息而获得的视点间图片组的全局运动向量导出相应块的位置,
其中所述视点间参考信息包括所述非视点间图片组的参考视点的编号信息。
11.根据权利要求1所述的方法,其中所述视频信号作为广播信号被接收。
12.根据权利要求1所述的方法,其中所述视频信号通过数字媒体被接收。
13.一种包括用于执行权利要求1所述的方法的程序的计算机可读媒体,所述程序记录在所述计算机可读媒体中。
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US89275307P | 2007-03-02 | 2007-03-02 | |
US60/892,753 | 2007-03-02 | ||
US60/907,926 | 2007-04-23 | ||
US60/946,402 | 2007-06-27 | ||
US60/948,201 | 2007-07-06 | ||
US60/949,516 | 2007-07-13 | ||
US60/951,936 | 2007-07-25 | ||
US60/992,693 | 2007-12-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101669367A true CN101669367A (zh) | 2010-03-10 |
Family
ID=41804865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200880013796.7A Pending CN101669367A (zh) | 2007-03-02 | 2008-03-03 | 用于解码/编码视频信号的方法及设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20100266042A1 (zh) |
CN (1) | CN101669367A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101969565A (zh) * | 2010-10-29 | 2011-02-09 | 清华大学 | 一种符合多视点视频标准的视频解码方法 |
CN101977320A (zh) * | 2010-10-29 | 2011-02-16 | 清华大学 | 一种符合多视点视频标准的视频编码方法 |
CN102055983A (zh) * | 2011-01-26 | 2011-05-11 | 清华大学 | 基于标准的h.264解码器的mvc-3d立体视频的解码方法 |
CN103081479A (zh) * | 2010-09-03 | 2013-05-01 | 索尼公司 | 编码装置、编码方法、解码装置和解码方法 |
CN103299642A (zh) * | 2011-01-07 | 2013-09-11 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
CN103493492A (zh) * | 2011-02-21 | 2014-01-01 | 三星电子株式会社 | 用于对多视点视频进行编码和解码的方法和设备 |
CN103597837A (zh) * | 2011-06-15 | 2014-02-19 | 联发科技股份有限公司 | 运动和视差矢量预测的方法及装置以及3d视频编码补偿 |
WO2014047781A1 (en) * | 2012-09-25 | 2014-04-03 | Mediatek Singapore Pte. Ltd. | Methods for inter-view residual prediction |
WO2014089805A1 (en) * | 2012-12-13 | 2014-06-19 | Mediatek Singapore Pte. Ltd. | A new reference management method for video coding |
CN104170389A (zh) * | 2012-04-24 | 2014-11-26 | 联发科技股份有限公司 | 三维视频编码的运动向量产生方法及装置 |
CN104782123A (zh) * | 2012-10-22 | 2015-07-15 | 数码士控股有限公司 | 用于预测视点间运动的方法以及用于确定3维视频中的视点间合并候选的方法 |
CN104796699A (zh) * | 2011-07-02 | 2015-07-22 | 三星电子株式会社 | 对视频编码的方法和设备以及对视频解码的方法和设备 |
CN107071403A (zh) * | 2011-06-30 | 2017-08-18 | Jvc建伍株式会社 | 图像编码装置、图像编码方法、图像解码装置及图像解码方法 |
CN108174203A (zh) * | 2012-01-18 | 2018-06-15 | Jvc 建伍株式会社 | 动图像解码装置以及动图像解码方法 |
CN106210739B (zh) * | 2011-01-07 | 2019-07-16 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
CN110139108A (zh) * | 2011-11-11 | 2019-08-16 | Ge视频压缩有限责任公司 | 用于将多视点信号编码到多视点数据流中的装置及方法 |
CN113574889A (zh) * | 2019-03-14 | 2021-10-29 | 北京字节跳动网络技术有限公司 | 环路整形信息的信令和语法 |
US11968348B2 (en) | 2011-11-11 | 2024-04-23 | Ge Video Compression, Llc | Efficient multi-view coding using depth-map estimate for a dependent view |
US12063362B2 (en) | 2019-03-23 | 2024-08-13 | Beijing Bytedance Network Technology Co., Ltd | Restrictions on adaptive-loop filtering parameter sets |
US12096021B2 (en) | 2019-02-01 | 2024-09-17 | Beijing Bytedance Network Technology Co., Ltd. | Signaling of in-loop reshaping information using parameter sets |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101558652B (zh) * | 2006-10-20 | 2011-08-17 | 诺基亚公司 | 用于实现低复杂度多视点视频编码的系统和方法 |
US8548261B2 (en) * | 2007-04-11 | 2013-10-01 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding multi-view image |
EP2034742A3 (en) * | 2007-07-25 | 2009-10-14 | Hitachi Ltd. | Video coding method and device |
KR101408698B1 (ko) * | 2007-07-31 | 2014-06-18 | 삼성전자주식회사 | 가중치 예측을 이용한 영상 부호화, 복호화 방법 및 장치 |
KR101560182B1 (ko) * | 2008-01-07 | 2015-10-15 | 삼성전자주식회사 | 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치 |
KR101524465B1 (ko) * | 2008-01-10 | 2015-06-02 | 삼성전자주식회사 | 색차 보상을 이용한 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치 |
WO2010067529A1 (ja) * | 2008-12-10 | 2010-06-17 | 株式会社日立製作所 | 動画像復号化方法及び装置、動画像符号化方法及び装置 |
US9485299B2 (en) * | 2009-03-09 | 2016-11-01 | Arris Canada, Inc. | Progressive download gateway |
CA2711311C (en) | 2009-08-10 | 2016-08-23 | Seawell Networks Inc. | Methods and systems for scalable video chunking |
KR20120089561A (ko) * | 2009-09-22 | 2012-08-13 | 파나소닉 주식회사 | 이미지 부호화 장치, 이미지 복호화 장치, 이미지 부호화 방법, 및 이미지 복호화 방법 |
CN102823248B (zh) | 2010-04-08 | 2015-06-24 | 株式会社东芝 | 图像编码方法以及图像编码装置 |
KR101813189B1 (ko) * | 2010-04-16 | 2018-01-31 | 에스케이 텔레콤주식회사 | 영상 부호화/복호화 장치 및 방법 |
US9014271B2 (en) * | 2010-07-12 | 2015-04-21 | Texas Instruments Incorporated | Method and apparatus for region-based weighted prediction with improved global brightness detection |
JPWO2012081246A1 (ja) * | 2010-12-17 | 2014-05-22 | パナソニック株式会社 | 画像符号化方法および画像復号化方法 |
WO2012091640A1 (en) * | 2010-12-27 | 2012-07-05 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and arrangement for processing of encoded video |
KR20120095814A (ko) * | 2011-02-21 | 2012-08-29 | 한밭대학교 산학협력단 | 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치 |
JP5747559B2 (ja) * | 2011-03-01 | 2015-07-15 | 富士通株式会社 | 動画像復号方法、動画像符号化方法、動画像復号装置、及び動画像復号プログラム |
JP6327435B2 (ja) | 2011-03-03 | 2018-05-23 | サン パテント トラスト | 画像符号化方法、画像復号方法、画像符号化装置、及び、画像復号装置 |
US20120230430A1 (en) * | 2011-03-10 | 2012-09-13 | Stephan Wenger | Parameter Set Maintenance in Video Coding |
WO2012125006A2 (ko) | 2011-03-16 | 2012-09-20 | 한국전자통신연구원 | 레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법 |
WO2012177052A2 (ko) * | 2011-06-21 | 2012-12-27 | 한국전자통신연구원 | 인터 예측 방법 및 그 장치 |
WO2012176684A1 (ja) * | 2011-06-22 | 2012-12-27 | ソニー株式会社 | 画像処理装置および方法 |
WO2013001748A1 (ja) * | 2011-06-29 | 2013-01-03 | パナソニック株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置 |
US9635355B2 (en) | 2011-07-28 | 2017-04-25 | Qualcomm Incorporated | Multiview video coding |
US9674525B2 (en) | 2011-07-28 | 2017-06-06 | Qualcomm Incorporated | Multiview video coding |
US10237565B2 (en) | 2011-08-01 | 2019-03-19 | Qualcomm Incorporated | Coding parameter sets for various dimensions in video coding |
CN107592528B (zh) | 2011-09-09 | 2020-05-12 | 株式会社Kt | 用于解码视频信号的方法 |
US9338474B2 (en) | 2011-09-23 | 2016-05-10 | Qualcomm Incorporated | Reference picture list construction for video coding |
CA2850066C (en) * | 2011-10-05 | 2020-03-24 | Panasonic Corporation | An image coding and decoding method using prediction information candidates for prediction unit sub-blocks |
CN103907346B (zh) * | 2011-10-11 | 2017-05-24 | 联发科技股份有限公司 | 运动矢量预测子及视差矢量导出方法及其装置 |
US9712819B2 (en) | 2011-10-12 | 2017-07-18 | Lg Electronics Inc. | Image encoding method and image decoding method |
CA2836244C (en) | 2011-10-28 | 2021-02-16 | Panasonic Corporation | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
MY164782A (en) | 2011-10-28 | 2018-01-30 | Sun Patent Trust | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
US9264717B2 (en) | 2011-10-31 | 2016-02-16 | Qualcomm Incorporated | Random access with advanced decoded picture buffer (DPB) management in video coding |
US9258559B2 (en) | 2011-12-20 | 2016-02-09 | Qualcomm Incorporated | Reference picture list construction for multi-view and three-dimensional video coding |
US9451252B2 (en) | 2012-01-14 | 2016-09-20 | Qualcomm Incorporated | Coding parameter sets and NAL unit headers for video coding |
TW201342884A (zh) | 2012-01-31 | 2013-10-16 | Sony Corp | 編碼裝置及編碼方法、以及解碼裝置及解碼方法 |
US9712887B2 (en) | 2012-04-12 | 2017-07-18 | Arris Canada, Inc. | Methods and systems for real-time transmuxing of streaming media content |
US9319679B2 (en) * | 2012-06-07 | 2016-04-19 | Qualcomm Incorporated | Signaling data for long term reference pictures for video coding |
TW201415893A (zh) * | 2012-06-29 | 2014-04-16 | Vid Scale Inc | 以預測資訊為基礎之訊框優先 |
WO2014005503A1 (en) * | 2012-07-02 | 2014-01-09 | Mediatek Inc. | Method and apparatus of inter-view candidate derivation in 3d video coding |
WO2014005280A1 (en) * | 2012-07-03 | 2014-01-09 | Mediatek Singapore Pte. Ltd. | Method and apparatus to improve and simplify inter-view motion vector prediction and disparity vector prediction |
US10116947B2 (en) | 2012-07-06 | 2018-10-30 | Samsung Electronics Co., Ltd. | Method and apparatus for coding multilayer video to include scalable extension type information in a network abstraction layer unit, and method and apparatus for decoding multilayer video |
US9451256B2 (en) | 2012-07-20 | 2016-09-20 | Qualcomm Incorporated | Reusing parameter sets for video coding |
US9380289B2 (en) | 2012-07-20 | 2016-06-28 | Qualcomm Incorporated | Parameter sets in video coding |
WO2014042459A1 (ko) * | 2012-09-17 | 2014-03-20 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
US9854268B2 (en) * | 2012-10-03 | 2017-12-26 | Hfi Innovation Inc. | Method and apparatus of motion data buffer reduction for three-dimensional video coding |
CN104704819B (zh) * | 2012-10-03 | 2016-12-21 | 联发科技股份有限公司 | 3d视频编码的视差矢量推导和视图间运动矢量预测的方法及装置 |
EP2941867A4 (en) * | 2013-01-07 | 2016-07-06 | Mediatek Inc | METHOD AND DEVICE FOR DERIVING A PREDICTION OF SPATIAL MOTION VECTORS FOR DIRECT AND SKIP MODES IN A THREE-DIMENSIONAL VIDEO-CORDING |
US9781416B2 (en) * | 2013-02-26 | 2017-10-03 | Qualcomm Incorporated | Neighboring block disparity vector derivation in 3D video coding |
KR102327617B1 (ko) * | 2013-04-08 | 2021-11-17 | 지이 비디오 컴프레션, 엘엘씨 | 효율적인 다-시점/계층 코딩을 허용하는 코딩 개념 |
US20140307803A1 (en) | 2013-04-08 | 2014-10-16 | Qualcomm Incorporated | Non-entropy encoded layer dependency information |
WO2014166063A1 (en) * | 2013-04-09 | 2014-10-16 | Mediatek Inc. | Default vector for disparity vector derivation for 3d video coding |
EP2932720A4 (en) * | 2013-04-10 | 2016-07-27 | Mediatek Inc | METHOD AND APPARATUS FOR DIVIDING VECTOR DIVIDER FOR THREE-DIMENSIONAL AND MULTI-VIEW VIDEO CODING |
PL2984841T3 (pl) * | 2013-04-12 | 2016-12-30 | Tworzenie list międzywarstwowych obrazów referencyjnych | |
TWI676389B (zh) * | 2013-07-15 | 2019-11-01 | 美商內數位Vc專利控股股份有限公司 | 至少一種色彩轉換之編碼方法和編碼器、解碼器、顯示裝置、編碼視訊訊號、電腦程式製品及處理器可讀式媒體 |
EP3024242A4 (en) | 2013-07-18 | 2017-01-11 | LG Electronics Inc. | Method and apparatus for processing video signal |
CN111147846B (zh) * | 2014-07-07 | 2022-03-11 | 寰发股份有限公司 | 利用帧内区块复制模式编码的视频编码方法 |
EP3205098B1 (en) * | 2014-10-06 | 2020-01-08 | Telefonaktiebolaget LM Ericsson (publ) | Coding and deriving quantization parameters |
JP6052319B2 (ja) * | 2015-03-25 | 2016-12-27 | Nttエレクトロニクス株式会社 | 動画像符号化装置 |
US10404992B2 (en) * | 2015-07-27 | 2019-09-03 | Qualcomm Incorporated | Methods and systems of restricting bi-prediction in video coding |
CN109089119B (zh) * | 2017-06-13 | 2021-08-13 | 浙江大学 | 一种运动矢量预测的方法及设备 |
US10708626B2 (en) * | 2018-11-19 | 2020-07-07 | Google Llc | Iterative IDCT with adaptive non-linear filtering |
EP3726839A4 (en) * | 2018-12-06 | 2021-06-02 | LG Electronics Inc. | METHOD AND DEVICE FOR PROCESSING VIDEO SIGNALS ON THE BASIS OF INTERVORHERSAGE |
US11146808B2 (en) * | 2019-06-27 | 2021-10-12 | Tencent America LLC | Method and apparatus for video coding |
US20220272342A1 (en) * | 2019-07-05 | 2022-08-25 | V-Nova International Limited | Quantization of residuals in video coding |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6043838A (en) * | 1997-11-07 | 2000-03-28 | General Instrument Corporation | View offset estimation for stereoscopic video coding |
KR100481732B1 (ko) * | 2002-04-20 | 2005-04-11 | 전자부품연구원 | 다 시점 동영상 부호화 장치 |
US20050008240A1 (en) * | 2003-05-02 | 2005-01-13 | Ashish Banerji | Stitching of video for continuous presence multipoint video conferencing |
US7489342B2 (en) * | 2004-12-17 | 2009-02-10 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for managing reference pictures in multiview videos |
US20050201471A1 (en) * | 2004-02-13 | 2005-09-15 | Nokia Corporation | Picture decoding method |
KR100770704B1 (ko) * | 2005-08-04 | 2007-10-29 | 삼성전자주식회사 | 픽쳐 스킵 방법 및 장치 |
WO2008047300A2 (en) * | 2006-10-16 | 2008-04-24 | Nokia Corporation | System and method for using parallelly decodable slices for multi-view video coding |
-
2008
- 2008-03-03 CN CN200880013796.7A patent/CN101669367A/zh active Pending
- 2008-03-03 US US12/449,893 patent/US20100266042A1/en not_active Abandoned
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103081479A (zh) * | 2010-09-03 | 2013-05-01 | 索尼公司 | 编码装置、编码方法、解码装置和解码方法 |
CN101977320A (zh) * | 2010-10-29 | 2011-02-16 | 清华大学 | 一种符合多视点视频标准的视频编码方法 |
CN101969565A (zh) * | 2010-10-29 | 2011-02-09 | 清华大学 | 一种符合多视点视频标准的视频解码方法 |
CN101969565B (zh) * | 2010-10-29 | 2012-08-22 | 清华大学 | 一种符合多视点视频标准的视频解码方法 |
CN101977320B (zh) * | 2010-10-29 | 2012-11-14 | 清华大学 | 一种符合多视点视频标准的视频编码方法 |
US10715825B2 (en) | 2011-01-07 | 2020-07-14 | Lg Electronic Inc. | Method for encoding and decoding image information and device using same |
US10257535B2 (en) | 2011-01-07 | 2019-04-09 | Lg Electronics Inc. | Method for encoding and decoding image information and device using same |
CN103299642A (zh) * | 2011-01-07 | 2013-09-11 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
CN106210739B (zh) * | 2011-01-07 | 2019-07-16 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
US9924188B2 (en) | 2011-01-07 | 2018-03-20 | Lg Electronics Inc. | Method for encoding and decoding image information to determine reference index in skip mode or merge mode and device using same |
US11825110B2 (en) | 2011-01-07 | 2023-11-21 | Lg Electronics Inc. | Method for encoding and decoding image information and device using same |
US11102502B2 (en) | 2011-01-07 | 2021-08-24 | Lg Electronics, Inc | Method for encoding and decoding image information and device using same |
US9918101B2 (en) | 2011-01-07 | 2018-03-13 | Lg Electronics Inc. | Method for encoding and decoding image information and device using same |
CN106101723B (zh) * | 2011-01-07 | 2019-06-14 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
CN106231339B (zh) * | 2011-01-07 | 2019-07-09 | Lg电子株式会社 | 视频编码和解码的装置 |
CN103299642B (zh) * | 2011-01-07 | 2016-08-24 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
CN106060563A (zh) * | 2011-01-07 | 2016-10-26 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
CN106101723A (zh) * | 2011-01-07 | 2016-11-09 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
CN106210739A (zh) * | 2011-01-07 | 2016-12-07 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
CN106231339A (zh) * | 2011-01-07 | 2016-12-14 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
CN102055983B (zh) * | 2011-01-26 | 2013-01-23 | 北京世纪鼎点软件有限公司 | 基于标准的h.264解码器的mvc-3d立体视频的解码方法 |
CN102055983A (zh) * | 2011-01-26 | 2011-05-11 | 清华大学 | 基于标准的h.264解码器的mvc-3d立体视频的解码方法 |
CN103493492A (zh) * | 2011-02-21 | 2014-01-01 | 三星电子株式会社 | 用于对多视点视频进行编码和解码的方法和设备 |
CN103597837A (zh) * | 2011-06-15 | 2014-02-19 | 联发科技股份有限公司 | 运动和视差矢量预测的方法及装置以及3d视频编码补偿 |
CN107071403B (zh) * | 2011-06-30 | 2019-09-24 | Jvc建伍株式会社 | 图像编码装置、图像编码方法、图像解码装置及图像解码方法 |
CN107105228A (zh) * | 2011-06-30 | 2017-08-29 | Jvc建伍株式会社 | 图像编码装置、图像编码方法、图像解码装置及图像解码方法 |
CN107071403A (zh) * | 2011-06-30 | 2017-08-18 | Jvc建伍株式会社 | 图像编码装置、图像编码方法、图像解码装置及图像解码方法 |
CN107105228B (zh) * | 2011-06-30 | 2020-03-20 | Jvc建伍株式会社 | 图像编码装置、图像编码方法、图像解码装置及图像解码方法 |
US10397601B2 (en) | 2011-07-02 | 2019-08-27 | Samsung Electronics Co., Ltd. | Method and apparatus for coding video, and method and apparatus for decoding video accompanied by inter prediction using collocated image |
US9762924B2 (en) | 2011-07-02 | 2017-09-12 | Samsung Electronics Co., Ltd. | Method and apparatus for coding video, and method and apparatus for decoding video accompanied by inter prediction using collocated image |
US10034014B2 (en) | 2011-07-02 | 2018-07-24 | Samsung Electronics Co., Ltd. | Method and apparatus for coding video, and method and apparatus for decoding video accompanied by inter prediction using collocated image |
CN104796699B (zh) * | 2011-07-02 | 2018-01-16 | 三星电子株式会社 | 对视频编码的方法和设备以及对视频解码的方法和设备 |
CN104796699A (zh) * | 2011-07-02 | 2015-07-22 | 三星电子株式会社 | 对视频编码的方法和设备以及对视频解码的方法和设备 |
US11523098B2 (en) | 2011-11-11 | 2022-12-06 | Ge Video Compression, Llc | Efficient multi-view coding using depth-map estimate and update |
US11968348B2 (en) | 2011-11-11 | 2024-04-23 | Ge Video Compression, Llc | Efficient multi-view coding using depth-map estimate for a dependent view |
CN110139108A (zh) * | 2011-11-11 | 2019-08-16 | Ge视频压缩有限责任公司 | 用于将多视点信号编码到多视点数据流中的装置及方法 |
CN108174203B (zh) * | 2012-01-18 | 2021-12-21 | Jvc 建伍株式会社 | 动图像解码装置以及动图像解码方法 |
CN108174203A (zh) * | 2012-01-18 | 2018-06-15 | Jvc 建伍株式会社 | 动图像解码装置以及动图像解码方法 |
CN104170389A (zh) * | 2012-04-24 | 2014-11-26 | 联发科技股份有限公司 | 三维视频编码的运动向量产生方法及装置 |
WO2014047781A1 (en) * | 2012-09-25 | 2014-04-03 | Mediatek Singapore Pte. Ltd. | Methods for inter-view residual prediction |
CN104782123A (zh) * | 2012-10-22 | 2015-07-15 | 数码士控股有限公司 | 用于预测视点间运动的方法以及用于确定3维视频中的视点间合并候选的方法 |
WO2014089805A1 (en) * | 2012-12-13 | 2014-06-19 | Mediatek Singapore Pte. Ltd. | A new reference management method for video coding |
US12096021B2 (en) | 2019-02-01 | 2024-09-17 | Beijing Bytedance Network Technology Co., Ltd. | Signaling of in-loop reshaping information using parameter sets |
US20220239932A1 (en) | 2019-03-14 | 2022-07-28 | Beijing Bytedance Network Technology Co., Ltd. | Signaling and syntax for in-loop reshaping information |
CN113574889B (zh) * | 2019-03-14 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 环路整形信息的信令和语法 |
CN113574889A (zh) * | 2019-03-14 | 2021-10-29 | 北京字节跳动网络技术有限公司 | 环路整形信息的信令和语法 |
US12063362B2 (en) | 2019-03-23 | 2024-08-13 | Beijing Bytedance Network Technology Co., Ltd | Restrictions on adaptive-loop filtering parameter sets |
Also Published As
Publication number | Publication date |
---|---|
US20100266042A1 (en) | 2010-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101669367A (zh) | 用于解码/编码视频信号的方法及设备 | |
US8488677B2 (en) | Method and an apparatus for decoding/encoding a video signal | |
US8532184B2 (en) | Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction | |
EP2421264B1 (en) | Method and apparatus for processing a multiview video signal | |
US20100098157A1 (en) | method and an apparatus for processing a video signal | |
KR20090129412A (ko) | 비디오 신호 디코딩/인코딩 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20100310 |