Nothing Special   »   [go: up one dir, main page]

JP7506234B2 - Decoding method, decoding device, video decoding device, electronic device, and computer-readable storage medium - Google Patents

Decoding method, decoding device, video decoding device, electronic device, and computer-readable storage medium Download PDF

Info

Publication number
JP7506234B2
JP7506234B2 JP2023132535A JP2023132535A JP7506234B2 JP 7506234 B2 JP7506234 B2 JP 7506234B2 JP 2023132535 A JP2023132535 A JP 2023132535A JP 2023132535 A JP2023132535 A JP 2023132535A JP 7506234 B2 JP7506234 B2 JP 7506234B2
Authority
JP
Japan
Prior art keywords
block
current block
value
sub
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023132535A
Other languages
Japanese (ja)
Other versions
JP2023156444A (en
Inventor
陳方棟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Publication of JP2023156444A publication Critical patent/JP2023156444A/en
Application granted granted Critical
Publication of JP7506234B2 publication Critical patent/JP7506234B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本願はコーデック技術の分野に関し、特にコーデック方法、デバイス及びその機器に関する。 This application relates to the field of codec technology, and in particular to codec methods, devices and equipment thereof.

スペースを節約するために、ビデオ画像は符号化されてから伝送される。完全な映像符号化方法は予測と、変換と、量子化と、エントロピー符号化と、フィルタリング等のプロセスを含む。その中、予測符号化はフレーム内符号化とフレーム間符号化を含む。フレーム間符号化は、ビデオ時間領域の相関により、近接する符号化済みの画像の画素を使用して現在画像の画素を予測することで、ビデオ時間領域の冗長性を効率的に除去する目的を達成することである。 To save space, video images are coded before transmission. A complete video coding method includes the processes of prediction, transformation, quantization, entropy coding, filtering, etc. Among them, predictive coding includes intraframe coding and interframe coding. Interframe coding uses pixels of adjacent coded images to predict pixels of a current image through correlation in the video time domain, thereby achieving the purpose of efficiently removing redundancy in the video time domain.

フレーム間符号化では、現在フレームのビデオ画像の現在ブロックと参照フレームのビデオ画像の参照ブロックとの間の相対変位を動きベクトル(Motion Vector,MV)で表す。例えば、現在フレームのビデオ画像Aと参照フレームのビデオ画像Bには時間領域の相関が強い。ビデオ画像Aの画像ブロックA1(現在ブロック)を伝送する必要がある時、ビデオ画像Bにおいて動き探索を行い、画像ブロックA1に最も適合する画像ブロックB1(即ち参照ブロック)を探し出し、画像ブロックA1と画像ブロックB1との間の相対変位を確定することができる。つまり、当該相対変位は画像ブロックA1の動きベクトルである。 In interframe coding, the relative displacement between a current block of a video image of a current frame and a reference block of a video image of a reference frame is represented by a motion vector (MV). For example, video image A of a current frame and video image B of a reference frame have a strong correlation in the time domain. When image block A1 (current block) of video image A needs to be transmitted, a motion search can be performed in video image B to find image block B1 (i.e., reference block) that is most suitable for image block A1, and the relative displacement between image block A1 and image block B1 can be determined. That is, the relative displacement is the motion vector of image block A1.

符号化側では、動きベクトルを復号化側に送信するが、画像ブロックA1を復号化側に送信することではない。復号化側では、動きベクトルと画像ブロックB1によって画像ブロックA1を取得する。動きベクトルが占めるビット数は画像ブロックA1が占めるビット数よりはるかに少ないことは、明らかであるので、上記の形態は使用されるビットを大幅に減ずることができる。 The encoding side transmits the motion vector to the decoding side, but does not transmit the image block A1 to the decoding side. The decoding side obtains the image block A1 by the motion vector and the image block B1. It is clear that the number of bits occupied by the motion vector is much smaller than the number of bits occupied by the image block A1, so the above form can greatly reduce the bits used.

伝統的な方式において、現在ブロックが単方向ブロックであると、現在ブロックの動き情報を取得した後、当該動き情報によって符号化/復号を行うことにより、符号化性能を向上させる。しかし、現在ブロックが双方向ブロックであると、現在ブロックの双方向動き情報を取得した後、双方向動き情報によって2つの異なる方向の予測画像を取得するが、これら2つの異なる方向の予測画像は、通常、鏡面対称関係がある。従来の符号化フレームワークにおいて、冗長性を更に除去するように、この特性を十分に利用していない。つまり、双方向ブロックの適用シナリオに対して、現在、符号化性能の悪いなどの問題がある。 In traditional methods, when the current block is a unidirectional block, the motion information of the current block is obtained, and then encoding/decoding is performed according to the motion information to improve the encoding performance. However, when the current block is a bidirectional block, the bidirectional motion information of the current block is obtained, and then two predicted images in different directions are obtained according to the bidirectional motion information, and these predicted images in two different directions are usually in a mirror symmetric relationship. In the conventional encoding framework, this characteristic is not fully utilized to further remove redundancy. In other words, there are currently problems such as poor encoding performance for the application scenario of bidirectional blocks.

本願はコーデック方法、デバイス及びその機器を提供し、符号化性能を向上することができる。 This application provides a codec method, device and equipment that can improve encoding performance.

本願は、コーデック方法を提供し、前記方法は、現在ブロックの特徴情報が特定条件を満たす場合、以下のステップを実行して前記現在ブロックまたは前記現在ブロックのサブブロックの目標予測値を取得することを含み、
前記ステップは、
前記現在ブロックの第1単方向動き情報によって第1初期予測値を確定し、前記現在ブ
ロックの第2単方向動き情報によって第2初期予測値を確定し、前記第1初期予測値と前記第2初期予測値とによって水平方向速度を確定することと、前記第1初期予測値と前記第2初期予測値とによって垂直方向速度を確定することと、
前記水平方向速度と前記垂直方向速度とによって予測補償値を取得することと、
前記第1初期予測値と、前記第2初期予測値と、前記予測補償値とによって目標予測値を取得することと、を含む。
The present application provides a codec method, the method including: obtaining a target predicted value of the current block or a sub-block of the current block by performing the following steps when feature information of a current block satisfies a certain condition:
The steps include:
determining a first initial predicted value according to first unidirectional motion information of the current block, determining a second initial predicted value according to second unidirectional motion information of the current block, determining a horizontal velocity according to the first initial predicted value and the second initial predicted value, and determining a vertical velocity according to the first initial predicted value and the second initial predicted value;
obtaining a predicted compensation value according to the horizontal velocity and the vertical velocity;
Obtaining a target predicted value according to the first initial predicted value, the second initial predicted value, and the predicted compensation value.

本願は、現在ブロックの特徴情報が特定条件を満たす場合、前記現在ブロックまたは前記現在ブロックのサブブロックの目標予測値を取得するためのコーデックデバイスを提供し、前記コーデックデバイスは、
現在ブロックの特徴情報が特定条件を満たす場合、前記現在ブロックの第1単方向動き情報によってサブブロックの第1初期予測値を確定し、前記現在ブロックの第2単方向動き情報によってサブブロック第2初期予測値を確定するための第1確定モジュールと、
前記第1初期予測値と前記第2初期予測値とによって水平方向速度を確定し、前記第1初期予測値と前記第2初期予測値とによって垂直方向速度を確定するための第2確定モジュールと、
前記水平方向速度と前記垂直方向速度とによって予測補償値を取得するための第1取得モジュールと、
前記第1初期予測値と、前記第2初期予測値と、前記予測補償値とによって目標予測値を取得するための第2取得モジュールと
を含む。
The present application provides a codec device for obtaining a target predicted value of a current block or a sub-block of the current block when feature information of the current block satisfies a specific condition, the codec device comprising:
a first determination module for determining a first initial prediction value of a sub-block according to first unidirectional motion information of the current block when the feature information of the current block satisfies a certain condition, and determining a second initial prediction value of the sub-block according to second unidirectional motion information of the current block;
a second determination module for determining a horizontal velocity according to the first initial estimate and the second initial estimate and for determining a vertical velocity according to the first initial estimate and the second initial estimate;
a first obtaining module for obtaining a predicted compensation value according to the horizontal velocity and the vertical velocity;
a second obtaining module for obtaining a target predicted value according to the first initial predicted value, the second initial predicted value, and the predicted compensation value.

本願は、符号化側機器を提供し、前記符号化側機器は、プロセッサとコンピューター可読記憶媒体とを含み、前記コンピューター可読記憶媒体に、前記プロセッサによって実行されるコンピューター実行可能命令を記憶しており、前記プロセッサは、現在ブロックの特徴情報が特定条件を満たす場合、以下のステップを実行して前記現在ブロック或いは前記現在ブロックのサブブロックの目標予測値を取得することを実現するように、コンピューター実行可能命令を実行し、前記ステップは、前記現在ブロックの第1単方向動き情報によってサブブロックの第1初期予測値を確定し、前記現在ブロックの第2単方向動き情報によってサブブロック第2初期予測値を確定することと、前記第1初期予測値と前記第2初期予測値とによって水平方向速度を確定することと、前記第1初期予測値と前記第2初期予測値とによって垂直方向速度を確定することと、前記水平方向速度と前記垂直方向速度とによって予測補償値を取得することと、前記第1初期予測値と、前記第2初期予測値と、前記予測補償値とによって目標予測値を取得することと、を含む。 The present application provides an encoding device, the encoding device including a processor and a computer-readable storage medium, and the computer-readable storage medium stores computer-executable instructions executed by the processor, the processor executes the computer-executable instructions to obtain a target prediction value of the current block or a sub-block of the current block when feature information of the current block satisfies a specific condition, the steps including: determining a first initial prediction value of a sub-block according to first unidirectional motion information of the current block, determining a sub-block second initial prediction value according to second unidirectional motion information of the current block, determining a horizontal velocity according to the first initial prediction value and the second initial prediction value, determining a vertical velocity according to the first initial prediction value and the second initial prediction value, obtaining a prediction compensation value according to the horizontal velocity and the vertical velocity, and obtaining a target prediction value according to the first initial prediction value, the second initial prediction value, and the prediction compensation value.

本願は、復号化側機器を提供し、前記復号化側機器は、プロセッサとコンピューター可読記憶媒体とを含み、前記コンピューター可読記憶媒体に前記プロセッサによって実行されるコンピューター実行可能命令を記憶しており、前記プロセッサは、現在ブロックの特徴情報が特定条件を満たす場合、以下のステップを実行して前記現在ブロック或いは前記現在ブロックのサブブロックの目標予測値を取得することを実現するように、コンピューター実行可能命令を実行するために用いられ、前記ステップは、前記現在ブロックの第1単方向動き情報によってサブブロックの第1初期予測値を確定し、前記現在ブロックの第2単方向動き情報によってサブブロック第2初期予測値を確定することと、前記第1初期予測値と前記第2初期予測値とによって水平方向速度を確定することと、前記第1初期予測値と前記第2初期予測値とによって垂直方向速度を確定することと、前記水平方向速度と前記垂直方向速度とによって予測補償値を取得することと、前記第1初期予測値と、前記第2初期予測値と前記予測補償値とによって目標予測値を取得することと、を含む。 The present application provides a decoding device, which includes a processor and a computer-readable storage medium, and stores computer-executable instructions executed by the processor in the computer-readable storage medium. When feature information of a current block satisfies a specific condition, the processor is used to execute the computer-executable instructions to obtain a target prediction value of the current block or a sub-block of the current block by performing the following steps, which include: determining a first initial prediction value of a sub-block according to first unidirectional motion information of the current block, determining a sub-block second initial prediction value according to second unidirectional motion information of the current block, determining a horizontal velocity according to the first initial prediction value and the second initial prediction value, determining a vertical velocity according to the first initial prediction value and the second initial prediction value, obtaining a prediction compensation value according to the horizontal velocity and the vertical velocity, and obtaining a target prediction value according to the first initial prediction value, the second initial prediction value, and the prediction compensation value.

以上の技術案から分かるように、本願実施例において、現在ブロックの第1単方向動き
情報によって第1初期予測値を確定し、現在ブロックの第2単方向動き情報によって第2初期予測値を確定し、第1初期予測値と第2初期予測値とによって水平方向速度と垂直方向速度を確定し、水平方向速度と垂直方向速度とによって予測補償値を取得し、予測補償値によって目標予測値を取得する。上記方式は、オプティカルフロー法に基づいて現在ブロック或いは現在ブロックのサブブロックの目標予測値を取得することができ、ハードウェア実装の利便性を向上させ、符号化性能を向上させる。
As can be seen from the above technical solution, in the embodiment of the present application, a first initial prediction value is determined according to the first unidirectional motion information of the current block, a second initial prediction value is determined according to the second unidirectional motion information of the current block, a horizontal velocity and a vertical velocity are determined according to the first initial prediction value and the second initial prediction value, a prediction compensation value is obtained according to the horizontal velocity and the vertical velocity, and a target prediction value is obtained according to the prediction compensation value. The above method can obtain the target prediction value of the current block or a sub-block of the current block according to the optical flow method, which improves the convenience of hardware implementation and improves the coding performance.

以下、本願実施例の技術案をより明確に説明するために、本願実施例の説明に使用される図面を簡単に説明する。以下に説明される図面が、本願に記載される一部の実施例によるものにすぎず、当業者にとって、本願実施例のこれらの図面により他の図面を取得することができるのは、明らかである。 The drawings used in the description of the embodiments of the present application are briefly described below in order to more clearly explain the technical solutions of the embodiments of the present application. The drawings described below are only according to some of the embodiments described in the present application, and it is obvious to those skilled in the art that other drawings can be obtained from these drawings of the embodiments of the present application.

図1Aは、本願の一実施形態における補間の模式図である。FIG. 1A is a schematic diagram of interpolation in one embodiment of the present application. 図1Bは、本願の一実施形態における映像符号化フレームワークの模式図である。FIG. 1B is a schematic diagram of a video coding framework in one embodiment of the present application. 図2は、本願の一実施形態におけるコーデック方法のフローチャートである。FIG. 2 is a flow chart of a codec method in one embodiment of the present application. 図3は、本願の一実施形態におけるコーデック方法のフローチャートである。FIG. 3 is a flow chart of a codec method in one embodiment of the present application. 図4は、本願の一実施形態における現在ブロックのサブブロックに対応する参照ブロックの模式図である。FIG. 4 is a schematic diagram of a reference block corresponding to a sub-block of a current block in one embodiment of the present application. 図5は、本願の一実施形態におけるコーデックデバイスの構成図である。FIG. 5 is a configuration diagram of a codec device according to an embodiment of the present application. 図6は、本願の一実施形態における復号化側機器のハードウェア構成図である。FIG. 6 is a hardware configuration diagram of a decoding side device according to an embodiment of the present application. 図7は、本願の一実施形態における符号化側機器のハードウェア構成図である。FIG. 7 is a hardware configuration diagram of an encoding device according to an embodiment of the present application.

本願実施例に使用される用語は、本願を制限するものではなく、ただ特定の実施例を説明するためのものだけである。本願実施例及び請求の範囲に使用された単数形の「1種」や「前記」や「当該」という用語は、文脈で他の意味を明確に示さない限り、複数形を更に含むことも意図する。また、本明細書に使用される「及び/または」という用語は、1つまたは複数の関連する項目を含む任意またはすべての可能な組み合わせを含むことを指すことも理解されるべきである。本願の実施例において、「第1」、「第2」、「第3」などの用語を使用して様々な情報を説明し得るが、これらの情報はこれらの用語に限定されるべきではなく、これらの用語は、同じ種類の情報を互いに区別するためのものだけであると理解されるべきである。例えば、本願の範囲から逸脱しない場合、第1情報は第2情報とも呼ばれる。同様に、第2情報は第1情報とも呼ばれる。また、使用される「~ば」という用語は、「…時に」または「…場合」または「…を確定することに応答する」と解釈されるが、文脈に応じて決められる。 The terms used in the examples are not intended to limit the present application, but are merely intended to describe certain examples. The singular terms "a," "the," and "said" used in the examples and claims are intended to further include the plural, unless the context clearly indicates otherwise. It should also be understood that the term "and/or" used herein refers to any or all possible combinations including one or more associated items. In the examples of the present application, terms such as "first," "second," and "third" may be used to describe various information, but these information should not be limited to these terms, and these terms should be understood to be used only to distinguish information of the same type from one another. For example, the first information may also be referred to as the second information, without departing from the scope of the present application. Similarly, the second information may also be referred to as the first information. The term "if" used may also be interpreted as "when..." or "when..." or "in response to determining...", depending on the context.

本願実施例に提供されるコーデック方法、デバイス及びその機器は、以下の概念に関連する。
イントラ予測とインター予測(intra prediction and inter prediction)技術に関して、
イントラ予測とは、ビデオ空間領域の相関により、現在画像の符号化済みのブロックの画素を使用して現在の画素を予測することによって、ビデオ空間領域の冗長性を除去する目的を達成することを指す。インター予測とは、ビデオシーケンスに強い時間領域相関を含むため、ビデオ時間領域の相関により、近接する符号化済みの画像の画素を使用して現在画像の画素を予測することによって、ビデオ時間領域の冗長性を効率的に除去する目的を達成することを指す。映像符号化規格のインター予測の部分は基本的にブロックに基づく動き補償技術を採用する。その原理は、現在画像の各画素ブロックに対して、符号化済みの画像から最もマッチングするブロックを検索することである。このプロセスは動き推定(Motion Estimation,ME)と呼ばれる。
The codec method, device and apparatus provided in the present embodiment relate to the following concepts.
Regarding intra prediction and inter prediction techniques,
Intra prediction refers to using pixels of a coded block of a current image to predict a current pixel through correlation in the video spatial domain, thereby achieving the purpose of removing redundancy in the video spatial domain. Inter prediction refers to using pixels of adjacent coded images to predict pixels of a current image through correlation in the video temporal domain, since video sequences contain strong temporal correlation, thereby achieving the purpose of efficiently removing redundancy in the video temporal domain. The inter prediction part of the video coding standard basically adopts a block-based motion compensation technique. The principle is that for each pixel block of a current image, a best matching block is searched for in a coded image. This process is called motion estimation (ME).

動きベクトル(Motion Vector,MV)に関して、フレーム間符号化において、動きベクトルを使用して現在符号化ブロックとその参照画像における最もマッチングするブロックとの間の相対変位を表す。区画された各ブロックは、その対応する動きベクトルが復号化側に伝送される必要がある。各ブロックの動きベクトルに対して個別に符号化及び伝送を行う場合、特に小さなブロックに区画される場合、かなり多くのビット数が必要になる。動きベクトルを符号化するためのビット数を減らすために、隣接する画像ブロック間の空間的相関を利用して、隣接する符号化済みのブロックの動きベクトルによって、現在符号化対象ブロックの動きベクトルを予測し、そして、予測値の差分を符号化する。これにより、動きベクトルを表すビット数を効率的に減らすことができる。現在ブロックの動きベクトルを符号化するプロセスにおいて、まず、隣接する符号化済みのブロックの動きベクトルを使用して、現在ブロックの動きベクトルを予測し、そして、動きベクトルの予測値(MVP,Motion Vector Prediction)と動きベクトルの推定値との間の差分(MVD,Motion Vector Difference)を符号化することにより、MVの符号化ビット数を効率的に減らすことができる。 Regarding motion vectors (MV), in interframe coding, the motion vector is used to represent the relative displacement between the currently coded block and its closest matching block in the reference image. Each partitioned block needs to have its corresponding motion vector transmitted to the decoding side. If the motion vector of each block is coded and transmitted separately, a significant number of bits would be required, especially when the block is partitioned into small blocks. In order to reduce the number of bits required to code the motion vector, the motion vector of the currently coded block is predicted by the motion vector of the adjacent coded block by utilizing the spatial correlation between adjacent image blocks, and the difference between the predicted values is coded. This allows the number of bits representing the motion vector to be efficiently reduced. In the process of encoding the motion vector of the current block, the motion vector of the current block is first predicted using the motion vectors of adjacent encoded blocks, and then the difference between the predicted value of the motion vector (MVP, Motion Vector Prediction) and the estimated value of the motion vector (MVD, Motion Vector Difference) is encoded, which can efficiently reduce the number of encoding bits of the MV.

動き情報(Motion Information)に関して、動きベクトルにより現在画像ブロックとある参照画像ブロックとの位置ズレを表すので、画像ブロックを指す情報を正確に取得するように、動きベクトルに加えて、どの参照フレーム画像を使用するかを示すための参照フレーム画像のインデックス情報も必要である。映像符号化技術において、通常、現在フレーム画像に対して1つの参照フレーム画像リストを作成する。参照フレーム画像のインデックス情報は、参照フレーム画像リストにおけるどの参照フレーム画像が現在の画像ブロックによって使用されるかを示す。また、多くの符号化技術では、複数の参照画像リストもサポートするため、1つのインデックス値により、どの参照画像リストを使用するかを示してもよい。このインデックス値は参照方向と呼ばれてもよい。映像符号化技術では、動きベクトルや、参照フレームのインデックスや、参照方向等の動きに関する情報を纏めて動き情報と呼ぶ。 Regarding motion information, since a motion vector indicates the positional deviation between a current image block and a reference image block, in addition to the motion vector, reference frame image index information is also required to indicate which reference frame image to use in order to accurately obtain information pointing to the image block. In video coding techniques, one reference frame image list is usually created for the current frame image. The reference frame image index information indicates which reference frame image in the reference frame image list is used by the current image block. In addition, since many coding techniques also support multiple reference image lists, one index value may indicate which reference image list to use. This index value may be called the reference direction. In video coding techniques, information related to motion such as the motion vector, the reference frame index, and the reference direction is collectively called motion information.

Figure 0007506234000001
Figure 0007506234000001

動き補償に関して、動き補償のプロセスは、補間またはコピーにより現在ブロックの全ての予測画素値を取得することである。 Regarding motion compensation, the process of motion compensation is to obtain all predicted pixel values of the current block by interpolation or copying.

映像符号化フレームワークに関して、図1Bに示すように、映像符号化フレームワークを使用して本願実施例の符号化側処理フローを実現できる。また、映像復号化フレームワークの模式図は図1Bと類似しているため、ここでその説明を省略する。そして、映像復号化フレームワークを使用して本願実施例の復号化側処理フローを実現できる。具体的には、映像符号化フレームワークと映像復号化フレームワークにおいて、イントラ予測と、動き推定/動き補償と、参照画像バッファと、インループフィルタリングと、再構成と、変換と、量子化と、逆変換と、逆量子化と、エントロピー符号化デバイス等のモジュールを含む。符号化側では、これらのモジュールの協力により、符号化側処理フローを実現することができる一方、復号化側では、これらのモジュールの協力により、復号化側処理フローを実現することができる。 Regarding the video coding framework, as shown in FIG. 1B, the video coding framework can be used to realize the coding side processing flow of the embodiment of the present application. Also, since the schematic diagram of the video decoding framework is similar to FIG. 1B, the description thereof is omitted here. And the video decoding framework can be used to realize the decoding side processing flow of the embodiment of the present application. Specifically, the video coding framework and the video decoding framework include modules such as intra prediction, motion estimation/motion compensation, reference image buffer, in-loop filtering, reconstruction, transformation, quantization, inverse transformation, inverse quantization, and entropy coding device. On the coding side, the coding side processing flow can be realized by cooperation of these modules, while on the decoding side, the decoding side processing flow can be realized by cooperation of these modules.

伝統的な方式において、現在ブロックが双方向ブロック(即ち現在ブロックが双方向予測を採用するブロック)である場合、2つの異なる方向の予測画像には通常、鏡面対称の関係がある。従来の符号化フレームワークにおいて、冗長性を更に除去するように、この特性を十分に利用していない。そのため、符号化性能の悪い等の問題がある。上記の知見に対して、本願実施例において、現在ブロックが双方向ブロックであると、オプティカルフロー法に基づく予測信号調整方式を提案する。この予測信号調整方式は、初期動き情報に基づいて初期予測値を取得し、初期予測値に基づいて、オプティカルフロー方程式により現在ブロックの予測補償値を取得し、当該予測補償値と初期予測値とに基づいて現在ブロックの目標予測値を取得することができる。上記の方式は、オプティカルフロー法により現在ブロックの目標予測値を取得できる。これにより、ハードウェア実装の利便性を向上させ、符号化性能を向上させ、即ち符号化性能と符号化效率を向上させることができる。 In traditional methods, when the current block is a bidirectional block (i.e., the current block adopts bidirectional prediction), the predicted images in two different directions usually have a mirror symmetric relationship. In the conventional coding framework, this characteristic is not fully utilized to further remove redundancy. Therefore, there are problems such as poor coding performance. In response to the above knowledge, in the embodiment of the present application, when the current block is a bidirectional block, a prediction signal adjustment method based on the optical flow method is proposed. This prediction signal adjustment method can obtain an initial prediction value based on initial motion information, obtain a prediction compensation value of the current block by an optical flow equation based on the initial prediction value, and obtain a target prediction value of the current block based on the prediction compensation value and the initial prediction value. The above method can obtain a target prediction value of the current block by the optical flow method. This can improve the convenience of hardware implementation and improve coding performance, that is, improve coding performance and coding efficiency.

以下、いくつかの具体的な実施例を参照して、本願実施例のコーデック方法を詳しく説明する。 Below, the codec method of the present embodiment will be described in detail with reference to some specific examples.

(実施例1)
図2を参照すると、図2は、コーデック方法のフロー模式図である。当該方法は復号化側または符号化側に適用される。当該方法は以下のステップを実行することにより現在ブロックまたは現在ブロックのサブブロックの目標予測値を取得する。現在ブロックに対して以下のステップを実行する場合、現在ブロックの目標予測値を取得する。現在ブロックが少なくとも1つのサブブロックに区画され、且つ現在ブロックの各サブブロックに対して以下のステップを実行する場合、現在ブロックのサブブロックの目標予測値を取得する。当該方法は以下のステップを含む。
Example 1
Referring to Fig. 2, Fig. 2 is a flow diagram of a codec method. The method is applied to the decoding side or the encoding side. The method obtains a target predicted value of a current block or a sub-block of the current block by performing the following steps: If the following steps are performed for the current block, the target predicted value of the current block is obtained; If the current block is divided into at least one sub-block, and the following steps are performed for each sub-block of the current block, the target predicted value of a sub-block of the current block is obtained. The method includes the following steps:

ステップ201では、現在ブロックの特徴情報が特定の条件を満たす場合、現在ブロックの第1単方向動き情報によって、第1初期予測値を確定し、現在ブロックの第2の単方向動き情報によって第2初期予測値を確定する。 In step 201, if the feature information of the current block satisfies a certain condition, a first initial prediction value is determined according to the first unidirectional motion information of the current block, and a second initial prediction value is determined according to the second unidirectional motion information of the current block.

例示として、現在ブロックが双方向ブロック(即ち現在ブロックが両方向予測を採用するブロックである)でよい。つまり、現在ブロックに対応する動き情報は双方向動き情報であり、且つこの双方向動き情報は2つの異なる方向の動き情報を含む。この2つの異なる方向の動き情報は第1単方向動き情報と第2の単方向動き情報と呼ばれる。第1単方向動き情報は第1参照フレームに対応し、且つ当該第1参照フレームは、現在ブロックが所属する現在フレームの前に位置する。第2の単方向動き情報は第2参照フレームに対応し、且つ当該第2の参照フレームは、現在ブロックが所属する現在フレームの後ろに位置する。 For example, the current block may be a bidirectional block (i.e., the current block is a block employing bidirectional prediction). That is, the motion information corresponding to the current block is bidirectional motion information, and the bidirectional motion information includes motion information in two different directions. The two different directions of motion information are called first unidirectional motion information and second unidirectional motion information. The first unidirectional motion information corresponds to a first reference frame, and the first reference frame is located before the current frame to which the current block belongs. The second unidirectional motion information corresponds to a second reference frame, and the second reference frame is located after the current frame to which the current block belongs.

例示として、特徴情報は、動き情報属性、予測モード属性、サイズ情報、及びシーケン
スレベルスイッチ制御情報のうちの1つまたは複数を含むが、これに限定されない。勿論、上記のものはただいくつかの例示だけであり、これらに限定されない。
By way of example, the feature information may include, but is not limited to, one or more of motion information attributes, prediction mode attributes, size information, and sequence level switch control information. Of course, the above are only a few examples and are not limited thereto.

特徴情報が動き情報属性を含み、且つ動き情報属性が以下の状況の少なくとも1つを満たす場合、動き情報属性が特定条件を満たすことを確定する。1、現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームが異なる方向にある;2、現在ブロックは複数のサブブロックを含み、複数のサブブロックの動き情報は何れも同じである;3、現在ブロックは双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームの重みは同じである;4、現在ブロックは双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームと現在フレームとの距離が同じである;5、現在ブロックは双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームの予測値の差分値は予めに設定した閾値より小さい。勿論、上記の状況はただいくつかの例示だけであり、これらに限定されない。 When the feature information includes a motion information attribute and the motion information attribute satisfies at least one of the following circumstances, it is determined that the motion information attribute satisfies a certain condition: 1. The current block adopts bidirectional prediction, and the two reference frames corresponding to the current block are in different directions; 2. The current block includes multiple sub-blocks, and the motion information of the multiple sub-blocks is the same; 3. The current block adopts bidirectional prediction, and the weights of the two reference frames corresponding to the current block are the same; 4. The current block adopts bidirectional prediction, and the distances between the two reference frames corresponding to the current block and the current frame are the same; 5. The current block adopts bidirectional prediction, and the difference value of the predicted values of the two reference frames corresponding to the current block is smaller than a preset threshold. Of course, the above circumstances are only some examples and are not limited to these.

状況5に対して、現在ブロックに対応する2つの参照フレームの予測値の差分値を取得する必要もある。当該差分値を取得するために、以下の方式を採用できる。現在ブロックの第1単方向動き情報によって、第1参照フレームから第1予測ブロックを取得するとともに、現在ブロックの第2単方向動き情報によって、第2参照フレームから第2予測ブロックを取得する;第1予測ブロックのダウンサンプリングされた後の予測値と第2予測ブロックのダウンサンプリングされた後の予測値のSADに基づいて、第1参照フレームと第2参照フレームの予測値の差分値を取得する。或いは、現在ブロックの第1単方向動き情報によって第1参照フレームから第1予測ブロックを取得するとともに、現在ブロックの第2単方向動き情報によって第2参照フレームから第2予測ブロックを取得する;第1予測ブロックの予測値と第2予測ブロックの予測値のSADに基づいて、第1参照フレームと第2参照フレームの予測値の差分値を取得する。 For situation 5, it is also necessary to obtain the difference value of the predicted values of the two reference frames corresponding to the current block. The following methods can be adopted to obtain the difference value: Obtain a first predicted block from the first reference frame according to the first unidirectional motion information of the current block, and obtain a second predicted block from the second reference frame according to the second unidirectional motion information of the current block; Obtain the difference value of the predicted values of the first and second reference frames according to the SAD of the downsampled predicted value of the first predicted block and the downsampled predicted value of the second predicted block; Or obtain a first predicted block from the first reference frame according to the first unidirectional motion information of the current block, and obtain a second predicted block from the second reference frame according to the second unidirectional motion information of the current block; Obtain the difference value of the predicted values of the first and second reference frames according to the SAD of the predicted value of the first predicted block and the predicted value of the second predicted block.

特徴情報が予測モード属性を含み、且つ予測モード属性が、イントラ予測とインター予測との組合せに基づくマージモード、及び/または対称動きベクトル差分モードを採用しないことである場合、予測モード属性が特定条件を満たすことを確定する。 When the feature information includes a prediction mode attribute, and the prediction mode attribute is a merge mode based on a combination of intra prediction and inter prediction, and/or a symmetric motion vector differential mode is not adopted, it is determined that the prediction mode attribute satisfies a specific condition.

特徴情報がシーケンスレベルスイッチ制御情報を含み、且つ当該シーケンスレベルスイッチ制御情報は、現在ブロックが双方向オプティカルフローモードを採用することを許可するものである場合、シーケンスレベルスイッチ制御情報が特定条件を満たすことを確定する。 If the feature information includes sequence level switch control information, and the sequence level switch control information allows the current block to adopt a bidirectional optical flow mode, it is determined that the sequence level switch control information satisfies a specific condition.

特徴情報がサイズ情報を含み、且つサイズ情報が幅の値、高さの値および面積の値のうちの少なくとも1つを含み、当該サイズ情報における幅の値、高さの値および面積の値のうちの少なくとも1つが対応する閾値条件を満たす場合、サイズ情報が特定条件を満たす。例示として、サイズ情報が以下の状況の少なくとも1つを満たす場合、サイズ情報が特定条件を満たすことを確定する。現在ブロックの幅の値が第1閾値以上であり、現在ブロックの幅の値が第2閾値以下である;現在ブロックの高さの値が第3閾値以上であり、現在ブロックの高さの値が第4閾値以下である;現在ブロックの面積の値が第5閾値以上であり、現在ブロックの面積の値が第6閾値以下である。勿論、上記の状況はただいくつかの例示だけであり、これらに限定されない。 When the feature information includes size information, and the size information includes at least one of a width value, a height value, and an area value, and at least one of the width value, height value, and area value in the size information satisfies a corresponding threshold condition, the size information satisfies the specific condition. For example, when the size information satisfies at least one of the following situations, it is determined that the size information satisfies the specific condition: the width value of the current block is equal to or greater than a first threshold, and the width value of the current block is equal to or less than a second threshold; the height value of the current block is equal to or greater than a third threshold, and the height value of the current block is equal to or less than a fourth threshold; the area value of the current block is equal to or greater than a fifth threshold, and the area value of the current block is equal to or less than a sixth threshold. Of course, the above situations are merely examples and are not limited thereto.

例示として、第1閾値が第2閾値より小さくてもよく、第1閾値と第2閾値とが何れも2の正の整数乗であるが、第1閾値と第2閾値について制限されない。例えば、第1閾値は8であり、第2閾値は128である。第3閾値が第4閾値より小さくてもよく、第3閾値と第4閾値とも何れも2の正の整数乗であるが、第3閾値と第4閾値について制限されない。例えば、第3閾値は8であり、第4閾値は128である。第5閾値が第6閾値より
小さくてもよく、第5閾値と第6閾値も何れも2の正の整数乗であるが、第5閾値と第6閾値について制限されない。例えば、第5閾値は64(即ち8*8)であり、第6閾値は16384(即ち128*128)である。勿論、上記閾値はただの例示だけであり、これらの閾値に制限されない。
For example, the first threshold may be smaller than the second threshold, and both the first threshold and the second threshold are a positive integer power of 2, but there is no limitation on the first threshold and the second threshold. For example, the first threshold is 8, and the second threshold is 128. The third threshold may be smaller than the fourth threshold, and both the third threshold and the fourth threshold are a positive integer power of 2, but there is no limitation on the third threshold and the fourth threshold. For example, the third threshold is 8, and the fourth threshold is 128. The fifth threshold may be smaller than the sixth threshold, and both the fifth threshold and the sixth threshold are a positive integer power of 2, but there is no limitation on the fifth threshold and the sixth threshold. For example, the fifth threshold is 64 (i.e., 8*8), and the sixth threshold is 16384 (i.e., 128*128). Of course, the above thresholds are merely examples, and there is no limitation on these thresholds.

例示として、特徴情報は、動き情報属性、予測モード属性、サイズ情報、及びシーケンスレベルスイッチ制御情報のうちの1つまたは複数を含む。特徴情報が動き情報属性を含む場合、動き情報属性が特定条件を満たすと、特徴情報が特定条件を満たすことを示す;特徴情報が予測モード属性を含む場合、予測モード属性が特定条件を満たすと、特徴情報が特定条件を満たすことを示す;特徴情報がサイズ情報を含む場合、サイズ情報が特定条件満たすと、特徴情報が特定条件を満たすことをしめす;特徴情報がシーケンスレベルスイッチ制御情報を含む場合、シーケンスレベルスイッチ制御情報が特定条件を満たすと、特徴情報が特定条件を満たすことをしめす。 For example, the feature information includes one or more of a motion information attribute, a prediction mode attribute, size information, and sequence level switch control information. When the feature information includes a motion information attribute, the motion information attribute satisfies a specific condition, indicating that the feature information satisfies the specific condition; when the feature information includes a prediction mode attribute, the prediction mode attribute satisfies a specific condition, indicating that the feature information satisfies the specific condition; when the feature information includes size information, the size information satisfies a specific condition, indicating that the feature information satisfies the specific condition; when the feature information includes sequence level switch control information, the sequence level switch control information satisfies a specific condition, indicating that the feature information satisfies the specific condition.

特徴情報が動き情報属性、予測モード属性、サイズ情報、シーケンスレベルスイッチ制御情報のうちの少なくとも2つを含む場合、例えば、特徴情報が動き情報属性と予測モード属性とを含むことを例とすると、動き情報属性が特定条件を満たし、且つ予測モード属性が特定条件を満たす場合、特徴情報が特定条件を満たすことを示す。また、例えば、特徴情報が動き情報属性、サイズ情報、シーケンスレベルスイッチ制御情報を含むことを例とすると、動き情報属性が特定条件を満たし、且つサイズ情報が特定条件を満たし、且つシーケンスレベルスイッチ制御情報が特定条件を満たす場合、特徴情報が特定条件を満たすことを示す。勿論、上記のプロセスはただいくつかの例示だけであり、これらに限定されない。 When the feature information includes at least two of the motion information attribute, the prediction mode attribute, the size information, and the sequence level switch control information, for example, when the feature information includes a motion information attribute and a prediction mode attribute, if the motion information attribute satisfies a specific condition and the prediction mode attribute satisfies a specific condition, it indicates that the feature information satisfies the specific condition. Also, when the feature information includes a motion information attribute, the size information, and the sequence level switch control information, it indicates that the feature information satisfies a specific condition, if the motion information attribute satisfies a specific condition, the size information satisfies a specific condition, and the sequence level switch control information satisfies a specific condition. Of course, the above processes are merely some examples and are not limited to these.

例示として、現在ブロックの第1単方向動き情報に基づいて第1初期予測値を確定するとともに、現在ブロックの第2単方向動き情報に基づいて第2初期予測値を確定することは、
現在ブロックの第1単方向動き情報に基づいて、第1参照フレームから第1参照ブロックを確定し、第1参照ブロックの第1初期予測値を確定し、第1参照ブロックの中央領域の第1初期予測値が第1参照フレームの画素値を補間することにより得られたものであり、第1参照ブロックのエッジ領域の第1初期予測値が第1参照フレームの画素値をコピーすることにより得られたものであることと、
現在ブロックの第2単方向動き情報に基づいて、第2参照フレームから第2参照ブロックを確定し、第2参照ブロックの第2初期予測値を確定し、第2参照ブロックの中央領域の第2初期予測値が第2参照フレームの画素値を補間することにより得られたものであり、第2参照ブロックのエッジ領域の第2初期予測値が第2参照フレームの画素値をコピーすることにより得られたものであることと、
を含むが、これに限定されない。
For example, determining a first initial prediction value according to first unidirectional motion information of a current block and determining a second initial prediction value according to second unidirectional motion information of the current block can be:
According to the first unidirectional motion information of the current block, a first reference block is determined from a first reference frame; a first initial predicted value of the first reference block is determined, the first initial predicted value of a central area of the first reference block is obtained by interpolating pixel values of the first reference frame, and the first initial predicted value of an edge area of the first reference block is obtained by copying pixel values of the first reference frame;
According to the second unidirectional motion information of the current block, a second reference block is determined from a second reference frame; a second initial predicted value of the second reference block is determined, the second initial predicted value of a central area of the second reference block is obtained by interpolating pixel values of the second reference frame, and the second initial predicted value of an edge area of the second reference block is obtained by copying pixel values of the second reference frame;
Including, but not limited to:

例えば、現在ブロックの第1単方向動き情報に基づいて、第1参照フレームから現在ブロックに対応する第1参照ブロックを確定する。仮に、現在ブロックのサイズがM*Mであり、第1参照ブロックのサイズがN*Nであり、NはMより大きくてよいとする。例えば、Mは4であり、Nは6である。第1参照ブロックを中央領域とエッジ領域とに区画してよい。第1参照ブロックの中央領域とは、第1参照ブロックの中心点を中心として、サイズがM*Mである領域を指す。第1参照ブロックのエッジ領域とは、第1参照ブロックにおける中央領域以外の他の領域を指す。第1参照ブロックの中央領域について、第1参照ブロックの中央領域の第1初期予測値は第1参照フレームの画素値を補間することにより得られたものであるが、第1参照ブロックのエッジ領域について、第1参照ブロックのエッジ領域の第1初期予測値は第1参照フレームの画素値をコピーすることにより得られたものである。 For example, a first reference block corresponding to the current block is determined from the first reference frame based on the first unidirectional motion information of the current block. Suppose the size of the current block is M*M, the size of the first reference block is N*N, and N may be greater than M. For example, M is 4, and N is 6. The first reference block may be partitioned into a central region and an edge region. The central region of the first reference block refers to a region with a size of M*M centered on the central point of the first reference block. The edge region of the first reference block refers to other regions in the first reference block other than the central region. For the central region of the first reference block, the first initial predicted value of the central region of the first reference block is obtained by interpolating pixel values of the first reference frame, while for the edge region of the first reference block, the first initial predicted value of the edge region of the first reference block is obtained by copying pixel values of the first reference frame.

現在ブロックの第2単方向動き情報に基づいて、第2参照フレームから現在ブロックに対応する第2参照ブロックを確定する。仮に、現在ブロックのサイズがM*Mであり、第2参照ブロックのサイズがN*Nであり、NはMより大きくてよいとする。例えば、Mは4であり、Nは6である。第2参照ブロックを中央領域とエッジ領域とに区画してよい。第2参照ブロックの中央領域とは、第2参照ブロックの中心点を中心として、サイズがM*Mである領域を指す。第2参照ブロックのエッジ領域とは、第2参照ブロックにおける中央領域以外の他の領域を指す。第2参照ブロックの中央領域について、第2参照ブロックの中央領域の第2初期予測値は第2参照フレームの画素値を補間することにより得られたものであるが、第2参照ブロックのエッジ領域について、第2参照ブロックのエッジ領域の第2初期予測値は第2参照フレームの画素値をコピーすることにより得られたものである。 Based on the second unidirectional motion information of the current block, a second reference block corresponding to the current block is determined from the second reference frame. Suppose the size of the current block is M*M, the size of the second reference block is N*N, and N may be greater than M. For example, M is 4, and N is 6. The second reference block may be partitioned into a central region and an edge region. The central region of the second reference block refers to a region with a size of M*M centered on the central point of the second reference block. The edge region of the second reference block refers to other regions in the second reference block other than the central region. For the central region of the second reference block, the second initial predicted value of the central region of the second reference block is obtained by interpolating pixel values of the second reference frame, while for the edge region of the second reference block, the second initial predicted value of the edge region of the second reference block is obtained by copying pixel values of the second reference frame.

例示として、現在ブロックの第1単方向動き情報に基づいて第1初期予測値を確定するとともに、現在ブロックの第2単方向動き情報に基づいて第2初期予測値を確定することは、現在ブロックの第1単方向動き情報に基づいて、第1参照フレームから第1参照ブロックを確定し、第1参照ブロックの第1初期予測値を確定し、前記第1初期予測値は第1参照フレームの画素値を補間することにより得られたものであることと、現在ブロックの第2単方向動き情報に基づいて、第2参照フレームから第2参照ブロックを確定し、第2参照ブロックの第2初期予測値を確定し、前記第2初期予測値は第2参照フレームの画素値を補間することにより得られたものであることと、を含むが、これらに限定されない。例えば、現在ブロックの第1単方向動き情報に基づいて、第1参照フレームから現在ブロックに対応する第1参照ブロックを確定できる。仮に、現在ブロックのサイズがM*Mであるとすると、第1参照ブロックのサイズがM*Mでもよい。現在ブロックの第2単方向動き情報に基づいて、第2参照フレームから現在ブロックに対応する第2参照ブロックを確定できる。仮に、現在ブロックのサイズがM*Mであるとすると、第2参照ブロックのサイズがM*Mでもよい。 For example, determining a first initial prediction value based on the first unidirectional motion information of the current block and determining a second initial prediction value based on the second unidirectional motion information of the current block includes, but is not limited to, determining a first reference block from a first reference frame based on the first unidirectional motion information of the current block, and determining a first initial prediction value of the first reference block, the first initial prediction value being obtained by interpolating pixel values of the first reference frame, and determining a second reference block from a second reference frame based on the second unidirectional motion information of the current block, the second initial prediction value being obtained by interpolating pixel values of the second reference frame. For example, a first reference block corresponding to the current block can be determined from a first reference frame based on the first unidirectional motion information of the current block. If the size of the current block is M*M, the size of the first reference block can be M*M. A second reference block corresponding to the current block can be determined from a second reference frame based on the second unidirectional motion information of the current block. If the size of the current block is M*M, the size of the second reference block may be M*M.

ステップ202では、第1初期予測値と第2初期予測値とに基づいて水平方向速度を確定する。 In step 202, the horizontal velocity is determined based on the first initial prediction value and the second initial prediction value.

例示として、水平方向速度とは、参照フレームにおける現在ブロックに対応するサブブロック(即ち参照フレームにある、現在ブロックに対応するサブブロック)の水平方向(即ちX方向)速度を指す。或いは、参照フレームにおける現在ブロックのサブブロックに対応するサブブロック(即ち参照フレームにある、現在ブロックのサブブロックに対応するサブブロック)の水平方向(即ちX方向)速度を指す。 For example, the horizontal velocity refers to the horizontal (i.e., X-direction) velocity of a sub-block corresponding to the current block in the reference frame (i.e., the sub-block in the reference frame corresponding to the current block). Alternatively, it refers to the horizontal (i.e., X-direction) velocity of a sub-block corresponding to the sub-block of the current block in the reference frame (i.e., the sub-block in the reference frame corresponding to the sub-block of the current block).

例示として、第1初期予測値と第2初期予測値とに基づいて水平方向速度を確定することは、以下の方式を含むが、これらに限定されない。 By way of example, determining the horizontal velocity based on the first and second initial predictions includes, but is not limited to, the following methods:

方式1として、第1初期予測値と第2初期予測値とによって、水平方向勾配合計の自己相関係数S1と、時間領域予測値の差分値と水平方向勾配合計との相互相関係数S3とを確定し、そして、自己相関係数S1と、速度閾値と、相互相関係数S3と、第1増幅因子と、第2増幅因子とによって水平方向速度を確定する。 In method 1, the autocorrelation coefficient S1 of the horizontal gradient sum and the cross-correlation coefficient S3 between the difference value of the time domain prediction value and the horizontal gradient sum are determined using the first initial prediction value and the second initial prediction value, and the horizontal velocity is determined using the autocorrelation coefficient S1, the velocity threshold, the cross-correlation coefficient S3, the first amplification factor, and the second amplification factor.

方式2として、第1プリセット条件を満たす場合、第1初期予測値と第2初期予測値とによって、水平方向勾配合計と垂直方向勾配合計との相互相関係数S2と、時間領域予測値の差分値と垂直方向勾配合計との相互相関係数S6とを確定し、相互相関係数S2と、速度閾値と、相互相関係数S6と、第1増幅因子と、第2増幅因子とによって水平方向速度を確定する。第1プリセット条件を満たさない場合、第1初期予測値と第2初期予測値
とによって、水平方向勾配合計の自己相関係数S1と、時間領域予測値の差分値と水平方向勾配合計との相互相関係数S3とを確定し、自己相関係数S1と、速度閾値と、相互相関係数S3と、第1増幅因子と、第2増幅因子とによって水平方向速度を確定する。
In the second method, if the first preset condition is satisfied, the first and second initial predictions are used to determine the cross-correlation coefficient S2 between the horizontal gradient sum and the vertical gradient sum, and the cross-correlation coefficient S6 between the difference value of the time domain prediction and the vertical gradient sum, and the horizontal velocity is determined by the cross-correlation coefficient S2, the velocity threshold, the cross-correlation coefficient S6, the first amplification factor, and the second amplification factor. If the first preset condition is not satisfied, the first and second initial predictions are used to determine the auto-correlation coefficient S1 of the horizontal gradient sum, and the cross-correlation coefficient S3 between the difference value of the time domain prediction and the horizontal gradient sum, and the horizontal velocity is determined by the auto-correlation coefficient S1, the velocity threshold, the cross-correlation coefficient S3, the first amplification factor, and the second amplification factor.

例示として、第1プリセット条件は相互相関係数S2と、垂直方向勾配合計の自己相関係数S5とに基づいて確定される。 By way of example, the first preset condition is determined based on the cross-correlation coefficient S2 and the autocorrelation coefficient S5 of the vertical gradient sum.

方式3として、第2プリセット条件を満たす場合、第1初期予測値と第2初期予測値とによって、水平方向勾配合計の自己相関係数S1と、水平方向勾配合計と垂直方向勾配合計との相互相関係数S2と、時間領域予測値の差分値と水平方向勾配合計との相互相関係数S3と、垂直方向勾配合計の自己相関係数S5と、時間領域予測値の差分値と垂直方向勾配合計の相互相関係数S6とを確定し、自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6と、速度閾値と、第1増幅因子と、第2増幅因子とによって水平方向速度を確定する。第2プリセット条件を満たさない場合、第1初期予測値と第2初期予測値とによって、水平方向勾配合計の自己相関係数S1と、時間領域予測値の差分値と水平方向勾配合計との相互相関係数S3とを確定し、自己相関係数S1と、速度閾値と、相互相関係数S3と、第1増幅因子と、第2増幅因子とによって水平方向速度を確定する。 As a third method, when the second preset condition is satisfied, the autocorrelation coefficient S1 of the horizontal gradient sum, the cross-correlation coefficient S2 of the horizontal gradient sum and the vertical gradient sum, the cross-correlation coefficient S3 of the difference value of the time domain prediction value and the horizontal gradient sum, the autocorrelation coefficient S5 of the vertical gradient sum, and the cross-correlation coefficient S6 of the difference value of the time domain prediction value and the vertical gradient sum are determined using the first initial prediction value and the second initial prediction value, and the horizontal velocity is determined using the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, the cross-correlation coefficient S6, the velocity threshold, the first amplification factor, and the second amplification factor. If the second preset condition is not satisfied, the autocorrelation coefficient S1 of the horizontal gradient sum and the cross-correlation coefficient S3 between the difference value of the time domain prediction value and the horizontal gradient sum are determined using the first initial prediction value and the second initial prediction value, and the horizontal velocity is determined using the autocorrelation coefficient S1, the velocity threshold, the cross-correlation coefficient S3, the first amplification factor, and the second amplification factor.

例示として、第2プリセット条件は相互相関係数S2と、自己相関係数S5とに基づいて確定される。 By way of example, the second preset condition is determined based on the cross-correlation coefficient S2 and the auto-correlation coefficient S5.

ステップ203では、第1初期予測値と第2初期予測値とに基づいて垂直方向速度を確定する。 In step 203, the vertical velocity is determined based on the first initial prediction and the second initial prediction.

例示として、垂直方向速度とは、参照フレームにおける現在ブロックに対応するサブブロック(即ち参照フレームにある、現在ブロックに対応するサブブロック)の垂直方向(即ちY方向)速度を指す。或いは、参照フレームにおける現在ブロックのサブブロックに対応するサブブロック(即ち参照フレームにある、現在ブロックのサブブロックに対応するサブブロック)の垂直方向(即ちY方向)速度を指す。 For example, the vertical velocity refers to the vertical (i.e., Y) velocity of a sub-block corresponding to the current block in the reference frame (i.e., the sub-block in the reference frame corresponding to the current block). Alternatively, it refers to the vertical (i.e., Y) velocity of a sub-block corresponding to the sub-block of the current block in the reference frame (i.e., the sub-block in the reference frame corresponding to the sub-block of the current block).

例示として、第1初期予測値と第2初期予測値とに基づいて垂直方向速度を確定することは、以下の方式を含むが、これらに限定されない。 By way of example, determining the vertical velocity based on the first and second initial predictions includes, but is not limited to, the following methods:

方式1として、第1初期予測値と第2初期予測値とによって、水平方向勾配合計と垂直方向勾配合計との相互相関係数S2と、垂直方向勾配合計の自己相関係数S5と、時間領域予測値の差分値と垂直方向勾配合計との相互相関係数S6とを確定し、そして、相互相関係数S2と、自己相関係数S5と、相互相関係数S6と、速度閾値と、水平方向速度と、第1増幅因子と、第2増幅因子とによって垂直方向速度を確定する。 In method 1, a cross-correlation coefficient S2 between the horizontal gradient sum and the vertical gradient sum, an auto-correlation coefficient S5 of the vertical gradient sum, and a cross-correlation coefficient S6 between the difference value of the time domain prediction value and the vertical gradient sum are determined using a first initial prediction value and a second initial prediction value, and then a vertical velocity is determined using the cross-correlation coefficient S2, the auto-correlation coefficient S5, the cross-correlation coefficient S6, the velocity threshold, the horizontal velocity, the first amplification factor, and the second amplification factor.

方式2として、第1初期予測値と第2初期予測値とによって、トランケーション処理を行わないトランケーション未実行水平方向速度を確定し、前記トランケーション未実行水平方向速度によって垂直方向速度を確定する。 In method 2, a non-truncated horizontal velocity without truncation processing is determined using the first initial predicted value and the second initial predicted value, and the vertical velocity is determined using the non-truncated horizontal velocity.

例示として、第1初期予測値と第2初期予測値とによって、水平方向勾配合計の自己相関係数S1と、水平方向勾配合計と垂直方向勾配合計との相互相関係数S2と、時間領域予測値の差分値と水平方向勾配合計との相互相関係数S3と、垂直方向勾配合計の自己相関係数S5と、時間領域予測値の差分値と垂直方向勾配合計との相互相関係数S6とを確定する。そして、自己相関係数S1と、相互相関係数S3と、第1増幅因子と、第2増幅因子とによって、トランケーション未実行水平方向速度を確定し、相互相関係数S2と、自己相関係数S5と、相互相関係数S6と、速度閾値と、トランケーション未実行水平方向速度と、第1増幅因子と、第2増幅因子とによって垂直方向速度を確定する。 For example, the first and second initial predictions are used to determine an autocorrelation coefficient S1 of the horizontal gradient sum, a cross-correlation coefficient S2 of the horizontal gradient sum and the vertical gradient sum, a cross-correlation coefficient S3 of the difference value of the time domain predictions and the horizontal gradient sum, an autocorrelation coefficient S5 of the vertical gradient sum, and a cross-correlation coefficient S6 of the difference value of the time domain predictions and the vertical gradient sum. Then, the autocorrelation coefficient S1, the cross-correlation coefficient S3, the first amplification factor, and the second amplification factor are used to determine the untruncated horizontal velocity, and the cross-correlation coefficient S2, the autocorrelation coefficient S5, the cross-correlation coefficient S6, the velocity threshold, the untruncated horizontal velocity, the first amplification factor, and the second amplification factor are used to determine the vertical velocity.

方式3として、第3プリセット条件を満たす場合、第1初期予測値と第2初期予測値とによって、垂直方向勾配合計の自己相関係数S5と、時間領域予測値の差分値と垂直方向勾配合計との相互相関係数S6とを確定し、そして、自己相関係数S5と、相互相関係数S6と、速度閾値と、第1増幅因子と、第2増幅因子とによって垂直方向速度を確定する。第3プリセット条件を満たさない場合、第1初期予測値と第2初期予測値とによって、水平方向勾配合計と垂直方向勾配合計との相互相関係数S2と、垂直方向勾配合計の自己相関係数S5と、時間領域予測値の差分値と垂直方向勾配合計との相互相関係数S6とを確定し、そして、相互相関係数S2と、自己相関係数S5と、相互相関係数S6と、速度閾値と、水平方向速度と、第1増幅因子と、第2増幅因子とによって垂直方向速度を確定する。 In method 3, if the third preset condition is satisfied, the autocorrelation coefficient S5 of the vertical gradient sum and the cross-correlation coefficient S6 between the difference value of the time domain prediction value and the vertical gradient sum are determined by the first initial prediction value and the second initial prediction value, and the vertical velocity is determined by the autocorrelation coefficient S5, the cross-correlation coefficient S6, the velocity threshold, the first amplification factor, and the second amplification factor. If the third preset condition is not satisfied, the cross-correlation coefficient S2 between the horizontal gradient sum and the vertical gradient sum, the autocorrelation coefficient S5 of the vertical gradient sum, and the cross-correlation coefficient S6 between the difference value of the time domain prediction value and the vertical gradient sum are determined by the first initial prediction value and the second initial prediction value, and the vertical velocity is determined by the cross-correlation coefficient S2, the autocorrelation coefficient S5, the cross-correlation coefficient S6, the velocity threshold, the horizontal velocity, the first amplification factor, and the second amplification factor.

例示として、第3プリセット条件は、前記水平方向速度に基づいて確定される。 By way of example, the third preset condition is determined based on the horizontal velocity.

ステップ202とステップ203において、第1初期予測値と、第2初期予測値と、第1増幅因子と、第2増幅因子とによって、水平方向勾配合計と、垂直方向勾配合計と、時間領域予測値の差分値とを確定し、水平方向勾配合計と、垂直方向勾配合計と、時間領域予測値の差分値とによって、水平方向勾配合計の自己相関係数S1と、水平方向勾配合計と垂直方向勾配合計との相互相関係数S2と、時間領域予測値の差分値と水平方向勾配合計との相互相関係数S3と、垂直方向勾配合計の自己相関係数S5と、時間領域予測値の差分値と垂直方向勾配合計との相互相関係数S6とを確定する。 In steps 202 and 203, the horizontal gradient sum, the vertical gradient sum, and the difference value of the time domain prediction value are determined using the first initial prediction value, the second initial prediction value, the first amplification factor, and the second amplification factor, and the horizontal gradient sum, the autocorrelation coefficient S1 of the horizontal gradient sum, the cross-correlation coefficient S2 between the horizontal gradient sum and the vertical gradient sum, the cross-correlation coefficient S3 between the difference value of the time domain prediction value and the horizontal gradient sum, the autocorrelation coefficient S5 of the vertical gradient sum, and the cross-correlation coefficient S6 between the difference value of the time domain prediction value and the vertical gradient sum are determined using the horizontal gradient sum, the vertical gradient sum, and the difference value of the time domain prediction value.

例示として、相互相関係数S2は、第1相互相関係数の閾値と第2相互相関係数の閾値との間に存在してよいが、相互相関係数S6は第3相互相関係数の閾値と第4相互相関係数の閾値との間に存在してよい。 By way of example, the cross-correlation coefficient S2 may lie between a first cross-correlation coefficient threshold and a second cross-correlation coefficient threshold, while the cross-correlation coefficient S6 may lie between a third cross-correlation coefficient threshold and a fourth cross-correlation coefficient threshold.

例えば、第1初期予測値と、第2初期予測値と、第1増幅因子と、第2増幅因子とによって得られた相互相関係数S2が、第1相互相関係数の閾値より小さい場合、相互相関係数S2を第1相互相関係数の閾値に更新する。第1初期予測値と、第2初期予測値と、第1増幅因子と、第2増幅因子とによって得られた相互相関係数S2が第2相互相関係数の閾値より大きい場合、相互相関係数S2を第2相互相関係数の閾値に更新する。第1初期予測値と、第2初期予測値と、第1増幅因子と、第2増幅因子とによって得られた相互相関係数S2が第1相互相関係数の閾値以上であり、第2相互相関係数の閾値以下である場合、相互相関係数S2を維持する。 For example, if the cross-correlation coefficient S2 obtained by the first initial prediction value, the second initial prediction value, the first amplification factor, and the second amplification factor is smaller than the threshold value of the first cross-correlation coefficient, the cross-correlation coefficient S2 is updated to the threshold value of the first cross-correlation coefficient. If the cross-correlation coefficient S2 obtained by the first initial prediction value, the second initial prediction value, the first amplification factor, and the second amplification factor is larger than the threshold value of the second cross-correlation coefficient, the cross-correlation coefficient S2 is updated to the threshold value of the second cross-correlation coefficient. If the cross-correlation coefficient S2 obtained by the first initial prediction value, the second initial prediction value, the first amplification factor, and the second amplification factor is equal to or larger than the threshold value of the first cross-correlation coefficient and equal to or smaller than the threshold value of the second cross-correlation coefficient, the cross-correlation coefficient S2 is maintained.

第1初期予測値と、第2初期予測値と、第1増幅因子と、第2増幅因子とによって得られた相互相関係数S6が第3相互相関係数の閾値より小さい場合、相互相関係数S6を第3相互相関係数の閾値に更新する。第1初期予測値と、第2初期予測値と、第1増幅因子と、第2増幅因子とによって得られた相互相関係数S6が第4相互相関係数の閾値より大きい場合、相互相関係数S6を第4相互相関係数の閾値に更新する。第1初期予測値と、第2初期予測値と、第1増幅因子と、第2増幅因子とによって得られた相互相関係数S6が第3相互相関係数の閾値以上であり、第4相互相関係数の閾値以下である場合、相互相関係数S6を維持する。 If the cross-correlation coefficient S6 obtained by the first initial prediction value, the second initial prediction value, the first amplification factor, and the second amplification factor is smaller than the threshold value of the third cross-correlation coefficient, the cross-correlation coefficient S6 is updated to the threshold value of the third cross-correlation coefficient. If the cross-correlation coefficient S6 obtained by the first initial prediction value, the second initial prediction value, the first amplification factor, and the second amplification factor is larger than the threshold value of the fourth cross-correlation coefficient, the cross-correlation coefficient S6 is updated to the threshold value of the fourth cross-correlation coefficient. If the cross-correlation coefficient S6 obtained by the first initial prediction value, the second initial prediction value, the first amplification factor, and the second amplification factor is equal to or greater than the threshold value of the third cross-correlation coefficient and equal to or less than the threshold value of the fourth cross-correlation coefficient, the cross-correlation coefficient S6 is maintained.

例示として、第1増幅因子は、5と(BD-7)の小さい方でもよく、或いは、1と(BD-11)の大きい方でもよい。勿論、上記はただ第1増幅因子の例示だけであり、これらに限定されなく、経験に応じて設定できる。 For example, the first amplification factor may be the smaller of 5 and (BD-7), or the larger of 1 and (BD-11). Of course, the above are merely examples of the first amplification factor, and it is not limited to these and can be set according to experience.

例示として、第2増幅因子は、8と(BD-4)の小さい方でもよく、或いは、4と(BD-8)の大きい方でもよい。勿論、上記はただ第2増幅因子の例示だけであり、これらに限定されなく、経験に応じて設定できる。 For example, the second amplification factor may be the smaller of 8 and (BD-4), or the larger of 4 and (BD-8). Of course, the above are merely examples of the second amplification factor, and it is not limited to these and can be set according to experience.

例示として、速度閾値は、2のM乗でもよく、Mは13とBDの差分値、或いは、5と(BD-7)の大きい方である。勿論、上記はただ速度閾値の例示だけであり、これに限定されなく、経験に応じて設定できる。 For example, the speed threshold may be 2 to the power M, where M is the difference between 13 and BD, or the greater of 5 and (BD-7). Of course, the above are merely examples of speed thresholds, and are not limited to these and can be set based on experience.

例示として、BD(bit depth)は、ビット深度であり、各色度または輝度の画素値に必要なビット幅として示される。 For example, BD (bit depth) is the bit depth, which is indicated as the bit width required for each chromaticity or luminance pixel value.

ステップ204では、水平方向速度と垂直方向速度とによって予測補償値を取得する。 In step 204, a predicted compensation value is obtained based on the horizontal and vertical velocities.

例示として、水平方向速度と垂直方向速度とによって予測補償値を取得することは、第1初期予測値と、第2初期予測値と、勾配右シフトビット数とによって、水平方向勾配と垂直方向勾配を確定し、水平方向速度と、垂直方向速度と、水平方向勾配と、前記垂直方向勾配とによって、予測補償値を取得することを含むが、これに限定されない。 For example, obtaining a predicted compensation value based on a horizontal velocity and a vertical velocity includes, but is not limited to, determining a horizontal gradient and a vertical gradient based on a first initial predicted value, a second initial predicted value, and a gradient right shift bit number, and obtaining a predicted compensation value based on the horizontal velocity, the vertical velocity, the horizontal gradient, and the vertical gradient.

例示として、勾配右シフトビット数は、2と(14-BD)の大きい方、或いは、6と(BD-6)の大きい方でもよい。勿論、上記はただ勾配右シフトビット数の例示だけであり、これに限定されない、経験に応じて設定できる。 For example, the number of gradient right shift bits may be the greater of 2 and (14-BD), or the greater of 6 and (BD-6). Of course, the above are merely examples of the number of gradient right shift bits, and are not limited to these, and can be set according to experience.

ステップ205では、第1初期予測値と、第2初期予測値と、予測補償値とによって目標予測値を取得する。 In step 205, the target prediction value is obtained using the first initial prediction value, the second initial prediction value, and the prediction compensation value.

例示として、上記方法が現在ブロックの目標予測値を取得するために用いられる場合、現在ブロックの特徴情報が特定条件を満たすと、現在ブロックの第1単方向動き情報によって前記現在ブロックに対応する第1初期予測値を確定し、現在ブロックの第2単方向動き情報によって前記現在ブロックに対応する第2初期予測値を確定する。第1初期予測値と第2初期予測値とによって前記現在ブロックに対応する水平方向速度を確定し、第1初期予測値と第2初期予測値とによって前記現在ブロックに対応する垂直方向速度を確定する。そして、水平方向速度と垂直方向速度とによって前記現在ブロックに対応する予測補償値を確定し、第1初期予測値と、第2初期予測値と、予測補償値とによって前記現在ブロックに対応する目標予測値を確定する。これまで、前記現在ブロックに対応する目標予測値を取得することに成功した。 For example, when the above method is used to obtain a target prediction value of a current block, if the feature information of the current block satisfies a specific condition, a first initial prediction value corresponding to the current block is determined according to first unidirectional motion information of the current block, and a second initial prediction value corresponding to the current block is determined according to second unidirectional motion information of the current block. A horizontal velocity corresponding to the current block is determined according to the first initial prediction value and the second initial prediction value, and a vertical velocity corresponding to the current block is determined according to the first initial prediction value and the second initial prediction value. Then, a prediction compensation value corresponding to the current block is determined according to the horizontal velocity and the vertical velocity, and a target prediction value corresponding to the current block is determined according to the first initial prediction value, the second initial prediction value, and the prediction compensation value. So far, a target prediction value corresponding to the current block has been successfully obtained.

例示として、現在ブロックが少なくとも1つのサブブロックに区画され、且つ上記方法が現在ブロックの各サブブロックの目標予測値を取得するために用いられる場合、現在ブロックの特徴情報が特定条件を満たすと、前記現在ブロックの各サブブロックに対し、前記サブブロックの第1単方向動き情報(現在ブロックの第1単方向動き情報と同じ)によって前記サブブロックに対応する第1初期予測値を確定するとともに、前記サブブロックの第2単方向動き情報(現在ブロックの第2単方向動き情報と同じ)によって前記サブブロックに対応する第2初期予測値を確定する。第1初期予測値と第2初期予測値とによって前記サブブロックに対応する水平方向速度を確定するとともに、第1初期予測値と第2初期予測値とによって前記サブブロックに対応する垂直方向速度を確定する。そして、水平方向速度と垂直方向速度とによって前記サブブロックに対応する予測補償値を確定し、第1初期予測値と、第2初期予測値と、予測補償値とによって前記サブブロックに対応する目標予測値を確定する。 For example, when the current block is divided into at least one subblock, and the above method is used to obtain a target prediction value of each subblock of the current block, when the feature information of the current block satisfies a specific condition, for each subblock of the current block, a first initial prediction value corresponding to the subblock is determined according to the first unidirectional motion information of the subblock (same as the first unidirectional motion information of the current block), and a second initial prediction value corresponding to the subblock is determined according to the second unidirectional motion information of the subblock (same as the second unidirectional motion information of the current block). A horizontal velocity corresponding to the subblock is determined according to the first initial prediction value and the second initial prediction value, and a vertical velocity corresponding to the subblock is determined according to the first initial prediction value and the second initial prediction value. Then, a prediction compensation value corresponding to the subblock is determined according to the horizontal velocity and the vertical velocity, and a target prediction value corresponding to the subblock is determined according to the first initial prediction value, the second initial prediction value, and the prediction compensation value.

これまで、前記サブブロックに対応する目標予測値を取得することに成功した。前記現
在ブロックの各サブブロックの目標予測値を取得した後、実際には、前記現在ブロックの目標予測値を取得した。
Thus far, we have successfully obtained the target predicted values corresponding to the sub-blocks. After obtaining the target predicted values of each sub-block of the current block, we have actually obtained the target predicted value of the current block.

以上の形態から分かるように、本願実施例において、現在ブロックの第1単方向動き情報によって第1初期予測値を確定し、現在ブロックの第2単方向動き情報によって第2初期予測値を確定し、第1初期予測値と第2初期予測値とによって水平方向速度と垂直方向速度とを確定し、水平方向速度と垂直方向速度とによって予測補償値を取得し、予測補償値によって目標予測値を取得する。上記形態はオプティカルフロー法により現在ブロックまたは現在ブロックのサブブロックの目標予測値を取得することができる。これにより、ハードウェア実装の利便性を向上させ、符号化性能を向上させる。 As can be seen from the above embodiment, in the present application, a first initial prediction value is determined according to the first unidirectional motion information of the current block, a second initial prediction value is determined according to the second unidirectional motion information of the current block, a horizontal velocity and a vertical velocity are determined according to the first initial prediction value and the second initial prediction value, a prediction compensation value is obtained according to the horizontal velocity and the vertical velocity, and a target prediction value is obtained according to the prediction compensation value. The above embodiment can obtain a target prediction value of the current block or a sub-block of the current block by the optical flow method. This improves the convenience of hardware implementation and improves coding performance.

(実施例2)
本願実施例は、復号化側または符号化側に適用されるコーデック方法を提供する。図3を参照すると、図3は、コーデック方法のフローの模式図である。例示として、現在ブロックの特徴情報は特定条件を満たす場合、現在ブロックの各サブブロックの目標予測値を取得するように、現在ブロックの各サブブロックに対して以下のステップを実行する。
Example 2
The present embodiment provides a codec method applied to a decoding side or an encoding side. Referring to Fig. 3, Fig. 3 is a schematic diagram of a flow of the codec method. For example, when the feature information of the current block satisfies a certain condition, the following steps are performed for each sub-block of the current block to obtain a target predicted value of each sub-block of the current block.

ステップ301では、現在ブロックの特徴情報が特定条件を満たす場合、現在ブロックの第1単方向動き情報(即ち現在ブロックのサブブロックの第1単方向動き情報)によってサブブロックの第1初期予測値を確定するとともに、現在ブロックの第2単方向動き情報(即ち現在ブロックのサブブロックの第2単方向動き情報)によってサブブロックの第2初期予測値を確定する。 In step 301, if the feature information of the current block satisfies a specific condition, a first initial prediction value of the sub-block is determined based on the first unidirectional motion information of the current block (i.e., the first unidirectional motion information of the sub-block of the current block), and a second initial prediction value of the sub-block is determined based on the second unidirectional motion information of the current block (i.e., the second unidirectional motion information of the sub-block of the current block).

例示として、現在ブロックが双方向ブロック(即ち現在ブロックは双方向予測を採用するブロック)である場合、現在ブロックに対応する双方向動き情報を取得するが、この取得方式に限定されない。この双方向動き情報は2つの異なる方向の動き情報を含み、この2つの異なる方法の動き情報が第1単方向動き情報(例えば、第1動きベクトルと第1参照フレームインデックス)及び第2単方向動き情報(例えば、第2動きベクトルと第2参照フレームインデックス)と呼ばれる。第1単方向動き情報に基づいて第1参照フレーム(例えば、参照フレーム0)を確定し、且つ第1参照フレームが現在ブロックの所属する現在フレームの前に位置し;第2単方向動き情報に基づいて第2参照フレーム(例えば、参照フレーム1)を確定し、且つ第2参照フレームが現在ブロックの所属する現在フレームの後ろに位置する。 For example, when the current block is a bidirectional block (i.e., the current block adopts bidirectional prediction), bidirectional motion information corresponding to the current block is obtained, but is not limited to this acquisition method. This bidirectional motion information includes motion information in two different directions, and the motion information in the two different ways is called first unidirectional motion information (e.g., a first motion vector and a first reference frame index) and second unidirectional motion information (e.g., a second motion vector and a second reference frame index). A first reference frame (e.g., reference frame 0) is determined based on the first unidirectional motion information, and the first reference frame is located before the current frame to which the current block belongs; a second reference frame (e.g., reference frame 1) is determined based on the second unidirectional motion information, and the second reference frame is located after the current frame to which the current block belongs.

例示として、現在ブロックの各サブブロックに対し、当該サブブロックの第1単方向動き情報と現在ブロックの第1単方向動き情報とは同じであり、当該サブブロックの第2単方向動き情報と現在ブロックの第2単方向動き情報とは同じである。 For example, for each sub-block of the current block, the first unidirectional motion information of the sub-block is the same as the first unidirectional motion information of the current block, and the second unidirectional motion information of the sub-block is the same as the second unidirectional motion information of the current block.

例示として、特徴情報は、動き情報属性、予測モード属性、サイズ情報、シーケンスレベルスイッチ制御情報のうちの1つまたは複数を含む。特徴情報が特定条件を満たすことについて、ステップ201を参照し、ここでその説明を省略する。 By way of example, the feature information includes one or more of a motion information attribute, a prediction mode attribute, size information, and sequence level switch control information. For the feature information satisfying a specific condition, refer to step 201, and a description thereof will be omitted here.

Figure 0007506234000002
Figure 0007506234000002

ステップ302では、サブブロックの第1初期予測値と第2初期予測値とによって水平方向勾配合計と、垂直方向勾配合計と、時間領域予測値の差分値とを確定する。例えば、サブブロックの第1初期予測値と、サブブロックの第2初期予測値と、第1増幅因子と、第2増幅因子とによって、水平方向勾配合計と、垂直方向勾配合計と、時間領域予測値の差分値とを確定する。 In step 302, a horizontal gradient sum, a vertical gradient sum, and a difference value of the time domain prediction value are determined based on the first and second initial prediction values of the subblock. For example, a horizontal gradient sum, a vertical gradient sum, and a difference value of the time domain prediction value are determined based on the first and second initial prediction values of the subblock, the first amplification factor, and the second amplification factor.

ステップ303では、水平方向勾配合計と、垂直方向勾配合計と、時間領域予測値の差分値とによって、水平方向勾配合計の自己相関係数S1(以後、自己相関係数S1と呼ばれる)と、水平方向勾配合計と垂直方向勾配合計との相互相関係数S2(以後、相互相関係数S2と呼ばれる)と、時間領域予測値の差分値と水平方向勾配合計との相互相関係数S3(以後、相互相関係数S3と呼ばれる)と、垂直方向勾配合計の自己相関係数S5(以後、自己相関係数S5と呼ばれる)と、時間領域予測値の差分値と垂直方向勾配合計との相互相関係数S6(以後、相互相関係数S6と呼ばれる)とを確定する。 In step 303, the horizontal gradient sum, the vertical gradient sum, and the difference value of the time domain prediction value are used to determine the autocorrelation coefficient S1 of the horizontal gradient sum (hereinafter referred to as the autocorrelation coefficient S1), the cross-correlation coefficient S2 between the horizontal gradient sum and the vertical gradient sum (hereinafter referred to as the cross-correlation coefficient S2), the cross-correlation coefficient S3 between the difference value of the time domain prediction value and the horizontal gradient sum (hereinafter referred to as the cross-correlation coefficient S3), the autocorrelation coefficient S5 of the vertical gradient sum (hereinafter referred to as the autocorrelation coefficient S5), and the cross-correlation coefficient S6 between the difference value of the time domain prediction value and the vertical gradient sum (hereinafter referred to as the cross-correlation coefficient S6).

ステップ304では、自己相関係数S1、相互相関係数S2、相互相関係数S3、自己相関係数S5、及び相互相関係数S6のうちの1つまたは複数によって、参照フレームにおける現在ブロックのサブブロックに対応するサブブロックの水平方向速度を確定する。 In step 304, the horizontal velocity of the sub-block corresponding to the sub-block of the current block in the reference frame is determined by one or more of the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6.

ステップ305では、自己相関係数S1、相互相関係数S2、相互相関係数S3、自己相関係数S5、及び相互相関係数S6のうちの1つまたは複数によって、参照フレームにおける現在ブロックのサブブロックに対応するサブブロックの垂直方向速度を確定する。 In step 305, the vertical velocity of the sub-block corresponding to the sub-block of the current block in the reference frame is determined by one or more of the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6.

ステップ306では、水平方向速度と垂直方向速度とによって現在ブロックのサブブロックの予測補償値を取得する。 In step 306, a prediction compensation value for the sub-block of the current block is obtained based on the horizontal velocity and vertical velocity.

ステップ307では、現在ブロックのサブブロックの第1初期予測値と、現在ブロックのサブブロックの第2初期予測値と、現在ブロックのサブブロックの予測補償値とによって、現在ブロックのサブブロックの目標予測値を取得する。 In step 307, a target prediction value of the sub-block of the current block is obtained by using the first initial prediction value of the sub-block of the current block, the second initial prediction value of the sub-block of the current block, and the prediction compensation value of the sub-block of the current block.

例示として、ステップ301~ステップ307のフローは、実施例1を参照し、ここでその説明を省略する。 As an example, the flow from step 301 to step 307 refers to Example 1, and the explanation is omitted here.

(実施例3)
符号化側/復号化側では、現在ブロックの特徴情報が特定条件を満たすかどうかを判断
する必要がある。YESである場合,本願実施例に係る技術案を採用して、現在ブロックまたは現在ブロックのサブブロックの目標予測値を取得する。この技術案は双方向オプティカルフローモードとも呼ばれる。NOである場合,本願の目標予測値を取得する方式を採用する必要はない。
Example 3
The encoding side/decoding side needs to determine whether the feature information of the current block meets a certain condition. If yes, adopt the technical solution according to the embodiment of the present application to obtain the target predicted value of the current block or the sub-block of the current block. This technical solution is also called bidirectional optical flow mode. If no, there is no need to adopt the method of obtaining the target predicted value according to the present application.

特徴情報が少なくとも以下の条件を同時に満たす場合、現在ブロックの特徴情報が特定条件を満たすことを確定する。 If the characteristic information simultaneously meets at least the following conditions, it is determined that the characteristic information of the current block meets a specific condition.

前記条件は、
現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームは異なる方向からのものであり、つまり、現在ブロックに対応する一方の参照フレームが現在フレームの前に位置するが、現在ブロックに対応する他方の参照フレームが現在フレームの後ろに位置することと、
現在ブロックのサイズ情報(例えば、幅の値、高さの値、面積の値等)は、限定された範囲内にあることと
を含む。
The condition is
The current block adopts bidirectional prediction, and the two reference frames corresponding to the current block are from different directions, that is, one reference frame corresponding to the current block is located before the current frame, while the other reference frame corresponding to the current block is located after the current frame;
The size information of the current block (eg, width value, height value, area value, etc.) is within a limited range.

(実施例4)
特徴情報が少なくとも以下の条件を同時に満たす場合、現在ブロックの特徴情報が特定条件を満たすことを確定する。
Example 4
It is determined that the feature information of the current block satisfies a specific condition when the feature information simultaneously satisfies at least the following conditions:

前記条件は、
現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームは異なる方向からものであり、つまり、現在ブロックに対応する一方の参照フレームが現在フレームの前に位置するが、現在ブロックに対応する他方の参照フレームが現在フレームの後ろに位置することと、
現在ブロックのサイズ情報(例えば、幅の値、高さの値、面積の値等)は限定された範囲内にあることと、
現在ブロックが複数のサブブロックを含み、且つ複数のサブブロックの動き情報が何れも同じであり、つまり、現在ブロックの各サブブロックの動き情報が完全に同じでもよく、即ち現在ブロックがサブブロック動き情報モードを採用しないことと、
を含む。
The condition is
The current block adopts bidirectional prediction, and the two reference frames corresponding to the current block are from different directions, that is, one reference frame corresponding to the current block is located before the current frame, while the other reference frame corresponding to the current block is located after the current frame;
The size information of the current block (e.g., width value, height value, area value, etc.) is within a limited range;
The current block includes a plurality of sub-blocks, and the motion information of the plurality of sub-blocks is the same, that is, the motion information of each sub-block of the current block is completely the same, that is, the current block does not adopt the sub-block motion information mode;
including.

例示として、現在ブロックがサブブロック動き情報モードを採用しないことは、現在ブロックがAffineモードまたはSBTMVPモードを採用しないことと、Affineモードがアフィン動きモデルモードを採用し、SBTMVP(subblock-based temporal motion vector prediction)モードが時間領域でブロック全体の動き情報を取得するモードであることとを含んでよい。現在ブロックがAffineモードまたはSBTMVPモードを採用するとき、現在ブロック内部の各サブブロックの動き情報は、完全に同じではない確率が高い。したがって、現在ブロックはAffineモードまたはSBTMVPモード採用しなくてもよい。 For example, the current block not adopting the subblock motion information mode may include the current block not adopting the Affine mode or the SBTMVP mode, and the Affine mode adopting the affine motion model mode and the SBTMVP (subblock-based temporal motion vector prediction) mode being a mode for obtaining motion information of the entire block in the time domain. When the current block adopts the Affine mode or the SBTMVP mode, there is a high probability that the motion information of each subblock within the current block is not completely the same. Therefore, the current block may not adopt the Affine mode or the SBTMVP mode.

(実施例5)
特徴情報は少なくとも以下の条件を同時に満たす場合、現在ブロックの特徴情報が特定条件を満たすことを確定する。
Example 5
It is determined that the feature information of the current block satisfies a certain condition when the feature information simultaneously satisfies at least the following conditions:

前記条件は、
現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームは異なる方向からものであり、つまり、現在ブロックに対応する一方の参照フレームが現在フレームの前に位置するが、現在ブロックに対応する他方の参照フレームが現在フレー
ムの後ろに位置することと、
現在ブロックのサイズ情報(例えば、幅の値、高さの値、面積の値等)は限定された範囲内にあることと、
現在ブロックが複数のサブブロックを含み、且つ複数のサブブロックの動き情報が何れも同じである。つまり、現在ブロックの各サブブロックの動き情報が完全に同じでもよく、即ち現在ブロックがサブブロック動き情報モードを採用しないことと、
現在ブロックが双方向予測を採用し、現在ブロックに対応する2つの参照フレームの重みが同じであることと
を含む。
The condition is
The current block adopts bidirectional prediction, and the two reference frames corresponding to the current block are from different directions, that is, one reference frame corresponding to the current block is located before the current frame, while the other reference frame corresponding to the current block is located after the current frame;
The size information of the current block (e.g., width value, height value, area value, etc.) is within a limited range;
The current block includes a plurality of sub-blocks, and the motion information of the plurality of sub-blocks is the same. That is, the motion information of each sub-block of the current block may be completely the same, that is, the current block does not adopt the sub-block motion information mode;
The current block adopts bidirectional prediction, and the weights of the two reference frames corresponding to the current block are the same.

(実施例6)
特徴情報が少なくとも以下の条件を同時に満たす場合、現在ブロックの特徴情報が特定条件を満たすことを確定する。
(Example 6)
It is determined that the feature information of the current block satisfies a specific condition when the feature information simultaneously satisfies at least the following conditions:

前記条件は、
現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームは異なる方向からものであり、つまり、現在ブロックに対応する一方の参照フレームが現在フレームの前に位置するが、現在ブロックに対応する他方の参照フレームが現在フレームの後ろに位置することと、
現在ブロックのサイズ情報(例えば、幅の値、高さの値、面積の値等)は限定された範囲内にあることと、
現在ブロックが複数のサブブロックを含み、且つ複数のサブブロックの動き情報が何れも同じであり、つまり、現在ブロックの各サブブロックの動き情報が完全に同じでもよく、即ち現在ブロックがサブブロック動き情報モードを採用しないことと、
現在ブロックが双方向予測を採用し、現在ブロックに対応する2つの参照フレームの重みが同じであることと、
現在ブロックがCIIPモード(イントラ予測とインター予測との組合せによるマージモード,combine intra inter prediction mode)を採用しないことと
を含む。
The condition is
The current block adopts bidirectional prediction, and the two reference frames corresponding to the current block are from different directions, that is, one reference frame corresponding to the current block is located before the current frame, while the other reference frame corresponding to the current block is located after the current frame;
The size information of the current block (e.g., width value, height value, area value, etc.) is within a limited range;
The current block includes a plurality of sub-blocks, and the motion information of the plurality of sub-blocks is the same, that is, the motion information of each sub-block of the current block is completely the same, that is, the current block does not adopt the sub-block motion information mode;
The current block adopts bidirectional prediction, and the weights of the two reference frames corresponding to the current block are the same;
The current block does not adopt a CIIP mode (combine intra inter prediction mode).

(実施例7)
特徴情報が少なくとも以下の条件を同時に満たす場合、現在ブロックの特徴情報が特定条件を満たすことを確定する。
(Example 7)
It is determined that the feature information of the current block satisfies a specific condition when the feature information simultaneously satisfies at least the following conditions:

前記条件は、
現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームは異なる方向からものであり、つまり、現在ブロックに対応する一方の参照フレームが現在フレームの前に位置するが、現在ブロックに対応する他方の参照フレームが現在フレームの後ろに位置することと、
現在ブロックのサイズ情報(例えば、幅の値、高さの値、面積の値等)は限定された範囲内にあることと、
現在ブロックが複数のサブブロックを含み、且つ複数のサブブロックの動き情報が何れも同じであり、つまり、現在ブロックの各サブブロックの動き情報が完全に同じでもよく、即ち現在ブロックがサブブロック動き情報モードを採用しないことと、
現在ブロックが双方向予測を採用し、現在ブロックに対応する2つの参照フレームの重みが同じであることと、
現在ブロックがSMVD(Symmetric Motion Vector Difference,対称動きベクトル差分)モードを採用しなく、SMVDモードにおける双方向動き情報の2つのMVDは対称であり、即ち、一方の動きベクトル差分MVDのみを符号化し、他方の動きベクトル差分を負のMVDにする必要があることと
を含む。
The condition is
The current block adopts bidirectional prediction, and the two reference frames corresponding to the current block are from different directions, that is, one reference frame corresponding to the current block is located before the current frame, while the other reference frame corresponding to the current block is located after the current frame;
The size information of the current block (e.g., width value, height value, area value, etc.) is within a limited range;
The current block includes a plurality of sub-blocks, and the motion information of the plurality of sub-blocks is the same, that is, the motion information of each sub-block of the current block is completely the same, that is, the current block does not adopt the sub-block motion information mode;
The current block adopts bidirectional prediction, and the weights of the two reference frames corresponding to the current block are the same;
The current block does not adopt Symmetric Motion Vector Difference (SMVD) mode, and the two MVDs of the bidirectional motion information in the SMVD mode are symmetric, that is, only one motion vector difference MVD needs to be coded, and the other motion vector difference needs to be a negative MVD.

(実施例8)
特徴情報が少なくとも以下の条件を同時に満たす場合、現在ブロックの特徴情報が特定条件を満たすことを確定する。
(Example 8)
It is determined that the feature information of the current block satisfies a specific condition when the feature information simultaneously satisfies at least the following conditions:

前記条件は、
シーケンスレベルスイッチ制御情報は現在ブロックが双方向オプティカルフローモードを採用することを許容するものであり、つまり、シーケンスレベル制御により、双方向オプティカルフローモードが使用されることができ、即ちシーケンスレベル制御スイッチがオンになり、現在ブロックが双方向オプティカルフローモードを採用することを許容することを示すことと、
現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームは異なる方向からものであり、つまり、現在ブロックに対応する一方の参照フレームが現在フレームの前に位置するが、現在ブロックに対応する他方の参照フレームが現在フレームの後ろに位置することと、
現在ブロックのサイズ情報(例えば、幅の値、高さの値、面積の値等)は限定された範囲内にあることと、
現在ブロックが複数のサブブロックを含み、且つ複数のサブブロックの動き情報が何れも同じであり、つまり、現在ブロックの各サブブロックの動き情報が完全に同じでもよく、即ち現在ブロックがサブブロック動き情報モードを採用しないことと、
現在ブロックが双方向予測を採用し、現在ブロックに対応する2つの参照フレームの重みが同じであることと
を含む。
The condition is
The sequence level switch control information allows the current block to adopt a bidirectional optical flow mode, i.e., the sequence level control allows the bidirectional optical flow mode to be used, i.e., the sequence level control switch is turned on to indicate that the current block is allowed to adopt a bidirectional optical flow mode;
The current block adopts bidirectional prediction, and the two reference frames corresponding to the current block are from different directions, that is, one reference frame corresponding to the current block is located before the current frame, while the other reference frame corresponding to the current block is located after the current frame;
The size information of the current block (e.g., width value, height value, area value, etc.) is within a limited range;
The current block includes a plurality of sub-blocks, and the motion information of the plurality of sub-blocks is the same, that is, the motion information of each sub-block of the current block is completely the same, that is, the current block does not adopt the sub-block motion information mode;
The current block adopts bidirectional prediction, and the weights of the two reference frames corresponding to the current block are the same.

(実施例9)
上記実施例3~実施例8のいずれかに係る条件「現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームは異なる方向からものであり」を、「現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームは異なる方向からものであり、且つ現在ブロックに対応する2つの参照フレームのそれぞれと現在フレームとの距離は同じである」に変更する。
Example 9
The condition in any of the above Examples 3 to 8, "the current block employs bidirectional prediction, and the two reference frames corresponding to the current block are from different directions," is changed to "the current block employs bidirectional prediction, and the two reference frames corresponding to the current block are from different directions, and the distance between each of the two reference frames corresponding to the current block and the current frame is the same."

例えば、現在フレームの表示配列番号がPOCであり、現在ブロックに対応する2つの参照フレームの表示配列番号がそれぞれPOC0とPOC1である場合、2つの参照フレームが異なる方向からものであることは、(POC-POC0)*(POC-POC1)<0に相当し、2つの参照フレームのそれぞれと現在フレームとの距離が同じであることは、(POC-POC0)の値が(POC1-POC)の値と等しいに相当する。 For example, if the display array number of the current frame is POC and the display array numbers of the two reference frames corresponding to the current block are POC0 and POC1, respectively, then the two reference frames being from different directions corresponds to (POC-POC0)*(POC-POC1)<0, and the distance between each of the two reference frames and the current frame being the same corresponds to the value of (POC-POC0) being equal to the value of (POC1-POC).

(実施例10)
特徴情報が少なくとも以下の条件を満たす場合、現在ブロックの特徴情報が特定条件を満たすことを確定する。
Example 10
It is determined that the feature information of the current block satisfies a specific condition if the feature information at least satisfies the following condition:

シーケンスレベルスイッチ制御情報は、現在ブロックが双方向オプティカルフローモードを採用することを許容するものであり、つまり、シーケンスレベル制御により、双方向オプティカルフローモードが使用されることができ、即ちシーケンスレベル制御スイッチがオンになり、現在ブロックが双方向オプティカルフローモードを採用することを許容することを示す。 The sequence level switch control information allows the current block to adopt bidirectional optical flow mode, i.e., the sequence level control allows the bidirectional optical flow mode to be used, i.e., the sequence level control switch is turned on, indicating that the current block is allowed to adopt bidirectional optical flow mode.

(実施例11)
特徴情報が少なくとも以下の条件を満たす場合、現在ブロックの特徴情報が特定条件を満たすことを確定する。
(Example 11)
It is determined that the feature information of the current block satisfies a specific condition if the feature information at least satisfies the following condition:

現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームの予測値の差分値がプリセットされた閾値TH_SADより小さくてもよい。例示として、以下の形態を採用して、現在ブロックに対応する2つの参照フレームの予測値の差分値を取得する。 The current block may adopt bidirectional prediction, and the difference value of the predicted values of the two reference frames corresponding to the current block may be smaller than a preset threshold TH_SAD. As an example, the following form is adopted to obtain the difference value of the predicted values of the two reference frames corresponding to the current block.

方式1として、現在ブロックの第1単方向動き情報によって第1参照フレームから現在ブロックのサブブロックに対応する第1予測ブロックを取得し、現在ブロックの第2単方向動き情報によって第2参照フレームから現在ブロックのサブブロックに対応する第2予測ブロックを取得し、第1予測ブロックの予測値と第2予測ブロックの予測値のSAD(Sum of Absolute Difference,差分絶対値和)によって、第1参照フレームと第2参照フレームの予測値の差分値を取得する。 In method 1, a first predicted block corresponding to a sub-block of the current block is obtained from a first reference frame using first unidirectional motion information of the current block, a second predicted block corresponding to a sub-block of the current block is obtained from a second reference frame using second unidirectional motion information of the current block, and a difference between the predicted values of the first and second reference frames is obtained using the SAD (Sum of Absolute Difference) of the predicted values of the first and second predicted blocks.

方式2として、現在ブロックの第1単方向動き情報によって第1参照フレームから現在ブロックのサブブロックに対応する第1予測ブロックを取得し、現在ブロックの第2単方向動き情報によって第2参照フレームから現在ブロックのサブブロックに対応する第2予測ブロックを取得し;第1予測ブロックのダウンサンプリングされた後の予測値(即ち第1予測ブロックの予測値をダウンサンプリングを行った後に得られた予測値)と第2予測ブロックのダウンサンプリングされた後の予測値(即ち第2予測ブロックの予測値をダウンサンプリングを行った後に得られた予測値)のSADによって、第1参照フレームと第2参照フレームの予測値の差分値を取得する。 In method 2, a first prediction block corresponding to a sub-block of the current block is obtained from a first reference frame according to the first unidirectional motion information of the current block, and a second prediction block corresponding to a sub-block of the current block is obtained from a second reference frame according to the second unidirectional motion information of the current block; and a difference value between the prediction values of the first and second reference frames is obtained by the SAD of the downsampled prediction value of the first prediction block (i.e., the prediction value obtained after downsampling the prediction value of the first prediction block) and the downsampled prediction value of the second prediction block (i.e., the prediction value obtained after downsampling the prediction value of the second prediction block).

(実施例12)
上記実施例において、現在ブロックのサイズ情報は限定された範囲内にあり、以下の状況の1つでもよい。
Example 12
In the above embodiment, the size information of the current block is within a limited range, and may be in one of the following situations:

状況1として、現在ブロックの幅の値が第1区間[Wmin,Wmax]の範囲にある;現在ブロックの高さの値が第2区間[Hmin,Hmax]の範囲にある;Wmin、Wmax、Hmin、Hmaxは何れも2の正の整数乗である;例えば、Wminが8であり、Wmaxが128であり、Hminが8であり、Hmaxが128である。 In situation 1, the width value of the current block is in the range of the first interval [Wmin, Wmax]; the height value of the current block is in the range of the second interval [Hmin, Hmax]; Wmin, Wmax, Hmin, and Hmax are all positive integer powers of 2; for example, Wmin is 8, Wmax is 128, Hmin is 8, and Hmax is 128.

現在ブロックの面積の値は第3区間[Smin,Smax]の範囲にある;Smin、Smaxは何れも2の正の整数乗である;例えば、Sminが64であり、Smaxが128*128=16384である。 The value of the area of the current block is in the range of the third interval [Smin, Smax]; Smin and Smax are both positive integer powers of 2; for example, Smin is 64 and Smax is 128*128=16384.

上記の実施例において、[a,b]がa以上、b以下であることを示す。 In the above example, [a, b] indicates that a is greater than or equal to a and b is less than or equal to b.

状況2として、現在ブロックの幅の値は第1区間[Wmin,Wmax]の範囲にある;Wmin、Wmaxは何れも2の正の整数乗である;例えば、Wminが8で、Wmaxが128である。 In case 2, the width value of the current block is in the range of the first interval [Wmin, Wmax]; Wmin and Wmax are both positive integer powers of 2; for example, Wmin is 8 and Wmax is 128.

状況3、現在ブロックの高さの値は第2区間[Hmin,Hmax]の範囲内にある;Hmin、Hmaxは2の正の整数乗である;例えば、Hminが8であり、Hmaxが128である。 Situation 3: The height value of the current block is within the second interval [Hmin, Hmax]; Hmin and Hmax are positive integer powers of 2; for example, Hmin is 8 and Hmax is 128.

例示として、以下のいずれかの条件を満たす場合、現在ブロックに対応する2つの参照フレームの重みは同じである。
条件1:現在ブロックは、異なる重みを許容する方法を採用しない。
条件2:現在ブロックは、異なる重みの方法(例えば、ブロックレベル重み付きの予測方法BCW(Bi-prediction with CU based weighting)を使用することができる)を採用することを許容し、且つ現在ブロックの2つの重みは完全に同じである。
条件3:現在ブロックが所属する現在フレームは異なる重みの方法を採用しない。
条件4:現在ブロックが所属する現在フレームは異なる重みの方法を採用することを許容し(例えば、フレームレベル重み付きの予測方法を使用することができる)、且つ現在フレームの2つの重みは完全に同じである。
For illustration, if any of the following conditions is met, the weights of two reference frames corresponding to the current block are the same:
Condition 1: The current block does not employ a method that allows different weights.
Condition 2: The current block is allowed to adopt different weighting methods (for example, the block-level weighted prediction method BCW (Bi-prediction with CU based weighting) can be used), and the two weights of the current block are completely the same.
Condition 3: The current frame to which the current block belongs does not adopt a different weighting method.
Condition 4: The current frame to which the current block belongs is allowed to adopt different weighting methods (for example, a frame-level weighted prediction method can be used), and the two weights of the current frame are completely the same.

Figure 0007506234000005
Figure 0007506234000005

Figure 0007506234000006
Figure 0007506234000006

図4に示すように、仮にサブブロックのサイズが4*4であり、第1参照ブロックのサイズが6*6であるとすると、第1参照ブロックの中央領域とは、第1参照ブロックの中心点を中心として、サイズが4*4である領域を指す。第1参照ブロックの中央領域の第1初期予測値は第1参照フレームの画素値を補間することにより得られたものであり、ここでその説明を省略する。第1参照ブロックのエッジ領域とは、第1参照ブロックにおける中央領域以外の領域(即ち中央領域以外、上下各1行及び左右各1列の領域)を指す。第1参照ブロックのエッジ領域の第1初期予測値は第1参照フレームの画素値をコピーすることにより得られたものである。図4において、第1参照フレームのピクセルの画素値を、第1参照ブロックのエッジ領域にコピーすることを示す。勿論、図4はただ1つの例示だけであり、他のピクセルの画素値を利用してコピーすることもできる。 As shown in FIG. 4, if the size of the subblock is 4*4 and the size of the first reference block is 6*6, the central region of the first reference block refers to a region with a size of 4*4 centered on the center point of the first reference block. The first initial predicted value of the central region of the first reference block is obtained by interpolating pixel values of the first reference frame, and the description thereof is omitted here. The edge region of the first reference block refers to a region other than the central region in the first reference block (i.e., a region other than the central region, one row above and one column above and one column below ...

上記方式において、第1参照ブロックのエッジ領域に対して、第1参照フレームで最も
近い整数画素値をコピーすることで取得でき、これにより余分な補間プロセスを回避し、余分な参照画素をアクセスすることを間接的に回避することができることは、明らかである。
It is obvious that in the above method, for the edge area of the first reference block, the nearest integer pixel value in the first reference frame can be obtained by copying, thereby avoiding an extra interpolation process and indirectly avoiding accessing extra reference pixels.

第2参照ブロックの中央領域の第2初期予測値と第2参照ブロックのエッジ領域の第2初期予測値とについて、第2初期予測値の取得プロセスは第1初期予測値の取得プロセスを参照できるため、ここでその説明を省略する。 As for the second initial predicted value of the central region of the second reference block and the second initial predicted value of the edge region of the second reference block, the process of obtaining the second initial predicted value can refer to the process of obtaining the first initial predicted value, so the explanation will be omitted here.

例えば、現在ブロックの第1単方向動き情報に基づいて、第1参照ブロックから第1参照ブロックを確定し、第1参照ブロックの第1初期予測値を確定する。第1参照ブロックの第1初期予測値は、第1参照ブロックにおける画素値を補間することにより得られたものである。現在ブロックの第2単方向動き情報に基づいて、第2参照フレームから第2参照ブロックを確定し、第2参照ブロックの第2初期予測値を確定する。第2参照ブロックの第2初期予測値は第2参照ブロックの画素値を補間することにより得られたものである。例えば、仮にサブブロックのサイズが4*4であり、第1参照ブロックのサイズが4*4であり、第2参照ブロックのサイズが4*4であるとすると、第1参照ブロックの全ての領域の第1初期予測値は第1参照フレームの画素値を補間することにより得られたものであり、第2参照ブロックの全ての領域の第1初期予測値は第1参照フレームの画素値を補間することにより得られたものである。 For example, based on the first unidirectional motion information of the current block, a first reference block is determined from a first reference block, and a first initial predicted value of the first reference block is determined. The first initial predicted value of the first reference block is obtained by interpolating pixel values in the first reference block. Based on the second unidirectional motion information of the current block, a second reference block is determined from a second reference frame, and a second initial predicted value of the second reference block is determined. The second initial predicted value of the second reference block is obtained by interpolating pixel values of the second reference block. For example, assuming that the size of the subblock is 4*4, the size of the first reference block is 4*4, and the size of the second reference block is 4*4, the first initial predicted value of all areas of the first reference block is obtained by interpolating pixel values of the first reference frame, and the first initial predicted value of all areas of the second reference block is obtained by interpolating pixel values of the first reference frame.

(実施例14)
サブブロックの第1初期予測値とサブブロックの第2初期予測値を得た後、符号化側/復号化側ではサブブロックの第1初期予測値と第2初期予測値とによって、水平方向勾配合計と、垂直方向勾配合計と、時間領域予測値の差分値とを確定する。例えば、サブブロックの第1初期予測値と、サブブロックの第2初期予測値と、第1増幅因子と、第2増幅因子とによって、水平方向勾配合計と、垂直方向勾配合計と、時間領域予測値の差分値とを確定する。例えば、式(1)により水平方向勾配合計を確定し、式(2)により垂直方向勾配合計を確定し、式(3)により時間領域予測値の差分値を確定する。
(Example 14)
After obtaining the first initial predicted value of the subblock and the second initial predicted value of the subblock, the encoding side/decoding side determines the horizontal gradient sum, the vertical gradient sum, and the difference value of the time domain predicted value according to the first initial predicted value of the subblock and the second initial predicted value of the subblock. For example, the horizontal gradient sum, the vertical gradient sum, and the difference value of the time domain predicted value are determined according to the first initial predicted value of the subblock, the second initial predicted value of the subblock, the first amplification factor, and the second amplification factor. For example, the horizontal gradient sum is determined according to formula (1), the vertical gradient sum is determined according to formula (2), and the difference value of the time domain predicted value is determined according to formula (3).



Figure 0007506234000009
Figure 0007506234000009

BD(bit depth)はビット深度でもよく、各色度または輝度画素値に必要なビット幅として示してもよい。例えば、BDは10または8でもよく、通常、BDは既知な値でもよい。 BD (bit depth) may be the bit depth or may be indicated as the bit width required for each chrominance or luminance pixel value. For example, BD may be 10 or 8, and typically BD may be a known value.

Figure 0007506234000011
Figure 0007506234000011

(実施例16)
相互相関係数S2と相互相関係数S6を得た後に、相互相関係数S2を第1相互相関係数の閾値と第2相互相関係数の閾値との間に制限できる。例えば、相互相関係数S2が第1相互相関係数の閾値より小さい場合、相互相関係数S2を第1相互相関係数の閾値に更新し、相互相関係数S2が第2相互相関係数の閾値より大きい場合、相互相関係数S2を第2相互相関係数の閾値に更新する。相互相関係数S6を第3相互相関係数の閾値と第4相互相関係数の閾値との間に制限できる。例えば、相互相関係数S6が第3相互相関係数の閾値より小さい場合、相互相関係数S6を第3相互相関係数の閾値に更新し、相互相関係数S6が第4相互相関係数の閾値より大きい場合、相互相関係数S6を第4相互相関係数の閾値に更新する。第1相互相関係数の閾値が第2相互相関係数の閾値より小さくてもよい。第3相互相関係数の閾値は第4相互相関係数の閾値より小さくてもよい。
(Example 16)
After obtaining the cross-correlation coefficient S2 and the cross-correlation coefficient S6, the cross-correlation coefficient S2 can be limited between a first cross-correlation coefficient threshold and a second cross-correlation coefficient threshold. For example, if the cross-correlation coefficient S2 is smaller than the first cross-correlation coefficient threshold, the cross-correlation coefficient S2 is updated to the first cross-correlation coefficient threshold, and if the cross-correlation coefficient S2 is larger than the second cross-correlation coefficient threshold, the cross-correlation coefficient S2 is updated to the second cross-correlation coefficient threshold. The cross-correlation coefficient S6 can be limited between a third cross-correlation coefficient threshold and a fourth cross-correlation coefficient threshold. For example, if the cross-correlation coefficient S6 is smaller than the third cross-correlation coefficient threshold, the cross-correlation coefficient S6 is updated to the third cross-correlation coefficient threshold, and if the cross-correlation coefficient S6 is larger than the fourth cross-correlation coefficient threshold, the cross-correlation coefficient S6 is updated to the fourth cross-correlation coefficient threshold. The first cross-correlation coefficient threshold may be smaller than the second cross-correlation coefficient threshold. The third cross-correlation coefficient threshold may be smaller than the fourth cross-correlation coefficient threshold.

(実施例17)
自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とを得た後に、自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とのうちの1つまたは複数によって、参照フレームにおける現在ブロックのサブブロックに対応するサブブロックの水平方向速度を確定できる。自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とのうちの1つまたは複数によって、参照フレームにおける現在ブロックのサブブロックに対応するサブブロックの垂直方向速度を確定できる。
(Example 17)
After obtaining the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6, the horizontal velocity of the sub-block corresponding to the sub-block of the current block in the reference frame can be determined by one or more of the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6. The vertical velocity of the sub-block corresponding to the sub-block of the current block in the reference frame can be determined by one or more of the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6.

Figure 0007506234000014
Figure 0007506234000014

Figure 0007506234000015
Figure 0007506234000015

Figure 0007506234000017
Figure 0007506234000017

Figure 0007506234000018
Figure 0007506234000018

Figure 0007506234000019
Figure 0007506234000019

(実施例18)
自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とを得た後に、自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とのうちの1つまたは複数によって、参照フレームにおける現在ブロックのサブブロックに対応するサブブロックの水平方向速度を確定できる。自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とのうちの1つまたは複数によって、参照フレームにおける現在ブロックのサブブロックに対応するサブブロックの垂直方向速度を確定できる。
(Example 18)
After obtaining the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6, the horizontal velocity of the sub-block corresponding to the sub-block of the current block in the reference frame can be determined by one or more of the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6. The vertical velocity of the sub-block corresponding to the sub-block of the current block in the reference frame can be determined by one or more of the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6.

例えば、自己相関係数S1と、速度閾値と、相互相関係数S3と、第1増幅因子と、第2増幅因子とによって、以下の式を参照し、それは上記パラメータに基づいて水平方向速度を確定する例示である。
For example, with the autocorrelation coefficient S1, the velocity threshold, the cross-correlation coefficient S3, the first amplification factor, and the second amplification factor, refer to the following equation, which is an example of determining the horizontal velocity based on the above parameters.

(実施例19)
自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とを得た後に、自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とのうちの1つまたは複数によって、参照フレームにおける現在ブロックのサブブロックに対応するサブブロックの水平方向速度を確定できる。
(Example 19)
After obtaining the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6, the horizontal velocity of the sub-block corresponding to the sub-block of the current block in the reference frame can be determined by one or more of the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6.

例えば、第1プリセット条件を満たす場合、相互相関係数S2と、速度閾値と、相互相関係数S6と、第1増幅因子と、第2増幅因子とによって、水平方向速度を確定できる。第1プリセット条件を満たさない場合、自己相関係数S1と、速度閾値と、相互相関係数S3と、第1増幅因子と、第2増幅因子とによって水平方向速度を確定できる。第1プリセット条件は相互相関係数S2と、自己相関係数S5とに基づいて確定される。以下の式を参照する。 For example, if the first preset condition is met, the horizontal velocity can be determined by the cross-correlation coefficient S2, the velocity threshold, the cross-correlation coefficient S6, the first amplification factor, and the second amplification factor. If the first preset condition is not met, the horizontal velocity can be determined by the auto-correlation coefficient S1, the velocity threshold, the cross-correlation coefficient S3, the first amplification factor, and the second amplification factor. The first preset condition is determined based on the cross-correlation coefficient S2 and the auto-correlation coefficient S5. See the following formula:

Figure 0007506234000024
Figure 0007506234000024

(実施例20)
自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とを得た後に、自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とのうちのの1つまたは複数によって、参照フレームにおける現在ブロックのサブブロックに対応するサブブロックの水平方向速度を確定できる。
(Example 20)
After obtaining the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6, the horizontal velocity of the sub-block corresponding to the sub-block of the current block in the reference frame can be determined by one or more of the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6.



Figure 0007506234000026
Figure 0007506234000026

(実施例21)
実施例19に対して、第1プリセット条件を満たさない場合、水平方向速度を確定する式は式(15)になる。実施例20に対して、第2プリセット条件を満たさない場合、水平方向速度を確定する式は式(15)になる。
(Example 21)
For Example 19, if the first preset condition is not met, the equation for determining the horizontal velocity is Equation (15).For Example 20, if the second preset condition is not met, the equation for determining the horizontal velocity is Equation (15).

(実施例22)
自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とを得た後に、自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とのうちの1つまたは複数によって、参照フレームにおける現在ブロックのサブブロックに対応するサブブロックの垂直方向速度を確定できる。
(Example 22)
After obtaining the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6, the vertical velocity of the sub-block corresponding to the sub-block of the current block in the reference frame can be determined by one or more of the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6.

例えば、自己相関係数S1と、相互相関係数S3と、第1増幅因子と、第2増幅因子とによってトランケーション未実行水平方向速度を確定し、相互相関係数S2と、自己相関係数S5と、相互相関係数S6と、速度閾値と、前記トランケーション未実行水平方向速度と、第1増幅因子と、第2増幅因子とによって垂直方向速度を確定する。 For example, the untruncated horizontal velocity is determined by the autocorrelation coefficient S1, the cross-correlation coefficient S3, the first amplification factor, and the second amplification factor, and the vertical velocity is determined by the cross-correlation coefficient S2, the autocorrelation coefficient S5, the cross-correlation coefficient S6, the velocity threshold, the untruncated horizontal velocity, the first amplification factor, and the second amplification factor.



Figure 0007506234000028
Figure 0007506234000028

Figure 0007506234000029
Figure 0007506234000029

(実施例23)
自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とを得た後に、自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6とのうちのの1つまたは複数によって、参照フレームにおける現在ブロックのサブブロックに対応するサブブロックの垂直方向速度を確定できる。
(Example 23)
After obtaining the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6, the vertical velocity of the sub-block corresponding to the sub-block of the current block in the reference frame can be determined by one or more of the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, and the cross-correlation coefficient S6.

例えば、第3プリセット条件を満たす場合、自己相関係数S5と、相互相関係数S6と、速度閾値と、第1増幅因子と、第2増幅因子とによって垂直方向速度を確定する。第3プリセット条件を満たさない場合、相互相関係数S2と、自己相関係数S5と、相互相関係数S6と、速度閾値と、水平方向速度と、第1増幅因子と、第2増幅因子とによって垂直方向速度を確定する。例示として、第3プリセット条件が前記水平方向速度に基づいて確定される。 For example, if the third preset condition is satisfied, the vertical velocity is determined by the autocorrelation coefficient S5, the cross-correlation coefficient S6, the velocity threshold, the first amplification factor, and the second amplification factor. If the third preset condition is not satisfied, the vertical velocity is determined by the cross-correlation coefficient S2, the autocorrelation coefficient S5, the cross-correlation coefficient S6, the velocity threshold, the horizontal velocity, the first amplification factor, and the second amplification factor. As an example, the third preset condition is determined based on the horizontal velocity.

Figure 0007506234000031
Figure 0007506234000031

Figure 0007506234000032
Figure 0007506234000032

(実施例24)
実施例23に対して、第3プリセット条件を満たさない場合、垂直方向速度を確定する式が式(16)に変更される。
(Example 24)
For Example 23, if the third preset condition is not met, the equation for determining the vertical velocity is changed to equation (16).

Figure 0007506234000033
Figure 0007506234000033

Figure 0007506234000034
Figure 0007506234000034

Figure 0007506234000035
Figure 0007506234000035



Figure 0007506234000038
Figure 0007506234000038

Figure 0007506234000040
Figure 0007506234000040

勿論、上記方式はただサブブロックの目標予測値を取得する例示だけであり、これに限定されない。 Of course, the above method is merely an example of obtaining a target prediction value for a subblock, and is not limited to this.

(実施例28)
現在ブロックが複数のサブブロックに区画されるときに、上記実施例を採用し、各サブブロックの目標予測値を確定することができる。即ち、現在ブロックの各サブブロック(例えば、4*4のサブブロック)に対して予測信号の調整を行って、それにより、各サブブロックの目標予測値を得る。本実施例において、目標条件を満たす場合、あるサブブロックの信号調整プロセスから早めに脱退することもできる。つまり、上記実施例の方式を採用しないで、サブブロックの目標予測値を確定する。
(Example 28)
When the current block is divided into a number of sub-blocks, the above embodiment can be adopted to determine the target predicted value of each sub-block. That is, the predicted signal is adjusted for each sub-block (e.g., 4*4 sub-blocks) of the current block, so as to obtain the target predicted value of each sub-block. In this embodiment, if the target condition is met, a sub-block can also be prematurely withdrawn from the signal adjustment process. That is, the method of the above embodiment is not adopted to determine the target predicted value of the sub-block.

例えば、現在ブロックがサブブロック1と、サブブロック2と、サブブロック3と、サブブロック4とに区画され、符号化側/復号化側では、まず上記実施例の方式を採用してサブブロック1の目標予測値を確定して、上記実施例の方式を採用してサブブロック2の目標予測値を確定する。仮に目標条件を満たすとすると、符号化側/復号化側では上記実施例の方式を採用しないでサブブロック3の目標予測値とサブブロック4の目標予測値とを確定する。即ち、サブブロック3とサブブロック4の信号調整プロセスから早めに脱退する。 For example, if the current block is divided into subblocks 1, 2, 3, and 4, the encoding/decoding side first determines the target predicted value of subblock 1 using the method of the above embodiment, and then determines the target predicted value of subblock 2 using the method of the above embodiment. If the target condition is satisfied, the encoding/decoding side determines the target predicted value of subblock 3 and the target predicted value of subblock 4 without using the method of the above embodiment. In other words, subblocks 3 and 4 are early removed from the signal adjustment process.

例示として、現在ブロックの2つのサブブロックの予測値の差分値がある閾値TH_SUB_SADより小さい時に、目標条件を満たすことを確定し、残りのサブブロックの信号調整プロセスから早めに脱退することができる。例えば、サブブロック1の予測値の差分値が閾値TH_SUB_SADより小さく、且つサブブロック2の予測値の差分値が閾値TH_SUB_SADより小さい場合、目標条件を満たすことを確定し、残りのサブブロック(即ち、サブブロック3とサブブロック4)の信号調整プロセスから早めに脱退する。 For example, when the difference value of the predicted values of two subblocks of the current block is smaller than a certain threshold TH_SUB_SAD, it is determined that the target condition is met, and the remaining subblocks can be early withdrawn from the signal adjustment process. For example, if the difference value of the predicted value of subblock 1 is smaller than the threshold TH_SUB_SAD and the difference value of the predicted value of subblock 2 is smaller than the threshold TH_SUB_SAD, it is determined that the target condition is met, and the remaining subblocks (i.e., subblock 3 and subblock 4) are early withdrawn from the signal adjustment process.

また、例えば、現在ブロックが複数のサブブロックに区画され、各サブブロックについて、符号化側/復号化側で上記実施例の方式を採用して前記サブブロックの目標予測値を確定する前に、目標条件を満たすかどうかを判断する。目標条件を満たす場合、上記実施例の方式を採用しないで前記サブブロックの目標予測値を確定する。即ち、前記サブブロックの信号調整プロセスから早めに脱退する。目標条件を満たさない場合、上記実施例の方式を採用して前記サブブロックの目標予測値を確定することができる。 For example, the current block is divided into a number of sub-blocks, and for each sub-block, the encoding/decoding side determines whether the target condition is satisfied before determining the target predicted value of the sub-block by adopting the method of the above embodiment. If the target condition is satisfied, the target predicted value of the sub-block is determined without adopting the method of the above embodiment. That is, the sub-block is prematurely removed from the signal adjustment process. If the target condition is not satisfied, the target predicted value of the sub-block can be determined by adopting the method of the above embodiment.

例示として、前記サブブロックの予測値の差分値がある閾値TH_SUB_SADより小さい場合、目標条件を満たすことを確定し、前記サブブロックの信号調整プロセスから早めに脱退することができる。例えば、サブブロック1の予測値の差分値が閾値TH_SUB_SADより小さい場合、目標条件を満たすことを確定し、サブブロック1の信号調整プロセスから早めに脱退する。 For example, if the difference value of the predicted value of the subblock is smaller than a certain threshold TH_SUB_SAD, it is determined that the target condition is met, and the subblock can be withdrawn early from the signal adjustment process. For example, if the difference value of the predicted value of subblock 1 is smaller than a threshold TH_SUB_SAD, it is determined that the target condition is met, and the subblock 1 is withdrawn early from the signal adjustment process.

例示として、サブブロックの予測値の差分値を確定するために、以下の方式を採用して実現することができる。 As an example, the following method can be adopted to determine the difference value of the predicted value of a subblock.

(実施例29)
上記方法と同様な発想に基づいて、本願実施例は、符号化側または復号化側に適用されるコーデックデバイスも提供する。前記デバイスは現在ブロックの特徴情報が特定条件を満たす場合、前記現在ブロックまたは前記現在ブロックのサブブロックの目標予測値するために用いられる。図5に示すように、前記デバイスの構成図であり、前記デバイスは:
現在ブロックの特徴情報が特定条件を満たす場合、前記現在ブロックの第1単方向動き情報によってサブブロックの第1初期予測値を確定し、前記現在ブロックの第2単方向動き情報によってサブブロック第2初期予測値を確定するための第1確定モジュール51と、
前記第1初期予測値と前記第2初期予測値とによって水平方向速度を確定し、前記第1初期予測値と前記第2初期予測値とによって垂直方向速度を確定するための第2確定モジ
ュール52と、
前記水平方向速度と前記垂直方向速度とによって予測補償値を取得するための第1取得モジュール53と、
前記第1初期予測値と、前記第2初期予測値と、前記予測補償値とによって目標予測値を取得するための第2取得モジュール54とを含む。
(Example 29)
Based on the same idea as the above method, the present embodiment also provides a codec device applied to an encoding side or a decoding side, which is used to obtain a target prediction value of the current block or a sub-block of the current block when feature information of the current block satisfies a certain condition. As shown in FIG. 5, which is a block diagram of the device, the device includes:
a first determination module 51 for determining a first initial prediction value of a sub-block according to first unidirectional motion information of the current block when the feature information of the current block satisfies a certain condition, and determining a second initial prediction value of the sub-block according to second unidirectional motion information of the current block;
a second determination module 52 for determining a horizontal velocity according to the first initial estimate and the second initial estimate and for determining a vertical velocity according to the first initial estimate and the second initial estimate;
a first obtaining module 53 for obtaining a predicted compensation value according to the horizontal velocity and the vertical velocity;
A second acquisition module 54 for acquiring a target predicted value according to the first initial predicted value, the second initial predicted value, and the predicted compensation value.

例示として、前記特徴情報は、動き情報属性と、予測モード属性と、サイズ情報と、シーケンスレベルスイッチ制御情報とのうちの一つまたは複数を含むが、これに限定されない。 By way of example, the feature information may include, but is not limited to, one or more of motion information attributes, prediction mode attributes, size information, and sequence level switch control information.

前記第1確定モジュール51は、更に、前記特徴情報が前記動き情報属性を含み、前記動き情報属性が以下の状況の少なくとも1つを満たす場合、前記動き情報属性が特定条件を満たすことを確定するために用いられる。
前記現在ブロックは双方向予測を採用し、且つ前記現在ブロックに対応する2つの参照フレームは異なる方向からのものである;
前記現在ブロックは複数のサブブロックを含み、前記複数のサブブロックの動き情報は何れも同じである;
前記現在ブロックは双方向予測を採用し、前記現在ブロックに対応する2つの参照フレームの重みが同じである;
前記現在ブロックは双方向予測を採用し、前記現在ブロックに対応する2つの参照フレームのそれぞれと現在フレームとの距離が同じである;
前記現在ブロックは双方向予測を採用し、現在ブロックに対応する2つの参照フレームの予測値の差分値がプリセット閾値より小さい。
The first determination module 51 is further used for determining that the motion information attribute satisfies a certain condition when the feature information includes the motion information attribute and the motion information attribute satisfies at least one of the following situations:
The current block employs bidirectional prediction, and the two reference frames corresponding to the current block are from different directions;
the current block includes a plurality of sub-blocks, and the motion information of the plurality of sub-blocks is the same;
The current block adopts bidirectional prediction, and the weights of the two reference frames corresponding to the current block are the same;
The current block employs bidirectional prediction, and the distance between the current frame and each of the two reference frames corresponding to the current block is the same;
The current block employs bidirectional prediction, and the difference value of the predicted values of the two reference frames corresponding to the current block is smaller than a preset threshold.

前記第1確定モジュール51は、更に、前記現在ブロックの第1単方向動き情報によって第1参照フレームから第1予測ブロックを取得し、前記現在ブロックの第2単方向動き情報によって第2参照フレームから第2予測ブロックを取得するために用いられる。 The first determination module 51 is further used to obtain a first prediction block from a first reference frame according to the first unidirectional motion information of the current block, and obtain a second prediction block from a second reference frame according to the second unidirectional motion information of the current block.

前記第1予測ブロックのダウンサンプリングされた後の予測値と前記第2予測ブロックのダウンサンプリングされた後の予測値のSADによって、前記第1参照フレームと前記第2参照フレームの予測値の差分値を取得する。 The difference between the predicted values of the first reference frame and the second reference frame is obtained by the SAD of the downsampled predicted value of the first prediction block and the downsampled predicted value of the second prediction block.

前記第1確定モジュール51は、更に、前記特徴情報が前記予測モード属性を含む場合、前記予測モード属性がイントラ予測とインター予測との組合せに基づくマージモード、及び/または、対称動きベクトル差分モードを採用しなく、前記予測モード属性が特定条件を満たすことを確定するために用いられる。 The first determination module 51 is further used to determine that, when the feature information includes the prediction mode attribute, the prediction mode attribute does not adopt a merge mode based on a combination of intra prediction and inter prediction and/or a symmetric motion vector difference mode, and the prediction mode attribute satisfies a specific condition.

前記第1確定モジュール51は、更に、前記特徴情報が前記シーケンスレベルスイッチ制御情報を含み、前記シーケンスレベルスイッチ制御情報は前記現在ブロックが双方向オプティカルフローモジュールを採用することを許容するものである場合、前記シーケンスレベルスイッチ制御情報が特定条件を満たすことを確定するために用いられる。 The first determination module 51 is further used to determine that the sequence level switch control information satisfies a specific condition when the feature information includes the sequence level switch control information and the sequence level switch control information allows the current block to adopt a bidirectional optical flow module.

前記第1確定モジュール51は、更に、前記特徴情報が前記サイズ情報を含む場合、前記サイズ情報が以下の状況の少なくとも1つを満たすと、前記サイズ情報が特定条件を満たすことを確定し、前記現在ブロックの幅の値は第1閾値以上であり、前記現在ブロックの幅の値は第2閾値以下である;前記現在ブロックの高さの値は第3閾値以上であり、前記現在ブロックの高さの値は第4閾値以下である;前記現在ブロックの面積の値は第5閾値以上であり、前記現在ブロックの面積の値は第6閾値以下である、ために用いられる。 The first determination module 51 is further used to determine that the size information satisfies a specific condition when the feature information includes the size information and the size information satisfies at least one of the following situations: the width value of the current block is equal to or greater than a first threshold, and the width value of the current block is equal to or less than a second threshold; the height value of the current block is equal to or greater than a third threshold, and the height value of the current block is equal to or less than a fourth threshold; the area value of the current block is equal to or greater than a fifth threshold, and the area value of the current block is equal to or less than a sixth threshold.

前記第1確定モジュール51は、前記現在ブロックの第1単方向動き情報によって第1
初期予測値を確定し、前記現在ブロックの第2単方向動き情報によって第2初期予測値を確定するとき、具体的に、
前記現在ブロックの第1単方向動き情報に基づいて、第1参照フレームから第1参照ブロック確定し、前記第1参照ブロックの第1初期予測値を確定し、前記第1参照ブロックの中央領域の第1初期予測値は第1参照フレームの画素値を補間することにより得られたものであり、前記第1参照ブロックのエッジ領域の第1初期予測値は第1参照フレームの画素値をコピーすることにより得られたものであることと、前記現在ブロックの第2単方向動き情報に基づいて、第2参照フレームから第2参照ブロック確定し、前記第2参照ブロックの第2初期予測値を確定し、前記第2参照ブロックの中央領域の第2初期予測値は第2参照フレームの画素値を補間することにより得られたものであり、前記第2参照ブロックのエッジ領域の第2初期予測値は第2参照フレームの画素値をコピーすることにより得られたものである、ために用いられる。
The first determination module 51 determines a first unidirectional motion information of the current block according to the first unidirectional motion information of the current block.
When determining an initial prediction value and determining a second initial prediction value according to second unidirectional motion information of the current block,
Based on first unidirectional motion information of the current block, a first reference block is determined from a first reference frame and a first initial predicted value of the first reference block is determined, wherein the first initial predicted value of a central region of the first reference block is obtained by interpolating pixel values of the first reference frame and the first initial predicted value of an edge region of the first reference block is obtained by copying pixel values of the first reference frame; and based on second unidirectional motion information of the current block, a second reference block is determined from a second reference frame and a second initial predicted value of the second reference block is determined, wherein the second initial predicted value of the central region of the second reference block is obtained by interpolating pixel values of the second reference frame and the second initial predicted value of the edge region of the second reference block is obtained by copying pixel values of the second reference frame.

前記第2確定モジュール52は、前記第1初期予測値と前記第2初期予測値によって水平方向速度を確定するとき、具体的に、第1プリセット条件を満たす場合、第1初期予測値と第2初期予測値によって水平方向勾配合計と垂直方向勾配合計との相互相関係数S2と、時間領域予測値の差分値と垂直方向勾配合計との相互相関係数S6とを確定することと、相互相関係数S2と、速度閾値と、相互相関係数S6と、第1増幅因子と、第2増幅因子とによって水平方向速度を確定するために用いられ、第1プリセット条件は相互相関係数S2と垂直方向勾配合計の自己相関係数S5とに基づいて確定されたものである。 When the second determination module 52 determines the horizontal velocity by the first and second initial prediction values, specifically, if a first preset condition is satisfied, the second determination module 52 determines a cross-correlation coefficient S2 between the horizontal gradient sum and the vertical gradient sum by the first and second initial prediction values, and a cross-correlation coefficient S6 between the difference value of the time domain prediction value and the vertical gradient sum, and is used to determine the horizontal velocity by the cross-correlation coefficient S2, the velocity threshold, the cross-correlation coefficient S6, the first amplification factor, and the second amplification factor, and the first preset condition is determined based on the cross-correlation coefficient S2 and the autocorrelation coefficient S5 of the vertical gradient sum.

前記第2確定モジュール52は、前記第1初期予測値と前記第2初期予測値によって水平方向速度を確定するとき、具体的に、第2プリセット条件を満たす場合、第1初期予測値と第2初期予測値によって水平方向勾配合計の自己相関係数S1と、水平方向勾配合計と垂直方向勾配合計との相互相関係数S2と、時間領域予測値の差分値と水平方向勾配合計との相互相関係数S3と、垂直方向勾配合計の自己相関係数S5と、時間領域予測値の差分値と垂直方向勾配合計との相互相関係数S6とを確定することと、前記自己相関係数S1と、相互相関係数S2と、相互相関係数S3と、自己相関係数S5と、相互相関係数S6と、速度閾値と、第1増幅因子と、第2増幅因子とによって、水平方向速度を確定するために用いられ、前記第2プリセット条件は前記相互相関係数S2と、前記自己相関係数S5とに基づいて確定されたものである。 When the second determination module 52 determines the horizontal velocity by the first initial prediction value and the second initial prediction value, specifically, if a second preset condition is satisfied, the second determination module 52 determines an autocorrelation coefficient S1 of the horizontal gradient sum, a cross-correlation coefficient S2 of the horizontal gradient sum and the vertical gradient sum, a cross-correlation coefficient S3 of the difference value of the time domain prediction value and the horizontal gradient sum, an autocorrelation coefficient S5 of the vertical gradient sum, and a cross-correlation coefficient S6 of the difference value of the time domain prediction value and the vertical gradient sum by the first initial prediction value and the second initial prediction value, and the autocorrelation coefficient S1, the cross-correlation coefficient S2, the cross-correlation coefficient S3, the autocorrelation coefficient S5, the cross-correlation coefficient S6, the velocity threshold, the first amplification factor, and the second amplification factor are used to determine the horizontal velocity, and the second preset condition is determined based on the cross-correlation coefficient S2 and the autocorrelation coefficient S5.

前記第2確定モジュール52は、前記第1初期予測値と前記第2初期予測値によって垂直方向速度を確定するとき、具体的に、前記第1初期予測値と前記第2初期予測値によって、トランケーションし処理を行わないトランケーション未実行水平方向速度を取得し、前記トランケーション未実行水平方向速度によって垂直方向速度を確定する、ために用いられる。 When determining the vertical velocity based on the first initial prediction value and the second initial prediction value, the second determination module 52 is specifically used to obtain an untruncated horizontal velocity that is not truncated and processed based on the first initial prediction value and the second initial prediction value, and determine the vertical velocity based on the untruncated horizontal velocity.

前記第2確定モジュール52は、前記第1初期予測値と前記第2初期予測値によって垂直方向速度を確定するとき、具体的に、第3プリセット条件を満たす場合、前記第1初期予測値と前記第2初期予測値によって、垂直方向勾配合計の自己相関係数S5と時間領域予測値の差分値と垂直方向勾配合計との相互相関係数S6を確定することと、前記自己相関係数S5と、相互相関係数S6と、速度閾値と、第1増幅因子と、第2増幅因子とによって垂直方向速度を確定するために用いられ、前記第3プリセット条件は前記水平方向速度に基づいて確定されたものである。
前記相互相関係数S2が第1相互相関係数の閾値と第2相互相関係数の閾値との間にある。
前記相互相関係数S6が第3相互相関係数の閾値と第4相互相関係数の閾値との間にある。
第1増幅因子は5と(BD-7)のうちの小さい方、または、1と(BD-11)のう
ちの大きい方である;第2増幅因子は8と(BD-4)のうちの小さい方、または、4と(BD-8)のうちの大きい方である;速度閾値は2のM乗であり、Mは13とBDの差分値、または、5と(BD-7)のうちの大きい方である;その中、BDはビット深度である。
When determining the vertical velocity according to the first and second initial prediction values, the second determination module 52 specifically determines an autocorrelation coefficient S5 of the vertical gradient sum and a cross-correlation coefficient S6 between the difference value of the time domain prediction value and the vertical gradient sum according to the first and second initial prediction values if a third preset condition is satisfied, and the autocorrelation coefficient S5, the cross-correlation coefficient S6, a velocity threshold, a first amplification factor, and a second amplification factor are used to determine the vertical velocity, and the third preset condition is determined based on the horizontal velocity.
The cross-correlation coefficient S2 is between a first cross-correlation coefficient threshold and a second cross-correlation coefficient threshold.
The cross-correlation coefficient S6 is between a third cross-correlation coefficient threshold and a fourth cross-correlation coefficient threshold.
The first amplification factor is the smaller of 5 and (BD-7) or the greater of 1 and (BD-11); the second amplification factor is the smaller of 8 and (BD-4) or the greater of 4 and (BD-8); the speed threshold is 2 to the power of M, where M is the difference between 13 and BD, or the greater of 5 and (BD-7); where BD is the bit depth.

前記第1取得モジュール53は、前記水平方向速度と前記垂直方向速度によって予測補償値を取得するとき、具体的に、前記第1初期予測値と、前記第2初期予測値と、勾配右シフトビット数とによって、水平方向勾配と垂直方向勾配を確定し、前記水平方向速度と、前記垂直方向速度と、前記水平方向勾配と、前記垂直方向勾配とによって、前記予測補償値を取得するために用いられ、前記勾配右シフトビット数は2と(14-BD)のうちの大きい方、または、6と(BD-6)のうちの大きい方であり、BDはビット深度である。 When the first acquisition module 53 acquires the predicted compensation value according to the horizontal velocity and the vertical velocity, specifically, the first acquisition module 53 determines the horizontal gradient and the vertical gradient according to the first initial prediction value, the second initial prediction value, and the gradient right shift bit number, and the horizontal velocity, the vertical velocity, the horizontal gradient, and the vertical gradient are used to acquire the predicted compensation value, where the gradient right shift bit number is the greater of 2 and (14-BD) or the greater of 6 and (BD-6), where BD is the bit depth.

本願実施例に提供される復号化側機器によって、ハードウェアレベルから見ると、そのハードウェアアーキテクチャ模式図は具体的に図6を参照できる。プロセッサ61とコンピューター可読記憶媒体62を含み、前記コンピューター可読記憶媒体62に前記プロセッサ61によって実行されるコンピューター実行可能命令を記憶している;前記プロセッサ61はコンピューター実行可能命令を実行するために用いられ、それにより本願の上記例示に開示された方法を実現する。例えば、プロセッサは以下のステップを実現するように、コンピューター実行可能命令を実行するために用いられる。 From the hardware level, the decoding side device provided in the embodiment of the present application can be specifically referred to in FIG. 6 for its hardware architecture schematic diagram. It includes a processor 61 and a computer-readable storage medium 62, and the computer-readable storage medium 62 stores computer-executable instructions to be executed by the processor 61; the processor 61 is used to execute the computer-executable instructions, thereby realizing the method disclosed in the above example of the present application. For example, the processor is used to execute the computer-executable instructions to realize the following steps:

現在ブロックの特徴情報が特定条件を満たす場合、以下のステップを実行して前記現在ブロックまたは前記現在ブロックのサブブロックの目標予測値を取得する:前記現在ブロックの第1単方向動き情報によってサブブロックの第1初期予測値を確定し、前記現在ブロックの第2単方向動き情報によってサブブロック第2初期予測値を確定し、前記第1初期予測値と前記第2初期予測値によって水平方向速度を確定し、前記第1初期予測値と前記第2初期予測値によって垂直方向速度を確定し、前記水平方向速度と前記垂直方向速度によって予測補償値を取得し、前記第1初期予測値、前記第2初期予測値と前記予測補償値によって目標予測値を取得する。 If the feature information of the current block satisfies a certain condition, the following steps are performed to obtain a target prediction value of the current block or a sub-block of the current block: determine a first initial prediction value of a sub-block according to a first unidirectional motion information of the current block, determine a sub-block second initial prediction value according to a second unidirectional motion information of the current block, determine a horizontal velocity according to the first initial prediction value and the second initial prediction value, determine a vertical velocity according to the first initial prediction value and the second initial prediction value, obtain a prediction compensation value according to the horizontal velocity and the vertical velocity, and obtain a target prediction value according to the first initial prediction value, the second initial prediction value and the prediction compensation value.

本願実施例に提供された復号化側機器によって、ハードウェアレベルから、そのハードウェアアーキテクチャ模式図は具体的に図7を参照できる。プロセッサ71とコンピューター可読記憶媒体72を含み、前記コンピューター可読記憶媒体72に前記プロセッサ71が実行されるコンピューター実行可能命令を記憶しており;前記プロセッサ71は本願の上記例示に開示された方法を実現するように、コンピューター実行可能命令を実行するために用いられる。例えば、プロセッサは、以下のステップを実現するように、コンピューター実行可能命令を実行するために用いられる。 From the hardware level, the hardware architecture schematic diagram of the decoding side device provided in the embodiment of the present application can be specifically referred to in FIG. 7. The decoding side device includes a processor 71 and a computer-readable storage medium 72, and the computer-readable storage medium 72 stores computer-executable instructions executed by the processor 71; the processor 71 is used to execute the computer-executable instructions to realize the method disclosed in the above example of the present application. For example, the processor is used to execute the computer-executable instructions to realize the following steps:

現在ブロックの特徴情報が特定条件を満たす場合、以下のステップを実行して前記現在ブロックまたは前記現在ブロックのサブブロックの目標予測値を取得する;前記現在ブロックの第1単方向動き情報によってサブブロックの第1初期予測値を確定し、前記現在ブロックの第2単方向動き情報によってサブブロック第2初期予測値を確定し、前記第1初期予測値と前記第2初期予測値によって水平方向速度を確定し、前記第1初期予測値と前記第2初期予測値によって垂直方向速度を確定し、前記水平方向速度と前記垂直方向速度によって予測補償値を取得し、前記第1初期予測値、前記第2初期予測値、および前記予測補償値によって目標予測値を取得する。 If the feature information of the current block satisfies a certain condition, the following steps are performed to obtain a target prediction value of the current block or a sub-block of the current block; determine a first initial prediction value of a sub-block according to a first unidirectional motion information of the current block, determine a sub-block second initial prediction value according to a second unidirectional motion information of the current block, determine a horizontal velocity according to the first initial prediction value and the second initial prediction value, determine a vertical velocity according to the first initial prediction value and the second initial prediction value, obtain a prediction compensation value according to the horizontal velocity and the vertical velocity, and obtain a target prediction value according to the first initial prediction value, the second initial prediction value, and the prediction compensation value.

上記方法と同様な発想に基づいて、本願実施例はコンピューター可読記憶媒体も提供する。前記コンピューター可読記憶媒体にはいくつかのコンピューター命令を記憶しており、前記コンピューター命令はプロセッサに実行されたとき、本願の上記例示に公開された
コーデック方法を達成できる。その中、上記コンピューター可読記憶媒体は、任意の電子、磁性、光学または他の物理的な記憶装置でもよく、情報を含むとか記憶とかもできて、例えば、命令、データ等を実行することができる。例えば、コンピューター可読記憶媒体は:RAM(Radom Access Memory,ランダムアクセスメモリ)、揮発性メモリ、不揮発性メモリ、フラッシュメモリー、記憶ドライブ(例えば、ハードディスクドライブ)、ソリッドステートドライブ、任意種類のストレージディスク(例えば、光ディスク、dvd等)、或いは類似な記憶媒体、或いはそれらの組み合わせである。
Based on the same idea as the above method, the embodiment of the present application also provides a computer-readable storage medium. The computer-readable storage medium stores some computer instructions, which, when executed by a processor, can achieve the codec method disclosed in the above example of the present application. Wherein, the computer-readable storage medium can be any electronic, magnetic, optical or other physical storage device that can contain or store information, such as instructions, data, etc. For example, the computer-readable storage medium can be: RAM (random access memory), volatile memory, non-volatile memory, flash memory, storage drive (e.g., hard disk drive), solid state drive, any kind of storage disk (e.g., optical disk, dvd, etc.), or similar storage medium, or a combination thereof.

上記実施例に説明されるシステム、デバイス、モジュールまたはユニットは、コンピューターチップまたは実体により達成され、または特定機能を備える製品により達成されることができる。典型的な実現例の1つはコンピューターであり、コンピューターの様式はパーソナルコンピューター、ラップトップコンピューター、セルラーホン、カメラ付き携帯電話、スマートフォン、パーソナルデジタルアシスタント、メディアプレーヤ、ナビゲーション機器、電子メール送受信機器、タブレットコンピュータ、ウェアラブル機器、またはこれらの機器のいずれかの機器の組み合わせでもよい。 The systems, devices, modules or units described in the above embodiments can be realized by computer chips or entities, or by products with specific functions. One typical implementation is a computer, which may be in the form of a personal computer, a laptop computer, a cellular phone, a camera phone, a smartphone, a personal digital assistant, a media player, a navigation device, an e-mail sending/receiving device, a tablet computer, a wearable device, or a combination of any of these devices.

説明の便利のために、以上のデバイスを説明するときに、機能で各種類ユニットに分けてそれぞれ説明する。勿論、本願を実施するときに、各ユニットの機能は同一または複数のソフトウェア及び/またはハードウェアに達成することができる。 For ease of explanation, the above devices will be described by dividing them into various types of units based on their functions. Of course, when implementing this application, the functions of each unit can be achieved by the same or multiple pieces of software and/or hardware.

当業者は、本願の実施例が方法、システム、またはコンピュータープログラム製品を提供できることを理解すべきである。本願は、完全なハードウェア実施例、完全なソフトウェア実施例、またはソフトウェア側とハードウェア側の実施例を組み合わせる様式を採用してもよい。そして、本願実施例は、コンピューター使用可能なプログラムコードを含む1つまたは複数のコンピューター使用可能な記憶媒体(ディスクメモリ、CD-ROM、光学メモリ等を含むが、これに限定されない)に実施されるコンピュータープログラム製品様態を採用してもよい。 Those skilled in the art should understand that the embodiments of the present application may provide a method, a system, or a computer program product. The present application may adopt an entirely hardware embodiment, an entirely software embodiment, or a combination of software and hardware embodiments. And, the embodiments of the present application may adopt a computer program product embodiment embodied in one or more computer usable storage media (including, but not limited to, disk memory, CD-ROM, optical memory, etc.) that contains computer usable program code.

本願は、本願実施例による方法、機器(システム)、およびコンピュータープログラム製品のフローチャート及び/またはブロック図を参照して説明されたものである。コンピュータープログラム命令によりフローチャート及び/またはブロック図における各フロー及び/またはブロック、及びフローチャート及び/またはブロック図におけるフロー及び/またはブロックの結合を達成する、ことを理解すべきである。機器を生成するために、これらのコンピュータープログラム命令を汎用コンピューター、専用コンピューター、組み込みプロセッサ、または他のプログラミング可能なデータ処理機器のプロセッサまでに提供する。そのため、コンピューターまたは他のプログラミング可能なデータ処理機器のプロセッサが実行する命令により、フローチャートの1つまたは複数のフロー、及び/またはブロック図の1つまたは複数のブロックに指定された機能を実現するためのデバイスを生成する。そして、これらのコンピュータープログラム命令は、コンピューターまたは他のプログラミング可能なデータ処理機器を特定の方式で動作させることができるコンピューター可読メモリに記憶する。そのため、当該コンピューター可読メモリに記憶する命令は、命令デバイスを含む製品を生成する。当該命令デバイスは、フローチャートの1つまたは複数のフロー、及び/またはブロック図の1つまたは複数のブロックに指定された機能を達成する。 The present application has been described with reference to flowcharts and/or block diagrams of methods, devices (systems), and computer program products according to the present application. It should be understood that each flow and/or block in the flowcharts and/or block diagrams, and the combination of flows and/or blocks in the flowcharts and/or block diagrams, are accomplished by computer program instructions. These computer program instructions are provided to a processor of a general purpose computer, a special purpose computer, an embedded processor, or other programmable data processing device to create a device. Thus, the instructions executed by the processor of the computer or other programmable data processing device create a device for implementing the functions specified in one or more flows of the flowcharts and/or one or more blocks of the block diagrams. These computer program instructions are then stored in a computer-readable memory that can cause the computer or other programmable data processing device to operate in a particular manner. Thus, the instructions stored in the computer-readable memory create a product including an instruction device. The instruction device achieves the functions specified in one or more flows of the flowcharts and/or one or more blocks of the block diagrams.

これらのコンピュータープログラム命令は、コンピューターまたは他のプログラミング可能なデータ処理機器に搭載できる。それにより、コンピューターの実現する処理を生成するために、コンピューターまたは他のプログラミング可能な機器に一連の動作ステップを実行する。そのため、コンピューターまたは他のプログラミング可能な機器に実行する命令は、フローチャートの1つまたは複数のフロー、及び/またはブロック図の1つまたは複数のブロックに指定された機能を実現するためのステップを提供する。以上はただ本願実施例であり、本願を制限することを意図しない。当業者に対して、本願は各種の変更と変化を備えることができる。本願の旨と原理の範囲で行われた変更、同等置換、改良などは、本願の請求項の範囲に含まれるべきである。

These computer program instructions can be loaded into a computer or other programmable data processing device, thereby causing the computer or other programmable device to execute a series of operation steps to generate a computer-implemented process. Thus, the instructions executed by the computer or other programmable device provide steps for implementing functions specified in one or more flows of the flowchart and/or one or more blocks of the block diagram. The above are merely examples of the present application and are not intended to limit the present application. For those skilled in the art, the present application may have various modifications and variations. Any changes, equivalent replacements, improvements, etc. made within the spirit and principle of the present application should be included in the scope of the claims of the present application.

Claims (11)

復号化方法であって、
現在ブロックに対して双方向オプティカルフローモードを採用することを確定すると、前記現在ブロックに対して双方向オプティカルフローモードに基づく動き補償を行い、そのうち、前記現在ブロックに対して双方向オプティカルフローモードに基づく動き補償を行うことは、
前記現在ブロックから区画されたいずれかのサブブロックに対して、前記サブブロックのSADの値と一つの閾値との関係によって、前記サブブロックが双方向オプティカルフローモードから脱退するか否かを判断し、前記サブブロックのSADの値が前記閾値未満の場合、前記サブブロックに対して双方向オプティカルフローモードに基づく動き補償を行うことから脱退し、前記サブブロックのSADの値が前記閾値以上である場合、前記サブブロックに対して双方向オプティカルフローモードに基づく動き補償を行うことを含み、
前記サブブロックのSADの値は、第1予測ブロックに対する垂直2倍のダウンサンプリングを行った後の予測値と、第2予測ブロックに対する垂直2倍のダウンサンプリングを行った後の予測値との差分絶対値和であり、
前記第1予測ブロックは、前記現在ブロックの第1動きベクトルによって、第1参照フレームから取得した前記サブブロックに対応する予測ブロックであり、前記第2予測ブロックは、前記現在ブロックの第2動きベクトルによって、第2参照フレームから取得した前記サブブロックに対応する予測ブロックであり、
前記サブブロックに対して双方向オプティカルフローモードに基づく動き補償を行うことは、
前記サブブロックの各サブブロックに対して、前記サブブロックの第1初期予測値と第2初期予測値を確定することと、前記第1初期予測値と前記第2初期予測値とによって前記サブブロックの水平方向速度を確定することと、前記第1初期予測値と前記第2初期予測値とによって前記サブブロックの垂直方向速度を確定することと、前記水平方向速度と前記垂直方向速度とによって前記サブブロックの予測補償値を取得することと、前記第1初期予測値と、前記第2初期予測値と、前記予測補償値とによって前記サブブロックの目標予測値を取得することと、前記サブブロックの各サブブロックの目標予測値に基づいて、前記サブブロックの目標予測値を確定することと、を含み、
前記復号化方法は、前記現在ブロックから区画された各サブブロックの目標予測値に基づいて前記現在ブロックの予測値を確定することを更に含む、
ことを特徴とする復号化方法。
1. A method of decoding, comprising:
If it is determined that the bidirectional optical flow mode is adopted for the current block, the bidirectional optical flow mode-based motion compensation is performed for the current block, where performing the bidirectional optical flow mode-based motion compensation for the current block includes:
determining whether to leave a bidirectional optical flow mode for any sub-block divided from the current block according to a relationship between a SAD value of the sub-block and a threshold value, and leaving the sub-block from performing motion compensation based on the bidirectional optical flow mode when the SAD value of the sub-block is less than the threshold value, and performing motion compensation based on the bidirectional optical flow mode for the sub-block when the SAD value of the sub-block is equal to or greater than the threshold value;
the SAD value of the subblock is a sum of absolute differences between a predicted value after performing vertical 2x downsampling on the first predicted block and a predicted value after performing vertical 2x downsampling on the second predicted block;
the first prediction block is a prediction block corresponding to the sub-block obtained from a first reference frame according to a first motion vector of the current block, and the second prediction block is a prediction block corresponding to the sub-block obtained from a second reference frame according to a second motion vector of the current block;
performing motion compensation based on a bidirectional optical flow mode on the sub-blocks,
For each sub-block of the sub-block, determining a first initial predicted value and a second initial predicted value of the sub-block; determining a horizontal velocity of the sub-block according to the first initial predicted value and the second initial predicted value; determining a vertical velocity of the sub-block according to the first initial predicted value and the second initial predicted value; obtaining a prediction compensation value of the sub-block according to the horizontal velocity and the vertical velocity; obtaining a target prediction value of the sub-block according to the first initial predicted value, the second initial predicted value, and the prediction compensation value; and determining a target prediction value of the sub-block according to the target prediction value of each sub-block of the sub-block;
The decoding method further includes determining a prediction value of the current block based on a target prediction value of each sub-block partitioned from the current block.
4. A decoding method comprising:
請求項1に記載の復号化方法において、
現在ブロックに対して双方向オプティカルフローモードを採用する場合、現在ブロックが同時に満たす条件は、
現在ブロックがサブブロック動き情報モードを採用していなく、且つ現在ブロックがCIIPモードを採用していなく、且つ現在ブロックがSMVDモードを採用していないことと、
現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームが異なる方向からのものであり、且つ現在ブロックに対応する2つの参照フレームのそれぞれと現在フレームとの距離が同じであることと、
現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームの重みが同じであることと、
現在ブロックの幅の値と、高さの値と、面積の値との何れも限定された範囲内にあることと、を含む、
ことを特徴とする復号化方法。
2. The method of claim 1, further comprising:
When adopting the bidirectional optical flow mode for the current block, the conditions that the current block must simultaneously satisfy are:
The current block does not adopt a sub-block motion information mode, and the current block does not adopt a CIIP mode, and the current block does not adopt an SMVD mode;
The current block adopts bidirectional prediction, and the two reference frames corresponding to the current block are from different directions, and the distance between the current frame and each of the two reference frames corresponding to the current block is the same;
The current block adopts bidirectional prediction, and the weights of the two reference frames corresponding to the current block are the same;
The width, height, and area values of the current block are all within a limited range.
4. A decoding method comprising:
請求項2に記載の復号化方法において、
前記現在ブロックの幅の値と、高さの値と、面積の値との何れも限定された範囲内にあることは、
現在ブロックの幅の値が8以上であり、現在ブロックの高さの値が8以上であり、現在ブロックの幅と高さとの積が128以上であることを含む、
ことを特徴とする復号化方法。
3. The method of claim 2, further comprising:
The width, height, and area of the current block are all within a limited range.
the width value of the current block is equal to or greater than 8, the height value of the current block is equal to or greater than 8, and the product of the width and height of the current block is equal to or greater than 128;
4. A decoding method comprising:
復号化側機器であって、
現在ブロックに対して双方向オプティカルフローモードを採用するかどうかを確定し、 現在ブロックに対して双方向オプティカルフローモードを採用する場合、現在ブロックから区画されたいずれかのサブブロックに対し、前記サブブロックに対して双方向オプティカルフローモードに基づく動き補償を行うと、前記サブブロックの各サブブロックに対して、前記サブブロックの第1初期予測値と第2初期予測値を確定するための第1確定モジュールと、
前記第1初期予測値と前記第2初期予測値とによって前記サブブロックの水平方向速度を確定し、前記第1初期予測値と前記第2初期予測値とによって前記サブブロックの垂直方向速度を確定するための第2確定モジュールと、
前記水平方向速度と前記垂直方向速度とによって前記サブブロックの予測補償値を取得するための第1取得モジュールと、
前記第1初期予測値と、前記第2初期予測値と、前記予測補償値とによって前記サブブロックの目標予測値を取得し、前記サブブロックの各サブブロックの目標予測値に基づいて前記サブブロックの目標予測値を確定し、前記現在ブロックから区画された各サブブロックの目標予測値に基づいて前記現在ブロックの予測値を確定するための第2取得モジュールと、を含み、
現在ブロックに対して双方向オプティカルフローモード採用する場合、前記現在ブロックから区画されたいずれかのサブブロックに対して、前記サブブロックのSADの値と一つの閾値との関係によって、前記サブブロックが双方向オプティカルフローモードから脱退するか否かを判断し、前記サブブロックのSADの値が前記閾値未満の場合、前記サブブロックに対して双方向オプティカルフローモードに基づく動き補償を行うことから脱退し、前記サブブロックのSADの値が前記閾値以上である場合、前記サブブロックに対して双方向オプティカルフローモードに基づく動き補償を行うことを含み、
前記サブブロックのSADの値は、第1予測ブロックに対する垂直2倍のダウンサンプリングを行った後の予測値と、第2予測ブロックに対する垂直2倍のダウンサンプリングを行った後の予測値との差分絶対値和であり、
前記第1予測ブロックは、前記現在ブロックの第1動きベクトルによって、第1参照フレームから取得した前記サブブロックに対応する予測ブロックであり、前記第2予測ブロックは、前記現在ブロックの第2動きベクトルによって、第2参照フレームから取得した前記サブブロックに対応する予測ブロックである、
ことを特徴とする復号化側機器。
A decoding side device,
A first determination module for determining whether to adopt a bidirectional optical flow mode for a current block; if the bidirectional optical flow mode is adopted for the current block, for any sub-block partitioned from the current block, when the motion compensation based on the bidirectional optical flow mode is performed for the sub-block, for each sub-block of the sub-block, determining a first initial prediction value and a second initial prediction value of the sub-block;
a second determination module for determining a horizontal velocity of the sub-block according to the first initial prediction value and the second initial prediction value, and for determining a vertical velocity of the sub-block according to the first initial prediction value and the second initial prediction value;
a first obtaining module for obtaining a predicted compensation value of the sub-block according to the horizontal velocity and the vertical velocity;
a second obtaining module for obtaining a target predicted value of the sub-block according to the first initial predicted value, the second initial predicted value, and the prediction compensation value, determining a target predicted value of the sub-block according to the target predicted value of each sub-block of the sub-block, and determining a predicted value of the current block according to the target predicted value of each sub-block partitioned from the current block;
When the bidirectional optical flow mode is adopted for the current block, for any sub-block divided from the current block, it is determined whether the sub-block should leave the bidirectional optical flow mode according to a relationship between a SAD value of the sub-block and a threshold value, and if the SAD value of the sub-block is less than the threshold value, the sub-block is left out of performing motion compensation based on the bidirectional optical flow mode, and if the SAD value of the sub-block is equal to or greater than the threshold value, the sub-block is subjected to motion compensation based on the bidirectional optical flow mode;
the SAD value of the subblock is a sum of absolute differences between a predicted value after performing vertical 2x downsampling on the first predicted block and a predicted value after performing vertical 2x downsampling on the second predicted block;
the first prediction block is a prediction block corresponding to the sub-block obtained from a first reference frame according to a first motion vector of the current block, and the second prediction block is a prediction block corresponding to the sub-block obtained from a second reference frame according to a second motion vector of the current block;
A decryption device comprising:
請求項4に記載の復号化側機器において、
現在ブロックに対して双方向オプティカルフローモードを採用する場合、現在ブロックが同時に満たす条件は、
現在ブロックがサブブロック動き情報モードを採用していなく、且つ現在ブロックがCIIPモードを採用していなく、且つ現在ブロックがSMVDモードを採用していないことと、
現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームが異なる方向からものであり、且つ現在ブロックに対応する2つの参照フレームのそれぞれと現在フレームとの距離が同じであることと、
現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームの重みが同じであることと、
現在ブロックの幅の値と、高さの値と、面積の値との何れも限定された範囲内にあることと、を含む、
ことを特徴とする復号化側機器。
5. The decoding side device according to claim 4,
When adopting the bidirectional optical flow mode for the current block, the conditions that the current block must simultaneously satisfy are:
The current block does not adopt a sub-block motion information mode, and the current block does not adopt a CIIP mode, and the current block does not adopt an SMVD mode;
The current block adopts bidirectional prediction, and the two reference frames corresponding to the current block are from different directions, and the distance between the current frame and each of the two reference frames corresponding to the current block is the same;
The current block adopts bidirectional prediction, and the weights of the two reference frames corresponding to the current block are the same;
The width, height, and area values of the current block are all within a limited range.
A decryption device comprising:
請求項5に記載の復号化側機器において、
前記現在ブロックの幅の値と、高さの値と、面積の値との何れも限定された範囲内にあることは、
現在ブロックの幅の値が8以上であり、現在ブロックの高さの値が8以上であり、現在ブロックの幅と高さとの積が128以上であることを含む、
ことを特徴とする復号化側機器。
6. The decoding side device according to claim 5,
The width, height, and area of the current block are all within a limited range.
the width value of the current block is equal to or greater than 8, the height value of the current block is equal to or greater than 8, and the product of the width and height of the current block is equal to or greater than 128;
A decryption device comprising:
プロセッサと、前記プロセッサによって実行可能なコンピューター実行可能コマンドを記憶しているコンピューター可読記憶媒体とを含むビデオ復号化側機器であって、
前記プロセッサは、コンピューター実行可能コマンドを実行することにより、
現在ブロックに対して双方向オプティカルフローモードを採用することを確定すると、前記現在ブロックに対して双方向オプティカルフローモードに基づく動き補償を行い、そのうち、前記現在ブロックに対して双方向オプティカルフローモードに基づく動き補償を行うことは、前記現在ブロックから区画されたいずれかのサブブロックに対して、前記サブブロックのSADの値と一つの閾値との関係によって、前記サブブロックが双方向オプティカルフローモードから脱退するか否かを判断し、前記サブブロックのSADの値が前記閾値未満の場合、前記サブブロックに対して双方向オプティカルフローモードに基づく動き補償を行うことから脱退し、前記サブブロックのSADの値が前記閾値以上である場合、前記サブブロックに対して双方向オプティカルフローモードに基づく動き補償を行うことを含み、前記サブブロックのSADの値は、第1予測ブロックに対する垂直2倍のダウンサンプリングを行った後の予測値と、第2予測ブロックに対する垂直2倍のダウンサンプリングを行った後の予測値との差分絶対値和であり、前記第1予測ブロックは、前記現在ブロックの第1動きベクトルによって、第1参照フレームから取得した前記サブブロックに対応する予測ブロックであり、前記第2予測ブロックは、前記現在ブロックの第2動きベクトルによって、第2参照フレームから取得した前記サブブロックに対応する予測ブロックであるステップと、
前記サブブロックに対して双方向オプティカルフローモードに基づく動き補償を行うことは、前記サブブロックの各サブブロックに対して、前記サブブロックの第1初期予測値と第2初期予測値を確定することと、前記第1初期予測値と前記第2初期予測値とによって前記サブブロックの水平方向速度を確定することと、前記第1初期予測値と前記第2初期予測値とによって前記サブブロックの垂直方向速度を確定することと、前記水平方向速度と前記垂直方向速度とによって前記サブブロックの予測補償値を取得することと、前記第1初期予測値と、前記第2初期予測値と、前記予測補償値とによって前記サブブロックの目標予測値を取得することと、前記サブブロックの各サブブロックの目標予測値に基づいて、前記サブブロックの目標予測値を確定することと、を含むステップと、
前記現在ブロックから区画された各サブブロックの目標予測値に基づいて前記現在ブロックの予測値を確定するステップと、
を実行するように構成される、
ことを特徴とするビデオ復号化側機器。
A video decoding device including a processor and a computer-readable storage medium storing computer-executable instructions executable by the processor,
The processor executes the computer-executable commands to:
When it is determined to adopt the bidirectional optical flow mode for the current block, the bidirectional optical flow mode-based motion compensation is performed for the current block, and the bidirectional optical flow mode-based motion compensation for the current block includes determining whether the sub-block is to leave the bidirectional optical flow mode for any sub-block partitioned from the current block according to a relationship between the SAD value of the sub-block and a threshold value, and if the SAD value of the sub-block is less than the threshold value, leaving the sub-block from the bidirectional optical flow mode-based motion compensation, and determining whether the sub-block is to leave the bidirectional optical flow mode for any sub-block partitioned from the current block according to a relationship between the SAD value of the sub-block and a threshold value. performing motion compensation based on a bidirectional optical flow mode on the sub-block when the value of is equal to or greater than the threshold, the SAD value of the sub-block being a sum of absolute differences between a predicted value after performing 2x vertical downsampling on a first prediction block and a predicted value after performing 2x vertical downsampling on a second prediction block, the first prediction block being a predicted block corresponding to the sub-block obtained from a first reference frame by a first motion vector of the current block, and the second prediction block being a predicted block corresponding to the sub-block obtained from a second reference frame by a second motion vector of the current block;
Performing motion compensation based on a bidirectional optical flow mode on the subblock includes the steps of: determining, for each subblock of the subblock, a first initial prediction value and a second initial prediction value of the subblock; determining a horizontal velocity of the subblock by the first initial prediction value and the second initial prediction value; determining a vertical velocity of the subblock by the first initial prediction value and the second initial prediction value; obtaining a prediction compensation value of the subblock by the horizontal velocity and the vertical velocity; obtaining a target prediction value of the subblock by the first initial prediction value, the second initial prediction value, and the prediction compensation value; and determining a target prediction value of the subblock based on the target prediction value of each subblock of the subblock;
determining a predicted value of the current block based on a target predicted value of each sub-block partitioned from the current block;
configured to execute
A video decoding device comprising:
請求項7に記載のビデオ復号化側機器において、
現在ブロックに対して双方向オプティカルフローモードを採用する場合、現在ブロックが同時に満たす条件は、現在ブロックがサブブロック動き情報モードを採用していなく、且つ現在ブロックがCIIPモードを採用していなく、且つ現在ブロックがSMVDモードを採用していないことと、現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームが異なる方向からのものであり、且つ現在ブロックに対応する2つの参照フレームのそれぞれと現在フレームとの距離が同じであることと、現在ブロックが双方向予測を採用し、且つ現在ブロックに対応する2つの参照フレームの重みが同じであることと、現在ブロックの幅の値と、高さの値と、面積の値との何れも限定された範囲内にあることと、を含む、
ことを特徴とするビデオ復号化側機器。
8. The video decoding device according to claim 7,
When the bidirectional optical flow mode is adopted for the current block, the conditions that the current block simultaneously satisfies include: the current block does not adopt a sub-block motion information mode, and the current block does not adopt a CIIP mode, and the current block does not adopt an SMVD mode; the current block adopts bidirectional prediction, and the two reference frames corresponding to the current block are from different directions, and the distances between the current frame and each of the two reference frames corresponding to the current block are the same; the current block adopts bidirectional prediction, and the weights of the two reference frames corresponding to the current block are the same; and the width, height, and area of the current block are all within a limited range.
A video decoding device comprising:
請求項8に記載のビデオ復号化側機器において、
前記現在ブロックの幅の値と、高さの値と、面積の値との何れも限定された範囲内にあることは、
現在ブロックの幅の値が8以上であり、現在ブロックの高さの値が8以上であり、現在ブロックの幅と高さとの積が128以上であることを含む、
ことを特徴とするビデオ復号化側機器。
9. The video decoding device according to claim 8,
The width, height, and area of the current block are all within a limited range.
the width value of the current block is equal to or greater than 8, the height value of the current block is equal to or greater than 8, and the product of the width and height of the current block is equal to or greater than 128;
A video decoding device comprising:
プロセッサと、プロセッサによって実行可能なコマンドを記憶するためのメモリと、を含む電子機器であって、
前記プロセッサは、請求項1から請求項3のいずれか1項に記載の復号化方法のステップを実行するように構成される、
ことを特徴とする電子機器。
1. An electronic device including a processor and a memory for storing instructions executable by the processor,
The processor is configured to execute the steps of the decoding method according to any one of claims 1 to 3.
1. An electronic device comprising:
コマンドを記憶しているコンピューター可読記憶媒体であって、
前記コマンドがプロセッサによって実行されると、請求項1から請求項3のいずれか1項に記載の復号化方法のステップを実行する、
ことを特徴とするコンピューター可読記憶媒体。
A computer-readable storage medium storing commands, comprising:
said command, when executed by a processor, performing the steps of the decoding method according to any one of claims 1 to 3;
A computer-readable storage medium comprising:
JP2023132535A 2019-06-21 2023-08-16 Decoding method, decoding device, video decoding device, electronic device, and computer-readable storage medium Active JP7506234B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201910544562.5A CN112118455B (en) 2019-06-21 2019-06-21 Encoding and decoding method, device and equipment
CN201910544562.5 2019-06-21
JP2021570237A JP7334272B2 (en) 2019-06-21 2020-06-17 Codec method, device and equipment therefor
PCT/CN2020/096600 WO2020253730A1 (en) 2019-06-21 2020-06-17 Encoding and decoding method and apparatus, and device therefor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021570237A Division JP7334272B2 (en) 2019-06-21 2020-06-17 Codec method, device and equipment therefor

Publications (2)

Publication Number Publication Date
JP2023156444A JP2023156444A (en) 2023-10-24
JP7506234B2 true JP7506234B2 (en) 2024-06-25

Family

ID=70220964

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021570237A Active JP7334272B2 (en) 2019-06-21 2020-06-17 Codec method, device and equipment therefor
JP2023132535A Active JP7506234B2 (en) 2019-06-21 2023-08-16 Decoding method, decoding device, video decoding device, electronic device, and computer-readable storage medium

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021570237A Active JP7334272B2 (en) 2019-06-21 2020-06-17 Codec method, device and equipment therefor

Country Status (8)

Country Link
US (1) US12075085B2 (en)
EP (1) EP3989576A4 (en)
JP (2) JP7334272B2 (en)
KR (2) KR20240005233A (en)
CN (30) CN113411608B (en)
CA (1) CA3139466A1 (en)
MX (1) MX2021015977A (en)
WO (2) WO2020253730A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113411608B (en) * 2019-06-21 2022-05-31 杭州海康威视数字技术股份有限公司 Encoding and decoding method, device and equipment
CN112804534B (en) * 2019-11-14 2022-03-01 杭州海康威视数字技术股份有限公司 Encoding and decoding method, device and equipment
WO2023172002A1 (en) * 2022-03-11 2023-09-14 현대자동차주식회사 Image encoding/decoding method, device, and recording medium storing bitstream

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6273828U (en) 1985-10-30 1987-05-12
JP4724351B2 (en) 2002-07-15 2011-07-13 三菱電機株式会社 Image encoding apparatus, image encoding method, image decoding apparatus, image decoding method, and communication apparatus
KR100703760B1 (en) 2005-03-18 2007-04-06 삼성전자주식회사 Video encoding/decoding method using motion prediction between temporal levels and apparatus thereof
JP2008048235A (en) * 2006-08-18 2008-02-28 Sony Corp Decoding method and decoding device for variable-length code
JP2008289134A (en) * 2007-04-20 2008-11-27 Panasonic Corp Coding rate converting apparatus, integrated circuit, and method, and program for the same
CN100493194C (en) * 2007-05-17 2009-05-27 上海交通大学 Leaking motion compensation process for video interesting area coding/decoding
US9078007B2 (en) 2008-10-03 2015-07-07 Qualcomm Incorporated Digital video coding with interpolation filters and offsets
EP2557795A4 (en) * 2010-04-06 2015-07-08 Samsung Electronics Co Ltd Method and apparatus for video encoding and method and apparatus for video decoding
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
WO2014054267A1 (en) * 2012-10-01 2014-04-10 パナソニック株式会社 Image coding device and image coding method
CN104427345B (en) * 2013-09-11 2019-01-08 华为技术有限公司 Acquisition methods, acquisition device, Video Codec and its method of motion vector
JP6273828B2 (en) 2013-12-24 2018-02-07 富士通株式会社 Image coding apparatus, image coding method, image decoding apparatus, and image decoding method
KR20150120667A (en) 2014-04-18 2015-10-28 주식회사 씬멀티미디어 Method and device for video encoding
CN105517671B (en) * 2015-05-25 2020-08-14 北京大学深圳研究生院 Video frame interpolation method and system based on optical flow method
US20180249172A1 (en) * 2015-09-02 2018-08-30 Mediatek Inc. Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques
US10375413B2 (en) * 2015-09-28 2019-08-06 Qualcomm Incorporated Bi-directional optical flow for video coding
CN115037929A (en) * 2016-02-03 2022-09-09 Oppo广东移动通信有限公司 Moving image decoding device, encoding device, and predicted image generation device
US11109061B2 (en) * 2016-02-05 2021-08-31 Mediatek Inc. Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding
CN114449287A (en) * 2016-03-16 2022-05-06 联发科技股份有限公司 Method and apparatus for pattern-based motion vector derivation for video coding
WO2017164297A1 (en) * 2016-03-25 2017-09-28 パナソニックIpマネジメント株式会社 Method and device for encoding of video using signal dependent-type adaptive quantization and decoding
US20170339405A1 (en) * 2016-05-20 2017-11-23 Arris Enterprises Llc System and method for intra coding
CN116614640A (en) * 2016-07-12 2023-08-18 韩国电子通信研究院 Image encoding/decoding method and recording medium therefor
KR102437110B1 (en) * 2016-07-14 2022-08-26 삼성전자주식회사 Video decoding method and device therefor, and video encoding method and device therefor
CN116582668A (en) * 2016-08-11 2023-08-11 Lx 半导体科技有限公司 Image encoding/decoding method and image data transmitting method
CN106454378B (en) * 2016-09-07 2019-01-29 中山大学 Converting video coding method and system in a kind of frame per second based on amoeboid movement model
KR102499139B1 (en) * 2016-09-21 2023-02-13 삼성전자주식회사 Electronic device for displaying image and method for controlling thereof
EP3556096B1 (en) * 2016-12-22 2024-05-22 HFI Innovation Inc. Method and apparatus of motion refinement for video coding
US10931969B2 (en) * 2017-01-04 2021-02-23 Qualcomm Incorporated Motion vector reconstructions for bi-directional optical flow (BIO)
US10523964B2 (en) * 2017-03-13 2019-12-31 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (BIO)
WO2018174618A1 (en) * 2017-03-22 2018-09-27 한국전자통신연구원 Prediction method and device using reference block
US10595035B2 (en) 2017-03-22 2020-03-17 Qualcomm Incorporated Constraining motion vector information derived by decoder-side motion vector derivation
KR102409430B1 (en) * 2017-04-24 2022-06-15 에스케이텔레콤 주식회사 Method and Apparatus for Estimating Optical Flow for Motion Compensation
CN116708830A (en) * 2017-04-24 2023-09-05 Sk电信有限公司 Apparatus for encoding and decoding video data, method for storing encoded video data bit stream
US11206419B2 (en) * 2017-05-17 2021-12-21 Kt Corporation Method and device for video signal processing
US10904565B2 (en) * 2017-06-23 2021-01-26 Qualcomm Incorporated Memory-bandwidth-efficient design for bi-directional optical flow (BIO)
US11363293B2 (en) * 2017-07-03 2022-06-14 Vid Scale, Inc. Motion-compensation prediction based on bi-directional optical flow
US11297344B2 (en) 2017-08-29 2022-04-05 SK Telecom., Ltd. Motion compensation method and device using bi-directional optical flow
WO2019074273A1 (en) * 2017-10-10 2019-04-18 한국전자통신연구원 Method and device using inter prediction information
KR20190046704A (en) 2017-10-26 2019-05-07 한국전자통신연구원 Method and apparatus for asymmetric sub-block based video encoding/decoding
EP3713236A4 (en) * 2017-12-14 2021-04-21 LG Electronics Inc. Method and device for image decoding according to inter-prediction in image coding system
CN118694931A (en) * 2018-11-05 2024-09-24 北京字节跳动网络技术有限公司 Method, apparatus and computer readable storage medium for encoding and decoding video data
CN112511842B (en) * 2018-12-28 2022-05-31 杭州海康威视数字技术股份有限公司 Coding and decoding method and equipment thereof
BR122021012456B1 (en) * 2019-01-15 2022-03-22 Lg Electronics Inc A method of decoding an image performed by a decoding apparatus, a method of encoding an image performed by an encoding apparatus, a decoding apparatus for decoding an image, an encoding apparatus for encoding an image, and non-computer readable digital storage media transient
EP3907998A4 (en) * 2019-02-14 2022-03-16 LG Electronics Inc. Dmvr-based inter-prediction method and device
US11206425B2 (en) * 2019-03-11 2021-12-21 Alibaba Group Holding Limited Inter prediction methods for coding video data
KR20210114060A (en) * 2019-03-13 2021-09-17 엘지전자 주식회사 DMVR-based inter prediction method and device
CN117478876A (en) * 2019-03-17 2024-01-30 北京字节跳动网络技术有限公司 Calculation of prediction refinement based on optical flow
US11140409B2 (en) * 2019-03-22 2021-10-05 Lg Electronics Inc. DMVR and BDOF based inter prediction method and apparatus thereof
JP7058329B2 (en) * 2019-03-22 2022-04-21 エルジー エレクトロニクス インコーポレイティド DMVR and BDOF based inter-prediction methods and equipment
CN113411608B (en) * 2019-06-21 2022-05-31 杭州海康威视数字技术股份有限公司 Encoding and decoding method, device and equipment
US11509910B2 (en) * 2019-09-16 2022-11-22 Tencent America LLC Video coding method and device for avoiding small chroma block intra prediction
US20210092404A1 (en) * 2019-09-20 2021-03-25 Qualcomm Incorporated Reference picture constraint for decoder side motion refinement and bi-directional optical flow
US11563980B2 (en) * 2020-04-02 2023-01-24 Qualcomm Incorporated General constraint information syntax in video coding
US11611778B2 (en) * 2020-05-20 2023-03-21 Sharp Kabushiki Kaisha Systems and methods for signaling general constraint information in video coding

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHEN, Chun-Chia et al.,CE4-related: Reduction of interactions between bi-prediction coding tools,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 14th Meeting: Gene,JVET-N0086 (version 3),ITU-T,2019年03月19日,<URL:http://jvet-experts.org/doc_end_user/documents/14_Geneva/wg11/JVET-N0086-v3.zip>: JVET-N0086-
CHEN, Fangdong and WANG, Li,Non-CE9: Modified enabling condition for DMVR and BDOF,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 14th Meeting: Gene,JVET-N0162 (version 2),ITU-T,2019年03月19日,<URL:http://jvet-experts.org/doc_end_user/documents/14_Geneva/wg11/JVET-N0162-v2.zip>: JVET-N0162-
CHEN, Jianle et.al.,Algorithm description for Versatile Video Coding and Test Model 5 (VTM 5),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 14th Meeting: Gene,JVET-N1002 (version 2),ITU-T,2019年06月11日,<URL:http://jvet-experts.org/doc_end_user/documents/14_Geneva/wg11/JVET-N1002-v2.zip>: JVET-N1002-
XIU, Xiaoyu et al.,Description of SDR, HDR, and 360° video coding technology proposal by InterDigital Communications a,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 10th Meeting: San,JVET-J0015 (version 3),ITU-T,2018年04月14日,<URL:http://jvet-experts.org/doc_end_user/documents/10_San%20Diego/wg11/JVET-J0015-v3.zip>: JVET-J

Also Published As

Publication number Publication date
CN113411594B (en) 2022-05-31
CN113411599B (en) 2022-05-31
KR20240005233A (en) 2024-01-11
CN113411601A (en) 2021-09-17
CN113411604A (en) 2021-09-17
CN113411595B (en) 2022-05-31
CN113411596A (en) 2021-09-17
CN113709503A (en) 2021-11-26
JP2023156444A (en) 2023-10-24
CN113596478A (en) 2021-11-02
CN113596476A (en) 2021-11-02
CN113411595A (en) 2021-09-17
EP3989576A4 (en) 2022-08-31
MX2021015977A (en) 2022-02-10
CN113411600A (en) 2021-09-17
JP2022534240A (en) 2022-07-28
WO2020253730A1 (en) 2020-12-24
CN113411593A (en) 2021-09-17
CN113613021A (en) 2021-11-05
CN113411597A (en) 2021-09-17
CN113411605A (en) 2021-09-17
CN113596480A (en) 2021-11-02
CN113411598B (en) 2022-05-31
CN112118455A (en) 2020-12-22
CN113596481A (en) 2021-11-02
CN113596481B (en) 2022-07-01
CN113411607B (en) 2022-05-31
KR20220003027A (en) 2022-01-07
CN112118455B (en) 2022-05-31
CN113596477B (en) 2022-07-01
CN113411610A (en) 2021-09-17
CN113411596B (en) 2022-05-31
CN113411593B (en) 2022-05-27
CN113411601B (en) 2022-05-31
US20220232242A1 (en) 2022-07-21
CN111031318B (en) 2020-12-29
CA3139466A1 (en) 2020-12-24
CN113411610B (en) 2022-05-27
CN113747175A (en) 2021-12-03
CN113411609A (en) 2021-09-17
CN113596478B (en) 2022-04-26
CN113411599A (en) 2021-09-17
CN113411609B (en) 2022-05-31
KR102620203B1 (en) 2023-12-29
CN113411602B (en) 2022-05-31
CN113411594A (en) 2021-09-17
CN113411607A (en) 2021-09-17
CN113596476B (en) 2022-07-01
CN113596479A (en) 2021-11-02
CN113411606A (en) 2021-09-17
CN113411597B (en) 2022-05-27
CN113411604B (en) 2022-05-31
CN113411603B (en) 2022-03-25
CN113411600B (en) 2022-05-31
US12075085B2 (en) 2024-08-27
CN113596480B (en) 2022-08-12
CN113411606B (en) 2022-07-01
CN113596477A (en) 2021-11-02
EP3989576A1 (en) 2022-04-27
WO2020253769A1 (en) 2020-12-24
CN113411602A (en) 2021-09-17
JP7334272B2 (en) 2023-08-28
CN113411608B (en) 2022-05-31
CN113613020A (en) 2021-11-05
CN113411603A (en) 2021-09-17
CN111031318A (en) 2020-04-17
CN113411605B (en) 2022-05-31
CN113411598A (en) 2021-09-17
CN113411608A (en) 2021-09-17

Similar Documents

Publication Publication Date Title
JP7506234B2 (en) Decoding method, decoding device, video decoding device, electronic device, and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240613