JP6698077B2 - モデルベースの映像符号化用の知覚的最適化 - Google Patents
モデルベースの映像符号化用の知覚的最適化 Download PDFInfo
- Publication number
- JP6698077B2 JP6698077B2 JP2017513750A JP2017513750A JP6698077B2 JP 6698077 B2 JP6698077 B2 JP 6698077B2 JP 2017513750 A JP2017513750 A JP 2017513750A JP 2017513750 A JP2017513750 A JP 2017513750A JP 6698077 B2 JP6698077 B2 JP 6698077B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- frame
- tcsf
- quantization parameter
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005457 optimization Methods 0.000 title description 8
- 230000033001 locomotion Effects 0.000 claims description 266
- 239000013598 vector Substances 0.000 claims description 200
- 238000013139 quantization Methods 0.000 claims description 119
- 238000000034 method Methods 0.000 claims description 110
- 230000002123 temporal effect Effects 0.000 claims description 68
- 230000008569 process Effects 0.000 claims description 33
- 230000035945 sensitivity Effects 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000006872 improvement Effects 0.000 claims description 12
- 230000003247 decreasing effect Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 9
- 230000008447 perception Effects 0.000 claims description 8
- 230000000873 masking effect Effects 0.000 claims description 7
- 238000013459 approach Methods 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 5
- 230000000737 periodic effect Effects 0.000 claims description 4
- 244000022782 cocaer Species 0.000 claims 1
- 235000008957 cocaer Nutrition 0.000 claims 1
- ZPUCINDJVBIVPJ-LJISPDSOSA-N cocaine Chemical compound O([C@H]1C[C@@H]2CC[C@@H](N2C)[C@H]1C(=O)OC)C(=O)C1=CC=CC=C1 ZPUCINDJVBIVPJ-LJISPDSOSA-N 0.000 claims 1
- 239000006185 dispersion Substances 0.000 claims 1
- 238000007906 compression Methods 0.000 description 38
- 230000006835 compression Effects 0.000 description 36
- 238000004458 analytical method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000001914 filtration Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000003708 edge detection Methods 0.000 description 6
- 230000000644 propagated effect Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000001902 propagating effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 102100032412 Basigin Human genes 0.000 description 2
- 101000798441 Homo sapiens Basigin Proteins 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 238000009428 plumbing Methods 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
符号化プロセスは、映像データを、圧縮フォーマットつまり符号化フォーマットに変換するものであり得る。同様に、解凍つまり復号化プロセスは、圧縮された映像を、圧縮される前のつまり未処理のフォーマットに変換するものであり得る。映像圧縮・解凍プロセスは、一般的にコーデックと称されるエンコーダおよびデコーダのペアとして実現され得る。
知覚的統計量が、映像フレームのどの領域が人間の視覚系(HVS)にとって重要なのかを示す重要度マップを算出するのに用いられ得る。
f=|MV|×フレームレート/(N×64×(1−SSIM)/2)
により与えられる。
前述した重要度マップは、一般的なエンコーダ(図2)及びCBTエンコーダ(図3)のいずれの映像符号化プロセスにも適用され得て、符号化ビットストリームの品質を向上させる。
本発明の例示的な実装は、ソフトウェア環境でもファームウェア環境でもハードウェア環境でも実現可能であり得る。図9Aに、そのような環境の一つを示す。少なくとも1つのクライアントコンピュータ/デバイス950(例えば、携帯電話、コンピューティングデバイス等)およびクラウド960(またはサーバコンピュータもしくはサーバコンピュータのクラスタ)は、アプリケーションプログラムを実行する処理機能、記憶機能、符号化機能、復号化機能および入出力装置などを提供する。
なお、本発明は、実施の態様として以下の内容を含む。
〔態様1〕
複数の映像フレームを符号化する方法であって、
前記映像フレームは、互いに重なり合わないターゲットブロックを有しており、
当該方法は、
重要度マップが量子化を調整することによって各映像フレーム内の符号化すべき各ターゲットブロックの符号化品質に影響を与えるように、前記重要度マップを用いて前記複数の映像フレームを符号化する過程、
を備え、前記重要度マップが:
時間的情報及び空間的情報を用いて当該重要度マップを設定すること;ならびに、
(i)当該重要度マップが高い数値をとるブロックでは、ブロック量子化パラメータ(QP)がフレーム量子化パラメータQP frame に比べて小さくされることで、これらのブロックについては高い品質となるように、かつ、(ii)当該重要度マップが低い数値をとるターゲットブロックでは、前記ブロック量子化パラメータが前記フレーム量子化パラメータQP frame に比べて大きくされることで、これらのブロックについては低い品質となるように、計算によって、前記複数の映像フレームのうちのある映像フレームのどの部分が人間の知覚にとって最も気付き易いのかを当該重要度マップに示させること;
によって構成されている、方法。
〔態様2〕
態様1に記載の方法において、前記空間的情報が、ルールに基づく空間的複雑度マップ(SCM)により提供されて、その最初のステップが、前記フレーム内のどのターゲットブロックが当該フレーム内の平均ブロック分散var frame よりも大きい分散を有するかを決定することであり、
前記平均ブロック分散var frame よりも大きい分散を有するブロックに対して、前記フレーム量子化パラメータQP frame よりも高い量子化パラメータ(QP)値を振り当て、このブロック量子化パラメータ(QP)の振当量QP block は、そのブロック分散var block が前記平均ブロック分散var frame よりもいかなる程度大きいかに従って、前記フレーム量子化パラメータQP frame と量子化パラメータ上限QP max との間で線形的に増減される、方法。
〔態様3〕
態様1に記載の方法において、前記時間的情報が、
どのターゲットブロックが観測者である人間にとって時間的に最も気付き易いかを示す時間的コントラスト感度関数(TCSF)、および、
どのターゲットブロックが前景データに相当するかを示す真の動きベクトルマップ(TMVM)
により提供されて、前記TCSFは、前景データとして特定されたターゲットブロックについてのみ有効とされる、方法。
〔態様4〕
態様2に記載の方法において、分散の大きいブロックは、そのブロック量子化パラメータ(QP)である前記振当量QP block が、前記TMVMがターゲットブロックを前景データとして特定し且つ前記TCSFのこのブロックについてのコントラスト感度対数値が0.5未満である場合には前記振当量QP block が2増加するように、前記TCSF及び前記TMVMによりさらに洗練化される、方法。
〔態様5〕
態様2に記載の方法において、前記SCMは、さらに、極めて明るい(170超の輝度)か又は極めて暗い(60未満の輝度)ターゲットブロックのブロック量子化パラメータである前記振当量QP block がQP max に調節し直される輝度マスキングを含む、方法。
〔態様6〕
態様2に記載の方法において、前記SCMは、さらに、前記符号化された映像の品質レベルに基づく前記量子化パラメータ上限QP max の動的な決定を含み、
この動的な決定では、イントラ(I)フレーム内のターゲットブロックの平均構造的類似度(SSIM)算出結果をこれらフレームの平均ブロック分散var frame と共に用いて、品質が測定され、
前記測定された品質が低いと、前記量子化パラメータ上限QP max の数値が前記フレーム量子化パラメータQP frame に近づくように減らされる、方法。
〔態様7〕
態様2に記載の方法において、分散の極めて小さいブロックに対して、これらの領域における高品質符号化を確実にするために、前記ブロック分散が小さいほど前記振当量QP block の数値が低くなるように(、かつ、品質が高くなるように)、決められた低い量子化パラメータ(QP)の値である前記振当量QP block が振り当てられる、方法。
〔態様8〕
態様7に記載の方法において、分散の極めて小さいブロックに対する前記低い量子化パラメータ(QP)の値である前記振当量QP block は、最初に、Iフレームについて決められ、その後、Pフレーム及びBフレームについてはipratioパラメータ及びpbratioパラメータを用いて決められる、方法。
〔態様9〕
態様7に記載の方法において、分散は小さいが、分散が極めて小さいとは見なさないブロックは、当該ブロックについて品質向上が必要か否かを判定するために、
前記ブロック量子化パラメータ(QP)の初めの推定値である前記振当量QP block が現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックの量子化パラメータ(QP)の値を平均することによって算出されて、且つ、
前記現在のブロックの前記SSIMの推定SSIM est が前記現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックのSSIM値から算出されて、且つ、
SSIM est が0.9未満の場合、前記振当量QP block の数値が2減少されるように、
調べられる、方法。
〔態様10〕
態様9に記載の方法において、前記品質向上は、前記TMVMにより前景データとして特定されて且つ前記TCSFのコントラスト感度対数値が0.8超であるブロックにのみ適用される、方法。
〔態様11〕
態様3に記載の方法において、前記TCSFの時間的周波数は、前記ターゲットブロックとその参照ブロックとの間の色空間領域におけるSSIMを用いて波長の近似を求めて且つ動きベクトルの大きさとフレームレートとを用いて速度の近似を求めることによって算出される、方法。
〔態様12〕
態様3に記載の方法において、前記TCSFは、現在のフレームについての当該TCSFが最近のフレームにおけるTCSFマップの重み付き平均であるように且つより最近のフレームがより大きい重み付けを受けるように、複数のフレームにわたって算出される、方法。
〔態様13〕
態様3に記載の方法において、前記TMVMは、前景データの場合にのみ1に設定される、方法。
〔態様14〕
態様13に記載の方法において、前景データは、所与のターゲットブロックについてのエンコーダ動きベクトルと当該ブロックについてのグローバル動きベクトルとの差分を算出し、十分に大きい差分を有するブロックが前景データであると判断されることによって特定される、方法。
〔態様15〕
態様14に記載の方法において、前景データとして特定されたデータブロックについて、前記グローバル動きベクトルから前記エンコーダ動きベクトルが減算されることによって差分動きベクトルを得て、この差分動きベクトルの大きさが前記TCSFの時間的周波数を算出するのに用いられる、方法。
〔態様16〕
態様3に記載の方法において、前記TCSFは、エンコーダからの動きベクトルから算出される、方法。
〔態様17〕
態様1に記載の方法において、前記重要度マップが前記時間的情報及び前記空間的情報で設定されたものである場合、当該重要度マップは統合化された重要度マップである、方法。
〔態様18〕
映像データを符号化するシステムであって、
重要度マップを用いて複数の映像フレームを符号化するコーデックであって、当該映像フレームは、互いに重なり合わないターゲットブロックを有している、コーデック、
を備え、前記重要度マップは、量子化を調整することによって各映像フレーム内の符号化すべき各ターゲットブロックの符号化品質に影響を与えるように構成されており、
前記重要度マップが:
時間的情報及び空間的情報を用いて当該重要度マップを設定することであって、これら時間的情報と空間的情報とにより設定された重要度マップは、統合化された重要素マップであること;ならびに、
(i)当該重要度マップが高い数値をとるブロックでは、ブロック量子化パラメータ(QP)がフレーム量子化パラメータQP frame に比べて小さくされることで、これらのブロックについては高い品質となるように、かつ、(ii)当該重要度マップが低い数値をとるターゲットブロックでは、前記ブロック量子化パラメータが前記フレーム量子化パラメータQP frame に比べて大きくされることで、これらのブロックについては低い品質となるように、計算によって、前記複数の映像フレームのうちのある映像フレームの、人間の知覚にとって最も気付き易い部分を当該重要度マップに示させること;
によって構成されている、システム。
〔態様19〕
態様18に記載のエンコーダにおいて、前記空間的情報が、ルールに基づく空間的複雑度マップ(SCM)により提供されて、その最初のステップが、前記フレーム内のどのターゲットブロックが当該フレーム内の平均ブロック分散var frame よりも大きい分散を有するかを決定することであり、
前記平均ブロック分散var frame よりも大きい分散を有するブロックに対して、前記フレーム量子化パラメータQP frame よりも高い量子化パラメータ(QP)値を振り当て、このブロック量子化パラメータ(QP)の振当量QP block は、そのブロック分散var block が前記平均ブロック分散var frame よりもいかなる程度大きいかに従って、前記フレーム量子化パラメータQP frame と量子化パラメータ上限QP max との間で線形的に増減される、エンコーダ。
〔態様20〕
態様18に記載のエンコーダにおいて、前記時間的情報が、
どのターゲットブロックが観測者である人間にとって時間的に最も気付き易いかを示す時間的コントラスト感度関数(TCSF)、および、
どのターゲットブロックが前景データに相当するかを示す真の動きベクトルマップ(TMVM)
により提供されて、前記TCSFは、前景データとして特定されたターゲットブロックについてのみ有効とされる、エンコーダ。
〔態様21〕
態様19に記載のエンコーダにおいて、分散の大きいブロックは、そのブロック量子化パラメータ(QP)である前記振当量QP block が、前記TMVMがターゲットブロックを前景データとして特定し且つ前記TCSFのこのブロックについてのコントラスト感度対数値が0.5未満である場合には前記振当量QP block が2増加するように、前記TCSF及び前記TMVMによりさらに洗練化される、エンコーダ。
〔態様22〕
態様19に記載のエンコーダにおいて、前記SCMは、さらに、極めて明るい(170超の輝度)か又は極めて暗い(60未満の輝度)ターゲットブロックのブロック量子化パラメータである前記振当量QP block がQP max に調節し直される輝度マスキングを含む、エンコーダ。
〔態様23〕
態様19に記載のエンコーダにおいて、前記SCMは、さらに、符号化された映像の品質レベルに前記量子化パラメータ上限基づくQP max の動的な決定を含み、
この動的な決定では、イントラ(I)フレーム内のターゲットブロックの平均構造的類似度(SSIM)算出結果をこれらフレームの平均ブロック分散var frame と共に用いて、品質が測定され、
測定された品質が低いと、前記量子化パラメータ上限QP max の数値が前記フレーム量子化パラメータQP frame 近づくように減らされる、エンコーダ。
〔態様24〕
態様19に記載のエンコーダにおいて、分散の極めて小さいブロックに対して、これらの領域における高品質符号化を確実にするために、前記ブロック分散が小さいほど前記振当量QP block の数値が低くなるように(、かつ、品質が高くなるように)、決められた低い量子化パラメータ(QP)の値である前記振当量QP block が振り当てられる、エンコーダ。
〔態様25〕
態様24に記載のエンコーダにおいて、分散の極めて小さいブロックに対する前記低い量子化パラメータ(QP)の値である前記振当量QP block は、最初に、Iフレームについては決められ、その後、Pフレーム及びBフレームについてはipratioパラメータ及びpbratioパラメータを用いて決められる、エンコーダ。
〔態様26〕
態様19に記載のシステムにおいて、分散は小さいが、分散が極めて小さいとは見なさないブロックは、当該ブロックについて品質向上が必要か否かを判定するために、
前記ブロック量子化パラメータ(QP)の初めの推定値である前記振当量QP block が現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックの量子化パラメータ(QP)の値を平均することによって算出されて、且つ、
前記現在のブロックの前記SSIMの推定SSIM est が前記現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックのSSIM値から算出されて、且つ、
SSIM est が0.9未満の場合、前記振当量QP block の数値が2減少されるように、
調べられる、システム。
〔態様27〕
態様26に記載のシステムにおいて、前記品質向上は、前記TMVMにより前景データとして特定されて且つ前記TCSFのコントラスト感度対数値が0.8超であるブロックにのみ適用される、システム。
〔態様28〕
態様20に記載のシステムにおいて、前記TCSFの時間的周波数は、前記ターゲットブロックとその参照ブロックとの間の色空間領域におけるSSIMを用いて波長の近似を求めて且つ動きベクトルの大きさとフレームレートとを用いて速度の近似を求めることによって算出される、システム。
〔態様29〕
態様20に記載のシステムにおいて、前記TCSFは、現在のフレームについての当該TCSFが最近のフレームにおけるTCSFマップの重み付き平均であるように且つより最近のフレームがより大きい重み付けを受けるように、複数のフレームにわたって算出される、システム。
〔態様30〕
態様20に記載のシステムにおいて、前記TMVMは、前景データの場合にのみ1に設定される、システム。
〔態様31〕
態様30に記載のシステムにおいて、前景データは、所与のターゲットブロックについてのエンコーダ動きベクトルと当該ブロックについてのグローバル動きベクトルとの差分を算出し、十分に大きい差分を有するブロックが前景データであると判断されることによって特定される、システム。
〔態様32〕
態様20に記載のシステムにおいて、前景データとして特定されたデータブロックについて、前記グローバル動きベクトルから前記エンコーダ動きベクトルが減算されることによって差分動きベクトルを得て、この差分動きベクトルの大きさが前記TCSFの時間的周波数を算出するのに用いられる、システム。
〔態様33〕
態様20に記載のシステムにおいて、前記TCSFは、前記エンコーダからの動きベクトルから算出される、システム。
〔態様34〕
態様18に記載のシステムにおいて、前記重要度マップが前記時間的情報と前記空間的情報で設定されたものである場合、当該重要度マップは統合化された重要度マップである、システム。
Claims (30)
- 複数の映像フレームを符号化する方法であって、
前記映像フレームは、互いに重なり合わないターゲットブロックを有しており、
当該方法は、
重要度マップが量子化を調整することによって各映像フレーム内の符号化すべき各ターゲットブロックの符号化品質に影響を与えるように、前記重要度マップを用いて前記複数の映像フレームを符号化する過程、
を備え、前記重要度マップが:
時間的情報及び空間的情報を用いて当該重要度マップを設定すること;ならびに、
(i)当該重要度マップが高い数値をとるブロックであるほど、ブロック量子化パラメータ(QP)がフレーム量子化パラメータQPframeに比べて小さくされることで、これらのブロックについてはより高い品質となるように、かつ、(ii)当該重要度マップが低い数値をとるターゲットブロックであるほど、前記ブロック量子化パラメータが前記フレーム量子化パラメータQPframeに比べて大きくされることで、これらのブロックについてはより低い品質となるように、計算によって、前記複数の映像フレームのうちのある映像フレームのどの部分が人間の知覚にとって最も気付き易いのかを当該重要度マップに示させること;
によって構成され、前記時間的情報が、
時間的に周期的な刺激に対する人間の視覚系の応答を測定してどのターゲットブロックが観測者である人間にとって時間的に最も気付き易いかを示す時間的コントラスト感度関数(TCSF)、および、
どのターゲットブロックが前景データに相当するかを示す真の動きベクトルマップ(TMVM)
により提供されて、前記TCSFは、前景データとして特定されたターゲットブロックについてのみ有効とされ、
前記TCSFの時間的周波数は、動きベクトルの大きさとフレームレートとを用いて求められる速度の近似を、前記ターゲットブロックとその参照ブロックとの間の色空間領域における平均構造的類似度(SSIM)を用いて求められる波長の近似で除することによって算出される、方法。 - 請求項1に記載の方法において、前記空間的情報が、ルールに基づく空間的複雑度マップ(SCM)により提供されて、その最初のステップが、前記フレーム内のどのターゲットブロックが当該フレーム内の平均ブロック分散varframeよりも大きい分散を有するかを決定することであり、
前記平均ブロック分散varframeよりも大きい分散を有するブロックに対して、前記フレーム量子化パラメータQPframeよりも高い量子化パラメータ(QP)値を振り当て、このブロック量子化パラメータ(QP)の振当量QPblockは、そのブロックのブロック分散var block 、前記平均ブロック分散var frame 、量子化パラメータ上限QP max および前記フレーム量子化パラメータQP frame を用いて、QP block =((var block −var frame )/var block )×(QP max −QP frame )+QP frame となるように線形的に増減される、方法。 - 請求項2に記載の方法において、前記フレーム内の平均ブロック分散var frame よりも分散の大きいブロックは、そのブロック量子化パラメータ(QP)である前記振当量QPblockが、前記TMVMがターゲットブロックを前景データとして特定し且つ前記TCSFのこのブロックについてのコントラスト感度対数値が0.5未満である場合には前記振当量QPblockが2増加するように、前記TCSF及び前記TMVMによりさらに洗練化される、方法。
- 請求項2に記載の方法において、前記SCMは、さらに、ブロック平均輝度が170超の輝度か又は60未満の輝度のターゲットブロックのブロック量子化パラメータである前記振当量QPblockがQPmaxに調節し直される輝度マスキングを含む、方法。
- 請求項2に記載の方法において、前記SCMは、さらに、前記符号化された映像の品質レベルに基づく前記量子化パラメータ上限QPmaxの動的な決定を含み、
この動的な決定では、イントラ(I)フレーム内のターゲットブロックの平均構造的類似度(SSIM)算出結果を前記Iフレームの平均ブロック分散varframeと共に用いて、品質が測定され、
前記測定された品質が低いほど、前記量子化パラメータ上限QPmaxの数値が前記フレーム量子化パラメータQPframeにより近づくように減らされる、方法。 - 請求項2に記載の方法において、分散が60未満であるブロックに対して、これらの領域における高品質符号化を確実にするために、前記ブロック分散が小さいほど前記振当量QPblockの数値が低くなるように、決められた低い量子化パラメータ(QP)の値である前記振当量QPblockが振り当てられる、方法。
- 請求項6に記載の方法において、分散が60未満であるブロックに対する前記量子化パラメータ(QP)の値である前記振当量QPblockは、最初に、Iフレームの当該ブロックについて決められ、その後、Pフレーム及びBフレームにおける当該ブロックに相当するブロックについてはIフレームのフレームQP値のPフレームのフレームQP値に対する比率であるipratioパラメータ及びPフレームのQP値の、BフレームのQP値に対する比率であるpbratioパラメータを用いて決められる、方法。
- 請求項6に記載の方法において、分散が60以上で、平均ブロック分散以下であるブロックは、当該ブロックについて、
前記ブロック量子化パラメータ(QP)の初めの推定値である前記振当量QPblockが現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックの量子化パラメータ(QP)の値を平均することによって算出されて、且つ、
前記現在のブロックの前記SSIMの推定SSIMestが前記現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックのSSIM値から算出されて、且つ、
SSIMestが0.9未満の場合、品質向上が必要か否かの判定において品質向上が必要と判定され、前記算出された振当量QPblockの数値が2減少されるように、品質向上の処理がなされる、方法。 - 請求項8に記載の方法において、前記品質向上は、前記TMVMにより前景データとして特定されて且つ前記TCSFのコントラスト感度対数値が0.8超であるブロックにのみ適用される、方法。
- 請求項1に記載の方法において、前記TCSFは、現在のフレームについての当該TCSFが符号化された過去のフレームにおけるTCSFマップの重み付き平均であるように且つより時間的に近い過去の、符号化された過去のフレームがより大きい重み付けを受けるように、複数のフレームにわたって算出される、方法。
- 請求項1に記載の方法において、前記TMVMは、前景データの場合にのみ1に設定される、方法。
- 請求項11に記載の方法において、前景データは、所与のターゲットブロックについてのエンコーダ動きベクトルと当該ブロックについてのグローバル動きベクトルとの差分を算出し、特定値より大きい差分を有するブロックが前景データであると判断されることによって特定される、方法。
- 請求項12に記載の方法において、前景データとして特定されたデータブロックについて、前記グローバル動きベクトルから前記エンコーダ動きベクトルが減算されることによって差分動きベクトルを得て、前記TCSFの時間的周波数を算出するのに用いられる速度vが、この差分動きベクトルの大きさ|DMV|、この差分動きベクトルにより指し示される参照フレームと現在のフレームとの間のフレームの数Nおよびフレームレートを用いて、v=|DMV|×フレームレート/Nと算出される、方法。
- 請求項1に記載の方法において、前記TCSFは、エンコーダからの動きベクトルMVを用いて前記TCSFへの入力である時間的周波数を算出するための速度vをv=|MV|×フレームレート/N(式中、フレームレートはその映像が生成された1秒当たりのフレームの数であり、Nは前記動きベクトルにより指し示される参照フレームと現在のフレームとの間のフレームの数である)より算出する、方法。
- 請求項2に記載の方法において、前記重要度マップが前記時間的情報及び前記空間的情報で設定されたものである場合、当該重要度マップは統合化された重要度マップ(TCSFおよびSCMの両方からの情報を含む重要度マップ)である、方法。
- 映像データを符号化するシステムであって、
重要度マップを用いて複数の映像フレームを符号化するコーデックであって、当該映像フレームは、互いに重なり合わないターゲットブロックを有している、コーデック、
を備え、前記重要度マップは、量子化を調整することによって各映像フレーム内の符号化すべき各ターゲットブロックの符号化品質に影響を与えるように構成されており、
前記重要度マップが:
時間的情報及び空間的情報を用いて当該重要度マップを設定すること;ならびに、
(i)当該重要度マップが高い数値をとるブロックであるほど、ブロック量子化パラメータ(QP)がフレーム量子化パラメータQPframeに比べて小さくされることで、これらのブロックについてはより高い品質となるように、かつ、(ii)当該重要度マップが低い数値をとるターゲットブロックであるほど、前記ブロック量子化パラメータが前記フレーム量子化パラメータQPframeに比べて大きくされることで、これらのブロックについてはより低い品質となるように、計算によって、前記複数の映像フレームのうちのある映像フレームの、人間の知覚にとって最も気付き易い部分を当該重要度マップに示させること;
によって構成され、前記時間的情報が、
時間的に周期的な刺激に対する人間の視覚系の応答を測定してどのターゲットブロックが観測者である人間にとって時間的に最も気付き易いかを示す時間的コントラスト感度関数(TCSF)および
どのターゲットブロックが前景データに相当するかを示す真の動きベクトルマップ(TMVM);
により提供されて、前記TCSFは、前景データとして特定されたターゲットブロックについてのみ有効とされ、
前記TCSFの時間的周波数は、動きベクトルの大きさとフレームレートとを用いて求められる速度の近似を、前記ターゲットブロックとその参照ブロックとの間の色空間領域における平均構造的類似度(SSIM)を用いて求められる波長の近似で除することによって算出される、システム。 - 請求項16に記載のシステムにおいて、前記空間的情報が、ルールに基づく空間的複雑度マップ(SCM)により提供されて、その最初のステップが、前記フレーム内のどのターゲットブロックが当該フレーム内の平均ブロック分散varframeよりも大きい分散を有するかを決定することであり、
前記平均ブロック分散varframeよりも大きい分散を有するブロックに対して、前記フレーム量子化パラメータQPframeよりも高い量子化パラメータ(QP)値を振り当て、このブロック量子化パラメータ(QP)の振当量QPblockは、そのブロックのブロック分散var block 、前記平均ブロック分散var frame 、量子化パラメータ上限QP max および前記フレーム量子化パラメータQP frame を用いて、QP block =((var block −var frame )/var block )×(QP max −QP frame )+QP frame となるように線形的に増減される、システム。 - 請求項17に記載のシステムにおいて、前記フレーム内の平均ブロック分散var frame よりも分散の大きいブロックは、そのブロック量子化パラメータ(QP)である前記振当量QPblockが、前記TMVMがターゲットブロックを前景データとして特定し且つ前記TCSFのこのブロックについてのコントラスト感度対数値が0.5未満である場合には前記振当量QPblockが2増加するように、前記TCSF及び前記TMVMによりさらに洗練化される、システム。
- 請求項17に記載のシステムにおいて、前記SCMは、さらに、ブロック平均輝度が170超の輝度か又は60未満の輝度のターゲットブロックのブロック量子化パラメータである前記振当量QPblockがQPmaxに調節し直される輝度マスキングを含む、システム。
- 請求項17に記載のシステムにおいて、前記SCMは、さらに、符号化された映像の品質レベルに基づく前記量子化パラメータ上限QPmaxの動的な決定を含み、
この動的な決定では、イントラ(I)フレーム内のターゲットブロックの平均構造的類似度(SSIM)算出結果を前記Iフレームの平均ブロック分散varframeと共に用いて、品質が測定され、
測定された品質が低いほど、前記量子化パラメータ上限QPmaxの数値が前記フレーム量子化パラメータQPframe により近づくように減らされる、システム。 - 請求項17に記載のシステムにおいて、分散が60未満であるブロックに対して、これらの領域における高品質符号化を確実にするために、前記ブロック分散が小さいほど前記振当量QPblockの数値が低くなるように、決められた量子化パラメータ(QP)の値である前記振当量QPblockが振り当てられる、システム。
- 請求項21に記載のシステムにおいて、分散が60未満であるブロックに対する前記低い量子化パラメータ(QP)の値である前記振当量QPblockは、最初に、Iフレームについては決められ、その後、Pフレーム及びBフレームにおける当該ブロックに相当するブロックについてはIフレームのフレームQP値のPフレームのフレームQP値に対する比率であるipratioパラメータ及びPフレームのQP値の、BフレームのQP値に対する比率であるpbratioパラメータを用いて決められる、システム。
- 請求項17に記載のシステムにおいて、分散が60以上で、平均ブロック分散以下であるブロックは、当該ブロックについて、
前記ブロック量子化パラメータ(QP)の初めの推定値である前記振当量QPblockが現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックの量子化パラメータ(QP)の値を平均することによって算出されて、且つ、
前記現在のブロックの前記SSIMの推定SSIMestが前記現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックのSSIM値から算出されて、且つ、
SSIMestが0.9未満の場合、品質向上が必要か否かの判定において品質向上が必要と判定され、前記算出された振当量QPblockの数値が2減少されるように、品質向上の処理がなされる、システム。 - 請求項23に記載のシステムにおいて、前記品質向上は、前記TMVMにより前景データとして特定されて且つ前記TCSFのコントラスト感度対数値が0.8超であるブロックにのみ適用される、システム。
- 請求項16に記載のシステムにおいて、前記TCSFは、現在のフレームについての当該TCSFが符号化された過去のフレームにおけるTCSFマップの重み付き平均であるように且つより時間的に近い過去の、符号化された過去のフレームがより大きい重み付けを受けるように、複数のフレームにわたって算出される、システム。
- 請求項16に記載のシステムにおいて、前記TMVMは、前景データの場合にのみ1に設定される、システム。
- 請求項26に記載のシステムにおいて、前景データは、所与のターゲットブロックについてのエンコーダ動きベクトルと当該ブロックについてのグローバル動きベクトルとの差分を算出し、特定値より大きい差分を有するブロックが前景データであると判断されることによって特定される、システム。
- 請求項16に記載のシステムにおいて、前景データとして特定されたデータブロックについて、前記データブロックについてのグローバル動きベクトルから前記データブロックについてのエンコーダ動きベクトルが減算されることによって差分動きベクトルを得て、前記TCSFの時間的周波数を算出するのに用いられる速度vが、この差分動きベクトルの大きさ|DMV|、この差分動きベクトルにより指し示される参照フレームと現在のフレームとの間のフレームの数Nおよびフレームレートを用いて、v=|DMV|×フレームレート/Nと算出される、システム。
- 請求項16に記載のシステムにおいて、前記TCSFは、前記エンコーダからの動きベクトルMVを用いて前記TCSFへの入力である時間的周波数を算出するための速度vをv=|MV|×フレームレート/N(式中、フレームレートはその映像が生成された1秒当たりのフレームの数であり、Nは前記動きベクトルにより指し示される参照フレームと現在のフレームとの間のフレームの数である)より算出する、システム。
- 請求項17に記載のシステムにおいて、前記重要度マップが前記時間的情報と前記空間的情報で設定されたものである場合、当該重要度マップは統合化された重要度マップ(TCSFおよびSCMの両方からの情報を含む重要度マップ)である、システム。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462049342P | 2014-09-11 | 2014-09-11 | |
US62/049,342 | 2014-09-11 | ||
US14/532,947 US9621917B2 (en) | 2014-03-10 | 2014-11-04 | Continuous block tracking for temporal prediction in video encoding |
US14/532,947 | 2014-11-04 | ||
US201462078181P | 2014-11-11 | 2014-11-11 | |
US62/078,181 | 2014-11-11 | ||
US201562158523P | 2015-05-07 | 2015-05-07 | |
US62/158,523 | 2015-05-07 | ||
PCT/US2015/048353 WO2016040116A1 (en) | 2014-09-11 | 2015-09-03 | Perceptual optimization for model-based video encoding |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017532858A JP2017532858A (ja) | 2017-11-02 |
JP2017532858A5 JP2017532858A5 (ja) | 2018-10-11 |
JP6698077B2 true JP6698077B2 (ja) | 2020-05-27 |
Family
ID=55459438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017513750A Active JP6698077B2 (ja) | 2014-09-11 | 2015-09-03 | モデルベースの映像符号化用の知覚的最適化 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3175618A1 (ja) |
JP (1) | JP6698077B2 (ja) |
CN (1) | CN106688232A (ja) |
CA (1) | CA2960617A1 (ja) |
WO (1) | WO2016040116A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9743078B2 (en) | 2004-07-30 | 2017-08-22 | Euclid Discoveries, Llc | Standards-compliant model-based video encoding and decoding |
US9532069B2 (en) | 2004-07-30 | 2016-12-27 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US9578345B2 (en) | 2005-03-31 | 2017-02-21 | Euclid Discoveries, Llc | Model-based video encoding and decoding |
CA2942336A1 (en) | 2014-03-10 | 2015-09-17 | Euclid Discoveries, Llc | Continuous block tracking for temporal prediction in video encoding |
US10097851B2 (en) | 2014-03-10 | 2018-10-09 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
US10091507B2 (en) | 2014-03-10 | 2018-10-02 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
CN109547802A (zh) * | 2017-09-22 | 2019-03-29 | 江苏智谋科技有限公司 | 基于三维视觉技术的无人机避障系统 |
CN107843227B (zh) * | 2017-12-09 | 2020-04-10 | 连云港杰瑞电子有限公司 | 一种基于校准技术提高编码器精度的方法 |
US10652550B2 (en) | 2017-12-22 | 2020-05-12 | Shenzhen China Star Optoelectronics Semiconductor Display Technology Co., Ltd. | Compensation table compressing method |
CN108172168B (zh) * | 2017-12-22 | 2019-11-15 | 深圳市华星光电半导体显示技术有限公司 | 一种补偿表压缩方法 |
WO2019194572A1 (en) * | 2018-04-03 | 2019-10-10 | Samsung Electronics Co., Ltd. | Methods and apparatus for determining adjustment parameter during encoding of spherical multimedia content |
CN111279685A (zh) | 2018-04-28 | 2020-06-12 | 深圳市大疆创新科技有限公司 | 运动估计 |
GB2588023B (en) | 2018-06-05 | 2023-04-12 | Beijing Bytedance Network Tech Co Ltd | Interaction between IBC and BIO |
TWI729422B (zh) | 2018-06-21 | 2021-06-01 | 大陸商北京字節跳動網絡技術有限公司 | 色彩分量間的子區塊移動向量繼承 |
WO2019244117A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Unified constrains for the merge affine mode and the non-merge affine mode |
CN110859057A (zh) * | 2018-06-29 | 2020-03-03 | 深圳市大疆创新科技有限公司 | 运动矢量确定方法、设备及机器可读存储介质 |
TWI839388B (zh) | 2018-09-24 | 2024-04-21 | 大陸商北京字節跳動網絡技術有限公司 | 簡化的基於歷史的運動矢量預測 |
US10992938B2 (en) * | 2018-09-28 | 2021-04-27 | Ati Technologies Ulc | Spatial block-level pixel activity extraction optimization leveraging motion vectors |
WO2020094150A1 (en) | 2018-11-10 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Rounding in current picture referencing |
CN109819252B (zh) * | 2019-03-20 | 2021-05-18 | 福州大学 | 一种不依赖gop结构的量化参数级联方法 |
CN109982082B (zh) * | 2019-05-05 | 2022-11-15 | 山东大学 | 一种基于局部纹理特性的hevc多失真准则率失真优化方法 |
CN111882564A (zh) * | 2020-07-27 | 2020-11-03 | 山东大学 | 一种超高清医学病理图像的压缩处理方法 |
US11638025B2 (en) | 2021-03-19 | 2023-04-25 | Qualcomm Incorporated | Multi-scale optical flow for learned video compression |
CN113556544B (zh) * | 2021-06-30 | 2024-04-19 | 北京锐马视讯科技有限公司 | 基于场景自适应的视频编码方法和装置、设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6831947B2 (en) * | 2001-03-23 | 2004-12-14 | Sharp Laboratories Of America, Inc. | Adaptive quantization based on bit rate prediction and prediction error energy |
US8135062B1 (en) * | 2006-01-16 | 2012-03-13 | Maxim Integrated Products, Inc. | Method and apparatus for QP modulation based on perceptual models for picture encoding |
CN101184221A (zh) * | 2007-12-06 | 2008-05-21 | 上海大学 | 基于视觉关注度的视频编码方法 |
CN101325711A (zh) * | 2008-07-16 | 2008-12-17 | 上海大学 | 基于时空掩盖效应的自适应码率控制方法 |
US8848788B2 (en) * | 2009-05-16 | 2014-09-30 | Thomson Licensing | Method and apparatus for joint quantization parameter adjustment |
US8737464B1 (en) * | 2011-07-21 | 2014-05-27 | Cisco Technology, Inc. | Adaptive quantization for perceptual video coding |
-
2015
- 2015-09-03 CN CN201580049004.1A patent/CN106688232A/zh active Pending
- 2015-09-03 EP EP15770689.6A patent/EP3175618A1/en not_active Withdrawn
- 2015-09-03 CA CA2960617A patent/CA2960617A1/en not_active Abandoned
- 2015-09-03 WO PCT/US2015/048353 patent/WO2016040116A1/en active Application Filing
- 2015-09-03 JP JP2017513750A patent/JP6698077B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN106688232A (zh) | 2017-05-17 |
CA2960617A1 (en) | 2016-03-17 |
WO2016040116A1 (en) | 2016-03-17 |
EP3175618A1 (en) | 2017-06-07 |
JP2017532858A (ja) | 2017-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6698077B2 (ja) | モデルベースの映像符号化用の知覚的最適化 | |
US10091507B2 (en) | Perceptual optimization for model-based video encoding | |
US10097851B2 (en) | Perceptual optimization for model-based video encoding | |
US10212456B2 (en) | Deblocking filter for high dynamic range (HDR) video | |
US11240496B2 (en) | Low complexity mixed domain collaborative in-loop filter for lossy video coding | |
US9621917B2 (en) | Continuous block tracking for temporal prediction in video encoding | |
KR102295520B1 (ko) | 비디오 코딩에서 모션 보상 예측을 위한 광흐름 추정 | |
KR100989296B1 (ko) | 아티팩트 평가를 통한 향상된 이미지/비디오 품질 | |
US10390038B2 (en) | Methods and devices for encoding and decoding video pictures using a denoised reference picture | |
US9270993B2 (en) | Video deblocking filter strength derivation | |
KR20090039720A (ko) | 적응적 참조 필터링을 위한 방법 및 장치 | |
US9838690B1 (en) | Selective prediction signal filtering | |
US20150256853A1 (en) | Video encoder with transform size preprocessing and methods for use therewith | |
RU2684193C1 (ru) | Устройство и способ для компенсации движения в видеоизображении | |
US10440384B2 (en) | Encoding method and equipment for implementing the method | |
KR20170093833A (ko) | 인트라 모드들의 코딩 | |
CN117880498A (zh) | 去块效应滤波自适应的编码器、解码器及对应方法 | |
WO2022021422A1 (zh) | 视频编码方法、编码器、系统以及计算机存储介质 | |
KR20150034699A (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
KR102402671B1 (ko) | 보간 필터의 연산 복잡도를 조절할 수 있는 영상 처리 장치, 영상 보간 방법 및 영상 부호화 방법 | |
Antony et al. | Performance enhancement of HEVC lossless mode using sample-based angular and planar predictions | |
Lin et al. | Perceptual importance analysis-based rate control method for HEVC | |
KR101647484B1 (ko) | 영상 부호화 방법 및 장치 | |
WO2023205371A1 (en) | Motion refinement for a co-located reference frame | |
WO2022146215A1 (en) | Temporal filter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180830 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190910 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191206 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6698077 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |