Nothing Special   »   [go: up one dir, main page]

JP2005510984A - デジタルビデオコンテンツのためのピクチャレベルの適応フレーム/フィールド符号化 - Google Patents

デジタルビデオコンテンツのためのピクチャレベルの適応フレーム/フィールド符号化 Download PDF

Info

Publication number
JP2005510984A
JP2005510984A JP2003548552A JP2003548552A JP2005510984A JP 2005510984 A JP2005510984 A JP 2005510984A JP 2003548552 A JP2003548552 A JP 2003548552A JP 2003548552 A JP2003548552 A JP 2003548552A JP 2005510984 A JP2005510984 A JP 2005510984A
Authority
JP
Japan
Prior art keywords
picture
field
encoded
frame
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003548552A
Other languages
English (en)
Other versions
JP2005510984A5 (ja
Inventor
ワン、リミン
パヌソポン、クリト
ガンジー、ラジーブ
ユー、ユエ
ルトラ、アジェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Arris Technology Inc
Original Assignee
General Instrument Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/301,203 external-priority patent/US20030099294A1/en
Application filed by General Instrument Corp filed Critical General Instrument Corp
Publication of JP2005510984A publication Critical patent/JP2005510984A/ja
Publication of JP2005510984A5 publication Critical patent/JP2005510984A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本発明は、デジタルビデオコンテンツを符号化又は復号する方法に関する。デジタルビデオコンテンツは、イントラピクチャ、予測ピクチャ又は両方向予測ピクチャとすることができるピクチャのストリームからなる。各ピクチャは、マクロブロックからなり、マクロブロックはより小さく分割することができる。この符号化又は復号方法では、ピクチャのストリーム内の各ピクチャをフレームモード又はフィールドモードの何れかで符号化する。

Description

本発明は、デジタルビデオコンテンツの符号化及び復号に関し、より具体的には、本発明は、MPEG−4 Part 10 AVC/H.264ビデオ符号化規格において使用され、デジタルビデオコンテンツのピクチャレベルにおけるフレームモード符号化及び復号と、フィールドモード符号化及び復号とに関する。
ビデオ圧縮は、多くの既存の製品及び新規の製品において使用されている。ビデオ圧縮は、デジタルテレビジョンセットトップボックス(set-top boxes:STB)、デジタル衛星放送システム(digital satellite systems:DSS)、高精細度テレビジョン(high definition television :HDTV)デコーダ、デジタルバーサタイルディスク(digital versatile disk:DVD)プレーヤ、テレビ会議、インターネットビデオ及びマルチメディアコンテンツ、及び他のデジタルビデオの用途において重要である。デジタルビデオコンテンツは、ビデオ圧縮しなければ、非常にデータ量が大きいため、効率よく保存し、伝送し、表示することは不可能又は困難である。
デジタルビデオコンテンツは、テレビジョン受像機、コンピュータモニタ又はデジタルビデオコンテンツを表示可能な他の電子機器に画像として表示されるピクチャのストリームからなる。特定のピクチャの前に表示されるピクチャは、この特定ピクチャの「後方」にある。また、この特定ピクチャの後に表示されるピクチャは、この特定ピクチャの「前方」にある。
ビデオ圧縮は、各ピクチャを1つのフレーム又は2つのフィールドとして符号化するビデオ符号化処理、すなわちコーディング処理において行われる。各フレームは、空間情報の数多くのラインからなる。例えば、一般的なフレームは、480本の水平ラインを含む。各フィールドは、1フレームの半分のラインを含んでいる。例えば、フレームが480水平ラインからなるときには、各フィールドは240水平ラインからなる。代表的な構成では、一方のフィールドは、フレーム内の奇数ラインからなり、他方のフレームは、フレーム内の偶数ラインからなる。以下及び添付の特許請求の範囲では、特別に定義する場合を除いて、偶数ラインからなるフィールドを「トップ」フィールドと呼ぶ。また、以下及び添付の特許請求の範囲では、特別に定義する場合を除いて、奇数ラインからなるフィールドを「ボトム」フィールドと呼ぶ。2つのフィールドは、互いにインタレースされ、インタレースされたフレーム(以下、インタレースフレームという。)が形成される。
包括的に言えば、ビデオ符号化は、デジタルビデオコンテンツデータから「必須でない(non-essential)」データを除去することによって行われる。データ量を削減することにより、放送又は伝送時に必要とされる帯域幅が削減される。圧縮されたビデオデータは、伝送された後、復号又は伸張する必要がある。この処理では、伝送されてきたビデオデータを処理して、符号化処理において除去された「必須でない」データに代えてビデオデータに組み込むための近似データを生成する。
ビデオ符号化は、圧縮されていないデジタルビデオコンテンツよりも少ない容量で保存できるように、また狭い帯域幅で伝送できるように、デジタルビデオコンテンツを圧縮された形式に変換する。圧縮は、ビデオコンテンツのピクチャにおける時間的及び空間的な冗長を利用している。デジタルビデオコンテンツは、例えばハードディスク、DVD、他の不揮発性記憶装置等のストレージ媒体に格納することができる。
デジタルビデオコンテンツを圧縮するビデオ符号化方法には数多くのものがある。そのため、ビデオエンコーダ及びビデオデコーダの大半が認識できる形式で圧縮デジタルビデオコンテンツを表現するように、様々なデジタルビデオ符号化方法を標準化するビデオ符号化規格が開発されている。例えば、モーションピクチャエキスパートグループ(Motion Picture Experts Group :以下、MPEGという。)及び国際電気通信連合(International Telecommunication Union:以下、ITU−Tという。)は、広く使われているビデオ符号化規格化を開発している。これらの規格の例として、MPEG−1規格、MPEG−2規格、MPEG−4規格、ITU−T勧告H261、ITU−T勧告H.263がある。
MPEG及びITU−Tによって開発された規格を始めとる大部分の最新のビデオ符号化規格は、一つには、動き補償(motion compensation:以下、MCという。)アルゴリズムを有する時間的予測に基づいてる。動き補償を有する時間的予測は、デジタルビデオ放送における連続するピクチャ間の時間的冗長を削減するために、用いられる。
動き補償アルゴリズムを有する時間的予測では、通常、個々のピクチャを符号化するために1つ又は2つの参照ピクチャを用いる。参照ピクチャは、既に符号化されたピクチャである。動き補償アルゴリズムを有する時間的予測では、符号化する特定のピクチャと参照ピクチャとを比較することによって、参照ピクチャと符号化する特定のピクチャ間の時間的冗長を利用し、仮に動き補償アルゴリズムを有する時間的予測を用いなかった場合と比べ、より高い圧縮率でピクチャを符号化することができる。参照ピクチャの一方は、符号化する特定のピクチャの後方にある。他方の参照ピクチャは、符号化する特定のピクチャの前方にある。
しかしながら、より高い解像度、より複雑な画像コンテンツ、より速い伝送速度を実現する要求に応じて、より優れたビデオ圧縮方法が望まれている。このために、現在、新たなビデオ符号化規格が開発されている。この新たなビデオ符号化規格は、MPEG−4 Part10 AVC/H.264規格と呼ばれている。
MPEG−4 Part10 AVC/H.264規格は、ビデオ圧縮における多くの新たな方法を提案している。例えば、新たに提案されたMPEG−4 Part10 AVC/H.264規格の特徴の1つとして、参照ピクチャは2つに限定されず、複数参照ピクチャ(multiple reference pictures)を用いることができる。複数参照ピクチャを用いることによって、エンコーダは、符号化するピクチャに最も一致した参照ピクチャを探すことができ、動き補償アルゴリズムを有する時間的予測の性能を向上させることができる。符号化処理において、符号化するピクチャに最も一致した参照ピクチャを用いることによって、ピクチャの符号化において高い圧縮率が実現できる。参照ピクチャは、フレーム及びフィールドバッファに記憶される。
上述したように、エンコーダは、ピクチャを1つのフレーム又は2つのフィールドとして符号化することができる。符号化するピクチャのシーケンスにおいて、幾つかのピクチャをフレームとして符号化し、幾つかのピクチャをフィールドとして符号化することができれば、圧縮率をより高めることができる。
可能な数多くの実施例の1つとして、本発明は、デジタルビデオコンテンツのビットストリームを符号化、復号及び生成する方法を提供する。デジタルビデオコンテンツは、イントラピクチャ、予測ピクチャ又は両方向予測ピクチャとすることができるピクチャのストリームからなる。各ピクチャは、マクロブロックからなり、マクロブロックは更により小さく分割することができる。この符号化又は復号方法では、ピクチャのストリーム内の各ピクチャをフレームモード又はフィールドモードの何れかで符号化する。
本発明は、複数のピクチャのストリーム(以下、ピクチャストリームという。)からなるデジタルビデオコンテンツのピクチャレベルでの適応フレーム/フィールド(以下、AFFという。)符号化方法を提供する。ピクチャレベルでのAFF符号化において、符号化するピクチャストリームの各ピクチャは、他のピクチャのフレーム符号化モード又はフィールド符号化モードにかかわらずフレームモード又はフィールドモードで符号化される。ピクチャをフレームモードで符号化する場合、インタレースされたフレームを構成する2つのフィールドを一緒に符号化する。一方、ピクチャをフレームモードで符号化する場合、インタレースされたフレームを構成する2つのフィールドを別々に符号化する。エンコーダは、フレームモード符号化とフィールドモード符号化のうち、どちらのタイプが各ピクチャに対してより有利であるかを判定し、ピクチャの符号化タイプを選択する。フレームモードとフィールドモードとから選択する完全な方法は、本発明において重要でないので、詳細は省略する。
上述のように、MPEG−4 Part10 AVC/H.264規格は、デジタルビデオコンテンツ符号化して圧縮する新たな規格である。引用により本願に援用されるMPEG−4 Part10 AVC/H.264規格を制定している勧告書は、ジョイントビデオチーム(Joint Video Team:JVT)によって2002年8月10日に発行された「ジョイントビデオ仕様の共同最終委員会草案(Joint Final Committee Draft (JFCD) of Joint Video Specification)」を包含している(ITU−T Rec.H.264&ISO/IEC 14496−10 AVC)。JVTは、ISO又はMPEG及びITU−Tの専門家らによって構成されている。MPEG−4 Part10 AVC/H.264規格は公に知られているため、本明細書では、MPEG−4 Part10 AVC/H.264ビデオ符号化規格の特徴を全て詳細に記載することはしないが、本発明は、この規格の仕様に基づいて実現される。
ここに説明するAFF符号化法は、MPEG−4 Part10 AVC/H.264規格の定めるガイドラインと互換性があり、これに則した説明を行うが、このAFF符号化法は、特定の規格又は用途に応じて、適宜変更することができる。
以下、図面を参照して、本発明の好ましい実施例について説明する。
図1は、本発明を実現するために用いることができる3種類のピクチャのシーケンスの具体例を示しており、これらは、MPEG−4 Part10 AVC/H.264規格を始めとする代表的なビデオ符号化法において定義されている。上述のように、エンコーダはピクチャを符号化し、デコーダはピクチャを復号する。エンコーダ又はデコーダは、プロセッサ、特定用途向け集積回路(application specific integrated circuit:ASIC)、フィールドプログラマブルゲートアレー(field programmable gate array :FPGA)、エンコーダ/デコーダ(coder/decoder:CODEC)、デジタルシグナルプロセッサ(digital signal processor:DSP)、ピクチャストリームを符号化できる他の電子回路等の何れであってもよいが、以下及び添付の特許請求の範囲において、特別に定義する場合を除き、「エンコーダ」という用語は、ピクチャストリームからなるデジタルビデオコンテンツを符号化する全ての電子回路を含むものとする。また、以下及び添付の特許請求の範囲において、特別に定義する場合を除き、「デコーダ」という言葉は、ピクチャストリームからなるデジタルビデオコンテンツを復号する全ての電子回路を含むものとする。
ビデオ符号化方法に用いることができるピクチャの3つのタイプを図1に示す。3つのピクチャタイプは、記憶されているデジタルビデオコンテンツへのランダムアクセスをサポートし、動き補償を有する時間的予測を使用して、最大の冗長抑圧(the maximum redundancy reduction)を探索するよう定義されている。3つのピクチャタイプには、イントラピクチャ(intra picture:以下、Iピクチャという。)(100)と、予測ピクチャ(predicted picture:以下、Pピクチャという。)(102a、102b)と、両方向予測ピクチャ(bi-predicted picture:以下、Bピクチャという。)(101a〜101d)とがある。Iピクチャ(100)は、記憶されているデジタルビデオコンテンツにランダムアクセスするためのアクセスポイントになっており、低い圧縮率で符号化される。イントラピクチャ(100)は、参照ピクチャを参照することなく符号化される。
予測ピクチャ(102a,102b)は、既に符号化されたI、P、Bピクチャを参照ピクチャとして用いて符号化される。符号化されるPピクチャに対して時間的に前方又は後方のピクチャの何れも参照ピクチャとして使用できる。予測ピクチャ(102a、102b)は、イントラピクチャ(100)よりも高い圧縮率で符号化することができる。
両方向予測ピクチャ(101a〜101d)は、前方参照ピクチャ及び後方参照ピクチャの2つの時間的な参照ピクチャを用いて符号化される。前方参照ピクチャは過去参照ピクチャと呼ばれることもあり、後方参照ピクチャは未来参照ピクチャと呼ばれることもある。本発明の実施例では、前方参照ピクチャ及び後方参照ピクチャが、符号化されるBピクチャに対して時間的に同一方向にあってもよい。両方向予測ピクチャ(101a〜101d)は、3つのピクチャタイプのうち最も高い圧縮率で符号化することができる。
図1は、3つのピクチャタイプの間の参照関係(103)を示している。例えば、Pピクチャ(102a)は、符号化されたIピクチャ(100)を参照ピクチャとして用いて符号化することができる。Bピクチャ(101a〜101d)は、図1に示すように、符号化されたIピクチャ(100)又はPピクチャ(102a)を参照ピクチャとして用いて符号化することができる。本発明の原理に基づけば、符号化されたBピクチャ(101a〜101d)は、符号化する他のBピクチャの参照ピクチャとして使用することもできる。例えば、図1に示すBピクチャ(101c)は、他の2つのBピクチャ(101b、101d)を参照ピクチャとしている。
図1に示すIピクチャ(100)、Bピクチャ(101a〜101d)、Pピクチャ(102a、102b)の各番号及び順序は、ピクチャの配置の一例を示しているに過ぎず、本発明を実現する上で必須要件ではない。特定の応用例に応じて、どのような数のIピクチャ、Bピクチャ、Pピクチャをどのような順序で用いてもよい。MPEG−4 Part 10 AVC/H.264規格は、2つの参照ピクチャ間のBピクチャの数又は2つのIピクチャ間のピクチャの数に関して何の制約も課していない。
図2に示すように、各ピクチャ(200)は、好ましくは複数のスライス(202)に分割される。各スライス(202)は、一群のマクロブロック(201)を含んでいる。マクロブロック(201)は、一群の画素である。図2に示すように、好ましいマクロブロック(201)のサイズは、16×16画素である。
図3(a)〜図3(f)は、マクロブロックが更により小さいブロックに分割できることを示している。例えば、図3(a)〜図3(f)に示すように、マクロブロックは、更に16×8画素(図3a;300)、8×16画素(図3b;301)、8×8画素(図3c;302)、8×4画素(図3d;303)、4×8画素(図3e;304)、4×4画素(図3f;305)等のブロックサイズに分割することができる。
図4は、本発明の実施例として示す動き補償を有する時間的予測を用いたピクチャ構造の一例を示している。動き補償を有する時間的予測では、現在のピクチャであるピクチャN(400)は、他のピクチャN−1(401)を平行移動することによって局所的に作る(model)ことができるとみなされる。ピクチャN−1は、ピクチャN(400)を符号化するための参照ピクチャであり、ピクチャN(400)に対して時間的に前方にあっても後方にあってもよい。
図4に示すように、各ピクチャは、好ましくは、マクロブロック(201a、201b)を含むスライスに分割される。ピクチャN−1(401)は、ピクチャN(400)に示される画像(403)を含んでいる。図4に示すように、画像(403)は、ピクチャN(400)では、ピクチャN−1(401)における位置とは異なる時間的位置(402)になる。ピクチャN(400)の各マクロブロック(201a)の画像内容は、画像(403)がピクチャN(400)における新たな時間的位置(402)に移動するために必要とされるピクチャN−1(401)の各マクロブロック(201b)の画像内容の時間的動き量を推測することによって、ピクチャN−1(401)において一致するマクロブロック(201b)の画像内容から予測される。実際には、元の画像(402)ではなく、画像(402)とこの画像の予測画像である(403)との間の差分(404)が符号化され、伝送される。
ピクチャN(400)内の各画像(402)に対して、時間的予測は、画像(403)がピクチャN(400)内の新たな時間的位置(402)に移動するときに必要とされる時間的動き量を示す動きベクトルによって表すことができる。動き補償を有する時間的予測に使用される動きベクトル(406)は、符号化及び伝送される必要がある。
図4は、ピクチャN(400)内の画像(402)が、画像とこの画像の予測値間の差分(404)と、関連する動きベクトル(406)とによって表現されることを示している。動きベクトルを用いた符号化の完全な方法は、特定の用途に応じて変更することができ、この変更は、当業者にとって容易である。
図5は、本発明に基づき、動き補償を有する時間的予測に複数参照ピクチャを用いることの利点を説明するためのピクチャストリームの具体例を示している。複数参照ピクチャ(multiple reference pictures)を用いることにより、ピクチャN(400)を最も高い圧縮率で符号化できる可能性が増す。この具体例では、ピクチャN−1(401)、ピクチャN−2(500)、ピクチャN−3(501)は、既に符号化されている。図5に示すように、ピクチャN−3(501)内の画像(504)は、ピクチャN−1(401)内の画像(502)及びピクチャN−2(500)内の画像(502)に比して、ピクチャN(400)内の画像(402)により類似している。複数参照ピクチャを使用することにより、ピクチャN−1(400)に代えてピクチャN−3(501)を参照ピクチャとして用いてピクチャN(400)を符号化することができる。
以下、ピクチャストリームのピクチャレベルでのAFF符号化について詳細に説明する。インタレースシーケンスのフレームは、トップフィールドとボトムフィールドの2つのフィールドを含み、トップフィールドとボトムフィールドは、インターリーブされており、フィールド周期に対応する時間離れている。フィールド周期は、フレーム周期の半分である。ピクチャレベルでのAFF符号化において、インタレースされたフレームにおける2つのフィールドは、一緒に又は別々に符号化される。2つのフィールドを一緒に符号化する場合、フレームモード符号化が用いられる。一方、2つのフィールドを別々に符号化する場合、フィールドモード符号化が用いられる。
一方、固定フレーム/フィールド符号化では、ピクチャのストリームにおける全てのピクチャをフレームモード又はフィールドモードの何れか1つのモードで符号化する。そのモードは、フレームモードとすることができ、又はフィールドモードとすることができる。ピクチャレベルでのAFFが固定フレーム/フィールド符号化よりも優れているのは、エンコーダがピクチャストリーム内の各ピクチャを符号化するために、デジタルビデオ素材の内容に基づいてフレームモード又はフィールドモードの何れかのモードを選択できるからである。
フレームモード符号化は、既にフレームとして符号化されたピクチャを参照フレームとして使用する。符号化されたIフレーム、Pフレーム、Bフレームの何れも参照フレームとして使用できる。参照フレームは、エンコーダの一部であるフレームバッファに記憶される。本発明の実施例では、図6に具体例を示すように、フレームモードで符号化している現在のピクチャからの距離に基づいて、フレームバッファ内の各参照フレームに固有のフレーム番号を割り当てる。例えば、図6に示すように、フレーム(600)として符号化する現在のピクチャに対して、フレームバッファ(601)内に複数の参照フレーム(0〜5)がある。また、図6には、現在のフレーム(600)に対応するフィールド(f1、f2)及び参照フレーム(0〜5)も示している。f1として示す破線は、ファーストフィールドであり、f2として示す破線は、セカンドフィールドである。ファーストフィールドは、2つのフィールドからなるピクチャにおいて符号化される最初のフィールドであり、セカンドフィールドは、2つのフィールドからなるピクチャにおいて符号化される2番目のフィールドである。本発明の実施例では、ファーストフィールドは、トップフィールド又はボトムフィールドの何れであってもよい。また、本発明の他の実施例では、セカンドフィールドがトップフィールド又はボトムフィールドの何れであってもよい。フレームは、実線によって表されている。図6に示すように、参照フレーム0は、現在のフレーム(600)に時間的に最も近接したフレームである。参照フレーム番号の値は、現在のフレーム(600)から時間的に離れるに従って大きくなる。
本発明の原理に基づけば、フレームとして符号化されるBピクチャは、前方及び後方の複数参照ピクチャを有することができる。前方及び後方の参照ピクチャに対して固有の番号が割り当てられる。
動き補償アルゴリズムを有する時間的予測においては、フレームとして符号化されたピクチャ内の各画素に対してサブピクセル補間法(sub-pel interpolation)を適用する。フレーム境界の画素を繰り返すことにより、フレームとして符号化された参照ピクチャにパディング処理(Padding)を施すこともできる。動き補償アルゴリズムを有する時間的予測において、パディング処理を行うことが望ましい場合がある。隣接するブロック間の境界において不連続な画素値の原因となるフレームブロックに対しては、ループフィルタリング又は逆ブロック化処理(de-blocking)を適用することができる。
本発明の他の実施例では、Pピクチャ内のマクロブロックは、AFF符号化においてスキップ(skip)することができる。マクロブロックをスキップすると、そのデータは、ピクチャの符号化において伝送されない。Pピクチャ内のスキップされたマクロブロックは、フレームとして時間的に最も近く符号化されたI参照ピクチャ又はP参照ピクチャ内の動き補償により同じ位置とされた(co-located)マクロブロックをコピーすることによって再構築される。
フィールドモード符号化では、既に符号化されたピクチャを参照フィールドとして用いる。参照フィールドとしては、符号化されたIフィールド、Pフィールド又はBフィールドの何れも使用することができる。参照フィールドは、エンコーダの一部であるフィールドバッファに記憶される。本発明の実施例では、2つのフィールドとして符号化された現在のピクチャからの距離に応じて、フレームバッファ内の各参照フレームに固有の参照フレーム番号を割り当てる。図7(a)及び図7(b)は、参照フィールドの番号付けの具体例を示しており、ここでは、本発明の実施例として、現在のフィールドと同じフィールドパリティの参照フィールドには、対応するセカンドフィールドよりも小さい番号を付している。2つのフィールドは、ともにトップフィールドであるか又はともにボトムフィールドであれば、同じフィールドパリティを有する。図7(a)及び図7(b)の具体例では、符号化される現在のピクチャのファーストフィールドがトップフィールドの場合、参照ピクチャのファーストフィールドもまたトップフィールドである。この場合、セカンドフィールドは、ボトムフィールドである。ファーストフィールドは、全てボトムフィールドであってもよく、セカンドフィールドは、全てトップフィールドであってもよい。
図7(a)に示すように、フィールド(700)として符号化する現在のピクチャは、フィールドバッファ(701)内に多くの参照フィールド(0〜10)を有する。f1の符号が付された破線は、ファーストフィールドを示しており、f2の符号が付された破線は、セカンドフィールドを示している。また、図7(a)では、これらのフィールドに対応するフレームを実線で示している。図7(a)に示すように、現在のフィールド(700)が、符号化するピクチャのファーストフィールドである場合、フィールドバッファ(701)内の最初のピクチャのファーストフィールドには、番号0が割り当てられ、フィールドバッファ(701)内の最初のピクチャのセカンドフィールドには、番号1が割り当てられる。参照フィールドの番号は、参照フィールドが現在のフィールド(700)から時間的に離れるにつれて大きくなる。フィールドバッファ内のピクチャのファーストフィールドには、対応するセカンドフィールドより小さい番号が付される。
図7(b)は、現在のフィールド(702)が、2つのフィールドとして符号化するピクチャのセカンドフィールドである場合の参照フィールドの番号付けの具体例を示している。f1の符号が付された破線は、ファーストフィールドを示しており、f2の符号が付された破線は、セカンドフィールドを示している。現在のピクチャのファーストフィールドは、既に符号化されている。図7(b)に示すように、現在のフィールド(702)は、セカンドフィールドであるので、フィールドバッファ(701)内の最初のピクチャのセカンドフィールドには参照番号0を割り当てる。現在のピクチャにおいて最初に符号化されるフィールドには番号0を割り当てる。参照フィールドの番号は、参照フィールドが現在のフィールド(702)から時間的に離れるにつれて大きくなる。フィールドバッファ内のピクチャのファーストフィールドには、対応するセカンドフィールドより小さい番号が付される。
図8は、本発明の実施例に基づくフィールドバッファにおける参照フィールドの番号付けの他の具体例を示している。この具体例では、現在のフィールドと同じフィールドパリティのフィールドに優先順位(favoring)を与えない。例えば、図8に示すように、現在のフィールド(800)は、ファーストフィールドである。フィールドバッファ内の最も新しく符号化されたピクチャの最も新しく符号化されたフィールドに参照番号0を割り当てる。参照フィールドの番号は、フィールドパリティにかかわらず、参照フィールドが現在のフィールド(800)から時間的に離れるにつれて大きくなる。
本発明の他の実施例では、エンコーダが特定のPピクチャに対してフィールド符号化を選択した場合、エンコーダは、参照フィールドとして符号化されたファーストフィールドを用いて、セカンドフィールドを符号化することができる。ピクチャがBピクチャである場合、符号化されたファーストフィールドは、セカンドフィールドを符号化するための2つの参照フィールドのうちの1つとして用いることができる。
適応両方向予測(adaptive bi-prediction:以下、ABPという。)では、2つの参照ピクチャをフィールドモードで符号化することができる。この場合、フィールド間隔を用いて、換算動きベクトル(scaled motion vectors)を計算する。ABP符号化では、2つの参照ピクチャが同じ時間方向にある。
動き補償アルゴリズムを有する時間的予測では、フィールドモードで符号化されたピクチャ内の各画素に対してサブピクセル補間法を適用する。フレーム境界の画素を繰り返すことにより、フレームとして符号化された参照ピクチャにパディング処理を施すこともできる。動き補償アルゴリズムを有する時間的予測において、パディング処理を行うことが望ましい場合がある。隣接するブロック間の境界において不連続な画素値の原因となるフレームブロックに対しては、ループフィルタリング又は逆ブロック化処理を適用することができる。
本発明の他の実施例では、Pピクチャ内のマクロブロックは、AFF符号化においてスキップすることができる。マクロブロックをスキップすると、そのデータは、ピクチャの符号化において伝送されない。Pピクチャ内のスキップされたマクロブロックは、同じフィールドパリティの時間的に最も近く符号化されたI参照フィールド又はP参照フィールド内の動き補償により同じ位置とされたマクロブロックをコピーすることによって再構築される。他の実施例では、Pピクチャ内のスキップされたマクロブロックは、時間的に最も近くに符号化された参照フィールド内の同じ位置のマクロブロックをコピーすることによって再構築される。この参照フィールドは、異なるフィールドパリティを有していてもよい。
本発明の他の実施例では、Bピクチャに対しダイレクトモード符号化(direct mode coding)を行う。ダイレクトモード符号化では、Bピクチャ内のマクロブロックの前方動きベクトル及び後方動きベクトルは、後方参照ピクチャの対応するマクロブロック又は後方参照ピクチャの同じ位置のマクロブロックから導出される。2つのピクチャ内の同じ位置のマクロブロックは、両ピクチャにおいて同じ幾何学的位置を占めている。後方参照ピクチャは、前方参照ピクチャとして参照されることがあり、本発明の実施例において、後方参照ピクチャは、符号化されている現在のピクチャに対して時間的に前方にあるというわけではない。
ダイレクトモード符号化が他の符号化方法よりも優れているのは、マクロブロックがインターモード符号化(inter mode coding)において最大16個の動きベクトルと最大4個の参照フレームを有することができる点である。インターモード符号化では、動き補償を有する時間的予測によってマクロブロックを符号化する。インターモード符号化によってマクロブロックを符号化する場合、MPEG−4 Part10 AVC/H.264規格では、図3(a)〜図3(f)に示すより小さな6つのブロックサイズ(16×8画素、8×16画素、8×8画素、8×4画素、4×8画素、4×4画素)が、それ自体の動きベクトルを有することができる。また、16×16画素のブロックサイズもそれ自体の動きベクトルを有することができる。また、MPEG−4 Part10 AVC/H.264規格では、16×16画素、16×8画素、8×8画素のブロックサイズが、それ自体の参照フレームを有することもできる。したがって、マクロブロックは、最大16個の動きベクトルと最大4個の参照フレームを有することができる。このように、多数の動きベクトルを用いることができるため、後方参照ピクチャにおいて既に算出されている同じ位置のマクロブロックの動きベクトルから、符号化するマクロブロックの動きベクトルを導出するという利点がある。ダイレクトモード符号化において、符号化するマクロブロックの前方動きベクトル及び後方動きベクトルは、後方参照ピクチャ内の同じ位置のマクロブロックの前方動きベクトルの換算値(scaled versions)として算出される。
ピクチャレベルでのAFF符号化では、Bピクチャ及びBピクチャの後方参照ピクチャは、それぞれフレームモードでもフィールドモードでも符号化することができる。したがって、フレーム及びフィールド符号化モードに関して、Bピクチャにおけるマクロブロックと、Bピクチャの後方参照ピクチャ内の同じ位置のマクロブロックとの対に対して、4つの異なる組合せが可能である。第1の組合せは、現在のマクロブロックとこのマクロブロックと同じ位置のマクロブロックがともにフレームモードである場合である。第2の組合せは、現在のマクロブロックとこのマクロブロックと同じ位置のマクロブロックがともにフィールドモードである場合である。第3の組合せは、現在のマクロブロックがフィールドモードであり、このマクロブロックと同じ位置のマクロブロックがフレームモードである場合である。第4の組合せは、現在のマクロブロックがフレームモードであり、このマクロブロックと同じ位置のマクロブロックがフィールドモードである場合である。符号化するマクロブロックの動きベクトルをダイレクトモードで計算する方法は、4つの組合せ毎に異なっている。Bピクチャ内のマクロブロックについてダイレクトモードで動きベクトルを計算する4つの方法を以下に詳細に説明する。
まず、第1の組合せにおけるダイレクトモード動きベクトルの計算について、図9を用いて説明する。図9に示すように、現在のBピクチャ(900)は、フレームモードで符号化された後方参照ピクチャ(901)及び前方参照ピクチャ(902)を参照ピクチャとして使用して、フレームモードで符号化される。図9では、フレームを垂直の実線で示し、これらに対応するフィールドf1、f2を垂直の破線で示している。本発明の実施例では、後方参照ピクチャ(901)は、フレームモードで符号化されたIピクチャ、Pピクチャ、Bピクチャの何れであってもよい。同様に、前方参照ピクチャ(902)もまたIピクチャ、Pピクチャ、Bピクチャの何れであってもよい。
図9に示すように、現在のBピクチャ(900)にはブロック(903)が含まれ、後方参照ピクチャ(901)にはブロック(903)と同じ位置のブロック(904)が含まれている。ブロック(903)及び同じ位置のブロック(904)は、等しい画素範囲を有している。これらの画素範囲は、16×16画素、16×8画素、8×16画素、8×8画素、8×4画素、4×8画素、又は4×4画素とすることができる。本発明の実施例では、エンコーダは、動き補償アルゴリズムを有する時間的予測において使用される現在のBピクチャ(900)内のブロック(903)に対して、2つの動きベクトルを導出する。一方の動きベクトルMVは、フレームモードで符号化された前方参照ピクチャ(902)を指している。他方の動きベクトルMVは、フレームモードで符号化された後方参照ピクチャ(901)を指している。これらの2つの動きベクトルは、以下の式(1)及び式(2)によって算出される。
Figure 2005510984
Figure 2005510984
式(1)及び式(2)において、TRは、フレームモードで符号化する現在のBピクチャ(900)とフレームモードで符号化された前方参照ピクチャ(902)との間の時間的距離、時間的距離の近似値、時間的距離に比例した値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。TRは、フレームモードで符号化された前方参照ピクチャ(902)とフレームモードで符号化された後方参照ピクチャ(901)との間の時間的距離、時間的距離の近似値、時間的距離に比例した値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。参照ピクチャ間の時間的距離を計算する好ましい方法については、後述する。MVは、後方参照ピクチャ(901)内の同じ位置のブロック(904)のために既に算出された動きベクトルであり、フレームモードで符号化された前方参照ピクチャ(902)を指している。
次に、第2の組合せにおけるダイレクトモードでの動きベクトルの計算について、図10及び図11を用いて説明する。図10及び図11に示すように、現在のBピクチャ(900)は、フィールドモードで符号化された後方参照ピクチャ(901)及び前方参照ピクチャ(902)を参照ピクチャとして使用して、フィールドモードで符号化される。図10及び図11では、フレームを垂直の実線で示し、これらに対応するフィールドf1、f2を垂直の破線で示している。本発明の実施例では、後方参照ピクチャ(901)は、フィールドモードで符号化されたIピクチャ、Pピクチャ、Bピクチャの何れであってもよい。同様に、前方参照ピクチャ(902)もまたIピクチャ、Pピクチャ、Bピクチャの何れであってもよい。
図10に示すように、現在のBピクチャ(900)のファーストフィールドにはブロック(905)が含まれている。ブロック(905)の動きベクトルは、後方参照ピクチャ(901)内の同じ位置のブロック(906)の前方動きベクトルMVから算出される。図10に示す実施例によれば、同じ位置のブロック(906)は、現在のBピクチャ(900)内のブロック(905)と同じパリティのフィールドにある。ブロック(905)及び同じ位置のブロック(906)は、等しい画素範囲を有する。これらの画素範囲は、16×16画素、16×8画素、8×16画素、8×8画素、8×4画素、4×8画素、又は4×4画素とすることができる。
本発明の実施例では、エンコーダは、動き補償アルゴリズムを有する時間的予測において使用される現在のBピクチャ(900)内のブロック(905)に対して、2つの動きベクトルを導出する。一方の動きベクトルMVF,1は、動きベクトルMVが指すフィールドモードで符号化された前方参照ピクチャ(902)のフィールドを指している。他方の動きベクトルMVB,1は、後方参照ピクチャ(901)内の同じ位置のブロック(906)のフィールドを指している。これらの2つの動きベクトルは、以下の式(3)及び式(4)によって算出される。
Figure 2005510984
Figure 2005510984
式(3)及び式(4)に示す下付き添字のiは、フィールド指標(field index)である。ファーストフィールドのフィールド指標は、1であり、セカンドフィールドのフィールド指標は、2である。したがって、図10に示す具体例では、ファーストフィールドが符号化されているので、フィールド指標は、1である。MVは、後方参照ピクチャ(901)のフィールドiにおける同じ位置のマクロブロックの前方動きベクトルである。TRB,iは、現在のBピクチャ(900)のi番目のフィールドとMVによって指された参照フィールドとの間の時間的距離、時間的距離の近似値、時間的距離に比例した値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。TRD,iは、後方参照ピクチャ(901)とMVによって指された参照フィールドとの間の時間的距離、時間的距離の近似値、時間的距離に比例した値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。
図10に示すように、現在のBピクチャ(900)のセカンドフィールドには、他のブロック(907)がある。このブロック(907)は、後方参照ピクチャ(901)のセカンドフィールド内の同じ位置のブロック(908)を有している。同じ位置のブロック(908)の前方動きベクトルが、その同じ位置のブロック(908)の属するピクチャ以外の何れかのピクチャの予め符号化されたフィールドを指している場合、前方動きベクトル及び後方動きベクトルは、フィールド指標を2とした式(3)及び式(4)によって算出される。
なお、本発明の実施例では、後方参照ピクチャ(901)のセカンドフィールド内の同じ位置のブロック(908)の前方動きベクトルは、図11に示すように、同じ後方参照ピクチャ(901)のファーストフィールドを指すことができる。図11は、同じ位置のブロック(908)が後方参照ピクチャ(901)のファーストフィールドを指す前方動きベクトルMVを有することを示している。この場合、現在のブロック(907)のための2つの動きベクトルは、以下の式によって算出される。
Figure 2005510984
Figure 2005510984
式(5)及び式(6)におけるTRB,2は、現在のBピクチャ(900)のセカンドフィールドとMVによって指された参照フィールドとの間の時間的距離、時間的距離の近似値、時間的距離に比例した値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。TRD,2は、後方参照ピクチャ(901)のセカンドフィールドとMVによって指された参照フィールドとの間の時間的距離、時間的距離の近似値、時間的距離に比例した値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。この場合、図11に示すように、両動きベクトルは、後方を指している。
次に、第3の組合せにおけるダイレクトモード動きベクトルの計算について、図12を用いて説明する。図12に示すように、現在のBピクチャ(900)は、フレームモードで符号化された後方参照ピクチャ(901)及び前方参照ピクチャ(902)を参照ピクチャとして使用して、フィールドモードで符号化される。図12では、フレームを垂直の実線で示し、これらに対応するフィールドf1、f2を垂直の破線で示している。本発明の実施例では、後方参照ピクチャ(901)は、フレームモードで符号化されたIピクチャ、Pピクチャ、Bピクチャの何れであってもよい。同様に、前方参照ピクチャ(902)もまたIピクチャ、Pピクチャ、Bピクチャの何れであってもよい。
図12に示すように、現在のBピクチャ(900)のファーストフィールドには、ブロック(905)が含まれる。図12に示す実施例においては、同じ位置のブロック(904)は、フレームモードで符号化されている。本発明の実施例では、エンコーダは、動き補償アルゴリズムを有する時間的予測において使用される現在のBピクチャ(900)内のブロック(905)に対して、2つの動きベクトルを導出する。図12に示すように、一方の動きベクトルMVF,1は、現在のブロック(905)のフィールドパリティと同じパリティを有する前方参照ピクチャ(902)のフィールドを指している。図12に示す具体例では、現在のブロック(905)は、現在のBピクチャ(900)のファーストフィールドにある。他方の動きベクトルMVB,1は、後方参照ピクチャ(901)において同じパリティのフィールドを指している。これらの2つの動きベクトルは、以下の式(7)及び式(8)によって算出される。
Figure 2005510984
Figure 2005510984
式(7)及び式(8)において、MVは、同じ位置のブロック(904)のフレームベースの前方動きベクトルを垂直方向において2で除算することによって算出される。これにより、現在のブロック(905)がフィールドモードであり、同じ位置のブロック(904)がフレームモードであるという事実を補正している。下付き添字iは、フィールド指標である。ファーストフィールドのフィールド指標は、1であり、セカンドフィールドのフィールド指標は、2である。したがって、図12に示す具体例では、ファーストフィールドが符号化されているので、フィールド指標は、1である。TRB,iは、後方参照ピクチャ(901)のi番目のフィールドと前方参照フレーム(902)のi番目のフィールドとの間の時間的距離、時間的距離の近似値、時間的距離に比例した値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。TRは、現在のBピクチャ(900)のi番目のフィールドと後方参照ピクチャ(901)内の同じ位置のブロック(904)のフレームとの間の時間的距離、時間的距離の近似値、時間的距離に比例した値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。現在のBピクチャ(900)のセカンドフィールド内のブロック(907)のための動きベクトルの算出にも同様の数式が用いられる。
第4の組合せにおけるダイレクトモード動きベクトルの計算について、図13を用いて説明する。図13に示すように、現在のBピクチャ(900)は、フィールドモードで符号化された後方参照ピクチャ(901)及び前方参照ピクチャ(902)を参照ピクチャとして使用して、フレームモードで符号化される。図13では、フレームを垂直の実線で示し、これらに対応するフィールドf1、f2を垂直の破線で示している。本発明の実施例では、後方参照ピクチャ(901)は、フィールドモードで符号化されたIピクチャ、Pピクチャ、Bピクチャの何れであってもよい。同様に、前方参照ピクチャ(902)もまたIピクチャ、Pピクチャ、Bピクチャの何れであってもよい。
図13に示すように、フレームとして符号化する現在のBピクチャ(900)には、ブロック(903)が含まれている。このブロック(903)の動きベクトルは、後方参照ピクチャ(901)内の同じ位置のブロック(906)の前方動きベクトルMVから算出される。本発明の実施例では、エンコーダは、動き補償アルゴリズムを有する時間的予測において使用される現在のBピクチャ(900)内の現在のブロック(903)に対して、2つの動きベクトルを導出する。2つの動きベクトルは、以下の式(9)及び式(10)によって算出される。
Figure 2005510984
Figure 2005510984
式(9)及び式(10)において、MV1は、後方参照ピクチャ(901)のファーストフィールド内の同じ位置のブロック(906)のフィールドベースの動きベクトルを垂直方向に2倍にすることによって算出される。TRは、同じ位置のブロック(906)の前方動きベクトルが指している前方参照ピクチャ(902)におけるフィールドに対応する参照フレーム間の時間的距離、時間的距離の近似値、時間的距離に比例した値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。図13では、動きベクトルをMVとして表している。TRD,1は、後方参照ピクチャ(901)のファーストフィールド内の同じ位置のブロック(906)の前方動きベクトルが指している前方参照ピクチャ(902)におけるフィールドとの間の時間的距離、時間的距離の近似値、時間的距離に比例した値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。
本発明の他の実施例では、Pピクチャに対するダイレクトモード符号化を拡張する。ピクチャレベルでのAFF符号化では、Pピクチャ及びPピクチャの後方参照ピクチャは、フレームモードでもフィールドモードでも符号化することができる。したがって、フレーム及びフィールド符号化モードに関して、PピクチャにおけるマクロブロックとPピクチャの後方参照ピクチャ内の同じ位置のマクロブロックとの対に対して、4つの異なる組合せが可能である。第1の組合せは、現在のマクロブロックとこのマクロブロックと同じ位置のマクロブロックがともにフレームモードである場合である。第2の組合せは、現在のマクロブロックとこのマクロブロックと同じ位置のマクロブロックがともにフィールドモードである場合である。第3の組合せは、現在のマクロブロックがフィールドモードであり、このマクロブロックと同じ位置のマクロブロックがフィールドモードである場合である。第4の組合せは、現在のマクロブロックがフレームモードであり、このマクロブロックと同じ位置のマクロブロックがフィールドモードである場合である。Pピクチャ内のブロックは、前方動きベクトルだけを有する。符号化するマクロブロックの動きベクトルをダイレクトモードで計算する方法は、4つの組合せ毎に異なっている。Bピクチャ内のマクロブロックについてダイレクトモードで動きベクトルを計算する4つの方法を以下に詳細に説明する。
第1の組合せでは、現在のPピクチャとこのPピクチャの後方参照ピクチャがともにフレームモードで符号化される。現在のPピクチャ内のブロックのための前方参照ピクチャは、後方参照ピクチャ内のこのブロックと同じ位置のブロックによって用いられたのと同じピクチャである。したがって、現在のブロックの前方動きベクトルであるMVは、このブロックと同じ位置のブロックの前方動きベクトルと同じである。
第2の組合せでは、PピクチャとこのPピクチャの後方参照ピクチャは、ともにフィールドモードで符号化される。現在のPピクチャのフィールド内のブロックのダイレクトモード符号化における動きベクトルは、後方参照ピクチャの同じパリティを有するフィールド内の同じ位置のブロックの前方動きベクトルから算出される。現在のPピクチャのi番目のフィールド内のブロックのための前方動きベクトルMVF,iは、後方参照ピクチャのi番目のフィールド内の同じ位置のブロックの前方動きベクトルと同じである。
第3の組合せでは、現在のPピクチャは、フィールドモードであり、後方参照ピクチャは、フレームモードである。現在のPピクチャのフィールドの1つにおけるブロックと同じ位置のブロックは、フレーム符号化されているので、現在のPピクチャのフィールドの1つにおけるブロックの前方動きベクトルは、同じ位置のブロックの動きベクトルを垂直方向において2で除算することで算出される。
第4の組合せでは、現在のPピクチャは、フレームモードであり、後方参照ピクチャは、フィールドモードである。後方参照ピクチャのファーストフィールド内の同じ位置のブロックは、フレームモードである現在のPピクチャ内のブロックの前方動きベクトルを算出するために用いられる。フレームモードでの現在のPピクチャ内のブロックの前方動きベクトルMVは、後方参照ピクチャのファーストフィールド内の同じ位置のブロックのフィールドベースの動きベクトルを垂直方向において2倍にすることによって算出される。
本発明の他の実施例として、マルチフレーム補間予測モード(multi-frame interpolative prediction mode:以下、MFIPという。)がある。MFIPは、包括的なフレーム補間予測のフレームワークである。上述したように、フレームモード又はフィールドモードで符号化されるBピクチャは、フレームモード又はフィールドモードで符号化された2つの参照ピクチャを有している。2つの参照ピクチャは、図14に示すように、ともに前方ピクチャとすることができる。図14は、2つの参照ピクチャを有する、符号化するBピクチャ(140)を示している。参照ピクチャの一方は、前方参照ピクチャ(141)であり、他方は、後方参照ピクチャ(142)である。図14に示すように、これらの参照ピクチャは、ともに時間的に前方にある。また、2つの参照ピクチャは、図15に示すように、ともに時間的に後方にあってもよい。図15において、Bピクチャ(140)は、時間的に後方にある前方参照ピクチャ(141)と後方参照ピクチャ(142)を有している。本発明の他の実施例を図16に示す。図16に示すように、Bピクチャ(140)は、時間的に前方にある前方参照ピクチャ(141)と、時間的に後方にある後方参照ピクチャ(142)とを有することができる。
MFIPでは、予測信号は、動き補償信号を線形補間したものである。BピクチャのMFIPによる予測信号(pred)は、以下の式(11)で算出される。
Figure 2005510984
式(11)において、変数ref及び変数refは、2つの参照ピクチャである。変数w及び変数wは、重み係数である。変数dは、デフォルトではゼロに設定されている。線形補間係数w、w、dは、各マクロブロック毎に明確に決定することができる。参照ピクチャref、refがともに前方参照ピクチャ又はともに後方ピクチャであれば、参照ピクチャrefは、Bピクチャに時間的距離でより近い参照ピクチャである。両方向参照ピクチャの場合、参照ピクチャref、refは、それぞれ前方参照ピクチャと後方参照ピクチャである。
MFIPマクロブロックの両動きベクトルは、互いに関連して符号化される。参照ピクチャrefの動きベクトルMVは、以下の式(12)を用いて、参照ピクチャrefの換算動きベクトルMVにオフセットDMVを加えることによって生成される。
Figure 2005510984
式(12)では、変数DMVは、データ動きベクトル(data motion vector)であり、オフセットを表している。変数TR、TRは、現在のピクチャと、最も近い参照ピクチャref及び最も遠い参照ピクチャrefのそれぞれとの間の時間的距離、時間的距離の近似値、時間的距離に比例した距離、又は時間的距離の近似値に比例した近似値である。
ピクチャレベルでのAFFにおいては、Bピクチャは、1つのBフレームピクチャ又は2つのBフィールドピクチャとして符号化される。符号化する現在のBピクチャとフィールド構造におけるBピクチャの参照ピクチャを用いて、フィールドモードでMFIPを扱う際の規則について以下に示す。
式(11)によって予測信号が生成されるが、ここでは、ref及びrefは、ref_idx_fwd及びref_idx_bwdという参照フィールド番号によって示されるフィールドである。フィールドref、refは、それぞれトップフィールド又はボトムフィールドの何れであってもよい。重み係数の初期値w、wは、それぞれ(0.5,0.5,0)及び(2,−1,0)である。
式(12)によってMVが生成される。2つの参照ピクチャは、フィールド構造であるので、TR及びTRは、参照フィールドと現在のフィールド間の時間的距離に基づいて決定される。
MFIPモードにおける参照フィールド番号ref_idx_fwd、ref_idx_bwdを表すコード番号は、フィールドピクチャにおける周知及び通常の取り決めに従う。
AFF符号化におけるピクチャ間の時間的距離は、時間的参照値(TR)である変数を用いることによって、又はピクチャ番号をカウントし、ピクチャの差分を計算することによって算出することができる。本発明の実施例では、ピクチャレベルのAFFについて、TRをフィールド毎に1ずつ増加し、定数(例えば、256)でリセットする。すなわち、TRは、フィールド間隔(in field interval)である。ここで、フレームインデックス又はフレーム番号をnとする。変数nは、フレーム毎に1ずつ増加する。フレームインデックスnを有するフレームがフレームモードで符号化されると、このフレームのTRは、2nになる。また、フレームインデックスnを有するフレームがフィールドモードで符号化されると、このフレームのファーストフィールドのTRは、2nになり、セカンドフィールドのTRは、2n+1になる。
上述の説明は、本発明の実施の形態の一例を例示的に示したものであって、発明を完全に包括し限定することを意図したものではない。上述した記載に基づいて、多くの変形及び変更が可能である。
上述の実施の形態は、本発明の原理及び幾つかの実際的な応用例を例示的に示すために選択されたものである。上述の説明により、当業者は、様々な形態で本発明を利用することができ、個々の用途に応じて様々な変形例を想到することができる。本発明は、添付の特許請求の範囲によって定義される。
MPEG−4 Part10 AVC/H.264規格を始めとする代表的なビデオ符号化規格に規定され、本発明を実施するのに用いられる代表的な3つのピクチャタイプのシーケンスを示す図である。 本発明に基づき、各ピクチャがマクロブロックを含むスライスに分割されることを示す図である。 本発明に基づき、マクロブロックを16×8画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックを8×16画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックを8×8画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックを16×4画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックを4×8画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックを4×4画素のブロックに分割できることを示す図である。 本発明に基づく動き補償を有する時間的予測を用いたピクチャ構成の具体例を説明する図である。 本発明に基づく動きベクトルを有する時間的予測において複数参照ピクチャを用いることの利点を説明する例示的なピクチャストリームを示す図である。 本発明に基づき、フレームモードで符号化する現在のピクチャからの距離に応じてフレームバッファ内における各参照ピクチャに固有の参照フレーム番号が割り当てられることを説明する図である。 本発明に基づき、現在のフィールドと同じフィールドパリティの参照フィールドに対し、対応するセカンドフィールドよりも小さい番号を与える参照フィールドの番号付けを説明する図である。 現在のフィールドが、2つのフィールドとして符号化するピクチャのセカンドフィールドである場合の参照フィールドの番号付けを説明する図である。 本発明に基づき、フィールドバッファにおける相互参照フィールドの番号付けの他の例を示す図である。 現在のマクロブロックと、同じ位置のマクロブロックとがともにフレームモードにある場合において、動きベクトルをダイレクトモードで算出する方法を説明する図である。 現在のマクロブロックと、同じ位置のマクロブロックとがともにフィールドモードにある場合において、動きベクトルをダイレクトモードで算出する方法を説明する図である。 現在のマクロブロックと、同じ位置のマクロブロックとがともにフィールドモードにある場合において、動きベクトルをダイレクトモードで算出する他の方法を説明する図である。 現在のマクロブロックがフィールドモードであり、同じ位置のマクロブロックがフレームモードである場合において、動きベクトルをダイレクトモードで算出する方法を説明する図である。 現在のマクロブロックがフレームモードであり、同じ位置のマクロブロックがフィールドモードである場合において、動きベクトルをダイレクトモードで算出する方法を説明する図である。 本発明の実施例において、時間的に前方にある2つの参照ピクチャを有するBピクチャを示す図である。 本発明の実施例において、時間的に後方にある2つの参照ピクチャを有するBピクチャを示す図である。 時間的に前方にある前方参照ピクチャと時間的に後方にある後方参照ピクチャとを有するBピクチャを示す図である。

Claims (7)

  1. より小さいブロックに分割されるマクロブロックを含み、イントラピクチャ、予測ピクチャ又は両方向予測ピクチャとすることができるピクチャのストリームからなるデジタルビデオコンテンツを符号化又は復号する符号化又は復号方法において、
    上記ピクチャのストリーム内の上記各ピクチャをフレームモード又はフィールドモードで符号化するステップを有する符号化又は復号方法。
  2. 上記ピクチャのストリーム内の上記両方向予測ピクチャをダイレクトモードで符号化又は復号するステップを更に有する請求項1記載の符号化又は復号方法。
  3. 上記ピクチャのストリーム内の上記両方向予測ピクチャに含まれるマクロブロックを分割した更に小さい各ブロックのための前方動きベクトル及び後方動きベクトルを導出するステップを更に有する請求項2記載の符号化又は復号方法。
  4. 上記ピクチャのストリームの上記予測ピクチャをダイレクトモードで符号化又は復号するステップを更に有することを特徴とする請求項1記載の符号化又は復号方法。
  5. 上記ピクチャのストリームの上記予測ピクチャに含まれるマクロブロックを分割した更に小さい各ブロックのための前方動きベクトル及び後方動きベクトルを導出するステップを更に有する請求項2記載の符号化又は復号方法。
  6. 上記動きベクトルの導出に使用される時間的差分を計算するステップ更に有する請求項1記載の符号化又は復号方法。
  7. 上記ピクチャのストリームの上記ピクチャをマルチフレーム補完予測モードで符号化するステップを更に有する請求項1記載の符号化又は復号方法。
JP2003548552A 2001-11-21 2002-11-21 デジタルビデオコンテンツのためのピクチャレベルの適応フレーム/フィールド符号化 Pending JP2005510984A (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US33300401P 2001-11-21 2001-11-21
US33392101P 2001-11-27 2001-11-27
US39570802P 2002-07-12 2002-07-12
US39571702P 2002-07-12 2002-07-12
US10/301,203 US20030099294A1 (en) 2001-11-27 2002-11-20 Picture level adaptive frame/field coding for digital video content
PCT/US2002/037593 WO2003047271A2 (en) 2001-11-21 2002-11-21 Picture level adaptive frame/field coding for digital video signal

Publications (2)

Publication Number Publication Date
JP2005510984A true JP2005510984A (ja) 2005-04-21
JP2005510984A5 JP2005510984A5 (ja) 2007-11-22

Family

ID=27540864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003548552A Pending JP2005510984A (ja) 2001-11-21 2002-11-21 デジタルビデオコンテンツのためのピクチャレベルの適応フレーム/フィールド符号化

Country Status (9)

Country Link
EP (5) EP2268038A1 (ja)
JP (1) JP2005510984A (ja)
KR (2) KR101076506B1 (ja)
CN (5) CN101715136B (ja)
AU (1) AU2002365337A1 (ja)
CA (1) CA2468086C (ja)
MX (1) MXPA04004723A (ja)
NO (1) NO339086B1 (ja)
WO (1) WO2003047271A2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251497A (ja) * 2006-03-15 2007-09-27 Fujitsu Ltd 動画像符号化方法、動画像符号化装置、動画像符号化プログラム
JP2008048199A (ja) * 2006-08-17 2008-02-28 Fujitsu Ltd 動き予測処理装置、画像符号化装置および画像復号化装置
JP2010062769A (ja) * 2008-09-02 2010-03-18 Fujitsu Ltd 符号化装置および復号装置
JP2011009949A (ja) * 2009-06-24 2011-01-13 Toshiba Corp 映像処理装置及び映像処理方法
WO2011111372A1 (ja) * 2010-03-09 2011-09-15 パナソニック株式会社 動画像符号化装置および動画像符号化方法
JP2011199362A (ja) * 2010-03-17 2011-10-06 Fujitsu Ltd 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JPWO2014051081A1 (ja) * 2012-09-28 2016-08-25 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0206305B1 (pt) 2001-11-06 2018-01-30 Panasonic Intellectual Property Corporation Of America "image decoding method"
JP2004088722A (ja) 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
WO2003090473A1 (fr) 2002-04-19 2003-10-30 Matsushita Electric Industrial Co., Ltd. Procede de calcul de vecteurs de mouvement
ES2644005T3 (es) * 2002-04-19 2017-11-27 Panasonic Intellectual Property Corporation Of America Procedimiento de cálculo de vectores de movimiento
AU2005203096B2 (en) * 2003-03-03 2007-11-29 Lg Electronics Inc. Method of selecting a reference picture
GB2436981B (en) * 2003-03-03 2007-11-21 Lg Electronics Inc Method of selecting a reference picture
KR100693669B1 (ko) * 2003-03-03 2007-03-09 엘지전자 주식회사 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법
CN100344163C (zh) * 2004-06-16 2007-10-17 华为技术有限公司 视频编解码处理方法
CN101677402B (zh) * 2004-09-16 2012-04-18 汤姆逊许可证公司 用于快速视频帧和场编码的方法和装置
EP1809042A1 (en) * 2006-01-13 2007-07-18 THOMSON Licensing Method and apparatus for coding interlaced video data
US8711901B2 (en) * 2007-03-12 2014-04-29 Vixs Systems, Inc. Video processing system and device with encoding and decoding modes and method for use therewith
CN102823248B (zh) 2010-04-08 2015-06-24 株式会社东芝 图像编码方法以及图像编码装置
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
JP2013121020A (ja) * 2011-12-06 2013-06-17 Sony Corp 画像処理装置および方法
WO2017036399A1 (en) * 2015-09-02 2017-03-09 Mediatek Inc. Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques
CN106529634B (zh) * 2015-09-10 2019-10-01 原相科技股份有限公司 利用图样进行编码与解码的方法及其系统
KR20180001925U (ko) 2016-12-19 2018-06-27 주식회사 한국가스기술공사 정압기용 튜브코어 조립 지그

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6968003B1 (en) * 1996-01-29 2005-11-22 International Business Machines Corporation Speed-memory tradeoff for MPEG decoders
CN1297147C (zh) * 1997-03-07 2007-01-24 通用仪器公司 对交错数字视频的双向预测的视频目标平面的预测和编码
EP0921683B1 (en) * 1997-12-02 2010-09-08 Daewoo Electronics Corporation Method and apparatus for encoding mode signals for use in a binary shape coder

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251497A (ja) * 2006-03-15 2007-09-27 Fujitsu Ltd 動画像符号化方法、動画像符号化装置、動画像符号化プログラム
JP4527677B2 (ja) * 2006-03-15 2010-08-18 富士通株式会社 動画像符号化方法、動画像符号化装置、動画像符号化プログラム
JP4592656B2 (ja) * 2006-08-17 2010-12-01 富士通セミコンダクター株式会社 動き予測処理装置、画像符号化装置および画像復号化装置
JP2008048199A (ja) * 2006-08-17 2008-02-28 Fujitsu Ltd 動き予測処理装置、画像符号化装置および画像復号化装置
US8576912B2 (en) 2008-09-02 2013-11-05 Fujitsu Limited Encoding apparatus and decoding apparatus
JP2010062769A (ja) * 2008-09-02 2010-03-18 Fujitsu Ltd 符号化装置および復号装置
US8761256B2 (en) 2008-09-02 2014-06-24 Fujitsu Limited Encoding apparatus and decoding apparatus
US8971409B2 (en) 2008-09-02 2015-03-03 Fujitsu Limited Encoding apparatus and decoding apparatus
JP2011009949A (ja) * 2009-06-24 2011-01-13 Toshiba Corp 映像処理装置及び映像処理方法
US8358918B2 (en) 2009-06-24 2013-01-22 Kabushiki Kaisha Toshiba Video processing apparatus and video processing method
WO2011111372A1 (ja) * 2010-03-09 2011-09-15 パナソニック株式会社 動画像符号化装置および動画像符号化方法
JP2011199362A (ja) * 2010-03-17 2011-10-06 Fujitsu Ltd 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JPWO2014051081A1 (ja) * 2012-09-28 2016-08-25 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法

Also Published As

Publication number Publication date
CN101715136B (zh) 2017-03-29
CN101715136A (zh) 2010-05-26
CN100584028C (zh) 2010-01-20
AU2002365337A8 (en) 2003-06-10
KR20040068143A (ko) 2004-07-30
CN101715138B (zh) 2014-02-05
CN1615656A (zh) 2005-05-11
AU2002365337A1 (en) 2003-06-10
CN101715128B (zh) 2014-01-01
CA2468086A1 (en) 2003-06-05
CN101715137B (zh) 2016-01-27
NO20042543L (no) 2004-07-21
CN101715138A (zh) 2010-05-26
EP1459562A2 (en) 2004-09-22
CN101715137A (zh) 2010-05-26
CA2468086C (en) 2013-08-20
WO2003047271A3 (en) 2004-02-26
EP2268041A1 (en) 2010-12-29
WO2003047271A2 (en) 2003-06-05
KR101076506B1 (ko) 2011-10-24
KR20100047321A (ko) 2010-05-07
EP2285120A1 (en) 2011-02-16
EP2268038A1 (en) 2010-12-29
NO339086B1 (no) 2016-11-14
EP2276261A1 (en) 2011-01-19
CN101715128A (zh) 2010-05-26
MXPA04004723A (es) 2004-07-30

Similar Documents

Publication Publication Date Title
JP6681758B2 (ja) デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
US7769087B2 (en) Picture level adaptive frame/field coding for digital video content
US7310374B2 (en) Macroblock level adaptive frame/field coding for digital video content
KR101076506B1 (ko) 복수의 픽쳐를 갖는 영상 시퀀스의 엔코딩 및 디코딩 방법
JP2005510984A5 (ja)
JP2005510985A5 (ja)
CA2738322C (en) Picture level adaptive frame/field coding for digital video content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091027