Nothing Special   »   [go: up one dir, main page]

JP5247677B2 - ビデオ信号のデコーディング/エンコーディング方法及び装置 - Google Patents

ビデオ信号のデコーディング/エンコーディング方法及び装置 Download PDF

Info

Publication number
JP5247677B2
JP5247677B2 JP2009502690A JP2009502690A JP5247677B2 JP 5247677 B2 JP5247677 B2 JP 5247677B2 JP 2009502690 A JP2009502690 A JP 2009502690A JP 2009502690 A JP2009502690 A JP 2009502690A JP 5247677 B2 JP5247677 B2 JP 5247677B2
Authority
JP
Japan
Prior art keywords
prediction
picture
view
viewpoint
inter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009502690A
Other languages
English (en)
Other versions
JP2009532932A (ja
Inventor
ムーン ジョン,ビョン
ウーク パク,スン
スー クー,ハン
ジューン ジョン,ヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2009532932A publication Critical patent/JP2009532932A/ja
Application granted granted Critical
Publication of JP5247677B2 publication Critical patent/JP5247677B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、ビデオ信号のコーディングに関する技術である。
圧縮エンコーディングとは、デジタル化した情報を通信回線を通じて転送したり、保存媒体に適合した形態で保存する一連の信号処理技術のことを意味する。圧縮エンコーディングの対象には、音声、映像、文字などが存在し、特に映像を対象にして圧縮エンコーディングを行う技術をビデオ映像圧縮と呼ぶ。ビデオ映像の一般的な特徴は、空間的重複性、時間的重複性を有しているという点にある。
本発明は、ビデオ信号のコーディング効率を上げることに関する。
本発明の目的は、ピクチャの視点を識別できる視点情報を定義することによって、ビデオ信号を效率的にコーディングすることにある。
本発明の他の目的は、視点間予測に用いられる参照ピクチャを管理するための方法を提供することによって、ビデオ信号を效率的にコーディングすることにある。
本発明のさらに他の目的は、視点間予測のための参照ピクチャリストを生成する方法を提供することによって、ビデオ信号を效率的にコーディングすることにある。
本発明のさらに他の目的は、視点間予測のための参照ピクチャリストを再配列する方法を提供することによって、ビデオ信号を效率的にコーディングすることにある。
上記目的を達成するために、本発明は、ビデオ信号から参照番号の割当方法を示す識別情報を獲得する段階、この識別情報によって視点間予測のための参照ピクチャが再配列される段階、及び再配列された参照ピクチャを用いてビデオ信号をデコーディングする段階を有し、この参照番号は、参照ピクチャの視点を識別する視点情報を含むことを特徴とするビデオ信号デコーディング方法を提供する。
本発明は、ビデオ信号をコーディングすることにおいて、視点間予測に用いられる参照ピクチャを管理するための方法を提供することによって、より効率的にコーディングを行うことができる。また、視点間予測のための参照ピクチャリストを初期化する方法及び再配列する方法を提供することによって、より効率的にコーディングを行うことができる。本発明によれば、視点間予測を行う時に、DPBの負担を軽減させ、コーディング速度を向上させることができる他、より正確な予測が可能になり、転送するビット数を減少させることが可能になる。
ビデオ信号データを圧縮エンコーディングする技術は、空間的重複性、時間的重複性、スケーラブルな重複性、視点間に存在する重複性を考慮している。また、このような圧縮エンコーディング過程で視点間に存在する相互重複性を考慮して圧縮コーディングをすることができる。視点間重複性を考慮する圧縮コーディングに関する技術は、本発明の実施例に過ぎず、本発明の技術的思想は、時間的重複性、スケーラブルな重複性などにも適用されることができる。
ビデオ信号のビット列構成について説明すると、動画エンコーディング処理それ自体を扱うVCL(Video Coding Layer;ビデオコーディングレイヤ)と、エンコーディングされた情報を転送し保存する下位システムとの間に在るNAL(Network Abstraction Layer;ネットワーク抽象化レイヤ)との分離したレイヤ構造と定義されている。エンコーディング過程の出力はVCLデータで、転送したり保存する前にNAL単位にマッピングされる。各NAL単位は、圧縮されたビデオデータまたはヘッダ情報に該当するデータであるRBSP(Raw Byte Sequence Payload;動画圧縮の結果データ)を含む。
NAL単位は、基本的に、NALヘッダとRBSPとの2部分から構成される。NALヘッダには、そのNAL単位の参照ピクチャとなるスライスが含まれているか否かを示すフラグ情報(nal_ref_idc)とNAL単位の種類を示す識別子(nal_unit_type)が含まれている。RBSPには、圧縮された原本のデータを保存し、RBSPの長さを8ビットの倍数で表現するためにRBSPの末尾にRBSP末尾ビットを添加する。このようなNAL単位の種類にはIDR(Instantaneous Decoding Refresh;瞬間デコーディングリフレッシュ)ピクチャ、SPS(Sequence Parameter Set;シーケンスパラメータセット)、PPS(Picture Parameter Set;ピクチャパラメータセット)、SEI(Supplemental Enhancement Information;補充的付加情報)などがある。
また、規格では、対象製品を適当な費用で具現可能なように様々なプロファイル及びレベルで制約しているが、デコーダは該当のプロファイルとレベルで定められた制約を満たさなければならない。このようにデコーダがどんな圧縮映像の範囲まで対応できるかに関する機能またはパラメータを示すためにプロファイル及びレベルという2種類の概念が定義された。ビットストリームがどんなプロファイルに基づくかは、プロファイル識別子(profile_idc)で識別可能である。プロファイル識別子とは、ビットストリームの基礎を形成しているプロファイルを示すフラグのことを意味する。例えば、H.264/AVCでは、プロファイル識別子が66であればベースラインプロファイルに基づくということを意味し、77であればメインプロファイルに基づくということを意味し、88であれば拡張プロファイルに基づくということを意味する。このプロファイル識別子は、シーケンスパラメータセットに含まれることができる。
したがって、多視点(multi−view)映像を扱うためには、入力されるビットストリームが多視点プロファイルに関するものか否かを識別し、多視点プロファイルと識別されると、多視点に関する1つ以上の追加情報を転送できるようにシンタックスを追加する必要がある。ここで、多視点プロファイルとは、H.264/AVCの追加技術で、多視点ビデオを扱うプロファイルモードのことをいう。MVCは、既存AVC技術への追加技術であるから、無条件的なシンタックスよりは、MVCモードである場合に対する追加情報としてシンタックスを追加することがより効率的になり得る。例えば、AVCのプロファイル識別子が多視点プロファイルを示す時に、多視点映像に関する情報を追加するとエンコーディング効率を上げることができる。
シーケンスパラメータセットとは、プロファイル、レベルなどシーケンス全体のエンコーディングに亘る情報が含まれているヘッダ情報のことをいう。圧縮された動映像全体、すなわちシーケンスは、必ずシーケンスヘッダから始まるべきなので、ヘッダ情報に相当するシーケンスパラメータセットは、該パラメータセットを参照するデータよりも先にデコーダに到着すべきである。結局、シーケンスパラメータセットRBSPは、動映像圧縮の結果データに対するヘッダ情報の役割を果たす。ビットストリームが入力されると、まずプロファイル識別子は、入力されたビットストリームが複数個のプロファイルのうちどのプロファイルに基づくかを識別する。したがって、入力されるビットストリームが多視点プロファイルに関するものか否かを判断する(例えば、「If(profile_idc==MULTI_VIEW_PROFILE)」)部分をシンタックス上に追加することによって、入力されたビットストリームが多視点プロファイルに関するものか否かを判別し、多視点プロファイルに関するものと認められる場合にのみ様々な属性情報を追加できることとなる。例えば、全体視点の個数、視点間ピクチャグループである場合の視点間参照ピクチャの個数(List0/1)、非視点間ピクチャグループである場合の視点間参照ピクチャの個数(List0/1)などを追加できる。また、復号ピクチャバッファでは参照ピクチャリストを生成及び管理する目的で視点に関する情報を用いることができる。
図1は、本発明が適用されるビデオ信号デコーディング装置の概略的なブロック図である。
このデコーディング装置は、大きく、パーシング部100、エントロピーデコーディング部200、逆量子化/逆変換部300、イントラ予測部400、デブロッキングフィルタ部500、復号ピクチャバッファ部600、インター予測部700などを含む。そして、復号ピクチャバッファ部600は、大きく、参照ピクチャ保存部610、参照ピクチャリスト生成部620、参照ピクチャ管理部650などを含み、参照ピクチャリスト生成部620は、変数誘導部625、参照ピクチャリスト初期化部630、参照ピクチャリスト再配列部640を含む。そして、インター予測部700は、動き補償部710、輝度補償部720、輝度差分予測部730、視点合成予測部740などを含む。
パーシング部100では、受信したビデオ映像を復号すべくNAL単位にパーシングを行う。一般的に、1つまたはそれ以上のシーケンスパラメータセットとピクチャパラメータセットが、スライスヘッダとスライスデータがデコーディングされる前にデコーダに転送される。この時、NALヘッダ領域またはNALヘッダの拡張領域には様々な属性情報が含まれることができる。MVCは、既存AVC技術への追加技術であるから、無条件に追加するよりは、MVCビットストリームである場合にのみ様々な属性情報を追加することがより効率的になり得る。例えば、NALヘッダ領域またはNALヘッダの拡張領域でMVCビットストリームか否かを識別できるフラグ情報を追加することができる。このフラグ情報によって、入力されたビットストリームが多視点映像コーディングされたビットストリームである場合にのみ、多視点映像に関する属性情報を追加することができる。この属性情報は、例えば、時間的レベル(temporal level)情報、視点レベル(view level)情報、視点間ピクチャグループ識別情報、視点識別(view identification)情報などを含むことができる。これについて、図2を参照しつつ詳細に説明する。
図2は、本発明が適用される実施例で、多視点映像コーディングされたビットストリームに追加されることができる多視点映像に関する属性情報を示す図である。以下、多視点映像に関する属性情報について具体的に説明する。
まず、時間的レベル情報とは、ビデオ信号から時間的拡張性を提供するための階層的な構造に関する情報のことをいう(a)。このような時間的レベル情報を通じて使用者に様々な時間帯の映像を提供可能になる。
視点レベル情報とは、ビデオ信号から視点拡張性を提供するための階層的な構造に関する情報のことをいう(b)。多視点ビデオ映像では、使用者に様々な時間及び視点の映像を提供できるようにするために時間及び視点に対するレベルを定義する必要がある。このようにレベル情報を定義する場合、時間及び視点に対する拡張性(scalability)を用いることができることとなる。したがって、使用者は所望の時間及び視点の映像のみを見ることもでき、他の制限条件による映像のみを見ることが可能になる。このレベル情報は、その基準条件によって様々な方法で異なって設定されることができる。例えば、カメラの位置によって異なって設定されたり、カメラの配列形態によって異なって設定されたりすることができる。また、このレベル情報は、視点間参照情報を考慮して決定されることもできるが、例えば、視点間ピクチャグループがIピクチャである視点にはレベルを0で割り当て、視点間ピクチャグループがPピクチャである視点にはレベルを1で割り当て、視点間ピクチャグループがBピクチャである視点にはレベルを2で割り当てることができる。また、このレベル情報は、特別な基準によらずに任意に設定されても良い。視点レベル情報については図4及び図5で詳細に説明する。
視点間ピクチャグループ識別情報とは、現在NALユニットのコーディングされたピクチャが視点間ピクチャグループか否かを識別する情報のことをいう(c)。そして、視点間ピクチャグループとは、全てのスライスが同一時間帯のフレームに在るスライスのみを参照するエンコーディングされたピクチャのことを意味する。例えば、他の視点に在るスライスのみを参照し、現在視点に在るスライスは参照しないエンコーディングされたピクチャのことをいう。多視点映像のデコーディング過程において、視点間のランダムアクセスは可能になり得る。また、視点間予測のためには視点間参照情報が必要となるが、この視点間参照情報を知るために視点間ピクチャグループ識別情報を用いても良い。また、参照ピクチャリストを生成する時に視点間予測のための参照ピクチャを追加するために視点間ピクチャグループ識別情報が用いられても良い。そして、追加された視点間予測のための参照ピクチャを管理するためにも用いられることができる。例えば、参照ピクチャを視点間ピクチャグループと非視点間ピクチャグループとに分け、視点間予測を行う時に用いられない参照ピクチャは使用しないというマーキングをすることができる。また、視点間ピクチャグループ識別情報は仮想参照デコーダ(hypothetical reference decoder)でも適用されることができる。この視点間ピクチャグループ識別情報については図6で詳細に説明するものとする。
また、視点識別情報とは、現在視点に在るピクチャと他の視点に在るピクチャとを区別するための情報のことをいう(d)。ビデオ映像信号がコーディングされる時に、それぞれのピクチャを識別するためにPOC(Picture Order Count)とframe_numが用いられる。多視点ビデオ映像の場合には視点間予測が行われるから、現在視点に在るピクチャと他の視点に在るピクチャとを区別するための識別情報が必要である。したがって、ピクチャの視点を識別する視点識別情報を定義する必要がある。この視点識別情報はビデオ信号のヘッダ領域から獲得されることができる。例えば、ヘッダ領域は、NALヘッダ領域またはNALヘッダの拡張領域であっても良く、スライスヘッダ領域であっても良い。この視点識別情報を用いて現在ピクチャと他の視点に在るピクチャの情報を獲得し、他の視点に在るピクチャの情報を用いてビデオ信号をデコーディングすることができる。このような視点識別情報は、ビデオ信号のエンコーディング/デコーディング過程全般に亘って適用されることができる。また、特定の視点識別子ではなく、視点が考慮されたframe_numを用いて多視点ビデオコーディングにそのまま適用しても良い。
パーシングされたビットストリームは、エントロピーデコーディング部200を通じてエントロピーデコーディングされ、各マクロブロックの係数、動きベクトルなどが抽出される。逆量子化/逆変換部300では、受信した量子化された値に一定の定数を乗じ、変換された係数値を獲得し、この係数値を逆変換することによって画素値を復元する。この復元された画素値を用いてイントラ予測部400では、現在ピクチャ内のデコーディングされたサンプルから画面内予測を行う。一方、デブロッキングフィルタ部500は、ブロック歪み現象を減少させるためにそれぞれのコーディングされたマクロブロックに適用される。フィルタはブロックの縁部を穏やかにし、デコーディングされたフレームの画質を向上させる。フィルタリング過程の選択は、境界強度(boundary strength)と境界周囲のイメージサンプルの変化(gradient)によって左右される。フィルタリングを経たピクチャは出力されたり、参照ピクチャとして用いられるために復号ピクチャバッファ部600に保存される。
復号ピクチャバッファ部(Decoded Picture Buffer unit)600では、画面間予測を行うために以前にコーディングされたピクチャを保存したり開放する役割などを担う。この時、復号ピクチャバッファ部600に保存したり開放するために各ピクチャのframe_numとPOCを用いることとなる。したがって、MVCにおいて、以前にコーディングされたピクチャの中には現在ピクチャと異なる視点に在るピクチャもあるので、このようなピクチャを参照ピクチャとして活用するためには、frame_numとPOCだけでなく、ピクチャの視点を識別する視点情報も共に用いることができる。この復号ピクチャバッファ部600は、参照ピクチャ保存部610と、参照ピクチャリスト生成部620と、参照ピクチャ管理部650とを含む。参照ピクチャ保存部610は、現在ピクチャのコーディングのために参照となるピクチャを保存する。参照ピクチャリスト生成部620は、画面間予測のための参照ピクチャのリストを生成する。多視点ビデオコーディングにおいては視点間予測が行われることができるから、現在ピクチャが他の視点に在るピクチャを参照する場合、視点間予測のための参照ピクチャリストを生成する必要がありうる。この時、参照ピクチャリスト生成部620は、視点間予測のための参照ピクチャリストを生成するために視点に関する情報を用いることができる。これについて、図3を参照しつつ詳細に説明する。
図3は、本発明が適用される実施例で、参照ピクチャリスト生成部620の内部ブロック図である。参照ピクチャリスト生成部620は、変数誘導部625、参照ピクチャリスト初期化部630及び参照ピクチャリスト再配列部640を含む。
変数誘導部625は、参照ピクチャリストの初期化に使われる変数を誘導する。例えば、ピクチャの識別番号を示すframe_numを用いて変数を誘導することができる。具体的例として、それぞれの短期参照ピクチャには変数FrameNumと変数FrameNumWrapが用いられることができる。まず、変数FrameNumは、シンタックス要素であるframe_num値と同一である。そして、変数FrameNumWrapは、復号ピクチャバッファ部600で参照ピクチャごとに小さい番号を割り当てるために用いられることができ、変数FrameNumから誘導されることができる。このように誘導された変数FrameNumWrapを用いて変数PicNumを誘導できる。ここで、変数PicNumは、復号ピクチャバッファ部600で用いられるピクチャの識別番号を意味することができる。長期参照ピクチャを示す場合には、変数LongTermPicNumが用いられることができる。
また、視点間予測のための参照ピクチャリストを生成するためには、視点に関する情報を用いて視点間予測のための参照ピクチャリストを生成するための第1変数(例えば、ViewNum)を誘導することができる。例えば、ピクチャの視点を識別してやるview_idを用いて第2変数(例えば、ViewId)を誘導することができる。まず、第2変数は、シンタックス要素であるview_id値と一致することができる。そして、第3変数(例えば、ViewIdWrap)は、復号ピクチャバッファ部600で参照ピクチャごとに小さい視点識別番号を割り当てるために用いられることができ、第2変数から誘導されることができる。ここで、第1変数(ViewNum)は、復号ピクチャバッファ部600で使われるピクチャの視点識別番号を意味することができる。ただし、多視点ビデオコーディングでは時間的予測に用いられる参照ピクチャの数に比べて視点間予測に用いられる参照ピクチャの数が相対的に小さい場合があり得るので、長期参照ピクチャの視点識別番号を表示するための別の変数を定義しなくても良い。
参照ピクチャリスト初期化部630は、変数を用いて参照ピクチャリストを初期化する。この時、参照ピクチャリストの初期化過程はスライスタイプによってその方式が異なることができる。例えば、Pスライスをデコーディングする場合には、デコーディング順序に基づいて参照ピクチャ番号を割り当てることができ、Bスライスをデコーディングする場合には、ピクチャ出力順序に基づいて参照ピクチャ番号を割り当てることができる。また、視点間予測のための参照ピクチャリストを初期化する場合には、第1変数、すなわち、視点情報から誘導された変数に基づいて参照ピクチャに番号を割り当てることができる。
参照ピクチャリスト再配列部640は、初期化された参照ピクチャリストで頻繁に参照されたピクチャに相対的に小さい番号を割り当てることによって圧縮率を向上させる役割を果たす。参照ピクチャを指定する参照ピクチャ番号はブロック単位にエンコーディングされるが、これは、参照ピクチャ番号のエンコーディングのための参照ピクチャ番号が小さいほど小さいビット数の符号が割り当てられるためである。
また、参照ピクチャリスト再配列部640は、スライスタイプ確認部642、参照ピクチャリスト0再配列部643及び参照ピクチャリスト1再配列部645を含む。スライスタイプ確認部642は、初期化された参照ピクチャリストが入力される場合、デコーディングしようとするスライスのタイプを確認し、参照ピクチャリスト0を再配列するか、参照ピクチャリスト1を再配列するかを決定することとなる。これにより、参照ピクチャリスト0/1再配列部643,645では、例えば、スライスタイプがIスライスでない場合には参照ピクチャリスト0の再配列を行い、スライスタイプがBスライスである場合には参照ピクチャリスト1の再配列も行う。このようにして再配列過程が終了すると、参照ピクチャリストが生成される。
そして、参照ピクチャリスト0/1再配列部643,645はそれぞれ、識別情報獲得部643A,645Aと参照番号割当変更部643B,645Bとを含む。識別情報獲得部643A,645Aは、参照ピクチャリストの再配列を行うか否かを示すフラグ情報によって参照ピクチャリストの再配列を行うようになる場合、参照番号の割当方法を示す識別情報(reordering_of_pic_nums_idc)を受信する。参照番号割当変更部643B,645Bでは当該識別情報に基づいて参照番号の割当を変更することによって参照ピクチャリストを再配列することとなる。
また、参照ピクチャリスト再配列部640は、他の方式によっても動作可能である。例えば、スライスタイプ確認部642を経由する前に転送されたNALのタイプを確認し、MVC NALの場合とそうでない場合とに分けて再配列しても良い。
参照ピクチャ管理部650は、より柔軟に画面間予測を実現すべく参照ピクチャを管理する。例えば、メモリー管理制御動作方法と移動ウィンド方法(Sliding Window Method)が用いられることができる。これは、参照ピクチャと非参照ピクチャのメモリーを1つのメモリーに統一して管理し、少ないメモリーで效率的に管理するためである。多視点ビデオコーディングにおいて、視点方向のピクチャはピクチャオーダカウントが同一なため、それらのマーキングのためには各ピクチャの視点を識別してやる情報が用いられることができる。このような過程を通じて管理される参照ピクチャは、インター予測部700で用いられることができる。
インター予測部700では、復号ピクチャバッファ部600に保存された参照ピクチャを用いて画面間予測を行う。インターコーディングされたマクロブロックは、マクロブロックパーティションに分かれることができ、各マクロブロックパーティションは1つまたは2つの参照ピクチャから予測されることができる。インター予測部700は、動き補償部710、輝度補償部720、輝度差分予測部730、視点合成予測部740及び加重値予測部750などを含む。
動き補償部710では、エントロピーデコーディング部200から転送された情報を用いて現在ブロックの動きを補償する。ビデオ信号から現在ブロックに隣接するブロックの動きベクトルを抽出し、現在ブロックの動きベクトル輝度差分を獲得する。獲得された動きベクトル輝度差分とビデオ信号から抽出される差分ベクトルを用いて現在ブロックの動きを補償する。また、このような動き補償は、1つの参照ピクチャを用いて行われても良く、複数のピクチャを用いて行われても良い。多視点ビデオコーディングにおいて、現在ピクチャが他の視点に在るピクチャを参照するようになる場合、復号ピクチャバッファ部600に保存されている視点間予測のための参照ピクチャリストに関する情報を用いて動き補償を行うことができる。また、そのピクチャの視点を識別する視点情報を用いて動き補償を行うことができる。また、直接予測モード(direct mode)は、エンコーディングが終わったブロックの動き情報から現在ブロックの動き情報を予測するエンコーディングモードである。このような方法は、動き情報をエンコーディングする時に必要なビット数が節約されるので、圧縮効率が向上する。例えば、時間直接予測モード(temporal direct mode)は、時間方向の動き情報相関度を用いて現在ブロックの動き情報を予測することとなる。この方法と同様に、本発明では視点方向の動き情報相関度を用いて現在ブロックの動き情報を予測することができる。
また、入力されたビットストリームが多視点ビデオに該当する場合、各視点映像(view sequence)は、それぞれ異なるカメラより取得されたため、カメラの内外的要因によって輝度(illumination)差が発生することになる。これを防止するために輝度補償部720では輝度補償(illumination compensation)を行う。輝度補償を行うときに、ビデオ信号の所定レイヤに対して輝度補償を行うか否かを示すフラグ情報を用いることができる。例えば、該当のスライスまたは該当のマクロブロックの輝度補償を行うか否かを示すフラグ情報を用いて輝度補償を行うことができる。また、該フラグ情報を用いて輝度補償を行う際に、様々なマクロブロックのタイプ(例えば、インター16×16モードまたはB−skipモードまたは直接予測モード等)に適用されることができる。
また、輝度補償を行う際に、現在ブロックを復元すべく隣接ブロックの情報または現在ブロックと異なる視点に在るブロックの情報を用いることができ、現在ブロックの輝度差分値を用いても良い。この時、現在ブロックが異なる視点に在るブロックを参照することになる場合、復号ピクチャバッファ部600に保存されている視点間予測のための参照ピクチャリストに関する情報を用いて輝度補償を行うことができる。ここで、現在ブロックの輝度差分値とは、現在ブロックの平均画素値とそれに対応する参照ブロックの平均画素値間の差のことをいう。この輝度差分値を用いる一例として、現在ブロックの隣接ブロックを用いて該現在ブロックの輝度差分予測値を獲得し、この輝度差分値と輝度差分予測値との差値である輝度差分レジデュアルを用いることができる。したがって、デコーディング部では輝度差分レジデュアルと輝度差分予測値を用いて現在ブロックの輝度差分値を復元することができる。また、現在ブロックの輝度差分予測値を獲得する際に、隣接ブロックの情報を用いることができる。例えば、隣接ブロックの輝度差分値を用いて現在ブロックの輝度差分値を予測できるが、これに先立って現在ブロックの参照番号(reference index)と隣接ブロックの参照番号とが同じであるか否かを確認し、その確認結果によってどの隣接ブロックを用いるか、またはどの値を用いるかが決定されることができる。
視点合成予測部740は、現在ピクチャの視点と隣接する視点に在るピクチャを用いて新しい視点のピクチャを合成し、合成された新しい視点のピクチャを用いて現在ピクチャを予測するために用いられる。デコーディング部では、エンコーディング部から転送された視点間合成予測識別子によって新しい視点のピクチャを合成するか否かを判断できる。例えば、view_synthesize_pred_flag=1である、または、view_syn_pred_flag=1の場合、それぞれ新しい視点のスライスまたはマクロブロックを合成する。この時、視点間合成予測識別子が新しい視点を生成することを知らせる時、ピクチャの視点を識別する視点情報を用いて新しい視点のピクチャを生成できる。また、新しい視点のピクチャを合成し、現在ピクチャを予測する時に、新しい視点のピクチャを参照ピクチャとして用いるために視点情報が用いられることができる。
加重値予測部750は、明るさが時間的に変化する映像をエンコーディングする時に映像の画質が大きく劣化する現象を補償するために用いられる。MVCでは、時間的に明るさが変化する映像だけでなく、異なる視点に在る映像との明るさ差を補償するために加重値予測が行われることができる。例えば、加重値予測方法には、明示的(explicit)加重値予測方法と暗示的(implicit)加重値予測方法がある。明示的加重値予測方法には、1枚の参照ピクチャを用いる場合または2枚の参照ピクチャを用いる場合がある。1枚の参照ピクチャを用いる場合には、動き補償に該当する予測信号に加重値係数を乗じて予測信号を生成し、2枚の参照ピクチャを用いる場合には、動き補償に該当する予測信号に加重値係数を乗じた値にオフセット値を加えて予測信号を生成する。暗示的加重値予測方法は、参照ピクチャからの距離を用いて加重値予測を行う。参照ピクチャからの距離を求める方法には、例えば、ピクチャの出力順序を示す値であるPOCを用いる場合があるが、このPOCは、各ピクチャの視点を区分できるように考慮して生成されたPOCである。または、異なる視点に在るピクチャに対して加重値係数を獲得する時に、各ピクチャの視点間の距離を計算するためにピクチャの視点を識別する視点情報が用いられることができる。
また、ビデオ信号コーディングにおいて、特定アプリケーションのためにまたは他の目的のために深さ情報を用いることができる。深さ情報とは、視点間の変異差を示すことのできる情報のことを意味することができる。例えば、視点間の予測を通じて視差ベクトルを獲得できるが、獲得された視差ベクトルは現在ブロックの変異補償のためにデコーディング装置に転送されなければならない。しかし、深さマップを求めてこれをデコーディング装置に転送する場合、視差ベクトルをデコーディング装置に転送せずに、深さマップ(depth map)(または視差マップ(disparity map))から視差ベクトルを類推することができる。このような場合、デコーディング装置に転送されるべき深さ情報のビット数を減少させることができるという長所がある。したがって、深さマップから視差ベクトルを類推することによって新しい視差補償方法が提供されることができる。このように深さマップから視差ベクトルを類推する過程で異なる視点のピクチャを用いる場合、ピクチャの視点を識別できる視点情報が用いられることができる。
上記のような過程を通じてインター予測されたピクチャとイントラ予測されたピクチャは予測モードによって選択され、現在ピクチャを復元することとなる。以下では、ビデオ信号の効率的なデコーディング方法を提供するための様々な実施例について説明する。
図4は、本発明が適用された実施例で、ビデオ信号の視点拡張性(view scalability)を提供するためのレベル情報の階層的構造を示す図である。
各視点のレベル情報は、視点間参照情報を考慮して決定されることができる。例えば、IピクチャなしではPピクチャとBピクチャのデコーディングが不可能なため、視点間ピクチャグループがIピクチャである基準視点(Base view)にはlevel=0を割り当てることができ、視点間ピクチャグループがPピクチャである視点にはlevel=1を割り当てることができ、視点間ピクチャグループがBピクチャである視点にはlevel=2を割り当てることができる。しかし、所定基準によって任意にレベル情報を決定しても良い。
また、レベル情報は所定基準によって任意に決定されても良く、または、基準なしにランダムに決定されても良い。例えば、視点を基準にしてレベル情報を決定する場合、V0視点を基準視点に設定してview level 0、1つの視点に在るピクチャを用いて予測されたピクチャの視点をview level 1、そして複数個の視点に在るピクチャを用いて予測されたピクチャの視点をview level 2に設定できる。この場合、既存のデコーダ(例えば、H.264/AVC、MPEG−2、MPEG−4等)と互換性を持つための少なくとも1つの視点映像(view sequence)が必要になり得る。このような基準視点は、多視点のうちエンコーディングの基準になり、これは他の視点の予測のための参照視点(reference view)に該当することができる。MVC(Multi view Video Coding)で基準視点に該当する映像は、従来の一般的な映像エンコーディングスキーム(MPEG−2、MPEG−4、H.263、H.264等)によりエンコーディングされ、独立したビットストリームとして形成されることができる。基準視点に該当する映像は、H.264/AVCと互換されても良く、互換されなくても良い。しかし、H.264/AVCと互換可能な視点の映像は基準視点となる。
図4からわかるように、V0視点に在るピクチャを用いて予測されたピクチャの視点であるV2視点、V2視点に在るピクチャを用いて予測されたピクチャの視点であるV4視点、V4視点に在るピクチャを用いて予測されたピクチャの視点であるV6視点、そしてV6視点に在るピクチャを用いて予測されたピクチャの視点であるV7視点をview level 1に設定できる。そして、V0視点とV2視点に在るピクチャを用いて予測されたピクチャの視点であるV1視点、そして同じ方式で予測されたV3視点、V5視点はview level 2に設定できる。したがって、使用者のデコーダが多視点ビデオ映像を見ることができない場合には、view level 0に該当する視点の映像のみをデコーディングすることとなる。または、使用者のデコーダがプロファイル情報によって制限される場合にも、制限されたview levelの情報のみをデコーディング可能になる。ここで、プロファイルとは、ビデオエンコーディング/デコーディング過程でアルゴリズム上含まれる技術的構成要素を規格化したものを意味する。すなわち、圧縮された映像のビット列を復号するために必要な技術要素の集合で、一種のサブ規格といえる。
本発明が適用される他の実施例として、レベル情報は、カメラの位置によって変わることができる。例えば、V0視点とV1視点は、正面に位置しているカメラにより獲得された映像で、V2視点とV3視点は、後面に位置しているカメラにより獲得された映像で、V4視点とV5視点は左側に位置しているカメラにより獲得された映像で、V6視点とV7視点は右側に位置しているカメラにより獲得された映像であるとする場合、V0視点とV1視点をview level 0に、V2視点とV3視点はview level 1に、V4視点とV5視点はview level 2に、V6視点とV7視点はview level 3に設定することができる。さらに他の実施例として、レベル情報はカメラの配列形態によって変わることができる。また、レベル情報は特別な基準によらずに任意に決定されても良い。
図5は、本発明が適用される一実施例で、NALヘッダの拡張領域内にレベル情報を含むNAL単位の構成を示す。
NAL単位は、基本的に、NALヘッダとRBSPの2部分で構成される。NALヘッダには、そのNAL単位の参照ピクチャとなるスライスが含まれているか否かを示すフラグ情報(nal_ref_idc)と、NAL単位の種類を示す識別子(nal_unit_type)とが含まれている。そして、視点拡張性を提供するための階層的な構造に関する情報を示すレベル情報(view_level)も含むことができる。
RBSPには、圧縮された原本のデータを保存し、RBSPの長さを8ビットの倍数で表現するためにRBSPの末尾にRBSP末尾ビットを添加する。このようなNAL単位の種類には、IDRピクチャ、SPS(Sequence Parameter Set;シーケンスパラメータセット)、PPS(Picture Parameter Set;ピクチャパラメータセット)、SEI(Supplemental Enhancement Information;補充的付加情報)などがある。
このNALヘッダには、視点識別子(view identifer)に関する情報を含んでおり、視点レベルによってデコーディングを行う過程で視点識別子を参照して該当の視点レベルのビデオ映像をデコーディングする。NAL単位は、NALヘッダ(header)51とスライスレイヤ53とを含み、NALヘッダ51は、NALヘッダ拡張領域(NAL header extention)52を含み、スライスレイヤ53は、スライスヘッダ54とスライスデータ55とを含む。NALヘッダ51は、NAL単位の種類を示す識別子(nal_unit_type)を含んでいるが、例えば、NAL単位の種類を示す識別子は、スケーラブルビデオコーディング(Scalable Video Coding)と多視点ビデオコーディング(Multi−view Video Coding)の両方のための識別子でありうる。この時、NALヘッダ拡張領域52では、現在NALがスケーラブルビデオコーディングのためのNALなのか、多視点ビデオコーディングのためのNALなのかを区別するフラグ情報を含むことができ、このフラグ情報によって現在NALの拡張情報を含むことができる。例えば、フラグ情報によって現在NALが多視点ビデオコーディングのためのNALである場合、NALヘッダ拡張領域52は視点拡張性を提供するための階層的な構造に関する情報を示すレベル情報(view_level)を含むことができる。
図6は、本発明が適用される実施例で、視点間ピクチャグループの概念を説明するための多視点映像信号の全体的な予測構造を示す図である。
図6に示すように、横軸のT0〜T100はそれぞれ、時間によるフレームを表し、縦軸のS0〜S7はそれぞれ、視点によるフレームを表す。例えば、T0に在るピクチャは、同じ時間帯(T0)に相互に異なるカメラで撮った映像を意味し、S0に在るピクチャは、1台のカメラで撮った異なる時間帯の映像を意味する。また、図面上の矢印は、各ピクチャの予測方向と順序を表し、例えば、T0時間帯のS2視点に在るP0ピクチャは、I0から予測されたピクチャであり、これはT0時間帯のS4視点に在るP0ピクチャの参照ピクチャとなる。また、S2視点のT4,T2時間帯に在るB1,B2ピクチャの参照ピクチャとなる。
多視点映像のデコーディング過程において、視点間のランダムアクセスは必須である。したがって、デコーディング努力を最小限にしながら任意視点に対するアクセスを可能にすべきである。ここで、効率的なランダムアクセスの実現のために視点間ピクチャグループの概念が必要になり得る。視点間ピクチャグループとは、全てのスライスが同一時間帯のフレームに在るスライスのみを参照するエンコーディングされたピクチャを意味する。例えば、他の視点に在るスライスのみを参照し、現在視点に在るスライスは参照しないエンコーディングされたピクチャのことをいう。図6で、T0時間帯のS0視点に在るI0ピクチャが視点間ピクチャグループであるとすれば、同じ時間帯に在る、すなわちT0時間帯の異なる視点に在る全てのピクチャも視点間ピクチャグループになる。他の例として、T8時間帯のS0視点に在るI0ピクチャが視点間ピクチャグループであるとすれば、同じ時間帯に在る、すなわちT8時間帯の異なる視点に在る全てのピクチャも視点間ピクチャグループになる。同様に、T16、…、T96、T100に在る全てのピクチャが視点間ピクチャグループの例となる。
図7は、本発明が適用される実施例で、新しく定義された視点間ピクチャグループの概念を説明するための予測構造を示す図である。
MVCの全般的な予測構造において、GOPはIピクチャから始まることができ、このIピクチャは、H.264/AVCと互換可能である。したがって、H.264/AVCと互換可能な全ての視点間ピクチャグループは常にIピクチャになり得る。しかし、このIピクチャがPピクチャに取って代わる場合に、より効率的なコーディングが可能になることができる。すなわち、GOPがH.264/AVCと互換可能なPピクチャから始まるようにする予測構造を用いる場合に、より効率的なコーディングが可能になるわけである。
この時、視点間ピクチャグループを再び定義すると、全てのスライスが同一時間帯のフレームに在るスライスだけでなく、同一視点の異なる時間帯に在るスライスも参照できるエンコーディングされたピクチャとなる。ただし、同一視点の異なる時間帯に在るスライスを参照する場合はH.264/AVCと互換可能な視点間ピクチャグループに限ることができる。例えば、図6で、S0視点のT8時間に在るPピクチャは、新しく定義された視点間ピクチャグループになることができ、同様に、S0視点のT96時間に在るPピクチャ、そしてS0視点のT100時間に在るPピクチャが、新しく定義された視点間ピクチャグループになることができる。または、この視点間ピクチャグループは、基準視点である場合に限って定義されても良い。
視点間ピクチャグループがデコーディングされた後、順にコーディングされた全てのピクチャは、出力順序上視点間ピクチャグループに先行してデコーディングされたピクチャからインター予測(inter−prediction)なしでデコーディングされる。
したがって、図6及び図7の多視点ビデオの全般的なコーディング構造にしたがう時、視点間ピクチャグループと非視点間ピクチャグループの視点間参照情報が異なるから、視点間ピクチャグループ識別情報によって視点間ピクチャグループと非視点間ピクチャグループを区別する必要がある。
視点間参照情報は、視点間ピクチャがどんな構造で予測されたかがわかる情報のことをいう。これは、ビデオ信号のデータ領域から獲得されることができるが、例えば、シーケンスパラメータセット領域から獲得されることができる。また、視点間参照情報は参照ピクチャの個数と参照ピクチャの視点情報を用いて把握できる。例えば、まず全体視点の個数を獲得し、この全体視点の個数に基づいて各視点を区別する視点情報を把握できる。そして、各視点ごとに参照方向に対する参照ピクチャの個数を獲得できる。この参照ピクチャの個数によって各参照ピクチャの視点情報を獲得できる。このような方式によって視点間参照情報が獲得されることができ、この視点間参照情報は視点間ピクチャグループの場合と非視点間ピクチャグループの場合とに分けて把握されることができる。これは、現在NALに在るコーディングされたスライスが視点間ピクチャグループなのか否かを示す視点間ピクチャグループ識別情報からわかる。次に、この視点間ピクチャグループ識別情報について図8を用いて詳細に説明する。
図8は、本発明が適用される実施例で、視点間ピクチャグループ識別情報を用いて多視点映像をデコーディングする装置の概略的なブロック図である。
本実施例のデコーディング装置は、ビットストリーム判断部81、視点間ピクチャグループ識別情報獲得部82及び多視点映像デコーディング部83を含む。ビットストリーム判断部81では、ビットストリームが入力されると、該ビットストリームがスケーラブルビデオコーディングされたビットストリームなのか、それとも多視点ビデオコーディングされたビットストリームなのかを判断することとなる。これは、ビットストリームに含まれたフラグ情報によって判断されることができる。
視点間ピクチャグループ識別情報獲得部82では、上記判断結果、多視点ビデオコーディングされたビットストリームである場合、視点間ピクチャグループ識別情報を獲得できる。獲得された視点間ピクチャグループ識別情報が「真」である場合には、現在NALに在るコーディングされたスライスが視点間ピクチャグループであることを意味し、「偽」の場合には非視点間ピクチャグループであることを意味できる。このような視点間ピクチャグループ識別情報は、NALヘッダの拡張領域から獲得されることができ、またはスライスレイヤ領域から獲得されることができる。
多視点映像デコーディング部83では、視点間ピクチャグループ識別情報によって多視点映像をデコーディングする。多視点ビデオ映像の全般的なコーディング構造にしたがう時、視点間ピクチャグループと非視点間ピクチャグループの視点間参照情報が異なるので、例えば、参照ピクチャリストを生成する時、視点間予測のための参照ピクチャを追加するのに視点間ピクチャグループ識別情報が用いられることができる。そして、追加された視点間予測のための参照ピクチャを管理するためにも用いられることができる。また、視点間ピクチャグループ識別情報は仮想参照デコーダ(hypothetical reference decoder)でも適用されることができる。
この視点間ピクチャグループ識別情報が用いられる他の例として、各デコーディングプロセスで異なる視点に在る情報を用いる場合、シーケンスパラメータセットに含まれた視点間参照情報が用いられることができる。この時、現在ピクチャが視点間ピクチャグループなのか、非視点間ピクチャグループなのかを区分できる情報、すなわち、視点間ピクチャグループ識別情報が必要とされることができ、これによって各デコーディングプロセスごとに異なる視点間参照情報が用いられることができる。
図9は、本発明が適用される実施例で、参照ピクチャリストを生成する流れ図である。
復号ピクチャバッファ部600では、ピクチャ間予測を行う目的で、以前にコーディングされたピクチャを保存したり開放する役割などを果たす。まず、現在ピクチャ以前にコーディングされたピクチャは、参照ピクチャとして用いるために参照ピクチャ保存部610に保存される(S91)。多視点ビデオコーディングにおいて、以前にコーディングされたピクチャの中には現在ピクチャと異なる視点に在るピクチャもあるので、このようなピクチャを参照ピクチャとして用いるためにはピクチャの視点を識別する視点情報を用いることができる。したがって、デコーダではピクチャの視点を識別する視点情報を獲得しなければならない(S92)。例えば、視点情報は、ピクチャの視点を識別するview_idを含むことができる。復号ピクチャバッファ部600では、参照ピクチャリストを生成するために復号ピクチャバッファ部600内で使われる変数を誘導する必要がある。多視点ビデオコーディングにおいては視点間予測がなされることができるので、現在ピクチャが異なる視点に在るピクチャを参照する場合、視点間予測のための参照ピクチャリストを生成する必要がありうる。この時、復号ピクチャバッファ部600では、獲得された視点情報を用いて、視点間予測のための参照ピクチャリストを生成するために用いられる変数を誘導する必要がある(S93)。
時間的予測のための参照ピクチャリストまたは視点間予測のための参照ピクチャリストは、現在スライスのスライスタイプによって異なる方式で生成されることができる(S94)。例えば、スライスタイプがP/SPスライスである場合には参照ピクチャリスト0を生成し(S95)、スライスタイプがBスライスである場合には参照ピクチャリスト0と参照ピクチャリスト1を生成する(S96)。この時、参照ピクチャリスト0または参照ピクチャリスト1は時間的予測のための参照ピクチャリストのみを含むことができ、または、時間的予測のための参照ピクチャリストと視点間予測のための参照ピクチャリストをいずれも含むことができる。これについては図8及び図9で詳細に説明するものとする。
このようにして初期化された参照ピクチャリストは、より圧縮率を向上させるべく、頻繁に参照されたピクチャにより小さい番号を割り当てる過程を行う(S97)。これを参照ピクチャリストの再配列過程といい、図12乃至図19で詳細に後述する。このように再配列された参照ピクチャリストを用いて現在ピクチャをデコーディングし、復号ピクチャバッファ部600ではバッファをより效率的に動作させるために、デコーディングされた参照ピクチャを管理する必要がある(S98)。このような過程を通じて管理される参照ピクチャは、インター予測部700に取り込まれてインター予測のために用いられる。多視点ビデオコーディングにおいて、インター予測は視点間予測を含むことができるので、このような場合には視点間予測のための参照ピクチャリストが用いられることができる。
以下、図10及び図11では、スライスタイプによって参照ピクチャリストがいかなる方式で生成されるかについて具体的な実施例に挙げて説明する。
図10は、本発明が適用される一実施例で、現在スライスがPスライスである時の参照ピクチャリストを初期化する方法を説明するための図である。
T0、T1、…、TNは時間を表し、V0、V1、…、V4は視点を表す。例えば、現在ピクチャは、V4視点のT3時間に在るピクチャを表す。また、現在ピクチャのスライスタイプはPスライスである場合である。PNは、変数PicNumの略字であり、LPNは変数LongtermPicNumの略字であり、VNは変数ViewNumの略字である。各変数の後に付く数字は、各ピクチャの時間(PN、LPNの場合)または視点(VNの場合)を指すインデックスを意味する。これは図11でも同一に適用される。
時間的予測のための参照ピクチャリストまたは視点間予測のための参照ピクチャリストは、現在スライスのスライスタイプによって異なる方式で生成されることができる。例えば、図12では、スライスタイプがP/SPスライスである場合であり、この場合には参照ピクチャリスト0を生成することとなる。ここで、参照ピクチャリスト0は、時間的予測のための参照ピクチャリスト及び/または視点間予測のための参照ピクチャリストを含むことができる。本実施例では、参照ピクチャリスト0が時間的予測のための参照ピクチャリストと視点間予測のための参照ピクチャリストをいずれも含む場合について説明する。参照ピクチャを配列する方法には様々なものがあるが、例えば、デコーディング順序によって参照ピクチャを配列したり、または、ピクチャ出力順序によって参照ピクチャを配列したりすることができる。または、視点情報を用いて誘導された変数に基づいて配列されたり、または、視点間の予測構造がわかる視点間参照情報によって参照ピクチャが配列されても良い。
時間的予測のための参照ピクチャリストの場合、短期参照ピクチャと長期参照ピクチャはデコーディング順序に基づいて配列されることができる。例えば、ピクチャの識別番号を表す値(例えば、frame_numまたはLongtermframeidx)から誘導された変数(PicNumまたはLongtermPicNum)値によって配列されることができる。まず長期参照ピクチャに先行して短期参照ピクチャが初期化されることができる。短期参照ピクチャの配列される順序は、参照ピクチャのうち、最も高い変数(PicNum)値を持つ参照ピクチャから最も低い変数値を持つ参照ピクチャの順に配列されることができる。例えば、PN0、PN1、PN2のうち、最も高い変数を持つPN1から始め、その次にPN2、その次に最も低い変数を持つPN0の順に配列されることができる。長期参照ピクチャの配列される順序は、参照ピクチャのうち、最も低い変数(LongtermPicNum)値を持つ参照ピクチャから最も高い変数値を持つ参照ピクチャの順に配列されることができる。例えば、LPN0、LPN1のうち、最も低い変数を持つLPN0から始め、その次に最も低い変数を持つLPN1の順に配列されることができる。
視点間予測のための参照ピクチャリストの場合、視点情報を用いて誘導された第1変数(ViewNum)に基づいて配列されることができる。例えば、参照ピクチャのうち、最も高い第1変数(ViewNum)値を持つ参照ピクチャから最も低い変数値を持つ参照ピクチャの順に配列されることができる。例えば、VN0、VN1、VN2、VN3のうち最も高い変数を持つVN3から始め、その次にVN2、VN1、その次に最も低い変数を持つVN0の順に配列されることができる。
このように、時間的予測のための参照ピクチャリストと視点間予測のための参照ピクチャリストは1つの参照ピクチャリストとして管理されることができ、または、別個の参照ピクチャリストとしてそれぞれ管理されても良い。そして、1つの参照ピクチャリストとして管理する場合には、順序によって初期化されることができ、または、同時に初期化されても良い。順序によって初期化される場合には、例えば、時間的予測のための参照ピクチャリストをまず初期化し、その次に追加的に視点間予測のための参照ピクチャリストを初期化することができる。このような概念は、図11でも適用されることができる。以下、図11では、現在ピクチャのスライスタイプがBスライスである場合について説明する。
図11は、本発明が適用される一実施例で、現在スライスがBスライスである時の参照ピクチャリストを初期化する方法を説明するための図である。
スライスタイプがBスライスである場合には、参照ピクチャリスト0と参照ピクチャリスト1を生成することとなる。この時、参照ピクチャリスト0または参照ピクチャリスト1は時間的予測のための参照ピクチャリストのみを含むことができ、または、時間的予測のための参照ピクチャリストと視点間予測のための参照ピクチャリストを両方とも含んでいても良い。
まず、時間的予測のための参照ピクチャリストの場合、短期参照ピクチャと長期参照ピクチャの配列方法が異なることができる。例えば、短期参照ピクチャの場合はピクチャオーダカウンタ(Picture Order Count;以下、「POC」という。)によって参照ピクチャが配列されることができ、長期参照ピクチャの場合は、変数(LongtermPicNum)値によって参照ピクチャが配列されることができる。そして、長期参照ピクチャに先立って短期参照ピクチャが初期化されることができる。
参照ピクチャリスト0の短期参照ピクチャの配列される順序は、現在ピクチャよりも低いPOC値を持つ参照ピクチャのうち、最も高いPOC値を持つ参照ピクチャから最も低いPOC値を持つ参照ピクチャの順に配列され、その次に現在ピクチャよりも高いPOC値を持つ参照ピクチャのうち、最も低いPOC値を持つ参照ピクチャから最も高いPOC値を持つ参照ピクチャの順に配列されることができる。例えば、現在ピクチャよりも低いPOC値を持つ参照ピクチャであるPN0、PN1のうち、最も高いPOC値を持つPN1から始め、PN0の順に配列され、その次に現在ピクチャよりも高いPOC値を持つ参照ピクチャであるPN3,PN4のうち、最も低いPOC値を持つPN3から始め、PN4の順に配列されることができる。
そして、参照ピクチャリスト0の長期参照ピクチャの配列される順序は、参照ピクチャのうち、最も低い変数(LongtermPicNum)を持つ参照ピクチャから最も高い変数を持つ参照ピクチャの順に配列されることができる。例えば、LPN0,LPN1うち、最も低い変数を持つLPN0から始め、その次に最も低い変数を持つLPN1の順に配列されることができる。
視点間予測のための参照ピクチャリストの場合、視点情報を用いて誘導された第1変数(ViewNum)に基づいて配列されることができる。例えば、視点間予測のための参照ピクチャリスト0の場合、現在ピクチャよりも低い第1変数値を持つ参照ピクチャのうち、最も高い第1変数値を持つ参照ピクチャから最も低い第1変数値を持つ参照ピクチャの順に配列されることができる。そして、現在ピクチャよりも高い第1変数値を持つ参照ピクチャのうち、最も低い第1変数値を持つ参照ピクチャから最も高い第1変数値を持つ参照ピクチャの順に配列されることができる。例えば、現在ピクチャよりも低い第1変数値を持つ参照ピクチャであるVN0、VN1のうち、最も高い第1変数値を持つVN1から始め、最も低い第1変数値を持つVN0の順に配列されることができる。その次に現在ピクチャよりも高い第1変数値を持つ参照ピクチャであるVN3、VN4のうち、最も低い第1変数値を持つVN3から始め、最も高い第1変数値を持つVN4の順に配列されることができる。
参照ピクチャリスト1の場合、上述した参照ピクチャリスト0の配列方式と類似に適用されることができる。
まず、時間的予測のための参照ピクチャリストの場合、参照ピクチャリスト1の短期参照ピクチャの配列される順序は、現在ピクチャよりも高いPOC値を持つ参照ピクチャのうち、最も低いPOC値を持つ参照ピクチャから最も高いPOC値を持つ参照ピクチャの順に配列され、その次に現在ピクチャよりも低いPOC値を持つ参照ピクチャのうち、最も高いPOC値を持つ参照ピクチャから最も低いPOC値を持つ参照ピクチャの順に配列されることができる。例えば、現在ピクチャよりも高いPOC値を持つ参照ピクチャであるPN3、PN4のうち、最も低いPOC値を持つPN3から始め、PN4の順に配列され、その次に現在ピクチャよりも低いPOC値を持つ参照ピクチャであるPN0、PN1のうち、最も高いPOC値を持つPN1から始め、PN0の順に配列されることができる。
そして、参照ピクチャリスト1の長期参照ピクチャの配列される順序は、参照ピクチャのうち、最も低い変数(LongtermPicNum)を持つ参照ピクチャから最も高い変数を持つ参照ピクチャの順に配列されることができる。例えば、LPN0、LPN1のうち、最も低い変数を持つLPN0から始め、その次に最も低い変数を持つLPN1の順に配列されることができる。
視点間予測のための参照ピクチャリストの場合、視点情報を用いて誘導された第1変数(ViewNum)に基づいて配列されることができる。例えば、視点間予測のための参照ピクチャリスト1の場合、現在ピクチャよりも高い第1変数値を持つ参照ピクチャのうち、最も低い第1変数値を持つ参照ピクチャから最も高い第1変数値を持つ参照ピクチャの順に配列されることができる。そして、現在ピクチャよりも低い第1変数値を持つ参照ピクチャのうち、最も高い第1変数値を持つ参照ピクチャから最も低い第1変数値を持つ参照ピクチャの順に配列されることができる。例えば、現在ピクチャよりも高い第1変数値を持つ参照ピクチャであるVN3、VN4のうち、最も低い第1変数値を持つVN3から始め、最も高い第1変数値を持つVN4の順に配列されることができる。その次に現在ピクチャよりも低い第1変数値を持つ参照ピクチャであるVN0、VN1のうち、最も高い第1変数値を持つVN1から始め、最も低い第1変数値を持つVN0の順に配列されることができる。
上記のような過程を通じて初期化された参照ピクチャリストは、参照ピクチャリスト再配列部640に転送され、より効率的なコーディングのために再配列される。このような再配列過程は、復号ピクチャバッファを動作させ、参照ピクチャとして選択される確率の最も高い参照ピクチャに低い番号を割り当て、ビット率を減らすためのものである。以下、図12乃至図19では、参照ピクチャリストを再配列する方法を様々な実施例に挙げて説明する。
図12は、本発明が適用される実施例で、参照ピクチャリスト再配列部640の内部ブロック図である。
参照ピクチャリスト再配列部640は、大きく、スライスタイプ確認部642、参照ピクチャリスト0再配列部643及び参照ピクチャリスト1再配列部645を含む。参照ピクチャリスト0再配列部643は、第1識別情報獲得部643Aと第1参照番号割当変更部643Bとを含み、参照ピクチャリスト1再配列部645は、第2識別情報獲得部645Aと第2参照番号割当変更部645Bとを含む。
スライスタイプ確認部642は、現在スライスのスライスタイプを確認し、このスライスタイプによって参照ピクチャリスト0及び/または参照ピクチャリスト1の再配列を行うか否かが決定される。例えば、現在スライスのスライスタイプがIスライスである場合、参照ピクチャリスト0及び参照ピクチャリスト1を両方とも再配列しない。そして、Pスライスである場合には、参照ピクチャリスト0のみに再配列を行い、Bスライスである場合には、参照ピクチャリスト0及び参照ピクチャリスト1の両方に再配列を行う。
参照ピクチャリスト0再配列部643は、現在スライスのスライスタイプがIスライスでなく、参照ピクチャリスト0の再配列を行うというフラグ情報が「真」である場合に動作する。第1識別情報獲得部643Aは、参照番号の割当方法を表す識別情報を獲得し、第1参照番号割当変更部643Bでは、当該識別情報によって参照ピクチャリスト0の各参照ピクチャに割り当てられる参照番号を変更する。
同様に、参照ピクチャリスト1再配列部645は、現在スライスのスライスタイプがBスライスで、参照ピクチャリスト1の再配列を行うというフラグ情報が「真」である場合に動作する。第2識別情報獲得部645Aは、参照番号の割当方法を表す識別情報を獲得し、第2参照番号割当変更部645Bでは、当該識別情報によって参照ピクチャリスト1の各参照ピクチャに割り当てられる参照番号を変更する。
参照ピクチャリスト0再配列部643と参照ピクチャリスト1再配列部645を通じて実際のインター予測のために用いられる参照ピクチャリスト情報が生成される。以下、図13を用いて、第1、2参照番号割当変更部643B、645Bで各参照ピクチャに割り当てられる参照番号を変更する方法について詳細に説明する。
図13は、本発明が適用される実施例で、参照番号割当変更部643B,645Bの内部ブロック図である。
本実施例では、図12に示す参照ピクチャリスト0再配列部643及び参照ピクチャリスト1再配列部645と共に説明する。図13を参照すれば、第1、2参照番号割当変更部643B、645Bは、時間的予測のための参照番号割当変更部644A、長期参照ピクチャのための参照番号割当変更部644B、視点間予測のための参照番号割当変更部644C及び参照番号割当変更終了部644Dを含む。第1、2識別情報獲得部643A、645Aで獲得された識別情報によって第1、2参照番号割当変更部643B、645B内の各部分が動作する。このような再配列過程は、参照番号割当変更を終了することを知らせる識別情報が入力されるまで行われる。
例えば、第1、2識別情報獲得部643A、645Aで時間的予測のための参照番号の割当を変更することを知らせる識別情報が転送された場合、時間的予測のための参照番号割当変更部644Aが動作する。時間的予測のための参照番号割当変更部644Aでは、当該識別情報によってピクチャ番号の差値を獲得する。ここで、ピクチャ番号の差値とは、現在ピクチャのピクチャ番号と予測されたピクチャ番号との差を意味し、予測されたピクチャ番号とは、直前に割り当てられた参照ピクチャの番号を意味できる。このようにして獲得されたピクチャ番号の差値を用いて参照番号の割当を変更できる。この時、ピクチャ番号の差値は、当該識別情報によって予測されたピクチャ番号に/から加算/減算されることができる。
他の例として、指定した長期参照ピクチャに参照番号の割当を変更することを知らせる識別情報が転送された場合、長期参照ピクチャのための参照番号割当変更部644Bが動作する。長期参照ピクチャのための参照番号割当変更部644Bでは、当該識別情報によって指定されたピクチャの長期参照ピクチャ番号を獲得する。
さらに他の例として、視点間予測のための参照番号の割当を変更しろとの識別情報が転送された場合、視点間予測のための参照番号割当変更部644Cが動作する。視点間予測のための参照番号割当変更部644Cでは、当該識別情報によって視点情報の差値を獲得する。ここで、視点情報の差値とは、現在ピクチャの視点番号と予測された視点番号との差を意味し、予測された視点番号とは、直前に割り当てられた参照ピクチャの視点番号を意味できる。このように獲得された視点情報の差値を用いて参照番号の割当を変更できる。この時、視点情報の差値は、当該識別情報によって予測された視点番号に/から加算/減算されることができる。
さらに他の例として、参照番号割当変更を終了することを知らせる識別情報が転送された場合、参照番号割当変更終了部644Dが動作する。参照番号割当変更終了部644Dではこの識別情報によって参照番号の割当変更を終了し、これにより、参照ピクチャリスト再配列部640では参照ピクチャリスト情報を生成することとなる。
このように、視点間予測に用いられる参照ピクチャは、時間的予測に用いられる参照ピクチャと共に管理されることができる。または、視点間予測に用いられる参照ピクチャを時間的予測に用いられる参照ピクチャとは別に管理しても良い。このような場合には、視点間予測に用いられる参照ピクチャを管理するための新しい情報が必要とされることができる。このような場合については図15乃至図19で詳細に説明するものとする。次に、図14では、視点間予測のための参照番号割当変更部644Cについて具体的な実施例を通じて説明する。
図14は、本発明が適用される一実施例で、視点情報を用いて参照ピクチャリストを再配列する過程を説明するための図である。
本実施例では、現在ピクチャの視点番号VNは3、復号ピクチャバッファの大きさDPBsizeは4で、現在スライスのスライスタイプがPスライスである場合、参照ピクチャリスト0の再配列過程について説明する。初期予測された視点番号は、現在ピクチャの視点番号である3であり、視点間予測のための参照ピクチャリスト0の最初配列は4、5、6、2である(a)。この時、視点情報の差値を減算し、視点間予測のための参照番号の割当を変更することを知らせる識別情報が転送され、この識別情報によって視点情報差値として1を獲得する。そして、予測された視点番号(=3)から視点情報差値(=1)を減算し、新しく予測された視点番号(=2)が計算される。すなわち、視点番号2を持つ参照ピクチャに、視点間予測のための参照ピクチャリスト0の最初インデックスを割り当てる。そして、以前の最初インデックスに割り当てられていたピクチャは、参照ピクチャリスト0の最も後部分に移されることができる。したがって、再配列された参照ピクチャリスト0は2、5、6、4である(b)。その後、再び視点情報の差値を減算し、視点間予測のための参照番号の割当を変更することを知らせる識別情報が転送され、この識別情報によって視点情報差値として−2を獲得する。そして、予測された視点番号(=2)から視点情報差値(=−2)を減算し、新しく予測された視点番号(=4)が計算される。すなわち、視点番号4を持つ参照ピクチャに、視点間予測のための参照ピクチャリスト0の2番目のインデックスを割り当てる。したがって、再配列された参照ピクチャリスト0は2、4、6、5である(c)。その後には、参照番号割当変更を終了することを知らせる識別情報が転送された場合、この識別情報によって、再配列された参照ピクチャリスト0を終わりとし、参照ピクチャリスト0が生成される(d)。結局、最終生成された視点間予測のための参照ピクチャリスト0の配列は2、4、6、5である。
視点間予測のための参照ピクチャリスト0の最初のインデックスを割り当てた後、残りのピクチャを再配列する他の例として、各インデックスに割り当てられていたピクチャが順に真後ろの位置に移されることができる。すなわち、視点番号が4であるピクチャには、2番目のインデックスを割り当て、2番目のインデックスが割り当てられていた視点番号5のピクチャには3番目のインデックスを割り当て、3番目のインデックスが割り当てられていた視点番号6のピクチャには4番目のインデックスを割り当てる。したがって、再配列された参照ピクチャリスト0は、2、4、5、6になる。以降、再配列される過程も同様に適用させることができる。
上記のような過程によって生成された参照ピクチャリストは、インター予測に使われる。視点間予測のための参照ピクチャリストは、時間的予測のための参照ピクチャリストと一緒に1つの参照ピクチャリストとして管理されることができる。また、別個の参照ピクチャリストとして管理されても良いが、これについては、図15乃至図19で後述する。
図15は、本発明が適用される他の実施例で、参照ピクチャリスト再配列部640の内部ブロック図である。
視点間予測のための参照ピクチャリストを別個の参照ピクチャリストとして管理するには新しい情報が必要とされることができる。例えば、まず、時間的予測のための参照ピクチャリストを再配列し、場合によって、視点間予測のための参照ピクチャリストを再配列するように構成できる。
本実施例で参照ピクチャリスト再配列部640は、大きく、時間的予測のための参照ピクチャリスト再配列部910、NALタイプ確認部960及び視点間予測のための参照ピクチャリスト再配列部970を含む。そして、時間的予測のための参照ピクチャリスト再配列部910は、スライスタイプ確認部642、第3識別情報獲得部920、第3参照番号割当変更部930、第4識別情報獲得部940、第4参照番号割当変更部950を含む。第3参照番号割当変更部930は、時間的予測のための参照番号割当変更部930A、長期参照ピクチャのための参照番号割当変更部930B及び参照番号割当変更終了部930Cを含む。同様に、第4参照番号割当変更部950は、時間的予測のための参照番号割当変更部950A、長期参照ピクチャのための参照番号割当変更部950B及び参照番号割当変更終了部950Cを含む。
時間的予測のための参照ピクチャリスト再配列部910は、時間的予測に用いられる参照ピクチャを再配列する。時間的予測のための参照ピクチャリスト再配列部910における動作は、図12で説明した参照ピクチャリスト再配列部640において視点間予測のための参照ピクチャに関する情報が異なるだけで、他の動作は略同一であり、したがって、図12から類推可能なため、その説明は省略する。
NALタイプ確認部960では、転送されたビットストリームのNALタイプを確認する。NALタイプが多視点映像コーディングのためのNALインである場合、視点間予測のための参照ピクチャリスト再配列部970を通じて視点間予測に用いられる参照ピクチャを再配列することとなる。このように生成された視点間予測のための参照ピクチャリストは、時間的予測のための参照ピクチャリスト再配列部910を通じて生成された時間的予測のための参照ピクチャリストと一緒にインター予測のために用いられる。しかし、NALタイプが多視点映像コーディングのためのNALでない場合には、視点間予測のための参照ピクチャリストを再配列しない。この場合には。単に時間的予測のための参照ピクチャリストのみが生成される。そして、視点間予測のための参照ピクチャリスト再配列部970は、視点間予測に用いられる参照ピクチャを再配列する。これは図16を用いて詳細に説明すると、下記の通りである。
図16は、本発明が適用される実施例で、視点間予測のための参照ピクチャリスト再配列部970の内部ブロック図である。
視点間予測のための参照ピクチャリスト再配列部970は、スライスタイプ確認部642、第5識別情報獲得部971、第5参照番号割当変更部972、第6識別情報獲得部973及び第6参照番号割当変更部974を含む。
スライスタイプ確認部642は、現在スライスのスライスタイプを確認し、該スライスタイプによって参照ピクチャリスト0及び/または参照ピクチャリスト1の再配列を行うか否かが決定される。スライスタイプ確認部642についての詳細な説明は、図12から類推可能なので省略するものとする。
第5、6識別情報獲得部971、973は、参照番号の割当方法を示す識別情報を獲得し、第5、6参照番号割当変更部972、974ではそれぞれ、当該識別情報によって参照ピクチャリスト0、1の各参照ピクチャに割り当てられる参照番号を変更する。ここでの参照番号は、参照ピクチャの視点番号のみを意味できる。また、参照番号の割当方法を示す識別情報は、フラグ情報でありうる。例えば、フラグ情報が「真」である場合には、視点番号の割当を変更し、「偽」の場合には視点番号の再配列過程を終了できる。もし、フラグ情報が「真」であると、第5、6参照番号割当変更部972,974は、フラグ情報によって視点番号の差値を獲得できる。ここで、視点番号の差値とは、現在ピクチャの視点番号と予測されたピクチャの視点番号間の差のことを意味し、予測されたピクチャの視点番号とは、直前に割り当てられた参照ピクチャの視点番号を意味できる。このようにして獲得された視点番号の差値を用いて視点番号の割当を変更できる。この時、視点番号の差値は、識別情報によって、予測されたピクチャの視点番号に/から加算/減算されることができる。
このように、視点間予測のための参照ピクチャリストを別個の参照ピクチャリストとして管理するためには、そのシンタックス構造も新しく定義する必要がある。したがって、図15及び図16で説明した内容に関する一実施例として、図17、18及び図19ではそのシンタックスを説明する。
図17及び図18は、本発明が適用される一実施例で、参照ピクチャリスト再配列のためのシンタックスを示す図である。
図17は、図15に示す時間的予測のための参照ピクチャリスト再配列部910の動作をシンタックスで表したものである。図15の各ブロックと比較すると、スライスタイプ確認部642は(S1)、(S6)に該当し、第3識別情報獲得部920は(S2)、第4識別情報獲得部940は(S7)に該当する。そして、第3参照番号割当変更部930の内部ブロックはそれぞれ(S3)、(S4)、(S5)に該当し、 第4参照番号割当変更部950の内部ブロックはそれぞれ(S8)、(S9)、(S10)に該当する。
図18は、図15及び図16に示すNALタイプ確認部960と視点間予測のための参照ピクチャリスト再配列部970の動作をシンタックスで表したものである。図15及び図16の各ブロックと比較すると、NALタイプ確認部960は(S11)に該当し、スライスタイプ確認部642は(S13)、(S16)に該当し、第5識別情報獲得部971は(S14)、第6識別情報獲得部973は(S17)に該当する。そして、第5参照番号割当変更部972は(S15)に該当し、第6参照番号割当変更部974は(S18)に該当する。
図19は、本発明が適用される他の実施例で、参照ピクチャリスト再配列のためのシンタックスを示す図である。
図19は、図15及び図16に示すNALタイプ確認部960と視点間予測のための参照ピクチャリスト再配列部970の動作を、他のシンタックスの例で表したものである。図15及び図16の各ブロックと比較すると、NALタイプ確認部960は(S21)に該当し、スライスタイプ確認部642は(S22)、(S25)に該当し、第5識別情報獲得部971は(S23)、第6識別情報獲得部973は(S26)に該当する。そして、第5参照番号割当変更部972は(S24)に該当し、第6参照番号割当変更部974は(S27)に該当する。
上述したように、視点間予測のための参照ピクチャリストは、インター予測部700で用いられることができるが、輝度補償を行うにおいても適用可能である。輝度補償は、動き推定/動き補償を行う過程で適用されることができるが、この時、現在ピクチャが、異なる視点に在る参照ピクチャを用いる場合、視点間予測のための参照ピクチャリストを用いることによってより効率的な輝度補償を行うことができる。次に、本発明を適用した輝度補償の実施例について説明する。
図20は、本発明が適用される一実施例で、現在ブロックの輝度差分値を獲得する過程を説明するための図である。
輝度補償とは、輝度変異によって適応的に動き補償されたビデオ信号をデコーディングする過程のことを意味し、ビデオ信号の予測構造が視点間予測、視点内予測などに適用されることができる。
輝度補償とは、復号対象となるブロックに対応する輝度差分レジデュアルと、輝度差分予測値を用いてビデオ信号をデコーディングする過程のことを意味する。ここで、輝度差分予測値は、デコーディング対象となるブロックに存在する隣接ブロックから獲得される。また、隣接ブロックから輝度差分予測値を獲得する過程は、隣接ブロックの参照情報を用いて決定するが、このとき、隣接ブロックを探索する過程で順序及び方向が考慮される。最後に、隣接ブロックとは、既にデコーディングされたブロックのことを言うが、視点または時間に対する同一ピクチャ内の重複性を考慮してデコーディングされた映像あるいは相互に異なるピクチャ内の重複性を考慮してデコーディングされた映像を意味する。
現在ブロックと候補参照ブロック(candidate reference block)の類似性を比較する時、両ブロック間の輝度差を考慮すべきである。この輝度差を補償するために新しい動き推定/動き補償(motion compensation)が行われる。新しいSADは、下記の式1で得られることができる。
Figure 0005247677
Figure 0005247677
ここで、Mcurは現在ブロックの平均画素値を表し、Mrefは参照ブロックの平均画素値を表す。f(i,j)は現在ブロックの画素値を表し、r(i+x,j+y)は参照ブロックの画素値を表す。上記の式2の新しいSADに基づいて動き推定を行うことによって、現在ブロックと参照ブロック間の平均画素値差が獲得できる。獲得された平均画素値差を輝度差分値(IC_offset)という。
輝度補償が適用された動き推定が行われる場合、輝度差分値と動きベクトルが求められ、この輝度差分値と動きベクトルを用いて輝度補償が式3で行われる。
Figure 0005247677
ここで、NewR(i、j)は、輝度補償が行われたレジデュアルを表し、(x’,y’)は動きベクトルを表す。
輝度差分値(Mcur−Mref)はデコーディング装置に転送されなければならない。デコーディング装置での輝度補償は、下記のように行われる。
Figure 0005247677
NewR”(i,j)は、復元された、輝度補償の行われたレジデュアルを表し、f’(i,j)は、復元された現在ブロックの画素値を表す。
現在ブロックを復元するためには、輝度差分値がデコーディング装置に転送されなければならず、輝度差分値は隣接ブロックの情報から予測されることができる。この輝度差分値をコーディングするビット数をより減少させるべく、現在ブロックの輝度差分値(IC_offset)と隣接ブロックの輝度差分値(predIC_offset)との差値(RIC_offset)のみを送ることができる。これは下の式5で示される。
(式5)
RIC_offset=IC_offset-predIC_offset
図21は、本発明が適用される実施例で、現在ブロックに対する輝度補償を行う過程を説明するための流れ図である。
まず、ビデオ信号から、現在ブロックの隣接ブロックとこの隣接ブロックが参照するブロックとの平均画素値差を表す隣接ブロックの輝度差分値を抽出する(S2110)。この輝度差分値を用いて現在ブロックの輝度差分予測値を獲得する(S2120)。獲得された輝度差分予測値を用いて現在ブロックの輝度差分値を復元可能になる。
この時、輝度差分予測値を獲得するには様々な方法で接近可能である。例えば、隣接ブロックの輝度差分値から現在ブロックの輝度差分値を予測するに先立ち、現在ブロックの参照番号と隣接ブロックの参照番号とが同一か否かを確認し、その確認結果によって、どの隣接ブロックを用いるか、または、どの値を用いるかが決定されることができる。また、隣接ブロックの情報を探索する過程で順序または方向が与えられることができ、定められた順序または方向によって輝度補償に必要な輝度差分予測値を獲得することができる。他の例として、輝度差分予測値を獲得する時に、現在ブロックの輝度補償を行うか否かを示すフラグ情報(IC_flag)も用いることができる。現在ブロックのフラグ情報もまた、隣接ブロックの情報を用いて予測することができる。さらに他の例として、参照番号を確認する方法とフラグ情報を予測する方法を両方とも用いて輝度差分予測値を獲得することができる。これを、図22乃至図24を用いて詳細に説明すると、下記の通りである。
図22は、本発明が適用される一実施例で、隣接ブロックの情報を用いて現在ブロックの輝度差分予測値を獲得する過程を説明するための図である。
現在ブロックの輝度差分予測値を獲得する時に隣接ブロックの情報を用いることができる。本明細書でいうブロックは、マクロブロックまたはサブマクロブロックを両方とも含む。例えば、隣接ブロックの輝度差分値を用いて現在ブロックの輝度差分値を予測できるが、これに先立ち、現在ブロックの参照番号と隣接ブロックの参照番号とが同一であるか否かを確認し、その確認結果によって、どの隣接ブロックを用いるか、または、どの値を用いるかが決定されることができる。「refIdxLX」は現在ブロックの参照番号を表し、「refIdxLXN」はNブロックの参照番号を表し、ここで、Nは現在ブロックに隣接するブロックの表示で、A、BまたはCを表す。「PredIC_offsetN」は、隣接するNブロックの輝度補償のための輝度差分値を表す。ここで、現在ブロックの右側上段に在るブロックであるCブロックを使用できない場合、Cブロックの代わりにDブロックを使用することができる。すなわち、Dブロックに関する情報をCブロックに関する情報として用いることができる。また、BブロックとCブロックをいずれも使用できない場合、その代わりにAブロックを使用することができる。すなわち、Aブロックに関する情報をそれぞれBブロックに関する情報、Cブロックに関する情報として用いることができる。
他の例として、輝度差分予測値を獲得する時に、現在ブロックの輝度補償を行うか否かを示すフラグ情報(IC_flag)も用いることができる。または、参照番号を確認する方法とフラグ情報を予測する方法を両方とも用いて輝度差分予測値を獲得しても良い。この時、隣接ブロックのフラグ情報が輝度補償を行っていないことを表す場合、すなわちIC_flag=0の場合、隣接ブロックの輝度差分値であるPredIC_offsetNは0にセッティングされる。
図23は、本発明が適用される一実施例で、隣接ブロックの情報を用いて輝度補償を行う過程を示す流れ図である。
デコーディング装置では、輝度補償を行うためにビデオ信号から参照ブロックの平均画素値、現在ブロックと参照ブロックの参照番号などを抽出し、これらの情報を用いて現在ブロックの輝度差分予測値を獲得できる。そして、現在ブロックの輝度差分値と輝度差分予測値間の差値である輝度差分レジデュアルを獲得し、獲得された輝度差分レジデュアルと輝度差分予測値を用いて現在ブロックの輝度差分値を復元できる。この時、現在ブロックの輝度差分予測値を獲得するにおいて、隣接ブロックの情報を用いることができる。例えば、隣接ブロックの輝度差分値を用いて現在ブロックの輝度差分値を予測できるが、これに先立って現在ブロックの参照番号と隣接ブロックの参照番号とが同一か否かを確認し、その確認結果によって、どの隣接ブロックを用いるか、または、どの値を用いるかが決定されることができる。
その具体的な実施例として、現在ブロックの隣接ブロックとこの隣接ブロックが参照するブロックとの平均画素値差を表す隣接ブロックの輝度差分値をビデオ信号から抽出する(S2310)。現在ブロックの参照番号と隣接ブロックの参照番号が同一か否かを確認する(S2320)。確認結果、現在ブロックの参照番号と同じ参照番号を持つ隣接ブロックが存在する場合、その隣接ブロックが1個のみ存在するか否かを確認する(S2330)。確認結果、現在ブロックの参照番号と一致する参照番号を持つ隣接ブロックが1個のみ存在する場合、参照番号が一致する隣接ブロックの輝度差分値を現在ブロックの輝度差分予測値に割り当てることとなる(S2340)。すなわち、「PredIC_offset=PredIC_offsetN」となる。 上記S2320段階の確認結果によって、現在ブロックの参照番号と一致する参照番号を持つ隣接ブロックが存在しない場合、または、上記S2330段階の確認結果によって、現在ブロックの参照番号と一致する参照番号を持つ隣接ブロックが2個以上存在する場合には、隣接ブロックの輝度差分値(PredIC_offsetN、N=A、BorC)の中間値(Median)を、現在ブロックの輝度差分予測値に割り当てる(S2350)。すなわち、「PredIC_offset=Median(PredIC_offsetA,PredIC_offsetB,PredIC_offsetC)」となる。
図24は、本発明が適用される他の実施例で、隣接ブロックの情報を用いて輝度補償を行う過程を示す流れ図である。
デコーディング部では、輝度補償を行うために現在ブロックの輝度差分値を復元しなければならない。この時、現在ブロックの輝度差分予測値を獲得するにおいて、隣接ブロックの情報を用いることができる。例えば、隣接ブロックの輝度差分値を用いて現在ブロックの輝度差分値を予測できるが、これに先立って現在ブロックの参照番号と隣接ブロックの参照番号が同一か否かを確認し、その確認結果によってどの隣接ブロックを用いるか、または、どの値を用いるかが決定されることができる。
その具体的な実施例として、現在ブロックの隣接ブロックとこの隣接ブロックが参照するブロックとの平均画素値差を表す隣接ブロックの輝度差分値をビデオ信号から抽出する(S2410)。現在ブロックの参照番号と隣接ブロックの参照番号が同一か否かを確認する(S2420)。確認結果、現在ブロックの参照番号と同じ参照番号を持つ隣接ブロックが存在する場合、その隣接ブロックが1個のみ存在するか否かを確認する(S2430)。確認結果、現在ブロックの参照番号と同じ参照番号を持つ隣接ブロックが1個のみ存在する場合、参照番号が一致する隣接ブロックの輝度差分値を現在ブロックの輝度差分予測値に割り当てる(S2440)。すなわち、「PredIC_offset=PredIC_offsetN」となる。上記S2420段階の確認結果によって、現在ブロックの参照番号と一致する参照番号を持つ隣接ブロックが存在しない場合、現在ブロックの輝度差分予測値は「0」で割り当てられる(S2460)。すなわち、「PredIC_offset=0」される。また、上記S2430段階の確認結果によって現在ブロックの参照番号と一致する参照番号を持つ隣接ブロックが2以上存在する場合には、現在ブロックの参照番号と異なる参照番号を持つ隣接ブロックは「0」にセッティングし、この「0」にセッティングされた値を含めて隣接ブロックの輝度差分値の中間値(Median)を現在ブロックの輝度差分予測値に割り当てる(S2450)。すなわち、「PredIC_offset=Median(PredIC_offsetA,PredIC_offsetB,PredIC_offsetC)」になる。ただし、現在ブロックの参照番号と異なる参照番号を持っている隣接ブロックが存在する場合では、ここで、PredIC_offsetA、PredIC_offsetBまたはPredIC_offsetCのうちに0値が含まれることができる。
また、輝度補償の他にもピクチャの視点を識別する視点情報及び視点間予測のための参照ピクチャリストは、仮想視点のピクチャを合成するにおいても適用可能である。仮想視点のピクチャを合成する過程で異なる視点に在るピクチャを参照することになるので、視点情報及び視点間予測のための参照ピクチャリストを用いる場合、より効率的に仮想視点のピクチャを合成可能になる。次に、本発明が適用される、仮想視点のピクチャを合成する方法の実施例について説明する。
図25は、本発明が適用された一実施例で、仮想視点のピクチャを用いて現在ピクチャを予測する過程を説明するための図である。
多視点ビデオコーディングで視点間予測を行うにおいて、現在ピクチャと異なる視点に在るピクチャを参照ピクチャとして現在ピクチャを予測できる。しかし、現在ピクチャの視点に隣接する視点に在るピクチャを用いて新しい視点のピクチャを獲得し、この獲得された新しい視点のピクチャを用いて現在ピクチャを予測する場合、より正確な予測が可能になる。この時、各隣接する視点のピクチャを用いるために、または、所望の特定視点のピクチャを用いるために、ピクチャの視点を表す視点識別子が用いられることができる。このような新しい視点を生成する場合、新しい視点を生成するか否かを知らせる特定シンタックスが存在するはずであり、このシンタックスが新しい視点を生成することを知らせた時、視点識別子を用いて新しい視点を生成できる。視点合成予測部で獲得された新しい視点のピクチャは参照ピクチャとして用いられることができ、この場合、新しい視点のピクチャに視点識別子を割り当てることができる。また、動きベクトルを転送するために動きベクトル予測を行う過程で、現在ブロックの隣接ブロックが、視点合成予測部で獲得されたピクチャを参照することができる。この時、新しい視点のピクチャを参照ピクチャとして用いるためにピクチャの視点を表す視点識別子が用いられることができる。
図26は、本発明が適用された実施例で、MVCで視点間予測を行うにおいて新しい視点のピクチャを合成するための過程を示す流れ図である。
現在ピクチャに隣接する視点に在るピクチャを用いて新しい視点のピクチャを合成し、この合成された新しい視点のピクチャを用いて現在ピクチャを予測する場合、より正確な予測が可能になる。この時、新しい視点のピクチャを合成する場合、新しい視点のピクチャを合成し、現在ピクチャの予測を行うか否かを知らせる特定シンタックスが存在し、場合によって現在ピクチャの予測を行うか否かを判断すると、より効率的なコーディングが可能になる。特定シンタックスを視点間合成予測識別子と定義し、これは次の通りである。例えば、スライス階層で新しい視点のピクチャを合成し、現在ピクチャの予測を行うか否かを示すview_synthesize_pred_flagを定義しても良く、または、マクロブロック階層で新しい視点のピクチャを合成し、現在ピクチャの予測を行うか否かを示すview_syn_pred_flagを定義しても良い。
view_synthesize_pred_flag=1の場合、現在スライスは現在スライスに隣接する視点のスライスを用いて新しい視点のスライスを合成し、この合成されたスライスを用いて現在スライスを予測できる。view_synthesize_pred_flag=0の場合には、新しい視点のスライスを合成しない。同様に、view_syn_pred_flag=1の場合、現在マクロブロックは、現在マクロブロックに隣接する視点のマクロブロックを用いて新しい視点のマクロブロックを合成し、この合成されたマクロブロックを用いて現在マクロブロックを予測できる。view_syn_pred_flag=0の場合には、新しい視点のマクロブロックを合成しない。したがって、本発明では、ビデオ信号から仮想視点のピクチャを獲得するか否かを示す視点間合成予測識別子を抽出し、この視点間合成予測識別子を用いて仮想視点のピクチャを獲得できる。
上述の如く、ピクチャの視点を識別する視点情報及び視点間予測のための参照ピクチャリストはインター予測部700で用いられることができるが、加重値予測を行うにおいても適用が可能である。加重値予測は動き補償を行う過程で適用されることができるが、この時、現在ピクチャが異なる視点に在る参照ピクチャを用いる場合、視点情報及び視点間予測のための参照ピクチャリストを用いることによって、より効率的な加重値予測を行うことができる。本発明を適用した加重値予測方法の実施例を説明すると、下記の通りである。
図27は、本発明が適用されるビデオ信号コーディングにおいて、スライスタイプによって加重値予測を行う流れ図である。
加重値予測(weighted prediction)は、PまたはBスライスマクロブロック内の動き補償された予測データのサンプルをスケーリングする方法である。加重値予測方法は、参照ピクチャに関する情報から獲得された加重値係数情報を用いて現在ピクチャに対する加重値予測を行う明示的なモード、または、現在ピクチャと参照ピクチャ間の距離情報から獲得された加重値係数情報を用いて現在ピクチャに対する加重値予測を行う暗示的なモードを含む。このような加重値予測方法は、適用しようとするマクロブロックのスライスタイプによって異なって適用されることができる。例えば、明示的なモードは、加重値予測が行われる現在マクロブロックがPスライスのマクロブロックなのかBスライスのマクロブロックなのかによって加重値係数情報が異なってくることができる。そして、明示的なモードにおける加重値係数はエンコーダによって決定され、スライスヘッダ内に含まれて転送されることができる。一方、暗示的なモードにおける加重値係数は、List 0とList 1参照ピクチャの相対的な時間的位置に基づいて獲得されることができる。例えば、参照ピクチャが現在ピクチャに時間的に近いと、大きい加重値係数が適用されることができ、参照ピクチャが現在ピクチャから時間的に遠く離れていると、小さい加重値係数が適用されることができる。したがって、本発明では、まず、ビデオ信号から加重値予測を適用しようとするマクロブロックのスライスタイプを抽出する(S2710)。この抽出されたスライスタイプによって現在マクロブロックに対して加重値予測を行うことができる(S2720)。ここで、スライスタイプは、視点間予測が適用されたマクロブロックを含むことができる。視点間予測とは、現在ピクチャと異なる視点に在るピクチャの情報を用いて現在ピクチャを予測することを指す。例えば、スライスタイプは、現在ピクチャと同じ視点に在るピクチャの情報を用いて予測を行う時間的予測が適用されたマクロブロック、視点間予測が適用されたマクロブロック及び時間的予測と視点間予測が共に適用されたマクロブロックを含むことができる。また、スライスタイプは、時間的予測が適用されたマクロブロックのみを含んでも良く、視点間予測が適用されたマクロブロックのみを含んでも良く、これら両種類の予測が適用されたマクロブロックのみを含んでも良く、これらマクロブロック類型のうち、2類型または3類型をいずれも含んでも良い。これについては図28で詳細に後述される。このように、ビデオ信号から視点間予測が適用されたマクロブロックを含むスライスタイプが抽出された場合、現在ピクチャと異なる視点に在るピクチャに関する情報を用いて加重値予測を行うこととなる。ここで、他の視点に在るピクチャに関する情報を用いるためにピクチャの視点を区別する視点識別子を用いることができる。
図28は、本発明が適用されるビデオ信号コーディングにおいて、スライスタイプで許容されるマクロブロック類型の一実施例を示す図である。
図28に示すように、まず、視点間予測によるPスライスタイプをVP(View_P)と定義する時、視点間予測によるPスライスタイプにはイントラマクロブロックI、現在視点に在る1つのピクチャから予測されるマクロブロックP、または異なる視点に在る1つのピクチャから予測されるマクロブロックVPが許容される(2810)。そして、視点間予測によるBスライスタイプをVB(View_B)と定義する時、視点間予測によるBスライスタイプにはイントラマクロブロックI、現在視点に在る少なくとも1つ以上のピクチャから予測されるマクロブロックPまたはB、または少なくとも1つ以上の異なる視点に在るピクチャから予測されるマクロブロックVPまたはVBが許容される(2820)。また、時間的予測と視点間予測のそれぞれまたは全てを用いて予測されたスライスタイプを「Mixed」と定義する時、この混合スライスタイプにはイントラマクロブロックI、現在視点に在る少なくとも1つ以上のピクチャから予測されるマクロブロックPまたはB、または少なくとも1つ以上の異なる視点に在るピクチャから予測されるマクロブロックVPまたはVB、または現在視点に在るピクチャと異なる視点に在るピクチャを両方とも用いて予測されたマクロブロック「Mixed」が許容される(2830)。ここで、異なる視点に在るピクチャを用いるためにピクチャの視点を区別する視点識別子を用いることができる。
図29及び図30は、本発明が適用される一実施例で、新しく定義されたスライスタイプによって加重値予測を行うシンタックスを示す図である。
図28で説明した通り、スライスタイプがVP、VB、混合と定義される場合、既存(例えば、H.264)の加重値予測を行うシンタックスは、図29及び図30のように変更されることができる。例えば、スライスタイプが時間的予測によるPスライスである場合には、「if(slice_type!=VP‖slice_type!=VB)」部分が追加され(2910)、スライスタイプが時間的予測によるBスライスである場合には、if文が「if(slice_type==B‖slice_type==Mixed)」のように変更されることができる(2920)。また、VP及びVBスライスタイプが新しく正義されることによって、図29と類似な形式で新しく追加されることができる(2930、2940)。この場合、視点に関する情報が追加されるから、シンタックス要素は「視点(view)」部分を含んでいる。その例として、「luma_log2_view_weight_denom、chroma_log2_view_weight_denom」などが挙げられる。
図31は、本発明が適用されるビデオ信号コーディングにおいて、視点間加重値予測を行うか否かを示すフラグ情報を用いて加重値予測を行う流れ図である。
本発明が適用されるビデオ信号コーディングにおいて、加重値予測を行うか否かを示すフラグ情報を用いる場合、より効率的なコーディングが可能になる。このようなフラグ情報は、スライスタイプに基づいて定義することができる。例えば、加重値予測がPスライスとSPスライスに適用されるか否かを示すフラグ情報が存在でき、Bスライスに適用されるか否かを示すフラグ情報が存在できる。その具体的な例として、フラグ情報をそれぞれ「weighted_pred_flag」、「weighted_bipred_idc」と定義することができる。weighted_pred_flag=0なら加重値予測がPスライスとSPスライスに適用されないことを示し、weighted_pred_flag=1なら加重値予測がPスライスとSPスライスに適用されることを示す。そして、weighted_bipred_idc=0ならデフォルト加重値予測がBスライスに適用されることを示し、weighted_bipred_idc=1なら明示的な加重値予測がBスライスに適用されることを示し、weighted_bipred_idc=2なら暗示的な加重値予測がBスライスに適用されることを示す。また、多視点ビデオコーディングにおいては、視点間のピクチャに関する情報を用いて加重値予測を行うか否かを示すフラグ情報をスライスタイプに基づいて定義することができる。
まず、ビデオ信号からスライスタイプ及び視点間加重値予測を行うか否かを示すフラグ情報を抽出する(S3110、S3120)。ここで、スライスタイプは、例えば、現在ピクチャと同一の視点に在るピクチャの情報を用いて予測を行う時間的予測が適用されたマクロブロック及び現在ピクチャと異なる視点に在るピクチャの情報を用いて予測を行う視点間予測が適用されたマクロブロックを含むことができる。上記抽出されたスライスタイプとフラグ情報に基づいて加重値予測モードを決定できる(S3130)。決定された加重値予測モードによって加重値予測を行うことができる(S3140)。ここで、フラグ情報は、上述した「weighted_pred_flag」、「weighted_bipred_idc」の他に、現在ピクチャと異なる視点に在るピクチャの情報を用いて加重値予測を行うか否かを示すフラグ情報を含むことができる。これについては、図32で詳細に後述する。このように、現在マクロブロックのスライスタイプが、視点間予測が適用されたマクロブロックを含むスライスタイプである場合に、異なる視点のピクチャに関する情報を用いて加重値予測を行うか否かを示すフラグ情報を用いると、より効率的なコーディングが可能になる。
図32は、本発明が適用される一実施例で、現在ピクチャと異なる視点に在るピクチャの情報を用いて加重値予測を行うか否かを示すフラグ情報による加重値予測方法を説明するための図である。
例えば、現在ピクチャと異なる視点に在るピクチャの情報を用いて加重値予測を行うか否かを示すフラグ情報を「view_weighted_pred_flag」、「view_weighted_bipred_idc」と定義することができる。view_weighted_pred_flag=0なら、加重値予測がVPスライスに適用されないことを示し、view_weighted_pred_flag=1なら明示的な(explicit)加重値予測がVPスライスに適用されることを示す。そして、view_weighted_bipred_idc=0ならデフォルト加重値予測がVBスライスに適用されることを示し、view_weighted_bipred_idc=1なら明示的な加重値予測がVBスライスに適用されることを示し、view_weighted_bipred_idc=2なら暗示的な加重値予測がVBスライスに適用されることを示す。暗示的な加重値予測がVBスライスに適用される場合、加重値係数は現在視点と他の視点間の相対的な距離によって獲得されることができる。また、暗示的な加重値予測がVBスライスに適用される場合、ピクチャの視点を区別する視点識別子を用いて加重値予測を行うことができ、または、各視点を区分できるように考慮して作られたピクチャオーダカウント(POC)を用いて加重値予測を行うことができる。また、これらのフラグ情報はピクチャパラメータセット(PPS)に含まれることができる。ここで、ピクチャパラメータセットとは、ピクチャ全体のエンコーディングモード(例えば、エントロピーエンコーディングモード、ピクチャ単位の量子化パラメータ初期値等)を表すヘッダ情報のことをいう。ただし、ピクチャパラメータセットは全てのピクチャに付くわけではなく、ピクチャパラメータセットがない場合には、直前に存在するピクチャパラメータセットをヘッダ情報として用いる。
図33は、本発明が適用される一実施例で、新しく定義されたフラグ情報によって加重値予測を行うシンタックスを示す図である。
本発明が適用される多視点ビデオコーディングにおいて、視点間予測が適用されたマクロブロックを含むスライスタイプ及び現在ピクチャと異なる視点に在るピクチャの情報を用いて加重値予測を行うか否かを示すフラグ情報が定義される場合、どんなスライスタイプによってどんな加重値予測を行うかを判断する必要がある。例えば、図33に示すように、ビデオ信号から抽出されたスライスタイプがPスライスまたはSPスライスである場合、weighted_pred_flag=1の場合に加重値予測を行うことができ、スライスタイプがBスライスである場合には、weighted_bipred_idc=1の場合に加重値予測を行うことができる。また、スライスタイプがVPスライスである場合、view_weighted_pred_flag=1の場合に加重値予測を行うことができ、スライスタイプがVBスライスである場合には、view_weighted_bipred_idc=1の場合に加重値予測を行うことができる。
図34は、本発明が適用される実施例で、NAL(Network Abstraction Layer)ユニットタイプによって加重値予測を行う流れ図である。
まず、ビデオ信号からNALユニットタイプ(nal_unit_type)を抽出する(S3410)。ここで、NALユニットタイプとは、NAL単位の種類を示す識別子のことを指す。例えば、nal_unit_type=5の場合、NAL単位がIDRピクチャのスライスであることを示す。IDR(Instantaneous Decoding Refresh)ピクチャとは、ビデオ映像の先頭ピクチャを指す。そして、抽出されたNALユニットタイプが多視点ビデオコーディングのためのNALユニットタイプか否かを確認する(S3420)。NALユニットタイプが多視点ビデオコーディングのためのNALユニットタイプである場合、現在ピクチャと異なる視点に在るピクチャに関する情報を用いて加重値予測を行う(S3430)。NALユニットタイプはスケーラブルビデオコーディングと多視点ビデオコーディングとも適用可能なNALユニットタイプであっても良く、多視点ビデオコーディングのみのためのNALユニットタイプであっても良い。このように、多視点ビデオコーディングのためのNALユニットタイプの場合、現在ピクチャと異なる視点に在るピクチャの情報を用いて加重値予測を行わねばならず、よって、新しくシンタックスが定義される必要がある。これを、図35及び図36で詳細に説明すると、下記の通りである。
図35〜図36は、本発明が適用される一実施例で、NALユニットタイプが多視点ビデオコーディングのためのNALユニットタイプである場合、加重値予測を行うシンタックスを示す図である。
NALユニットタイプが多視点ビデオコーディングのためのNALユニットタイプの場合、既存(例えば、H.264)の加重値予測を行うシンタックスは、図35及び図36のように変更されることができる。例えば、図35の3510部分は、既存の加重値予測を行うシンタックス部分に該当し、図35の3520部分は、多視点ビデオコーディングで加重値予測を行うシンタックス部分に該当する。したがって、3520部分では、NALユニットタイプが多視点ビデオコーディングのためのNALユニットタイプの場合に限って加重値予測が行われる。この場合、視点に関する情報が追加されるので、シンタックス要素は「視点(view)」部分を含んでいる。その例として、「luma_view_log2_weight_denom、chroma_view_log2_weight_denom」などが挙げられる。また、図36の3530部分は、既存の加重値予測を行うシンタックス部分に該当し、図36の3540部分は、多視点ビデオコーディングで加重値予測を行うシンタックス部分に該当する。したがって、3540部分では、NALユニットタイプが多視点ビデオコーディングのためのNALユニットタイプの場合に限って加重値予測が行われる。この場合にも同様に、視点に関する情報が追加されるので、シンタックス要素は「視点(view)」部分を含んでいる。その例として、「luma_view_weight_l1_flag、chroma_view_weight_l1_flag」などが挙げられる。このように、多視点ビデオコーディングのためのNALユニットタイプが定義される場合、現在ピクチャと異なる視点に在るピクチャの情報を用いて加重値予測を行うことによって、より効率的なコーディングが可能になる。
図37は、本発明によるビデオ信号デコーディング装置の実施例を示すブロック図で、スライスタイプ抽出部3710、予測モード抽出部3720及びデコーディング部3730で構成される。
図38は、図37に示す装置で行われる本発明によるビデオ信号デコーディング方法を説明するための流れ図であり、スライスタイプを抽出する段階(S3810)、マクロブロック予測モードによって現在マクロブロックをデコーディングする段階(S3820)とからなる。
まず、本発明の理解を助けるために、本発明で使われる予測方式について説明する。現在マクロブロックが含まれているピクチャと同じ視点に在るピクチャを参照するか、または異なる視点に在るピクチャを参照しているかによって視点内予測(intra−view prediction)と視点間予測(inter−view prediction)とに分けられる。また、視点内予測は、既存の時間的予測(temporal prediction)と同一な予測方式といえる。
本発明によれば、まず、スライスタイプ抽出部3710は、現在マクロブロックを含むスライスのスライスタイプを抽出する(S3810)。
ここで、スライスタイプは、一実施例として、視点内予測によるスライスタイプ(slice_type)と視点間予測によるスライスタイプ(view_slice_type)の2種類が可能である。このため、本発明では視点間予測によるスライスタイプ(view_slice_type)を定義する。また、視点内予測によるスライスタイプと視点間予測によるスライスタイプはそれぞれ、Iスライス(I_SLICE)タイプまたはPスライス(P_SLICE)タイプまたはBスライスタイプ(B_SLICE)でありうる。例えば、特定スライスが、「slice_type」がBスライスで、「view_slice_type」がPスライスである場合には、特定スライスに在るマクロブロックは、視点内方向、すなわち時間方向にBスライス(B_SLICE)コーディング方式でデコーディングされたり、視点方向にPスライス(P_SLICE)コーディング方式でデコーディングされることができる。
一方、スライスタイプは、他の実施例として、視点間予測によるPスライスタイプ(VP)、視点間予測によるBスライスタイプ(VB)及びこれら両予測が混合された予測による混合スライスタイプ(Mixed)を含むことができる。
ここで、視点間予測によるPスライスタイプとは、スライスに含まれたそれぞれのマクロブロックまたはマクロブロックパーティションが現在視点に在る1つのピクチャから予測されたり、異なる視点に在る1つのピクチャから予測される場合を指す。また、視点間予測によるBスライスタイプとは、スライスに含まれたそれぞれのマクロブロックまたはマクロブロックパーティションが、現在視点に在る1つのピクチャまたは2つのピクチャから予測されたり、異なる視点に在る1つのピクチャまたはそれぞれ異なる視点に在る2つのピクチャから予測される場合を指す。最後に、両予測が混合された予測によるミックスドスライスタイプとは、スライスに含まれたそれぞれのマクロブロックまたはマクロブロックパーティションが、現在視点に在る1つのピクチャまたは2つのピクチャから予測されたり、異なる視点に在る1つのピクチャまたはそれぞれ異なる視点に在る2つのピクチャから予測されたり、現在視点に在る1つのピクチャまたは2つのピクチャ及び異なる視点に在る1つのピクチャまたはそれぞれ異なる視点に在る2つのピクチャから予測される場合を指す。言い換えると、それぞれのスライスタイプごとに参照するピクチャ及び許容されるマクロブロックタイプが異なり、これについては、図43及び図44で詳細に後述する。
また、上述したスライスタイプの実施例のうち、シンタックスについては図40、図41で詳細に後述する。
次に、予測モード抽出部3720は、現在マクロブロックが視点内予測によるマクロブロックなのか、または視点間予測によるマクロブロックなのか、または両予測が混合された予測によるマクロブロックなのかを示すマクロブロック予測モードを抽出する(S3820)。このため、本発明では、マクロブロック予測モード(mb_pred_mode)を定義する。一方、マクロブロック予測モードの一実施例と関連しては、図39、図40及び図41で詳細に後述する。
最後に、デコーディング部3730は、現在マクロブロックを復元するためのマクロブロック予測モードによって現在マクロブロックをデコーディングする(S3820)。ここで、本発明によれば、現在マクロブロックは、現在マクロブロックを復元するためのマクロブロックタイプ情報から決定された現在マクロブロックのマクロブロックタイプによってデコーディングされることができる。また、マクロブロック予測モード及びスライスタイプによってマクロブロックタイプが決定されることができる。
ここで、本発明によれば、マクロブロック予測モードが視点内予測に関するモードである場合には、視点内予測によるスライスタイプによってマクロブロックタイプを決定し、決定されたマクロブロックタイプによって視点内予測を用いて現在マクロブロックをデコーディングする。また、マクロブロック予測モードが視点間予測に関するモードである場合には、視点間予測によるスライスタイプによってマクロブロックタイプを決定し、この決定されたマクロブロックタイプによって視点間予測を用いて現在マクロブロックをデコーディングする。また、マクロブロック予測モードが、両予測が混合された予測によるマクロブロックである場合には、視点内予測によるスライスタイプ及び視点間予測によるスライスタイプによってマクロブロックタイプをそれぞれ決定し、決定されたそれぞれのマクロブロックタイプによって両予測が混合された予測を用いて現在マクロブロックをデコーディングする。
ここで、マクロブロックタイプは、マクロブロック予測モードとスライスタイプに従属する。言い換えると、マクロブロック予測モードによりマクロブロックタイプに使われる予測方式がわかり、予測方式に基づくスライスタイプによってマクロブロックタイプ情報からマクロブロックタイプが決定される。例えば、マクロブロック予測モードが視点間予測に関するモードである場合には、視点間予測によるスライスタイプ(view_slice_type)に該当するスライスタイプ(I、P、B)のマクロブロックテーブルからマクロブロックタイプを決定できる。マクロブロック予測モードとマクロブロックタイプの関係については、図39、図40及び図41で詳細に説明する。
図39は、本発明によるマクロブロック予測モードの一実施例を示す図である。
図39(a)は、本発明によるマクロブロック予測モード(mb_pred_mode)の一実施例に該当するテーブルであり、マクロブロックのために単に視点内予測すなわち、時間的予測にのみ使われる場合には「mb_pred_mode」の値は「0」が割り当てられ、マクロブロックのために視点間予測(inter−view prediction)のみが使われる場合には「mb_pred_mode」の値は「1」が割り当てられ、視点内予測と視点間予測が両方とも使われる場合には「mb_pred_mode」の値は「2」が割り当てられる。ここで、「mb_pred_mode」の値が「1」である場合、すなわち、視点間予測を示す場合には、視点間予測のための参照ピクチャリストとして視点方向List0(ViewList0)または視点方向List1(ViewList1)を定義する。
図39(b)は、本発明によるマクロブロック予測モードとマクロブロックタイプとの関係を示す図で、もし、「mb_pred_mode」の値が「0」である場合には時間的予測のみが使われ、視点内予測によるスライスタイプ(slice_type)によってマクロブロックタイプが決定される。
「mb_pred_mode」の値が「1」である場合には視点間予測のみが使われ、視点間予測によるスライスタイプ(view_slice_type)によってマクロブロックタイプが決定される。「mb_pred_mode」の値が「2」である場合には、時間上及び視点内予測が混合された予測が使われ、視点内予測によるスライスタイプ(slice_type)及び視点間予測によるスライスタイプ(view_slice_type)によって2つのマクロブロックタイプが決定される。言い換えると、マクロブロック予測モードによってマクロブロックに使われる予測方式と参照されるスライスタイプが決定され、スライスタイプによってマクロブロックタイプが決定される。
図40及び図41は、本発明によるスライスタイプ及びマクロブロック予測モードが適用されたシンタックスを示す図である。
図40は、スライスタイプとして「slice_type」及び「view_slice_type」が、マクロブロック予測モードとして「mb_pred_mode」が適用されたシンタックスである。本発明によれば、「slice_type」は、視点内予測によるスライスタイプを意味し、「view_slice_type」は、視点間予測によるスライスタイプを意味する。また、それぞれのスライスタイプはIスライスタイプまたはPスライスタイプまたはBスライスタイプになることができる。「mb_pred_mode」の値が「0」または「1」である場合には、1つのマクロブロックタイプのみを決定するが、「mb_pred_mode」の値が「2」の場合には、マクロブロックタイプをもう1つ決定することがわかる。言い換えると、図40に示すシンタックスは、既存のスライスタイプ(I、P、B)を多視点ビデオコーディングで拡大適用するために「view_slice_type」を追加したものである。
図41は、スライスタイプとして「slice_type」が、マクロブロック予測モードとして「mb_pred_mode」が適用されたシンタックスである。本発明によれば、「slice_type」は、視点間予測によるスライスタイプ(VP)、視点間予測によるBスライスタイプ(VB)及び両予測が混合された予測によるミックスドスライスタイプ(Mixed)を含む。「mb_pred_mode」の値が「0」または「1」である場合には、1つのマクロブロックタイプのみを決定するが、「mb_pred_mode」の値が「2」の場合には、マクロブロックタイプをもう1つ決定することがわかる。この場合、スライスタイプはスライスヘッダに存在し、これについては図42で詳細に後述する。言い換えると、図41に示すシンタックスは、既存のスライスタイプ(slice_type)にVP、VB、混合スライスタイプがさらに含まれたものである。
図42は、図41におけるスライスタイプが適用された実施例を示す図である。
図42(a)は、視点間予測によるスライスタイプ(VP)、視点間予測によるBスライスタイプ(VB)及び両予測が混合された予測によるミックスドスライスタイプ(Mixed)がスライスヘッダに存在することを意味する。言い換えると、既存のスライスヘッダに存在するスライスタイプに、本発明によるスライスタイプ(VP、VB、混合)が追加されたものである。
図42(b)は、視点間予測によるスライスタイプ(VP)、視点間予測によるBスライスタイプ(VB)及び両予測が混合された予測によるミックスドスライスタイプ(Mixed)が多視点ビデオコーディング(MVC)のためのスライスヘッダに存在することを意味する。言い換えると、本発明によるスライスタイプを多視点ビデオコーディングのためのスライスヘッダで新しく正義したものである。
図42(c)は、視点間予測によるスライスタイプ(VP)、視点間予測によるBスライスタイプ(VB)及び両予測が混合された予測によるミックスドスライスタイプ(Mixed)が、スケーラブルビデオコーディング(SVC)のためのスライスヘッダに存在することを意味する。言い換えると、スケーラブルビデオコーディングのためのスライスヘッダに存在するスライスタイプに、本発明によるスライスタイプが追加されたものである。
図43は、図41のスライスタイプに含まれるスライスタイプの様々な実施例を示す図である。
図43(a)は、異なる視点に在る1つのピクチャから予測される場合であるから、視点間予測によるスライスタイプ(VP)になり、図43(b)は、それぞれ異なる視点に在る2つのピクチャから予測される場合であるから、視点間予測によるBスライスタイプ(VB)になる。図43(c)及び図43(d)は、現在視点に在る1つのピクチャまたは2つのピクチャ及び異なる視点に在る1つのピクチャまたはそれぞれ異なる視点に在る2つのピクチャから予測される場合であるから、両予測が混合された予測によるミックスドスライスタイプ(Mixed)になる。
図44は、図41のスライスタイプで許容されるマクロブロックの一実施例を示す図である。図示のように、視点間予測によるPスライスタイプ(VP)にはイントラマクロブロック(I)、または現在視点に在る1つのピクチャから予測されるマクロブロック(P)、または異なる視点に在る1つのピクチャから予測されるマクロブロック(VP)が許容される。次に、視点間予測によるBスライスタイプ(VP)には、イントラマクロブロック(I)、または現在視点に在る1つのピクチャまたは2つのピクチャから予測されるマクロブロック(PまたはB)、または異なる視点に在る1つのピクチャまたはそれぞれ異なる視点に在る2つのピクチャから予測されるマクロブロック(VPまたはVB)が許容される。最後に、両予測が混合された予測によるミックスドスライスタイプ(Mixed)には、イントラマクロブロック(I)、または現在視点に在る1つのピクチャまたは2つのピクチャから予測されるマクロブロック(PまたはB)、または異なる視点に在る1つのピクチャまたはそれぞれ異なる視点に在る2つのピクチャから予測されるマクロブロック(VPまたはVB)、または現在視点に在る1つのピクチャまたは2つのピクチャ及び異なる視点に在る1つのピクチャまたはそれぞれ異なる視点に在る2つのピクチャから予測されるマクロブロック(Mixed)が許容される。
図45乃至図47は、本発明による両予測が混合された予測によるミックスドスライス(Mixed)に存在するマクロブロックのマクロブロックタイプの一実施例を示す図である。
特に、図45(a)及び図45(b)は、ミックスドスライスに存在するマクロブロックのマクロブロックタイプ(mb_type)及びサブマクロブロックタイプ(sub_mb_type)の構成方式を示す図である。また、図46及び図47は、ミックスドスライスに存在するマクロブロックの予測方向の2進数表現及び実際予測方向を示す。
本発明によれば、マクロブロックタイプ(mb_type)は、マクロブロックパーティションの大きさ(Partition_size)とマクロブロックパーティションの予測方向(Direction)をいずれも考慮して作られる。サブマクロブロックタイプ(sub_mb_type)は、サブマクロブロックパーティションの大きさ(Sub_Partition_Size)と各サブマクロブロックパーティションの予測方向(Sub_Direction)を両方とも考慮して作られる。
図45(a)に示すように、「Direction0」及び「Direction1」はそれぞれ、1番目のマクロブロックパーティションの予測方向と2番目のマクロブロックパーティションの予測方向を意味する。すなわち、8×16マクロブロックである場合、「Direction0」は左側8×16マクロブロックパーティションに対する予測方向を意味し、「Direction1」は右側マクロブロックパーティションの予測方向を意味する。
ここで、マクロブロックタイプ(mb_type)の構成原理について詳細に説明すると、最初の2bitは、該当マクロブロックのパーティション大きさ(Patition_Size)を意味し、0〜3間の値が可能である。最初の2bitに続く4bitは、マクロブロックがパーティションに分けられる場合に予測方向(Direction)を意味する。例えば、16×16マクロブロックの場合には、最初の2bitの後に単にこのマクロブロックの予測方向を表す4bitがつくことになる。16×8マクロブロックの場合には、最初の2bitの後につく4bitは、1番目のパーティションの予測方向(Direction0)を意味し、この4bitに続く他の4bitは、2番目のパーティションの予測方向(Direction1)を意味する。8×16マクロブロックの場合にも同様に、最初の2bitの後に8bitがつくことになり、最初の2bitの後につく4bitは1番目のパーティションの予測方向を、最後の4bitは2番目のパーティションの予測方向を意味する。
図45(b)に示すように、サブマクロブロックパーティションの予測方向(Sub_Direction)は、図45(a)のマクロブロックパーティションの予測方向(Direction)と同一な方式で使われる。
ここで、サブマクロブロックタイプ(sub_mb_type)の構成原理について詳細に説明すると、最初のそれぞれの2bitは、該当マクロブロックのパーティション大きさ(Partition_Size)及び該当マクロブロックのサブマクロブロックのパーティション大きさ(Sub_Partition_Size)を意味し、0〜3間の値が可能である。最初のそれぞれの2bitに続く4bitは、マクロブロックがサブマクロブロックパーティションに分けられる場合に予測方向(Sub_Direction)を意味する。例えば、マクロブロックのパーティションの大きさ(Partition_Size)が8×8で、サブマクロブロックのパーティションの大きさ(Sub_Partition_Size)が4×8の場合には、最初の2bitは3、2番目の2bitは2の値を有し、次の4bitは2つの4×8ブロックのうち、左側4×8ブロックに対する予測方向を、その次の4bitは右側4×8ブロックに対する予測方向を示す。
図46に示すように、マクロブロックの予測方向は4bitで構成されており、現在ピクチャの左(L)、上(T)、右(R)、下(B)位置のピクチャを参照する場合によってそれぞれ2進数表現が「1」となることがわかる。
図47に示すように、例えば、予測方向が上(T)の場合には、現在ピクチャの視点方向に上に位置するピクチャを参照し、予測方向が全ての方向(LTRB)の場合には、現在ピクチャの上下左右の全方向ピクチャを参照することがわかる。
図48は、本発明によるビデオ信号エンコーディング装置の実施例を示すブロック図で、マクロブロックタイプ決定部4810、マクロブロック生成部4820及びエンコーディング部4830で構成される。
図49は、図48に示す装置で行われる本発明によるビデオ信号エンコーディング方法を説明するための流れ図で、視点内予測のための第1マクロブロックタイプと視点間予測のための第2マクロブロックタイプを決定する段階(S4910)、第1マクロブロックタイプを持つ第1マクロブロックと第2マクロブロックタイプを持つ第2マクロブロックを生成する段階(S4920)、第1マクロブロックと第2マクロブロックを用いて第3マクロブロックを生成する段階(S4930)、及び現在マクロブロックのマクロブロックタイプとマクロブロック予測モードをエンコーディングする段階(S4940)からなる。
本発明によれば、まず、マクロブロックタイプ決定部4810は、視点内予測のための第1マクロブロックタイプと視点間予測のための第2マクロブロックタイプを決定する(S4910)。
次いで、マクロブロック生成部4820は、第1マクロブロックタイプを持つ第1マクロブロックと第2マクロブロックを持つ第2マクロブロックを生成し(S4920)、第1マクロブロックと第2マクロブロックを用いて第3マクロブロックを生成する(S4930)。ここで、第3マクロブロックは、第1マクロブロックと第2マクロブロックの平均値によって生成される。
最後に、エンコーディング部4830は、第1マクロブロック、第2マクロブロック及び第3マクロブロックのエンコーディング効率を比較し、現在マクロブロックのマクロブロックタイプ(mb_type)とマクロブロック予測モード(mb_pred_mode)をエンコーディングする(S4940)。ここで、エンコーディング効率を測定する方法には様々なものがあるが、とりわけRDコスト(レート歪みコスト)を用いる方法がある。RDコストは、該当のブロックをエンコーディングする時に生じるエンコーディングビット数と実際の映像との誤差を表す歪曲値の2成分をもってコストを計算する。
本発明によれば、第1マクロブロックタイプと第2マクロブロックタイプを決定する方法は、上述したRDコストがそれぞれ最小値を持つマクロブロックタイプを決定できる。例えば、視点内予測によるマクロブロックタイプのうち、RDコストが最小値を持つマクロブロックタイプが第1マクロブロックタイプになり、視点間予測によるマクロブロックタイプのうち、RDコストが最小値を持つマクロブロックタイプが第2マクロブロックタイプになる。
また、マクロブロックタイプとマクロブロック予測モードをエンコーディングする段階は、まず、第1マクロブロックのRDコストと第2マクロブロックタイプのRDコストを比較し、小さい値を求める。次に、第3マクロブロックのRDコストを求める。最後に、求められたRDコストと第3マクロブロックのRDコストとを比較し、現在マクロブロックのマクロブロックタイプとマクロブロック予測モードをエンコーディングする。
もし、求められたRDコストが第3マクロブロックのRDコスト以上である場合には、マクロブロックタイプは、求められたRDコストに該当するマクロブロックタイプになる。例えば、第1マクロブロックのRDコストと第2マクロブロックのRDコストのうち、第1マクロブロックのRDコストが小さい場合には、第1マクロブロックのマクロブロックタイプである第1マクロブロックタイプが、現在マクロブロックのマクロブロックタイプになる。また、マクロブロック予測モードは、求められたRDコストに該当するマクロブロックの予測方式になる。例えば、第1マクロブロックのRDコストと第2マクロブロックのRDコストのうち、第2マクロブロックのRDコストが小さい場合には、第2マクロブロックの予測方式である視点間予測方式が現在マクロブロックのマクロブロック予測モードとなる。
一方、求められたRDコストが第3マクロブロックのRDコスト未満である場合には、マクロブロックタイプは、第1マクロブロック及び第2マクロブロックに該当するマクロブロックタイプになる。言い換えると、視点内予測によるマクロブロックのマクロブロックタイプ及び視点間予測によるマクロブロックのマクロブロックタイプである2種類マクロブロックタイプが、現在マクロブロックのマクロブロックタイプになる。また、マクロブロック予測モードは、視点内予測と視点間予測が混合された予測方式となる。
以上説明してきた本発明の好適な実施例は、例示の目的で開示されたもので、添付の特許請求の範囲に開示された本発明の技術的思想とその技術的範囲内で様々な改良、変更、代替または付加などが可能であるということは、当業者にとっては明らかである。
本発明が適用されるビデオ信号デコーディング装置を示す概略的なブロック図である。 本発明が適用される実施例で、多視点映像コーディングされたビットストリームに追加されることができる多視点映像に関する属性情報を示す図である。 本発明が適用される実施例で、参照ピクチャリスト生成部620の内部ブロック図である。 本発明が適用された実施例で、ビデオ信号の視点拡張性を提供するためのレベル情報の階層的構造を示す図である。 本発明が適用される一実施例で、NALヘッダの拡張領域内にレベル情報を含むNAL単位の構成を示す図である。 本発明が適用される実施例で、視点間ピクチャグループの概念を説明するための多視点映像信号の全体的な予測構造を示す図である。 本発明が適用される実施例で、新しく定義された視点間ピクチャグループの概念を説明するための予測構造を示す図である。 本発明が適用される実施例で、視点間ピクチャグループ識別情報を用いて多視点映像をデコーディングする装置を示す概略的なブロック図である。 本発明が適用される実施例で、参照ピクチャリストを生成する流れ図である。 本発明が適用される一実施例で、現在スライスがPスライスである時の参照ピクチャリストを初期化する方法を説明するための図である。 本発明が適用される一実施例で、現在スライスがBスライスである時の参照ピクチャリストを初期化する方法を説明するための図である。 本発明が適用される実施例で、参照ピクチャリスト再配列部(630)の内部ブロック図である。 本発明が適用される実施例で、参照番号割当変更部(643B、645B)の内部ブロック図である。 本発明が適用される一実施例で、視点情報を用いて参照ピクチャリストを再配列する過程を説明するための図である。 本発明が適用される他の実施例で、参照ピクチャリスト再配列部(630)の内部ブロック図である。 本発明が適用される実施例で、視点間予測のための参照ピクチャリスト再配列部(970)の内部ブロック図である。 本発明が適用される一実施例で、参照ピクチャリスト再配列のためのシンタックスを示す図である。 本発明が適用される一実施例で、参照ピクチャリスト再配列のためのシンタックスを示す図である。 本発明が適用される他の実施例で、参照ピクチャリスト再配列のためのシンタックスを示す図である。 本発明が適用される一実施例で、現在ブロックの輝度差分値を獲得する過程を説明するための図である。 本発明が適用される実施例で、現在ブロックに対する輝度補償を行う過程を説明するための流れ図である。 本発明が適用される一実施例で、隣接ブロックの情報を用いて現在ブロックの輝度差分予測値を獲得する過程を説明するための図である。 本発明が適用される一実施例で、隣接ブロックの情報を用いて輝度補償を行う過程を示す流れ図である。 本発明が適用される他の実施例で、隣接ブロックの情報を用いて輝度補償を行う過程を示す流れ図である。 本発明が適用された一実施例で、仮想視点のピクチャを用いて現在ピクチャを予測する過程を説明するための図である。 本発明が適用された実施例で、MVCで視点間予測を行うにおいて新しい視点のピクチャを合成するための過程を示す流れ図である。 本発明が適用されるビデオ信号コーディングにおいて、スライスタイプによって加重値予測を行う流れ図である。 本発明が適用されるビデオ信号コーディングにおいて、スライスタイプで許容されるマクロブロック類型の一実施例を示す図である。 本発明が適用される一実施例で、新しく定義されたスライスタイプによって加重値予測を行うシンタックスを示す図である。 本発明が適用される一実施例で、新しく定義されたスライスタイプによって加重値予測を行うシンタックスを示す図である。 本発明が適用されるビデオ信号コーディングにおいて、視点間加重値予測を行うか否かを示すフラグ情報を用いて加重値予測を行う流れ図である。 本発明が適用される一実施例で、現在ピクチャと他の視点に在るピクチャの情報を用いて加重値予測を行うか否かを示すフラグ情報に基づく加重値予測方法を説明するための図である。 本発明が適用される一実施例で、新しく定義されたフラグ情報によって加重値予測を行うシンタックスを示す図である。 本発明が適用される実施例で、NALユニットタイプによって加重値予測を行う流れ図である。 本発明が適用される一実施例で、NALユニットタイプが多視点ビデオコーディングのためのNALユニットタイプである場合に加重値予測を行うシンタックスを示す図である。 本発明が適用される一実施例で、NALユニットタイプが多視点ビデオコーディングのためのNALユニットタイプである場合に加重値予測を行うシンタックスを示す図である。 本発明が適用される実施例で、新しく定義されたスライスタイプによるビデオ信号デコーディング装置の部分ブロック図である。 図37に示す装置で行われる本発明によるビデオ信号デコーディング方法を説明するための流れ図である。 本発明によるマクロブロック予測モードの一実施例を示す図である。 本発明によるスライスタイプ及びマクロブロック予測モードが適用されたシンタックスを示す。 本発明によるスライスタイプ及びマクロブロック予測モードが適用されたシンタックス(syntax)を示す。 図41におけるスライスタイプが適用された実施例を示す図である。 図41のスライスタイプに含まれるスライスタイプの様々な実施例を示す図である。 本発明による両予測が混合された予測によるミックスド(Mixed)スライスタイプで許容されるマクロブロックの一実施例を示す図である。 本発明による両予測が混合された予測によるミックスド(Mixed)スライスに存在するマクロブロックのマクロブロックタイプの一実施例を示す図である。 本発明による両予測が混合された予測によるミックスド(Mixed)スライスに存在するマクロブロックのマクロブロックタイプの一実施例を示す図である。 本発明による両予測が混合された予測によるミックスド(Mixed)スライスに存在するマクロブロックのマクロブロックタイプの一実施例を示す図である。 本発明が適用される実施例で、新しく定義されたスライスタイプによるビデオ信号エンコーディング装置の部分ブロック図である。 図48に示す装置で行われる本発明によるビデオ信号エンコーディング方法を説明するための流れ図である。

Claims (6)

  1. デコーディング装置多視点ビデオ信号を復号する方法であって,
    前記デコーディング装置前記多視点ビデオ信号から輝度補償フラグ情報を取得するステップであって,該輝度補償フラグ情報は,現在のブロックに輝度補償が行われたかどうかを示す,ステップと,
    前記デコーディング装置前記多視点ビデオ信号から前記現在のブロックの参照インデックス情報を取得するステップと,
    前記輝度補償フラグ情報が前記現在のブロックに前記輝度補償が行われたことを示すとき,前記デコーディング装置,前記現在のブロックの参照インデックス情報が少なくとも一つの隣接ブロックの参照インデックス情報と等しいかどうかを,所定の順序に従って検査するステップと,
    前記デコーディング装置,前記検査の結果に基づいて,前記隣接ブロックの輝度差分値を用いて前記現在のブロックの輝度差分予測値を導出するステップと,
    前記デコーディング装置前記輝度差分予測値を用いて前記現在のブロックに前記輝度補償を行うステップと,
    を有する方法。
  2. 前記所定の順序は,上隣接ブロック,左隣接ブロック,右上隣接ブロック,左上隣接ブロック,の順である,請求項1に記載の方法。
  3. 前記デコーディング装置前記多視点ビデオ信号から輝度差分レジデュアルを取得するステップと,
    前記デコーディング装置,前記輝度差分レジデュアル及び前記輝度差分予測値を用いて,前記現在のブロックの輝度差分値を導出するステップと,を更に有し,
    前記輝度差分レジデュアルは,前記現在のブロックの輝度差分値と,前記輝度差分予測値との差を示し,
    前記輝度差分値は,前記現在のブロックの平均画素値と参照ブロックの平均画素値との差を示し,
    前記参照ブロックは,前記現在のブロックによって参照される,請求項1に記載の方法。
  4. 前記導出ステップにおいて,前記現在のブロックの参照インデックス情報に等しい参照インデックス情報を有する,前記所定の順序に従う一つの隣接ブロックがあるとき,前記現在のブロックの輝度差分予測値は前記一つの隣接ブロックから導出される,請求項2に記載の方法。
  5. 前記導出ステップにおいて,前記現在のブロックの参照インデックス情報に等しい参照インデックス情報を有する隣接ブロックがないとき,前記現在のブロックの輝度差分予測値は前記隣接ブロックの輝度差分値の中央値から導出される,請求項2に記載の方法。
  6. 前記隣接ブロックの輝度差分値の中央値は,前記上隣接ブロックと,前記左隣接ブロックと,前記右上隣接ブロックとを用いて決定される,請求項5に記載の方法。
JP2009502690A 2006-03-30 2007-03-30 ビデオ信号のデコーディング/エンコーディング方法及び装置 Active JP5247677B2 (ja)

Applications Claiming Priority (15)

Application Number Priority Date Filing Date Title
US78717106P 2006-03-30 2006-03-30
US80139806P 2006-05-19 2006-05-19
US81064206P 2006-06-05 2006-06-05
US60/810,642 2006-06-05
US83060106P 2006-07-14 2006-07-14
US60/830,601 2006-07-14
US83215306P 2006-07-21 2006-07-21
US60/832,153 2006-07-21
US83792506P 2006-08-16 2006-08-16
US60/837,925 2006-08-16
US84003206P 2006-08-25 2006-08-25
US60/840,032 2006-08-25
US84215206P 2006-09-05 2006-09-05
US60/842,152 2006-09-05
PCT/KR2007/001582 WO2007114610A1 (en) 2006-03-30 2007-03-30 A method and apparatus for decoding/encoding a video signal

Publications (2)

Publication Number Publication Date
JP2009532932A JP2009532932A (ja) 2009-09-10
JP5247677B2 true JP5247677B2 (ja) 2013-07-24

Family

ID=38563848

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2009502690A Active JP5247677B2 (ja) 2006-03-30 2007-03-30 ビデオ信号のデコーディング/エンコーディング方法及び装置
JP2009502688A Expired - Fee Related JP5054092B2 (ja) 2006-03-30 2007-03-30 ビデオ信号のデコーディング/エンコーディング方法及び装置
JP2009502692A Expired - Fee Related JP5055355B2 (ja) 2006-03-30 2007-03-30 ビデオ信号のデコーディング/エンコーディング方法及び装置
JP2009502691A Expired - Fee Related JP5055354B2 (ja) 2006-03-30 2007-03-30 ビデオ信号のデコーディング/エンコーディング方法及び装置
JP2009502689A Expired - Fee Related JP5055353B2 (ja) 2006-03-30 2007-03-30 ビデオ信号のデコーディング/エンコーディング方法及び装置

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2009502688A Expired - Fee Related JP5054092B2 (ja) 2006-03-30 2007-03-30 ビデオ信号のデコーディング/エンコーディング方法及び装置
JP2009502692A Expired - Fee Related JP5055355B2 (ja) 2006-03-30 2007-03-30 ビデオ信号のデコーディング/エンコーディング方法及び装置
JP2009502691A Expired - Fee Related JP5055354B2 (ja) 2006-03-30 2007-03-30 ビデオ信号のデコーディング/エンコーディング方法及び装置
JP2009502689A Expired - Fee Related JP5055353B2 (ja) 2006-03-30 2007-03-30 ビデオ信号のデコーディング/エンコーディング方法及び装置

Country Status (13)

Country Link
US (29) US8565319B2 (ja)
EP (7) EP3139615A1 (ja)
JP (5) JP5247677B2 (ja)
KR (26) KR100934675B1 (ja)
AU (1) AU2007232607B2 (ja)
BR (1) BRPI0710048A2 (ja)
CA (1) CA2647735C (ja)
DE (4) DE202007019458U1 (ja)
ES (3) ES2533765T3 (ja)
MX (1) MX2008012437A (ja)
PL (2) PL2008460T3 (ja)
RU (1) RU2530310C2 (ja)
WO (5) WO2007114610A1 (ja)

Families Citing this family (246)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090016544A (ko) 2006-01-09 2009-02-16 엘지전자 주식회사 영상 신호의 레이어 간 예측 방법
KR101276847B1 (ko) 2006-01-12 2013-06-18 엘지전자 주식회사 다시점 비디오의 처리
JP5192393B2 (ja) * 2006-01-12 2013-05-08 エルジー エレクトロニクス インコーポレイティド 多視点ビデオの処理
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
US8767836B2 (en) * 2006-03-27 2014-07-01 Nokia Corporation Picture delimiter in scalable video coding
ZA200900857B (en) 2006-07-06 2010-05-26 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (POC) for multi-view video encoding and decoding
MX2009000207A (es) * 2006-07-06 2009-02-13 Thomson Licensing Metodo y aparato para desacoplar el numero de cuadro y/o la cuenta del orden de imagen (poc) para la codificacion y decodificacion de video de multiples vistas.
EP2052546A4 (en) 2006-07-12 2010-03-03 Lg Electronics Inc METHOD AND DEVICE FOR SIGNAL PROCESSING
US20090147860A1 (en) * 2006-07-20 2009-06-11 Purvin Bibhas Pandit Method and apparatus for signaling view scalability in multi-view video coding
US8731311B2 (en) * 2006-09-26 2014-05-20 Panasonic Corporation Decoding device, decoding method, decoding program, and integrated circuit
US8948256B2 (en) * 2006-10-13 2015-02-03 Thomson Licensing Reference picture list management syntax for multiple view video coding
KR101351935B1 (ko) 2006-10-13 2014-01-17 톰슨 라이센싱 멀티뷰 비디오 코딩을 수반하는 참조 화상 관리를 위한 방법
KR101366092B1 (ko) 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
FR2907575B1 (fr) * 2006-10-18 2009-02-13 Canon Res Ct France Soc Par Ac Procede et dispositif de codage d'images representant des vues d'une meme scene
WO2008048487A2 (en) * 2006-10-18 2008-04-24 Thomson Licensing Local illumination and color compensation without explicit signaling
KR20090085581A (ko) * 2006-10-24 2009-08-07 톰슨 라이센싱 다중-뷰 비디오 코딩을 위한 화상 관리
US8875199B2 (en) 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8155207B2 (en) 2008-01-09 2012-04-10 Cisco Technology, Inc. Processing and managing pictures at the concatenation of two video streams
US8416859B2 (en) 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US20090100482A1 (en) * 2007-10-16 2009-04-16 Rodriguez Arturo A Conveyance of Concatenation Properties and Picture Orderness in a Video Stream
KR101370287B1 (ko) * 2006-11-22 2014-03-07 세종대학교산학협력단 디블록킹 필터링 방법 및 장치
EP2103136B1 (en) * 2006-12-21 2017-11-01 Thomson Licensing Methods and apparatus for improved signaling using high level syntax for multi-view video coding and decoding
JP5273816B2 (ja) * 2007-01-04 2013-08-28 トムソン ライセンシング 高レベル・シンタックスを用いてマルチ・ビュー符号化ビデオにおいてビデオ・エラー隠蔽を行う方法および装置
KR100801968B1 (ko) * 2007-02-06 2008-02-12 광주과학기술원 변위를 측정하는 방법, 중간화면 합성방법과 이를 이용한다시점 비디오 인코딩 방법, 디코딩 방법, 및 인코더와디코더
US8644379B2 (en) * 2007-03-07 2014-02-04 Himax Technologies Limited De-interlacing method and method of compensating a de-interlaced pixel
KR20100014552A (ko) * 2007-03-23 2010-02-10 엘지전자 주식회사 비디오 신호의 인코딩/디코딩 방법 및 장치
WO2008123917A2 (en) * 2007-04-04 2008-10-16 Thomson Licensing Reference picture list management
KR101301181B1 (ko) * 2007-04-11 2013-08-29 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
US8548261B2 (en) * 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
BRPI0809585A2 (pt) * 2007-04-17 2014-09-23 Thomson Licensing Decodificador de referência hipotética para codificação de vídeo multivisualização
KR101427647B1 (ko) * 2007-04-25 2014-08-07 삼성전자주식회사 패킷 생성과 처리에 관한 방법 및 그 장치
US8917775B2 (en) * 2007-05-02 2014-12-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view video data
KR20080107965A (ko) * 2007-06-08 2008-12-11 삼성전자주식회사 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치
KR101244917B1 (ko) * 2007-06-11 2013-03-18 삼성전자주식회사 조도 보상 방법 및 장치, 이를 이용한 영상의 부호화,복호화 방법 및 장치
KR101366250B1 (ko) * 2007-06-19 2014-02-25 삼성전자주식회사 영상 분할을 이용한 영상 부호화, 복호화 방법 및 장치
US20080317124A1 (en) * 2007-06-25 2008-12-25 Sukhee Cho Multi-view video coding system, decoding system, bitstream extraction system for decoding base view and supporting view random access
TW200910975A (en) * 2007-06-25 2009-03-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
US9648325B2 (en) * 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
US8804845B2 (en) 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
BRPI0814854A2 (pt) * 2007-08-06 2015-01-27 Thomson Licensing Métodos e aparelho para modo de salto de vídeo animado com múltiplas imagens de referência entre exibições
KR20100058471A (ko) * 2007-08-15 2010-06-03 톰슨 라이센싱 다시점 코딩된 비디오에서의 오류 은폐를 위한 방법 및 장치
JP4739295B2 (ja) * 2007-08-27 2011-08-03 日本電信電話株式会社 映像信号生成装置、映像信号生成方法、映像信号生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20110038424A1 (en) * 2007-10-05 2011-02-17 Jiancong Luo Methods and apparatus for incorporating video usability information (vui) within a multi-view video (mvc) coding system
US8121191B1 (en) * 2007-11-13 2012-02-21 Harmonic Inc. AVC to SVC transcoder
US8718388B2 (en) 2007-12-11 2014-05-06 Cisco Technology, Inc. Video processing with tiered interdependencies of pictures
KR101524465B1 (ko) * 2008-01-10 2015-06-02 삼성전자주식회사 색차 보상을 이용한 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
US8416858B2 (en) 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
CN102017632B (zh) * 2008-03-04 2013-06-12 汤姆逊许可证公司 虚拟基准视图
CN101960854B (zh) * 2008-03-10 2013-12-18 汤姆森许可贸易公司 支持增强效率和主观质量的预测帧选择的方法和设备
JP5056560B2 (ja) * 2008-03-17 2012-10-24 富士通株式会社 符号化装置、復号化装置、符号化方法および復号化方法
EP2109047A1 (en) * 2008-04-07 2009-10-14 Global Digital Technologies SA Video characterization, identification and search system
US8707151B2 (en) * 2008-04-21 2014-04-22 Samsung Electronics Co., Ltd Apparatus and method for composing scenes using Rich Media contents
US20090279614A1 (en) * 2008-05-10 2009-11-12 Samsung Electronics Co., Ltd. Apparatus and method for managing reference frame buffer in layered video coding
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
CN101803388B (zh) 2008-05-23 2012-11-21 松下电器产业株式会社 图像解码装置、图像解码方法、图像编码装置、以及图像编码方法
US8886022B2 (en) 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8705631B2 (en) * 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US20090323822A1 (en) * 2008-06-25 2009-12-31 Rodriguez Arturo A Support for blocking trick mode operations
CN102177717B (zh) * 2008-10-07 2014-01-29 艾利森电话股份有限公司 一种用于产生媒体容器文件的方法及设备
WO2010050728A2 (ko) 2008-10-27 2010-05-06 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
EP2348732A4 (en) * 2008-11-10 2012-05-09 Lg Electronics Inc METHOD AND DEVICE FOR PROCESSING VIDEO SIGNAL BY INTER-VIEW PREDICTION
US8259814B2 (en) * 2008-11-12 2012-09-04 Cisco Technology, Inc. Processing of a video program having plural processed representations of a single video signal for reconstruction and output
WO2010058955A2 (ko) * 2008-11-18 2010-05-27 엘지전자 주식회사 영상 신호 처리 방법 및 장치
KR101158491B1 (ko) 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
KR101233627B1 (ko) * 2008-12-23 2013-02-14 한국전자통신연구원 스케일러블 부호화 장치 및 방법
MX2010007649A (es) 2009-01-19 2010-08-13 Panasonic Corp Metodo de codificacion, metodo de decodificacion, aparato de codificacion, aparato de decodificacion, programa y circuito integrado.
US8326131B2 (en) * 2009-02-20 2012-12-04 Cisco Technology, Inc. Signalling of decodable sub-sequences
JP5521202B2 (ja) 2009-02-23 2014-06-11 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
US20100218232A1 (en) * 2009-02-25 2010-08-26 Cisco Technology, Inc. Signalling of auxiliary information that assists processing of video according to various formats
US9485299B2 (en) * 2009-03-09 2016-11-01 Arris Canada, Inc. Progressive download gateway
US8767832B2 (en) * 2009-03-10 2014-07-01 Mediatek Inc. Method and apparatus for processing a multimedia bitstream
JP4947389B2 (ja) 2009-04-03 2012-06-06 ソニー株式会社 画像信号復号装置、画像信号復号方法、および画像信号符号化方法
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
JP4962525B2 (ja) * 2009-04-08 2012-06-27 ソニー株式会社 再生装置、再生方法、およびプログラム
KR101619451B1 (ko) * 2009-04-17 2016-05-10 엘지전자 주식회사 다시점 비디오 신호의 처리 방법 및 장치
WO2010123198A2 (ko) * 2009-04-21 2010-10-28 엘지전자 주식회사 다시점 비디오 신호 처리 방법 및 장치
EP2424240A4 (en) * 2009-04-22 2013-04-10 Lg Electronics Inc METHOD FOR MODIFYING REFERENCE COPY LISTS FOR A MORE VIEWED VIDEO
JP5614901B2 (ja) * 2009-05-01 2014-10-29 トムソン ライセンシングThomson Licensing 3dvの参照ピクチャ・リスト
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
TWI384887B (zh) * 2009-06-11 2013-02-01 Univ Nat Central 多視點影像編解碼方法
US8411746B2 (en) 2009-06-12 2013-04-02 Qualcomm Incorporated Multiview video coding over MPEG-2 systems
US8780999B2 (en) 2009-06-12 2014-07-15 Qualcomm Incorporated Assembling multiview video coding sub-BITSTREAMS in MPEG-2 systems
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US8711930B2 (en) * 2009-07-09 2014-04-29 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
US9161057B2 (en) * 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
KR20110007928A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 다시점 영상 부호화 및 복호화 방법과 장치
WO2011013257A1 (ja) * 2009-07-29 2011-02-03 パナソニック株式会社 マルチビュービデオ復号装置およびその方法
CA2711311C (en) * 2009-08-10 2016-08-23 Seawell Networks Inc. Methods and systems for scalable video chunking
US9445119B2 (en) * 2009-10-29 2016-09-13 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and device for processing a video sequence
KR101282552B1 (ko) 2009-11-04 2013-07-04 한국전자통신연구원 병렬 처리 스케일러블 비디오 부/복호화 방법 및 장치
TW201121331A (en) * 2009-12-10 2011-06-16 Novatek Microelectronics Corp Picture decoder
KR101444691B1 (ko) * 2010-05-17 2014-09-30 에스케이텔레콤 주식회사 참조영상 구성 및 인덱싱 장치 및 방법
KR102344855B1 (ko) * 2010-05-26 2021-12-28 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
KR20110135786A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
JP2012023651A (ja) * 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
WO2012011525A1 (ja) * 2010-07-21 2012-01-26 株式会社プランネット・アソシエイツ 三次元ビデオストリームへの映像変換方法
US9883161B2 (en) 2010-09-14 2018-01-30 Thomson Licensing Compression methods and apparatus for occlusion data
KR102006443B1 (ko) * 2010-09-30 2019-08-02 한국전자통신연구원 오차 보상을 이용한 영상 부호화/복호화 방법 및 장치
US9106916B1 (en) 2010-10-29 2015-08-11 Qualcomm Technologies, Inc. Saturation insensitive H.264 weighted prediction coefficients estimation
US9521424B1 (en) * 2010-10-29 2016-12-13 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for local weighted prediction coefficients estimation for video encoding
KR20120050725A (ko) * 2010-11-11 2012-05-21 삼성전자주식회사 데이터 재생 방법 및 장치
US8824558B2 (en) * 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9172956B2 (en) 2010-11-23 2015-10-27 Lg Electronics Inc. Encoding and decoding images using inter-prediction
JP5092011B2 (ja) * 2010-12-17 2012-12-05 株式会社東芝 動画像復号装置及び動画像復号方法
KR20120080122A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
WO2012093879A2 (ko) * 2011-01-06 2012-07-12 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
WO2012096164A1 (ja) * 2011-01-12 2012-07-19 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
US9008181B2 (en) 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
US9215473B2 (en) 2011-01-26 2015-12-15 Qualcomm Incorporated Sub-slices in video coding
CN105100822B (zh) * 2011-01-28 2018-05-11 华为技术有限公司 辅助视频补充信息承载方法、处理方法、装置与系统
WO2012115434A2 (ko) * 2011-02-21 2012-08-30 한국전자통신연구원 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치
US20130322535A1 (en) * 2011-02-21 2013-12-05 Electronics And Telecommunications Research Institute Method for encoding and decoding images using plurality of reference images and device using method
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9485517B2 (en) * 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding
JP6072678B2 (ja) * 2011-04-25 2017-02-01 シャープ株式会社 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
US9154804B2 (en) * 2011-06-04 2015-10-06 Apple Inc. Hint based adaptive encoding
TWI530161B (zh) * 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
KR20120140592A (ko) * 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
WO2012177063A2 (ko) 2011-06-24 2012-12-27 엘지전자 주식회사 스킵 모드 부호화 복호화 방법 및 장치
WO2013001813A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US11647197B2 (en) 2011-06-30 2023-05-09 Velos Media, Llc Context initialization based on slice header flag and slice type
US9060173B2 (en) * 2011-06-30 2015-06-16 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
US9338465B2 (en) * 2011-06-30 2016-05-10 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
PL2728861T3 (pl) * 2011-07-02 2017-12-29 Samsung Electronics Co., Ltd. Sposób i urządzenie do multipleksowania i demultipleksowania danych wideo w celu identyfikowania stanu odtwarzania danych wideo
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
US9948938B2 (en) * 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
US9635355B2 (en) 2011-07-28 2017-04-25 Qualcomm Incorporated Multiview video coding
US9674525B2 (en) * 2011-07-28 2017-06-06 Qualcomm Incorporated Multiview video coding
US10237565B2 (en) 2011-08-01 2019-03-19 Qualcomm Incorporated Coding parameter sets for various dimensions in video coding
CA2844595A1 (en) * 2011-08-09 2013-02-14 Samsung Electronics Co., Ltd. Method for multiview video prediction encoding and device for same, and method for multiview video prediction decoding and device for same
CA2845548C (en) 2011-08-25 2018-04-24 Panasonic Corporation Methods and apparatuses for encoding and decoding video using periodic buffer description
EP3094092B1 (en) 2011-09-07 2018-06-06 Sun Patent Trust Image decoding method and image decoding apparatus
SE538787C2 (sv) 2011-09-09 2016-11-22 Kt Corp Metod för att utföra interprediktion av videosignal genom att adaptivt bestämma ett sammansatt block i en sammansatt bild
US9736489B2 (en) 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
CA2827278C (en) * 2011-09-19 2018-11-27 Panasonic Corporation Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
SI3474551T1 (sl) 2011-09-22 2022-06-30 Lg Electronics Inc. Postopek zunanjega napovedovanja, ki ga izvaja dekodirna naprava, postopek za kodiranje videa, ki ga izvaja kodirna naprava, in z dekodirnikom berljiv pomnilniški medij, ki ima shranjene kodirane informacije o videu
SE1850158A2 (sv) * 2011-09-23 2018-12-11 Kt Corp Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
US9106927B2 (en) 2011-09-23 2015-08-11 Qualcomm Incorporated Video coding with subsets of a reference picture set
KR20140085456A (ko) 2011-09-29 2014-07-07 텔레폰악티에볼라겟엘엠에릭슨(펍) 레퍼런스 픽처 리스트 핸들링
US9712819B2 (en) 2011-10-12 2017-07-18 Lg Electronics Inc. Image encoding method and image decoding method
US8787688B2 (en) * 2011-10-13 2014-07-22 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
US8768079B2 (en) 2011-10-13 2014-07-01 Sharp Laboratories Of America, Inc. Tracking a reference picture on an electronic device
US8855433B2 (en) * 2011-10-13 2014-10-07 Sharp Kabushiki Kaisha Tracking a reference picture based on a designated picture on an electronic device
CN107770548B (zh) 2011-10-19 2020-04-14 太阳专利托管公司 解码方法、解码装置
US9264717B2 (en) 2011-10-31 2016-02-16 Qualcomm Incorporated Random access with advanced decoded picture buffer (DPB) management in video coding
US9077998B2 (en) 2011-11-04 2015-07-07 Qualcomm Incorporated Padding of segments in coded slice NAL units
EP2777258B1 (en) * 2011-11-04 2017-01-11 Huawei Technologies Co., Ltd. Binarization of prediction residuals for lossless video coding
US9124895B2 (en) 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
US10003817B2 (en) 2011-11-07 2018-06-19 Microsoft Technology Licensing, Llc Signaling of state information for a decoded picture buffer and reference picture lists
US20130113882A1 (en) * 2011-11-08 2013-05-09 Sony Corporation Video coding system and method of operation thereof
KR101841914B1 (ko) * 2011-11-08 2018-03-27 한국전자통신연구원 컬러 영상 및 깊이 영상을 포함하는 다시점 비디오의 부호화 및 복호화 방법, 그리고 부호화 및 복호화 장치
US10440389B2 (en) * 2011-11-11 2019-10-08 Lg Electronics Inc. Method and device for transmitting image information, and decoding method and device using same
US10154276B2 (en) 2011-11-30 2018-12-11 Qualcomm Incorporated Nested SEI messages for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
US9131217B2 (en) * 2011-12-09 2015-09-08 Qualcomm Incorporated Reference picture list modification for view synthesis reference pictures
US9258559B2 (en) 2011-12-20 2016-02-09 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
US9762904B2 (en) 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
US9288506B2 (en) * 2012-01-05 2016-03-15 Qualcomm Incorporated Signaling view synthesis prediction support in 3D video coding
WO2013105207A1 (en) * 2012-01-10 2013-07-18 Panasonic Corporation Video encoding method, video encoding apparatus, video decoding method and video decoding apparatus
US9451252B2 (en) 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
DK3177018T3 (en) 2012-01-17 2018-06-06 Ericsson Telefon Ab L M Managing reference image lists
TW201921951A (zh) 2012-01-19 2019-06-01 美商Vid衡器股份有限公司 影巷編碼參考圖像清單發信及建構方法及裝置
US8693793B2 (en) * 2012-01-19 2014-04-08 Sharp Laboratories Of America, Inc. Reducing reference picture set signal overhead on an electronic device
US8867852B2 (en) 2012-01-19 2014-10-21 Sharp Kabushiki Kaisha Decoding a picture based on a reference picture set on an electronic device
US9538200B2 (en) * 2012-01-19 2017-01-03 Qualcomm Incorporated Signaling of deblocking filter parameters in video coding
WO2013107939A1 (en) * 2012-01-20 2013-07-25 Nokia Corporation Method for video coding and an apparatus, a computer-program product, a system, and a module for the same
US9560353B2 (en) * 2012-01-27 2017-01-31 Sun Patent Trust Video encoding method, video encoding device, video decoding method and video decoding device
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
EP2822277A4 (en) 2012-03-02 2015-03-04 Panasonic Ip Corp America IMAGE ENCODING METHOD, IMAGE DECODING METHOD, IMAGE ENCODING DEVICE, IMAGE DECODING DEVICE, AND IMAGE ENCODING / DECODING DEVICE
US20130243085A1 (en) * 2012-03-15 2013-09-19 Samsung Electronics Co., Ltd. Method of multi-view video coding and decoding based on local illumination and contrast compensation of reference frames without extra bitrate overhead
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US9712887B2 (en) 2012-04-12 2017-07-18 Arris Canada, Inc. Methods and systems for real-time transmuxing of streaming media content
TWI816249B (zh) 2012-04-13 2023-09-21 美商Ge影像壓縮有限公司 用以自資料串流重構圖像的解碼器及方法、用以將圖像編碼入資料串流的編碼器及方法、與相關電腦程式及機器可存取媒體
US9503702B2 (en) * 2012-04-13 2016-11-22 Qualcomm Incorporated View synthesis mode for three-dimensional video coding
KR101456501B1 (ko) * 2012-04-15 2014-11-03 삼성전자주식회사 참조픽처리스트 변경이 가능한 인터 예측 방법과 그 장치
US10051264B2 (en) 2012-04-20 2018-08-14 Qualcomm Incorporated Marking reference pictures in video sequences having broken link pictures
CN104396251A (zh) * 2012-04-23 2015-03-04 三星电子株式会社 使用用于多视点视频预测的参考列表对多视点视频进行编码的方法及其装置以及使用用于多视点视频预测的参考列表对多视点视频进行解码的方法及其装置
US10205961B2 (en) 2012-04-23 2019-02-12 Qualcomm Incorporated View dependency in multi-view coding and 3D coding
WO2013162259A1 (ko) 2012-04-23 2013-10-31 삼성전자 주식회사 다시점 비디오 부호화 방법 및 장치, 다시점 비디오 복호화 방법 및 장치
US9762903B2 (en) 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
US20130329007A1 (en) * 2012-06-06 2013-12-12 Qualcomm Incorporated Redundancy removal for advanced motion vector prediction (amvp) in three-dimensional (3d) video coding
US9225978B2 (en) 2012-06-28 2015-12-29 Qualcomm Incorporated Streaming adaption based on clean random access (CRA) pictures
HUE031264T2 (en) 2012-06-29 2017-07-28 Ge Video Compression Llc Video Stream Concept
JP5743968B2 (ja) * 2012-07-02 2015-07-01 株式会社東芝 動画像復号方法及び動画像符号化方法
RU2647674C1 (ru) * 2012-07-02 2018-03-16 Самсунг Электроникс Ко., Лтд. Способ и устройство для кодирования видео и способ и устройство для декодирования видео, определяющие список опорных изображений внешнего прогнозирования в зависимости от размера блока
CN103533374B (zh) * 2012-07-06 2018-02-16 乐金电子(中国)研究开发中心有限公司 一种视频编码、解码的方法及装置
KR102185384B1 (ko) * 2012-07-11 2020-12-02 한국전자통신연구원 Mpeg 데이터의 랜덤 억세스를 지원하는 방법 및 시스템
WO2014010894A1 (ko) 2012-07-11 2014-01-16 한국전자통신연구원 Mpeg 데이터의 랜덤 억세스를 지원하는 방법 및 시스템
WO2014013695A1 (ja) * 2012-07-19 2014-01-23 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
CN104604233B (zh) * 2012-09-28 2018-04-27 杜比国际公司 图像解码装置
US9706199B2 (en) 2012-09-28 2017-07-11 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US9313500B2 (en) 2012-09-30 2016-04-12 Microsoft Technology Licensing, Llc Conditional signalling of reference picture list modification information
US20140092976A1 (en) * 2012-09-30 2014-04-03 Sharp Laboratories Of America, Inc. System for signaling idr and bla pictures
WO2014053514A1 (en) * 2012-10-01 2014-04-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scalable video coding using base-layer hints for enhancement layer motion parameters
US9854234B2 (en) * 2012-10-25 2017-12-26 Qualcomm Incorporated Reference picture status for video coding
US10165282B2 (en) 2012-11-21 2018-12-25 Lg Electronics Inc. Image decoding method and apparatus using same
US9357212B2 (en) 2012-12-07 2016-05-31 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
KR101614361B1 (ko) 2012-12-10 2016-04-21 엘지전자 주식회사 영상의 디코딩 방법 및 이를 이용하는 장치
WO2014091933A1 (ja) * 2012-12-11 2014-06-19 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
US9774927B2 (en) * 2012-12-21 2017-09-26 Telefonaktiebolaget L M Ericsson (Publ) Multi-layer video stream decoding
US10805605B2 (en) * 2012-12-21 2020-10-13 Telefonaktiebolaget Lm Ericsson (Publ) Multi-layer video stream encoding and decoding
JP6233656B2 (ja) * 2012-12-21 2017-11-22 ソニー株式会社 画像処理装置および方法
TWI669950B (zh) * 2012-12-21 2019-08-21 日商新力股份有限公司 影像處理裝置及方法
JP6027143B2 (ja) * 2012-12-27 2016-11-16 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
EP2945386B1 (en) * 2013-01-09 2020-05-06 LG Electronics Inc. Method and apparatus for processing video signals
US10136119B2 (en) * 2013-01-10 2018-11-20 Qualcomm Incoporated View synthesis in 3D video
US10491458B2 (en) * 2013-01-31 2019-11-26 Dell Products L.P. System and method for reporting peer-to-peer transfer events
WO2014163466A1 (ko) 2013-04-05 2014-10-09 삼성전자 주식회사 정수 픽셀의 위치와 관련하여 비디오의 부호화 및 복호화를 수행하는 방법과 그 장치
WO2014163454A1 (ko) * 2013-04-05 2014-10-09 삼성전자주식회사 휘도차를 보상하기 위한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US9473771B2 (en) 2013-04-08 2016-10-18 Qualcomm Incorporated Coding video data for an output layer set
EP2986000A4 (en) * 2013-04-11 2016-09-21 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING VIDEO SIGNAL
WO2014166104A1 (en) 2013-04-12 2014-10-16 Mediatek Singapore Pte. Ltd. Removal of parsing dependency for illumination compensation
US9930363B2 (en) * 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
KR102105323B1 (ko) * 2013-04-15 2020-04-28 인텔렉추얼디스커버리 주식회사 객체 기반 적응적 밝기 보상 방법 및 장치
EP3021588A4 (en) 2013-07-12 2017-12-06 Samsung Electronics Co., Ltd. Video encoding method and apparatus therefor using modification vector inducement, video decoding method and apparatus therefor
EP3013052A4 (en) * 2013-07-12 2017-02-01 Samsung Electronics Co., Ltd. Method and apparatus for inter-layer encoding and method and apparatus for inter-layer decoding video using residual prediction
US10075735B2 (en) * 2013-07-14 2018-09-11 Sharp Kabushiki Kaisha Video parameter set signaling
CN109905703B (zh) * 2013-10-11 2023-11-17 Vid拓展公司 Hevc扩展的高级句法
JP2016213519A (ja) * 2013-10-15 2016-12-15 シャープ株式会社 画像復号装置、画像符号化装置
US9674544B2 (en) * 2013-11-25 2017-06-06 Qualcomm Incorporated POC value design for multi-layer video coding
US9942546B2 (en) 2013-12-12 2018-04-10 Qualcomm Incorporated POC value design for multi-layer video coding
US10368084B2 (en) 2014-11-27 2019-07-30 Kt Corporation Video signal processing method and device
KR102553844B1 (ko) 2014-11-27 2023-07-10 주식회사 케이티 비디오 신호 처리 방법 및 장치
RU2605237C1 (ru) * 2015-07-16 2016-12-20 Общество с ограниченной ответственностью "МАКИНТЕХ" Управляющее устройство, система и способ управления освещением
CN105100549B (zh) * 2015-07-27 2018-06-29 京东方科技集团股份有限公司 图像补偿方法及装置
GB2553315A (en) 2016-09-01 2018-03-07 Nokia Technologies Oy Determining inter-view prediction areas
KR20180057789A (ko) 2016-11-22 2018-05-31 광운대학교 산학협력단 전방향 카메라에서 효과적인 차분 움직임 백터 전송방법을 이용한 비디오 코딩 방법 및 방법 및 장치
KR20180074000A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 비디오 디코딩 방법, 이를 수행하는 비디오 디코더, 비디오 인코딩 방법, 및 이를 수행하는 비디오 인코더
AT519902B1 (de) 2017-05-11 2022-07-15 Blum Gmbh Julius Führungssystem zur Führung eines Türflügels
CN111194553B (zh) 2017-10-05 2024-07-16 交互数字Vc控股公司 用于视频编码和解码中的自适应照明补偿的方法和装置
EP3468198A1 (en) * 2017-10-05 2019-04-10 Thomson Licensing Method and apparatus for video encoding and decoding based on illumination compensation
CN112514394B (zh) 2018-07-17 2024-10-29 松下电器(美国)知识产权公司 用于视频编码的系统和方法
CN110741647A (zh) * 2018-09-29 2020-01-31 深圳市大疆创新科技有限公司 一种图像处理方法、装置、可移动平台及存储介质
US11166048B2 (en) * 2018-10-02 2021-11-02 Tencent America LLC Method and apparatus for video coding
PL3846467T3 (pl) 2018-10-04 2024-04-08 Lg Electronics Inc. Bazujące na historii sposoby kodowania obrazu
US10708626B2 (en) * 2018-11-19 2020-07-07 Google Llc Iterative IDCT with adaptive non-linear filtering
US11184607B2 (en) * 2019-06-13 2021-11-23 Qualcomm Incorporated Same picture order count (POC) numbering for scalability support
WO2021054720A1 (ko) * 2019-09-16 2021-03-25 엘지전자 주식회사 가중 예측을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021132962A1 (ko) * 2019-12-23 2021-07-01 엘지전자 주식회사 Nal 유닛 타입 기반 영상 또는 비디오 코딩
MX2022008593A (es) 2020-01-12 2022-10-20 Huawei Tech Co Ltd Método y aparato para armonizar predicción ponderada con modos de fusión no rectangulares.
MX2022009920A (es) * 2020-02-19 2022-09-09 Bytedance Inc Se?alizacion de pesos de una lista de imagenes de referencia.

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US28498A (en) * 1860-05-29 Improvement in corn-planters
US147850A (en) * 1874-02-24 Improvement in cutting-nippers
US10A (en) * 1836-08-10 Gtttlslto andi
US262856A (en) * 1882-08-15 Car-heater
US89412A (en) * 1869-04-27 Improvement in mowing-machines
US202594A (en) * 1878-04-16 Improvement in fence-posts
US116558A (en) * 1871-07-04 Improvement in smelting iron ores
US106191A (en) * 1870-08-09 Fire-place heater
US159638A (en) * 1875-02-09 Improvement in grain-drills
DE1098653B (de) * 1959-06-27 1961-02-02 Hoechst Ag Verfahren zur Herstellung von Sensibilisierungsfarbstoffen
US3093928A (en) * 1961-02-16 1963-06-18 Robert K Ostrander Multivoice unit
TW352384B (en) * 1992-03-24 1999-02-11 Hoechst Ag Sulfonamido- or sulfonamidocarbonylpyridine-2-carboxamides, process for their preparation and their use as pharmaceuticals
US5473379A (en) 1993-11-04 1995-12-05 At&T Corp. Method and apparatus for improving motion compensation in digital video coding
CA2138929A1 (en) * 1993-12-30 1995-07-01 Klaus Weidmann Substituted heterocyclic carboxamides, their preparation and their use as pharmaceuticals
GB9402857D0 (en) * 1994-02-15 1994-04-06 Isis Innovation Targeting gene therapy
DE4410423A1 (de) * 1994-03-25 1995-09-28 Hoechst Ag Sulfonamidocarbonylpyridin-2-carbonsäureamide sowie ihre Pyridin-N-oxide, Verfahren zu ihrer Herstellung und ihre Verwendung als Arzneimittel
DE4410480A1 (de) * 1994-03-25 1995-09-28 Hoechst Ag Sulfonamidocarbonylpyridin-2-carbonsäureesteramide sowie ihre Pyridin-N-oxide, Verfahren zu ihrer Herstellung und ihre Verwendung als Arzneimittel
IL135495A (en) * 1995-09-28 2002-12-01 Hoechst Ag Intermediate compounds for the preparation of quinoline-converted amines - 2 - carboxylic acid
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
US5659933A (en) * 1996-04-01 1997-08-26 Mcwilliams; Edward L. Odor-proof sealable container for bodily remains
JP4159606B2 (ja) * 1996-05-24 2008-10-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動き推定
US5886736A (en) 1996-10-24 1999-03-23 General Instrument Corporation Synchronization of a stereoscopic video sequence
DE19650215A1 (de) * 1996-12-04 1998-06-10 Hoechst Ag 3-Hydroxypyridin-2-carbonsäureamidester, ihre Herstellung und ihre Verwendung als Arzneimittel
JP3931392B2 (ja) * 1997-08-25 2007-06-13 ソニー株式会社 立体画像用ビデオ信号生成装置、立体画像用ビデオ信号送出装置および立体画像用ビデオ信号受信装置
DE19746287A1 (de) * 1997-10-20 1999-04-22 Hoechst Marion Roussel De Gmbh Substituierte Isochinolin-2-Carbonsäureamide, ihre Herstellung und ihre Verwendung als Arzneimittel
US6200974B1 (en) * 1997-10-24 2001-03-13 Zeneca Limited Phenanthroline derivatives
US5916898A (en) * 1997-10-24 1999-06-29 Zeneca Limited Phenanthroline derivatives
WO1999028469A1 (en) * 1997-12-04 1999-06-10 Genzyme Corporation Compositions and methods for inducing gene expression
US6124131A (en) * 1998-08-25 2000-09-26 The Johns Hopkins University School Of Medicine Mutant hypoxia inducible factor-1 HIF-1
US6005012A (en) * 1998-10-29 1999-12-21 The Regents Of The University Of California Method for producing hydrophobic aerogels
US6408301B1 (en) * 1999-02-23 2002-06-18 Eastman Kodak Company Interactive image storage, indexing and retrieval system
EP1075147A1 (en) 1999-08-02 2001-02-07 Koninklijke Philips Electronics N.V. Motion estimation
US6735249B1 (en) * 1999-08-11 2004-05-11 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
KR100680452B1 (ko) * 2000-02-22 2007-02-08 주식회사 팬택앤큐리텔 움직임 벡터 메모리의 갱신방법 및 장치
IT1321181B1 (it) 2000-05-04 2003-12-30 Magneti Marelli Spa Metodo e dispositivo per la stima della posizione di un corpoattuatore in un azionatore elettromagnetico per il comando di una
FR2811791B1 (fr) 2000-07-13 2002-11-22 France Telecom Estimateur de mouvement pour le codage et le decodage de sequences d'images
US6516501B2 (en) * 2000-07-31 2003-02-11 Vazquez-Perez Jose Fernando Method and apparatus for ecological burial
KR100375708B1 (ko) 2000-10-28 2003-03-15 전자부품연구원 3차원 입체영상을 위한 다시점 비디오 시스템 및영상제조방법
US20020106191A1 (en) 2001-01-05 2002-08-08 Vm Labs, Inc. Systems and methods for creating a video montage from titles on a digital video disk
KR100863652B1 (ko) 2001-01-16 2008-10-15 마츠시타 덴끼 산교 가부시키가이샤 정보기록장치, 정보기록방법 및 기록매체
JP4234438B2 (ja) * 2001-03-07 2009-03-04 メルク パテント ゲゼルシャフト ミット ベシュレンクテル ハフトング ハイブリッド・イソタイプ抗体部分を含有する蛋白質の発現技術
JP4157686B2 (ja) * 2001-05-15 2008-10-01 株式会社モノリス 画像符号化および復号のための方法および装置
US6804301B2 (en) * 2001-08-15 2004-10-12 General Instrument Corporation First pass encoding of I and P-frame complexity for compressed digital video
US6985231B2 (en) * 2001-09-20 2006-01-10 Strainoptics, Inc. Method and apparatus for measuring the optical quality of a reflective surface
KR100397511B1 (ko) 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
KR100480787B1 (ko) * 2001-11-27 2005-04-07 삼성전자주식회사 좌표 인터폴레이터의 키 값 데이터 부호화/복호화 방법 및 장치
CN100452883C (zh) 2001-12-17 2009-01-14 微软公司 处理视频图像的方法
US20030123546A1 (en) 2001-12-28 2003-07-03 Emblaze Systems Scalable multi-level video coding
FI114527B (fi) * 2002-01-23 2004-10-29 Nokia Corp Kuvakehysten ryhmittely videokoodauksessa
DK1486065T3 (en) * 2002-03-15 2016-02-29 Nokia Technologies Oy PROCEDURE FOR CODING MOVEMENT IN A VIDEO SEQUENCE
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
US7831990B2 (en) 2002-04-29 2010-11-09 Sony Corporation Generic adaptation layer for JVT video
US7023921B2 (en) 2002-08-06 2006-04-04 Motorola, Inc. Method and apparatus for determining block match quality
KR100475060B1 (ko) * 2002-08-07 2005-03-10 한국전자통신연구원 다시점 3차원 동영상에 대한 사용자 요구가 반영된 다중화장치 및 방법
US6925622B2 (en) * 2002-09-30 2005-08-02 Freescale Semiconductor, Inc. System and method for correlated clock networks
US7801217B2 (en) * 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
US20040080078A1 (en) * 2002-10-25 2004-04-29 Collins David C. Methods and systems for producing a desired apparent coloring in an object produced through rapid prototyping
KR100513732B1 (ko) * 2002-12-05 2005-09-08 삼성전자주식회사 3차원 객체 데이터 부호화 및 복호화 방법 및 장치
GB0229354D0 (en) 2002-12-18 2003-01-22 Robert Gordon The University Video encoding
KR100693669B1 (ko) 2003-03-03 2007-03-09 엘지전자 주식회사 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법
US7949047B2 (en) 2003-03-17 2011-05-24 Qualcomm Incorporated System and method for partial intraframe encoding for wireless multimedia transmission
US7489342B2 (en) * 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US8135683B2 (en) * 2003-12-16 2012-03-13 International Business Machines Corporation Method and apparatus for data redundancy elimination at the block level
TWI238651B (en) 2004-04-30 2005-08-21 Benq Corp Method and apparatus for determining frame status of video data
JP4421940B2 (ja) * 2004-05-13 2010-02-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置および方法、並びに動画像復号化装置および方法
KR100679740B1 (ko) 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
US8184108B2 (en) 2004-06-30 2012-05-22 Poa Sana Liquidating Trust Apparatus and method for a folded optical element waveguide for use with light based touch screens
US7142209B2 (en) 2004-08-03 2006-11-28 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
US20060083298A1 (en) 2004-10-14 2006-04-20 Nokia Corporation Reference picture management in video coding
TWI254571B (en) 2004-12-07 2006-05-01 Sunplus Technology Co Ltd Method for fast multiple reference frame motion estimation
CN102263962A (zh) 2004-12-10 2011-11-30 韩国电子通信研究院 对多视图视频进行统一编码的装置
US7710462B2 (en) * 2004-12-17 2010-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for randomly accessing multiview videos
US7728877B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US7671894B2 (en) 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US20060146932A1 (en) * 2004-12-30 2006-07-06 Krit Panusopone Method and apparatus for providing motion estimation with weight prediction
US20060233247A1 (en) 2005-04-13 2006-10-19 Visharam Mohammed Z Storing SVC streams in the AVC file format
US20060254010A1 (en) * 2005-05-13 2006-11-16 Eugene Wagner Interproximal tool
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
US8559515B2 (en) 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
KR101244911B1 (ko) 2005-10-11 2013-03-18 삼성전자주식회사 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체
KR100667830B1 (ko) 2005-11-05 2007-01-11 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
US7903737B2 (en) 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
JP5224458B2 (ja) * 2006-01-09 2013-07-03 トムソン ライセンシング マルチビュービデオ符号化のための低解像度アップデートモードを提供する方法及び装置
JP5192393B2 (ja) 2006-01-12 2013-05-08 エルジー エレクトロニクス インコーポレイティド 多視点ビデオの処理
CN101395840B (zh) * 2006-03-01 2011-09-28 松下电器产业株式会社 发送装置和收发装置
JP5213064B2 (ja) * 2006-03-29 2013-06-19 トムソン ライセンシング マルチビュービデオ符号化方法及びその装置
MX2009000207A (es) * 2006-07-06 2009-02-13 Thomson Licensing Metodo y aparato para desacoplar el numero de cuadro y/o la cuenta del orden de imagen (poc) para la codificacion y decodificacion de video de multiples vistas.
JP5013993B2 (ja) 2006-07-12 2012-08-29 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
JP4793366B2 (ja) 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
KR101351935B1 (ko) 2006-10-13 2014-01-17 톰슨 라이센싱 멀티뷰 비디오 코딩을 수반하는 참조 화상 관리를 위한 방법
US8948256B2 (en) 2006-10-13 2015-02-03 Thomson Licensing Reference picture list management syntax for multiple view video coding
CN101627634B (zh) * 2006-10-16 2014-01-01 诺基亚公司 用于将可并行解码片用于多视点视频编码的系统和方法
KR20090085581A (ko) 2006-10-24 2009-08-07 톰슨 라이센싱 다중-뷰 비디오 코딩을 위한 화상 관리
KR100823287B1 (ko) 2007-01-03 2008-04-21 삼성전자주식회사 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
US20090116558A1 (en) * 2007-10-15 2009-05-07 Nokia Corporation Motion skip and single-loop encoding for multi-view video content
US8553781B2 (en) 2007-12-07 2013-10-08 Thomson Licensing Methods and apparatus for decoded picture buffer (DPB) management in single loop decoding for multi-view video
JP4569635B2 (ja) * 2008-01-17 2010-10-27 カシオ計算機株式会社 電波受信装置および電波時計

Also Published As

Publication number Publication date
KR20090099586A (ko) 2009-09-22
US20100020870A1 (en) 2010-01-28
US8559505B2 (en) 2013-10-15
KR100949982B1 (ko) 2010-03-29
KR100959537B1 (ko) 2010-05-27
EP2005753A4 (en) 2010-02-03
EP3139615A1 (en) 2017-03-08
KR100966568B1 (ko) 2010-06-29
KR20090101500A (ko) 2009-09-28
US20100026883A1 (en) 2010-02-04
JP2009532931A (ja) 2009-09-10
KR20090101502A (ko) 2009-09-28
US7782945B2 (en) 2010-08-24
US20100091843A1 (en) 2010-04-15
US7782947B2 (en) 2010-08-24
KR100966570B1 (ko) 2010-06-29
AU2007232607A1 (en) 2007-10-11
US20100128787A1 (en) 2010-05-27
KR100949974B1 (ko) 2010-03-29
KR100937431B1 (ko) 2010-01-18
US20100074334A1 (en) 2010-03-25
US7782948B2 (en) 2010-08-24
US20100026884A1 (en) 2010-02-04
CA2647735C (en) 2013-08-06
US8571113B2 (en) 2013-10-29
JP2009532934A (ja) 2009-09-10
JP5054092B2 (ja) 2012-10-24
PL2005753T3 (pl) 2017-07-31
US8432972B2 (en) 2013-04-30
US20100316360A1 (en) 2010-12-16
US7782943B2 (en) 2010-08-24
US8428130B2 (en) 2013-04-23
US20090279608A1 (en) 2009-11-12
EP2005753A1 (en) 2008-12-24
KR100934675B1 (ko) 2009-12-31
US8411744B2 (en) 2013-04-02
KR100949981B1 (ko) 2010-03-29
US20100027682A1 (en) 2010-02-04
DE202007019459U1 (de) 2012-09-13
KR20090099585A (ko) 2009-09-22
KR100949978B1 (ko) 2010-03-29
KR20090101499A (ko) 2009-09-28
US20090296811A1 (en) 2009-12-03
US7782944B2 (en) 2010-08-24
KR20090101498A (ko) 2009-09-28
KR20090006094A (ko) 2009-01-14
JP2009532930A (ja) 2009-09-10
KR100934674B1 (ko) 2009-12-31
US8170108B2 (en) 2012-05-01
KR100949983B1 (ko) 2010-03-29
KR20090101496A (ko) 2009-09-28
US20100026882A1 (en) 2010-02-04
KR20090099091A (ko) 2009-09-21
KR20100074314A (ko) 2010-07-01
EP2008461A1 (en) 2008-12-31
US7782950B2 (en) 2010-08-24
DE202007019446U1 (de) 2012-09-05
US20100215100A1 (en) 2010-08-26
WO2007114610A1 (en) 2007-10-11
JP5055355B2 (ja) 2012-10-24
KR100949975B1 (ko) 2010-03-29
KR100966569B1 (ko) 2010-06-30
US20100316361A1 (en) 2010-12-16
US20100316362A1 (en) 2010-12-16
KR20090006095A (ko) 2009-01-14
WO2007114612A1 (en) 2007-10-11
KR20090099093A (ko) 2009-09-21
US20100027660A1 (en) 2010-02-04
KR20090096651A (ko) 2009-09-11
KR100959538B1 (ko) 2010-05-27
EP2005752A1 (en) 2008-12-24
ES2636917T3 (es) 2017-10-10
JP5055353B2 (ja) 2012-10-24
US20100091885A1 (en) 2010-04-15
KR20090099587A (ko) 2009-09-22
DE202007019458U1 (de) 2012-09-13
KR100934672B1 (ko) 2009-12-31
KR20090099090A (ko) 2009-09-21
KR100934673B1 (ko) 2009-12-31
KR20090099096A (ko) 2009-09-21
US8611427B2 (en) 2013-12-17
EP2025170A1 (en) 2009-02-18
US20100027653A1 (en) 2010-02-04
US20100316135A1 (en) 2010-12-16
KR20090004996A (ko) 2009-01-12
US8483273B2 (en) 2013-07-09
KR100949976B1 (ko) 2010-03-29
US8472519B2 (en) 2013-06-25
KR20090099092A (ko) 2009-09-21
KR100998912B1 (ko) 2010-12-08
EP2008460A4 (en) 2010-02-03
WO2007114611A1 (en) 2007-10-11
JP5055354B2 (ja) 2012-10-24
EP3151564A1 (en) 2017-04-05
EP2025170A4 (en) 2010-02-17
WO2007114608A1 (en) 2007-10-11
US8559523B2 (en) 2013-10-15
EP2008460A1 (en) 2008-12-31
BRPI0710048A2 (pt) 2011-08-02
PL2008460T3 (pl) 2017-10-31
US20100091883A1 (en) 2010-04-15
US20100091844A1 (en) 2010-04-15
US8576920B2 (en) 2013-11-05
EP2005752A4 (en) 2010-06-09
ES2619522T3 (es) 2017-06-26
US8565319B2 (en) 2013-10-22
US7782949B2 (en) 2010-08-24
US8363732B2 (en) 2013-01-29
US20100027654A1 (en) 2010-02-04
KR20090007331A (ko) 2009-01-16
US8611419B2 (en) 2013-12-17
US8526504B2 (en) 2013-09-03
KR100949980B1 (ko) 2010-03-29
US20100027659A1 (en) 2010-02-04
RU2010111711A (ru) 2011-10-10
EP2008461A4 (en) 2010-02-03
US20100080293A1 (en) 2010-04-01
EP2025170B1 (en) 2015-01-07
US20100111169A1 (en) 2010-05-06
KR20090101501A (ko) 2009-09-28
US8457207B2 (en) 2013-06-04
EP2008461B1 (en) 2015-09-16
AU2007232607B2 (en) 2010-09-16
JP2009532932A (ja) 2009-09-10
CA2647735A1 (en) 2007-10-11
KR100934671B1 (ko) 2009-12-31
US20100316136A1 (en) 2010-12-16
KR100966567B1 (ko) 2010-06-29
KR20090006093A (ko) 2009-01-14
RU2530310C2 (ru) 2014-10-10
US20100260265A1 (en) 2010-10-14
KR100943911B1 (ko) 2010-02-24
KR20090099094A (ko) 2009-09-21
MX2008012437A (es) 2008-11-18
KR100949979B1 (ko) 2010-03-29
US20100086036A1 (en) 2010-04-08
KR20090101497A (ko) 2009-09-28
ES2533765T3 (es) 2015-04-15
JP2009532933A (ja) 2009-09-10
KR100959536B1 (ko) 2010-05-27
KR100949977B1 (ko) 2010-03-29
KR20090099089A (ko) 2009-09-21
KR20090099095A (ko) 2009-09-21
US7782946B2 (en) 2010-08-24
WO2007114609A1 (en) 2007-10-11
EP2005753B1 (en) 2016-12-21
US20100091884A1 (en) 2010-04-15
DE202007019454U1 (de) 2012-09-03
KR20090099584A (ko) 2009-09-22
US20100091886A1 (en) 2010-04-15
EP2008460B1 (en) 2017-05-17
US8565303B2 (en) 2013-10-22
US8634475B2 (en) 2014-01-21

Similar Documents

Publication Publication Date Title
JP5247677B2 (ja) ビデオ信号のデコーディング/エンコーディング方法及び装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120913

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130201

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130409

R150 Certificate of patent or registration of utility model

Ref document number: 5247677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250