Nothing Special   »   [go: up one dir, main page]

JP4311570B2 - 再生装置、ビデオ復号装置および同期再生方法 - Google Patents

再生装置、ビデオ復号装置および同期再生方法 Download PDF

Info

Publication number
JP4311570B2
JP4311570B2 JP2005194383A JP2005194383A JP4311570B2 JP 4311570 B2 JP4311570 B2 JP 4311570B2 JP 2005194383 A JP2005194383 A JP 2005194383A JP 2005194383 A JP2005194383 A JP 2005194383A JP 4311570 B2 JP4311570 B2 JP 4311570B2
Authority
JP
Japan
Prior art keywords
picture
decoded
time stamp
video
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005194383A
Other languages
English (en)
Other versions
JP2007012218A (ja
Inventor
邦明 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2005194383A priority Critical patent/JP4311570B2/ja
Priority to PCT/JP2006/311921 priority patent/WO2007004395A1/ja
Priority to EP20060766690 priority patent/EP1909278B1/en
Priority to US11/922,942 priority patent/US7844166B2/en
Publication of JP2007012218A publication Critical patent/JP2007012218A/ja
Application granted granted Critical
Publication of JP4311570B2 publication Critical patent/JP4311570B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

この発明は、ビデオとオーディオが多重化されたストリームを復号する再生装置、ビデオ復号装置、および同期再生方法に関する。
DVD(Digital Versatile Disc)などの大容量の光ディスクメディアを再生可能なメディアプレーヤやパーソナルコンピュータが普及しており、高品質の映像コンテンツがDVDなどに格納されて提供されている。また、テレビ放送などで提供されるコンテンツをDVDに録画することのできるDVDレコーダも普及している。DVDなどの記録媒体にビデオやオーディオを蓄積するためには圧縮符号化技術が不可欠である。また、映像コンテンツでは、動画に音声や字幕が同期して再生される必要があり、同期再生のための制御機構も必須である。
動画像圧縮符号化技術の標準として、MPEG(Moving Picture Experts Group)やH.264/AVC(Advanced Video Coding)がある。ビデオやオーディオの符号化ストリームは、再生時刻情報など同期再生に必要なヘッダ情報とともにシステム多重化されて、記録媒体に蓄積される。蓄積メディア向けのシステム多重化技術の標準として、MPEG−2システムのプログラムストリームなどがある。
MPEG−2システムのプログラムストリームでは、ビデオおよびオーディオの再生の単位であるアクセスユニット単位で再生すべき時刻を示すPTS(Presentation Time Stamp、プレゼンテーションタイムスタンプ)情報が付加されている。ビデオとオーディオの同期再生は、このPTS情報にもとづいて行われる。
MPEG−2システムのプログラムストリームなどの多重化ストリームを先頭から再生せずに、途中の画像から再生するランダムアクセスを行った場合、システムレイヤで得られるPTS情報だけではビデオとオーディオの同期再生を正しく行うことができないことがある。ビデオのストリームは、動画像符号化処理レイヤにおいて、未来のフレームを参照するフレーム間予測符号化が行われていることがあり、ランダムアクセスポイントからの再生を行った場合、フレームの復号順序と表示順序が一致せず、ランダムアクセスの際に取得されたシステムレイヤで取得されたPTS情報は、そのままではビデオとオーディオの同期再生のための基準タイムスタンプとして利用することができないからである。
表示順序において先頭となるピクチャのPTS情報を何らかの方法で取得し、表示先頭ピクチャのPTS情報を基準としてオーディオや字幕を同期させる必要があるが、多重化ストリームのファイルサイズを小さく抑えるため、PTS情報はランダムアクセスポイントのピクチャにしか付加されていないことが多く、同期再生に必要なPTS情報はシステムレイヤでは得られない。
本発明はこうした課題に鑑みてなされたものであり、その目的は、ビデオとオーディオなどが多重化されたストリームをランダムアクセスして再生する際に、ビデオとオーディオなどを同期させることのできる再生装置、ビデオ復号装置および同期再生方法を提供することにある。
上記課題を解決するために、本発明のある態様の再生装置は、ビデオストリームとオーディオストリームが多重化された多重化ストリームからビデオデータとオーディオデータを分離する分離部と、前記ビデオデータを復号するビデオ復号部と、前記オーディオデータを復号するオーディオ復号部と、前記オーディオ復号部にビデオの再生と同期を取るための同期信号を与える制御部とを含む。前記ビデオ復号部は、前記多重化ストリームに対して途中のピクチャから再生するランダムアクセスがなされた場合に、最初に復号される復号先頭ピクチャの再生時刻を指定する再生タイムスタンプを前記ビデオストリームから取得し、前記復号先頭ピクチャの再生タイムスタンプをもとに最初に表示される表示先頭ピクチャの再生タイムスタンプを算出するタイムスタンプ算出部を含む。前記制御部は、算出された前記表示先頭ピクチャの再生タイムスタンプを前記同期信号として前記オーディオ復号部に与える。
本発明の別の態様もまた、再生装置である。この装置は、ビデオストリーム、オーディオストリームおよび字幕ストリームが多重化された多重化ストリームからビデオデータ、オーディオデータおよび字幕データを分離する分離部と、前記ビデオデータを復号するビデオ復号部と、前記オーディオデータを復号するオーディオ復号部と、前記字幕データを復号する字幕復号部と、前記オーディオ復号部および前記字幕復号部にビデオの再生と同期を取るための同期信号を与える制御部とを含む。前記ビデオ復号部は、前記多重化ストリームに対して途中のピクチャから再生するランダムアクセスがなされた場合に、最初に復号される復号先頭ピクチャの再生時刻を指定する再生タイムスタンプを前記ビデオストリームから取得し、前記復号先頭ピクチャの再生タイムスタンプをもとに最初に表示される表示先頭ピクチャの再生タイムスタンプを算出するタイムスタンプ算出部を含む。前記制御部は、算出された前記表示先頭ピクチャの再生タイムスタンプを前記同期信号として前記オーディオ復号部および前記字幕復号部に与える。
本発明のさらに別の態様は、ビデオ復号装置である。この装置は、ビデオストリームとオーディオストリームが多重化された多重化ストリームから分離されたビデオデータを復号する復号部と、前記多重化ストリームに対して途中のピクチャから再生するランダムアクセスがなされた場合に、最初に復号される復号先頭ピクチャの再生時刻を指定する再生タイムスタンプを前記ビデオストリームから取得し、前記復号先頭ピクチャの再生タイムスタンプをもとに最初に表示される表示先頭ピクチャの再生タイムスタンプを算出するタイムスタンプ算出部とを含む。
本発明のさらに別の態様は、同期再生方法である。この方法は、ビデオストリームとオーディオストリームが多重化された多重化ストリームに対して途中のピクチャから再生するランダムアクセスがなされた場合に、最初に復号される復号先頭ピクチャの再生時刻を指定する再生タイムスタンプを前記ビデオストリームから取得し、前記復号先頭ピクチャの再生タイムスタンプをもとに最初に表示される表示先頭ピクチャの再生タイムスタンプを算出し、算出された前記表示先頭ピクチャの再生タイムスタンプに同期させて前記オーディオストリームを復号して再生する。
本発明のさらに別の態様は、プログラムである。このプログラムは、ビデオストリームとオーディオストリームが多重化された多重化ストリームに対して途中のピクチャから再生するランダムアクセスがなされた場合に、最初に復号される復号先頭ピクチャの再生時刻を指定する再生タイムスタンプを前記ビデオストリームから取得するステップと、前記復号先頭ピクチャの再生タイムスタンプをもとに最初に表示される表示先頭ピクチャの再生タイムスタンプを算出するステップと、ビデオの再生にオーディオの再生を同期させるための同期信号として、算出された前記表示先頭ピクチャの再生タイムスタンプを出力するステップとをコンピュータに実行させる。
このプログラムは、ビデオやオーディオのデコーダ等のハードウエア資源の基本的な制御を行なうために機器に組み込まれるファームウエアの一部として提供されてもよい。このファームウエアは、たとえば、機器内のROMやフラッシュメモリなどの半導体メモリに格納される。このファームウエアを提供するため、あるいはファームウエアの一部をアップデートするために、このプログラムを記録したコンピュータ読み取り可能な記録媒体が提供されてもよく、また、このプログラムが通信回線で伝送されてもよい。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ビデオとオーディオなどが多重化されたストリームをランダムアクセスして再生する際に、ビデオとオーディオなどを正確に同期させることができる。
図1は、実施の形態に係る多重符号化装置200の構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
多重符号化装置200には、ビデオデータ、オーディオデータおよび字幕データが入力される。このオーディオと字幕はビデオと同期して再生されるべきものである。
ビデオエンコーダ210は、一例として、H.264/AVC規格にしたがって、入力されたビデオデータを符号化し、符号化ビデオストリームを生成する。
オーディオエンコーダ220は、一例として、MPEGオーディオなどの規格にしたがって、入力されたオーディオデータを符号化し、符号化オーディオストリームを出力する。字幕エンコーダ230は、入力された字幕データを符号化し、符号化字幕ストリームを出力する。
ビデオエンコーダ210、オーディオエンコーダ220および字幕エンコーダ230により符号化されたストリームは、エレメンタリストリーム(Elementary Stream;ES)と呼ばれる。
H.264/AVC規格では、動画像符号化処理を行うVCL(Video Coding Layer、ビデオ符号化層)と呼ばれるレイヤと、符号化されたデータを伝送または蓄積するシステムレイヤとの間に、NAL(Network Abstraction Layer、ネットワーク抽象層)と呼ばれるレイヤが設けられている。
ビデオ、オーディオ、字幕の各エレメンタリストリームは、このNALと呼ばれるレイヤでNALユニットと呼ばれる単位で扱われ、情報の伝送や蓄積を行うためのシステムレイヤにマッピングされる。
ビデオストリームにおいてピクチャ単位でのアクセスを可能とするために、いくつかのNALユニットがアクセスユニットと呼ばれる単位にまとめられる。オーディオストリーム、字幕ストリームも同様に、いくつかのNALユニットをまとめたアクセスユニット単位でアクセス可能に構成される。
本実施の形態の多重符号化装置200は、システムレイヤにおいてMPEG−2システムのプログラムストリーム(Program Stream;PS)の規格にしたがって、多重化ストリームを生成し、記録媒体に蓄積する。多重化のために、ビデオ、オーディオ、字幕の各ストリームはパケット化される。
ビデオパケット化部240は、ビデオエンコーダ210から出力される符号化ビデオストリームをPES(Packetized Elementary Stream)パケットにパケット化する。同様に、オーディオパケット化部250は、オーディオエンコーダ220から出力される符号化オーディオストリームをPESパケットにパケット化し、字幕パケット化部260は、字幕エンコーダ230から出力される符号化字幕ストリームをPESパケットにパケット化する。
多重化部270は、ビデオ、オーディオおよび字幕のPESパケットをMPEG−2システムのプログラムストリームとして多重化し、生成された多重化ストリームを出力する。生成された多重化ストリームは、DVDやメモリカードなどの記録媒体に記録される。
図2は、ビデオエンコーダ210の構成図である。ビデオエンコーダ210は、フレーム単位で動画像の入力信号を受け取り、フレーム画像を符号化し、動画像の符号化ストリームを出力する。
A/D変換部50は、アナログ入力信号をデジタル化し、フレーム並べ替え用バッファ52に与える。フレーム並べ替え用バッファ52は、フレーム間予測符号化のためにフレームを並べ替えて保持するバッファである。H.264/AVC規格では、フレーム間予測符号化の際、過去、未来のいずれのフレームを参照画像としてもよく、また参照するフレームの枚数も任意であり、フレームの並べ替え用のバッファを設け、動き予測・補償部66に参照画像を供給する必要がある。
動き予測・補償部66は、フレーム並べ替え用バッファ52に格納されている過去または未来の画像フレームを参照画像として利用し、P(Predictive)フレームまたはB(Bi-predictive prediction)フレームのマクロブロック毎に動き予測を行い、動きベクトルと動き補償された予測画像とを生成する。動き予測・補償部66は、生成した動きベクトルを可変長符号化部68に与え、予測画像を差分器54に与える。
差分器54は、フレーム並べ替え用バッファ52から供給される画像フレームがI(Intra)フレームである場合、そのまま直交変換部56に供給し、P/Bフレームである場合は、動き予測・補償部66から供給される予測画像との差分を計算して直交変換部56に供給する。
直交変換部56は、供給されたIフレームの画像もしくはP/Bフレームの差分画像を離散コサイン変換(Discrete Cosine Transform;DCT)し、得られたDCT係数を量子化部58に与える。
量子化部58は、DCT係数を量子化し、可変長符号化部68に与える。また、量子化部58は、動き補償を行うために、画像フレームの量子化されたDCT係数を逆量子化部60に供給する。逆量子化部60は、与えられた量子化データを逆量子化し、逆直交変換部62に与え、逆直交変換部62は、与えられた逆量子化データを逆離散コサイン変換する。これにより、符号化された画像フレームが復元される。復元された画像フレームはフレームメモリ64に格納される。
動き予測・補償部66は、フレームメモリ64に格納された再構成されたフレーム画像を符号化対象フレームとして参照し、動き補償を行う。
可変長符号化部68は、量子化部58により量子化されたDCT係数の可変長符号化を行い、可変長符号化された圧縮画像データを蓄積バッファ70に格納する。可変長符号化部68は、P/Bフレームの場合は、動き予測・補償部66から与えられた動きベクトルとともに差分画像の量子化されたDCT係数を可変長符号化する。
レート制御部72は、蓄積バッファ70に蓄積されるフレーム画像のフレームレートを制御し、量子化部58における量子化ステップを調整する。フレーム画像は可変長符号化されるため、各フレームのデータ量は符号化するまで判明しない。そのため、蓄積バッファ70に蓄積されたフレーム画像を再生するときのフレームレートを検出して、量子化ステップを増減し、所定のフレームレートで再生が可能な符号量に調整する必要がある。
蓄積バッファ70に蓄積された圧縮フレーム画像と動きベクトル情報を含む画像圧縮情報が符号化ビデオストリームとして出力され、ビデオパケット化部240に供給される。
図3は、多重符号化装置200により生成されるプログラムストリーム300のデータ構造を説明する図である。
MPEG−2システムのプログラムストリーム300は、ビデオストリーム、オーディオストリームおよび字幕ストリームがPESパケットとしてパケット化され、多重化されたものである。複数のPESパケットをまとめた単位はパック(Pack)と呼ばれ、プログラムストリーム300は、パックを順次並べたデータ構造をもつ。ここでは、1つのパック内に1つのPESパケットを含む構成を採用している。
先頭のパックは、パックヘッダ302とビデオPESパケット304を含む。ビデオPESパケット304のヘッダには、ビデオの再生時刻の基準を与えるPTS情報305が含まれ、ペイロードにはビデオデータ306が含まれる。
このPTS情報305は、ランダムアクセスの対象となるアクセスユニットのビデオPESパケットにのみ含まれ、ランダムアクセスの対象とならないアクセスユニットのビデオPESパケットにはPTS情報は含まれない。プログラムストリーム300のデータサイズが大きくなるのを避けるためである。もっともプログラムストリーム300のデータサイズが大きくなってもかまわない場合は、ランダムアクセスの対象であるかどうかを問わず、すべてのアクセスユニットのビデオPESパケットのヘッダにPTS情報をもたせてもかまわない。
第2のパックは、パックヘッダ308とビデオPESパケット310を含む。第3のパックは、パックヘッダ312とオーディオPESパケット314を含む。第4のパックは、パックヘッダ316と字幕PESパケット318を含む。オーディオPESパケット314および字幕PESパケット318のヘッダにも、オーディオおよび字幕の再生時刻の基準を与えるPTS情報が適宜含まれている。
ビデオストリームのアクセスユニットがランダムアクセスされた場合、ランダムアクセスされたアクセスユニットのビデオPESパケット304のヘッダからPTS情報305が取り出される。
H.264/AVC規格では、IDR(Instantaneous Decoding Refresh)ピクチャを用いたランダムアクセス機能が規定されている。IDRピクチャは、そのピクチャよりも前のピクチャの情報がなくても、それ以降のピクチャの復号が可能となるピクチャであり、参照ピクチャを一時的に保持していたバッファもリセットされる。多重符号化装置200のビデオエンコーダ210は、IDRピクチャに対してPTS情報を記録しており、記録媒体に格納されたプログラムストリーム300がランダムアクセスされた際、復号先頭ピクチャであるIDRピクチャからPTS値が取得される。
このように、MPEG−2システムのプログラムストリームでは、ビデオ、オーディオおよび字幕の同期再生のために、ビデオ、オーディオおよび字幕のそれぞれについて、再生の単位であるアクセスユニットに、再生出力時刻を示すPTSが付加されている。ビデオ、オーディオおよび字幕の各アクセスユニットのPTSを同期させることで、ビデオ、オーディオおよび字幕の同期再生が基本的には可能である。
しかしながら、プログラムストリームに対してランダムアクセスを行った場合、ビデオストリームは、未来のフレームを参照するフレーム間予測符号化がなされているため、符号化ビデオストリームから復号されるピクチャの順序と、表示されるピクチャの順序は一致しない。したがって、復号順序において最初のピクチャが表示順序において最初になるとは限らない。ランダムアクセスしたときに得られるビデオのPTSは、復号先頭のピクチャから取得されたものであるから、表示順序で最初のピクチャのPTSとは一般に異なる。復号先頭ピクチャのPTSに合わせてオーディオや字幕を同期させてしまうと、復号先頭ピクチャは表示順の最初のピクチャではない場合に、同期が正しく取れないことになる。そこで、本実施の形態の同期再生装置100では、同期再生を正しく行えるように、復号先頭ピクチャのPTSから表示先頭ピクチャのPTSを内部的に算出する。
図4は、実施の形態に係る同期再生装置100の構成図である。これらの機能ブロックもハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
同期再生装置100は、ビデオ、オーディオおよび字幕のパケットが多重化されたストリームの入力を受け取り、ビデオ、オーディオおよび字幕の同期再生を行う。この多重化ストリームは、多重符号化装置200により生成され、記録媒体に蓄積されたものであり、ランダムアクセスされ、ランダムアクセスされたポイントからストリームのパケットデータが読み出され、同期再生装置100に入力される。
多重分離部110は、入力された多重化ストリームからビデオパケット、オーディオパケットおよび字幕パケットを分離し、それぞれビデオデコーダ130、オーディオデコーダ140および字幕デコーダ150に供給する。
また、多重分離部110は、システムレイヤにおいて、ビデオパケットからPTS情報を抽出し、得られたPTSをクロック制御部120に与える。このPTSは、ビデオストリームのランダムアクセスポイントにおけるアクセスユニットのヘッダから取得されるものであり、復号先頭ピクチャのPTS(以下、「復号先頭PTS」という)である。
クロック制御部120は、ビデオの再生に同期させるための同期信号をオーディオデコーダ140および字幕デコーダ150に与え、同期制御を行う。まず、クロック制御部120は、復号先頭PTSをビデオデコーダ130に与える。
ビデオデコーダ130は、入力されたビデオの圧縮情報を復号するとともに、復号先頭PTSをもとにして表示先頭ピクチャのPTS(以下、「表示先頭PTS」という)を算出する。ビデオデコーダ130は、表示先頭PTSをクロック制御部120に与える。また、ビデオデコーダ130は、復号されたビデオデータを表示出力部160に与える。
クロック制御部120は、ビデオデコーダ130から与えられた表示先頭PTSを同期信号としてオーディオデコーダ140および字幕デコーダ150に与える。オーディオデコーダ140および字幕デコーダ150は、表示先頭PTSと同じPTS値をもつオーディオおよび字幕のアクセスユニットを復号し、オーディオデコーダ140は復号されたオーディオデータを音声出力部170に与え、字幕デコーダ150は復号された字幕データを表示出力部160に与える。
表示出力部160は、ビデオデータと字幕データを表示装置に表示し、音声出力部170はオーディオデータをスピーカから出力する。表示先頭ピクチャのPTSに同期して、オーディオデータと字幕データが再生されているため、オーディオと字幕がビデオに正しく同期する。
図5は、ビデオデコーダ130の構成図である。ビデオデコーダ130は、多重分離部110からビデオの符号化フレーム画像と動きベクトル情報を含む画像圧縮情報の入力を受け取り、圧縮された画像情報を復号して出力信号を生成する。
蓄積バッファ10は、多重分離部110から入力される画像圧縮情報を蓄積する。可変長復号部12は、蓄積バッファ10に蓄積された画像圧縮情報を可変長復号し、復号された画像データを逆量子化部14に供給し、動きベクトル情報を動き補償部22に供給する。
逆量子化部14は、可変長復号部12により復号された画像データを逆量子化し、逆直交変換部16に供給する。逆直交変換部16は、逆量子化部14により逆量子化されたDCT係数を逆離散コサイン変換(IDCT)することにより、元の画像データを復元する。逆直交変換部16により復元された画像データは、加算器18に供給される。
逆直交変換部16から出力される画像データがIフレームである場合、加算器18は、Iフレームの画像データをそのままフレーム並べ替え用バッファ24に格納するとともに、P/Bフレームの予測画像を生成する際の参照画像としてフレームメモリ20に格納する。
逆直交変換部16から出力された画像データがP/Bフレームである場合、その画像データは差分画像であるため、加算器18は、その差分画像と動き補償部22から供給される予測画像とを加算することにより、元の画像データを復元し、フレーム並べ替え用バッファ24に格納する。
動き補償部22は、可変長復号部12から供給される動きベクトル情報と、フレームメモリ20に格納された参照画像とを用いて、P/Bフレームの予測画像を生成し、加算器18に供給する。
フレーム並べ替え用バッファ24は、蓄積されたフレーム画像を表示順序に並べ替えるためのバッファであり、表示順に並べ替えられたフレーム画像はD/A変換部26に供給される。D/A変換部26はフレーム画像をアナログ信号に変換し、表示出力部160に出力する。
表示先頭PTS算出部28は、クロック制御部120から復号先頭PTSを取得する。また、可変長復号部12は、復号されたビデオストリームから「CPB引き抜き遅延時間」(cpb_removal_delay)と「DPB出力遅延時間」(dpb_output_delay)の2つのパラメータを抽出し、表示先頭PTS算出部28に供給する。表示先頭PTS算出部28は、復号先頭PTS、CPB引き抜き遅延およびDPB出力遅延にもとづいて、表示先頭PTSを算出し、クロック制御部120に与える。
ここで、「CPB引き抜き遅延時間」と「DPB出力遅延時間」は、H.264/AVC規格により符号化されるビデオストリームのシンタックスパラメータであり、ピクチャタイミングSEI(Picture Timing Supplemental Enhancement Information)に含まれる情報である。これらのパラメータは、H.264/AVCで採用されている仮想デコーダモデルにしたがって規定されている。以下、この仮想デコーダモデルについて説明する。
ビデオデコーダ130は、ビデオのビットストリームを蓄積バッファ10にバッファリングしながら、符号化されたデータを復号し、画像を再生するが、このとき、蓄積バッファ10がオーバーフローしたり、アンダーフローすることがないように、ビットストリームが生成されている必要がある。このため、H.264/AVC規格では、仮想デコーダモデルによりデコーダの振る舞いがモデル化されている。
仮想デコーダモデルでは、CPB(Coded Picture Buffer、符号化ピクチャバッファ)とDPB(Decoded Picture Buffer、復号ピクチャバッファ)の2つのバッファが規定されている。CPBは、復号処理に投入される前のビットストリームを蓄積するバッファであり、図5のビデオデコーダ130の蓄積バッファ10に相当する。DPBは、デコーダにより復号されたピクチャを表示するまでの間、蓄積するバッファであり、ビデオデコーダ130のフレーム並べ替え用バッファ24に相当する。
アクセスユニットのデータは、まずCPBに入力され、各アクセスユニットのデータは、CPBリムーバルタイム(CPB removal time)で指定された時刻(「CPB引き抜き時刻」と呼ぶ)にCPBから取り出され、復号される。
復号されたピクチャは、CPB引き抜き時刻にDPBに入力され、蓄積される。DPBに蓄積されたピクチャは、DPBアウトプットタイム(DPB output time)で指定された時刻(「DPB出力時刻」という)にDPBから出力され、表示される。
仮想デコーダでは、ビデオストリームのデータは、CPBから引き抜かれると同時に、瞬時に復号されて、DPBに入力されるものとしてモデル化されている。DPBは、動き補償のために参照ピクチャを一時的に保持するため、復号されたピクチャの表示順序を入れ替えるため、および表示出力時刻まで復号されたピクチャを保持しておくために使用される。
CPB引き抜き時刻とDPB出力時刻が同じであるなら、CPBから引き抜かれて復号されたピクチャは、DPBに蓄積されずに、そのまま出力されるが、そのピクチャが参照ピクチャであるなら、動き補償の際に参照するためにDPBに保持される。また、DPB出力時刻がCPB引き抜き時刻よりも大きい場合は、CPBから引き抜かれて復号されたピクチャは、表示順序を入れ替えるために、DPBにいったん蓄積され、DPB出力時刻まで出力が遅延される。
「CPB引き抜き遅延時間」は、最初のピクチャの復号が始まってから、あるピクチャがCPBから引き抜かれるまでの遅延時間であり、「DPB出力遅延時間」は、あるピクチャがCPBから引き抜かれた後、DPBから出力されるまでの遅延時間である。
図6は、表示先頭PTS算出部28による表示先頭PTSの算出手順を説明する図である。同図の上段にはピクチャの復号順序が示され、下段にはピクチャの表示順序が示されている。
符号化ビデオストリームにおいて、IDR2、P5、B0、B1の順でピクチャが復号されるとする。IDR2は、ランダムアクセスされた復号先頭ピクチャである。IDR、P、Bの各記号は、それぞれIDRピクチャ、Pピクチャ、Bピクチャであることを示し、各記号の後ろの数字は表示順序を示す。すなわち、B0、B1、IDR2の順でピクチャが表示される。B0が表示先頭ピクチャである。
IDR2の復号時刻において、IDR2のPTS値であるPTSIDR2と、DPB出力遅延時間であるdpb_output_delayIDR2が取得される。PTSIDR2は復号先頭PTSである。dpb_output_delayIDR2は、符号334で示すように、復号先頭ピクチャIDR2がCPBから引き抜かれて復号が開始される時刻から、その復号先頭ピクチャIDR2がDPBから出力される時刻までの遅延時間である。
次に、表示先頭ピクチャB0の表示時刻において、CPB引き抜き遅延時間であるcpb_removal_delayB0と、DPB出力遅延時間であるdpb_output_delayB0が取得される。
cpb_removal_delayB0は、符号330で示すように、復号先頭ピクチャIDR2がCPBから引き抜かれて復号が開始される時刻から、表示先頭ピクチャB0がCPBから引き抜かれて復号が開始される時刻までの遅延時間である。
dpb_output_delayB0は、符号332で示すように、表示先頭ピクチャB0がCPBから引き抜かれて復号が開始される時刻から、その表示先頭ピクチャB0がDPBから出力される時刻までの遅延時間である。
表示先頭PTS算出部28は、表示先頭ピクチャB0のPTS値であるPTSB0を次式により算出する。
PTSB0=PTSIDR2−(dpb_output_delayIDR2−(cpb_removal_delayB0+dpb_output_delayB0))
この式は、同図からも明らかなように、復号先頭ピクチャIDR2のPTSIDR2から復号先頭ピクチャIDR2のDPB出力遅延時間dpb_output_delayIDR2を減算し、その計算結果に、表示先頭ピクチャB0のCPB引き抜き遅延時間cpb_removal_delayB0とDBP出力遅延時間dpb_output_delayB0を加算すると、表示先頭ピクチャB0のPTSB0が求まることを示している。
ここで、表示先頭ピクチャB0のCPB引き抜き遅延時間cpb_removal_delayB0とDBP出力遅延時間dpb_output_delayB0の和は、復号先頭ピクチャIDR2がCPBから引き抜かれて復号が開始される時刻から、表示先頭ピクチャB0がDPBから出力される時刻までの遅延時間である。
なお、表示先頭ピクチャが復号先頭ピクチャと同一である場合は、表示先頭ピクチャのPTS値を求める必要はない。復号先頭ピクチャのPTS値がそのまま利用できるからである。復号先頭ピクチャが表示先頭ピクチャになるかどうかは復号処理が進むまで判明しないが、最初に表示出力されるピクチャがPTS値をもっていれば、それは復号先頭ピクチャでもあったということであり、その復号先頭ピクチャのもつPTS値をそのまま利用すればよい。これにより、表示先頭ピクチャが復号先頭ピクチャと同一である場合に表示先頭PTSの計算を省略して、処理コストを減らすことができる。
図7は、同期再生装置100による同期再生処理の手順を説明するフローチャートである。
クロック制御部120は、多重分離部110により分離された符号化ビデオストリームにおいて、ランダムアクセスポイントのパケットヘッダから復号先頭PTSを取得し、ビデオデコーダ130に与える(S10)。
ビデオデコーダ130において、表示先頭PTS算出部28は、可変長復号部12により復号されたビデオストリームの復号先頭アクセスユニットからDBP出力遅延時間dbp_output_delayを取得する(S12)。
最初のピクチャが表示される際、表示先頭PTS算出部28は、復号先頭アクセスユニットと表示先頭アクセスユニットが一致するかどうかを判定する(S14)。復号先頭アクセスユニットと表示先頭アクセスユニットが一致する場合(S14のY)、表示先頭PTSを保持する変数に復号先頭PTSの値を代入する(S20)。
復号先頭アクセスユニットと表示先頭アクセスユニットが一致しない場合(S14のN)、表示先頭PTS算出部28は、表示先頭アクセスユニットからCPB引き抜き遅延時間cpb_removal_delayとDPB出力遅延時間dpb_output_delayを取得する(S16)。
表示先頭PTS算出部28は、復号先頭PTSから復号先頭アクセスユニットのDBP出力遅延時間dbp_output_delayを減算し、表示先頭アクセスユニットのCPB引き抜き遅延時間cpb_removal_delayとDPB出力遅延時間dpb_output_delayを加算することにより、表示先頭PTSを算出する(S18)。
表示先頭PTS算出部28は、ステップS20またはステップS18で得られた表示先頭PTSを出力し、クロック制御部120に与える(S22)。
クロック制御部120は、ビデオデコーダ130から取得した表示先頭PTSをオーディオデコーダ140と字幕デコーダ150に与え、オーディオデコーダ140および字幕デコーダ150はそれぞれ、ビデオの表示先頭PTSと同期するオーディオおよび字幕を復号する(S24)。
ビデオデコーダ130、オーディオデコーダ140および字幕デコーダ150の復号結果を受けて、表示出力部160および音声出力部170は、ビデオ、オーディオおよび字幕を同期再生する(S26)。
以上述べたように、本実施の形態の同期再生装置100によれば、復号先頭ピクチャのPTS値をシステムレイヤで取得し、ビデオストリームのパラメータであるCPB引き抜き遅延時間とDPB出力遅延時間を参照して、表示先頭ピクチャのPTS値を計算により求めることができる。これにより、表示先頭ピクチャのPTS値を基準としてオーディオと字幕の再生を行うことが可能となり、ランダムアクセスを行った場合でも、ビデオの再生にオーディオと字幕の再生を正確に同期させることができる。
表示先頭ピクチャのPTS値を計算により求めることができるため、すべてのピクチャにシステムレイヤでPTS情報をもたせる必要がなく、ランダムアクセスポイントのピクチャにのみPTS情報を付加するだけで済む。そのため、システムレイヤにおけるオーバーヘッドを減らすことができ、同期制御のための処理が軽くなる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。
上記の実施の形態では、システムレイヤにおいてMPEG−2システムのプログラムストリームを用いて、ビデオストリームとオーディオストリームの多重化が行われ、蓄積用の多重化ストリームを生成したが、システムレイヤでは、MPEG−2システム以外の規格が用いられてもよい。たとえば、H.264/AVCファイルフォーマットにしたがって、ビデオとオーディオの多重化が行われてもよい。また、VCLのレイヤについても、実施の形態では、H.264/AVCを用いて動画の符号化を行ったが、復号先頭PTSから表示先頭PTSを算出するために必要なパラメータが動画ストリームから取得できる規格であれば、H.264/AVC以外の規格が用いられてもよい。
上記の実施の形態では、記録媒体に蓄積された多重化ストリームをランダムアクセスしたときに、ビデオの復号先頭PTSから表示先頭PTSを算出する手順を説明したが、この手順は、放送される多重化ストリームにおいて、放送の途中から視聴する際にも適用することができる。放送途中から視聴する際でも、符号化ビデオストリームの復号先頭ピクチャと表示先頭ピクチャが一致しない状況が発生するため、表示先頭ピクチャのPTSを求めて、オーディオや字幕を同期させる必要があるからである。このように、本発明の同期制御は、蓄積メディア向けの多重化ストリームだけでなく、MPEG−2システムのトランスポートストリームやRTP(Real-time Trasnport Protocol)などにより伝送される伝送メディア向けの多重化ストリームに対しても適用することができる。
実施の形態に係る多重符号化装置の構成図である。 図1のビデオエンコーダの構成図である。 図1の多重符号化装置により生成されるプログラムストリームのデータ構造を説明する図である。 実施の形態に係る同期再生装置の構成図である。 図4のビデオデコーダの構成図である。 図5の表示先頭PTS算出部による表示先頭PTSの算出手順を説明する図である。 図4の同期再生装置による同期再生処理の手順を説明するフローチャートである。
符号の説明
10 蓄積バッファ、 12 可変長復号部、 14 逆量子化部、 16 逆直交変換部、 18 加算器、 20 フレームメモリ、 22 動き補償部、 24 フレーム並べ替え用バッファ、 26 D/A変換部、 28 表示先頭PTS算出部、 100 同期再生装置、 110 多重分離部、 120 クロック制御部、 130 ビデオデコーダ、 140 オーディオデコーダ、 150 字幕デコーダ、 160 表示出力部、 170 音声出力部、 200 多重符号化装置、 210 ビデオエンコーダ、 220 オーディオエンコーダ、 230 字幕エンコーダ、 240 ビデオパケット化部、 250 オーディオパケット化部、 260 字幕パケット化部、 270 多重化部。

Claims (12)

  1. ビデオストリームとオーディオストリームが多重化された多重化ストリームからビデオデータとオーディオデータを分離する分離部と、
    前記ビデオデータを復号するビデオ復号部と、
    前記オーディオデータを復号するオーディオ復号部と、
    前記オーディオ復号部にビデオの再生と同期を取るための同期信号を与える制御部とを含み、
    前記ビデオ復号部は、前記多重化ストリームに対して途中のピクチャから再生するランダムアクセスがなされた場合に、最初に復号される復号先頭ピクチャの再生時刻を指定する再生タイムスタンプを前記ビデオストリームから取得し、前記復号先頭ピクチャの再生タイムスタンプをもとに最初に表示される表示先頭ピクチャの再生タイムスタンプを算出するタイムスタンプ算出部を含み、
    前記制御部は、算出された前記表示先頭ピクチャの再生タイムスタンプを前記同期信号として前記オーディオ復号部に与えることを特徴とする再生装置。
  2. 前記タイムスタンプ算出部は、前記復号先頭ピクチャおよび前記表示先頭ピクチャの表示遅延に関するパラメータを前記ビデオストリームから取得し、前記表示遅延に関するパラメータを利用して前記復号先頭ピクチャの再生タイムスタンプをもとに前記表示先頭ピクチャの再生タイムスタンプを算出することを特徴とする請求項1に記載の再生装置。
  3. 前記復号先頭ピクチャの表示遅延に関するパラメータは、前記復号先頭ピクチャが復号されてから表示されるまでの遅延時間を示すものであることを特徴とする請求項2に記載の再生装置。
  4. 前記表示先頭ピクチャの表示遅延に関するパラメータは、前記復号先頭ピクチャが復号されてから前記表示先頭ピクチャが表示されるまでの遅延時間を示すものであることを特徴とする請求項2または3に記載の再生装置。
  5. 前記表示先頭ピクチャの表示遅延に関するパラメータは、前記復号先頭ピクチャが復号されてから前記表示先頭ピクチャが復号されるまでの遅延時間と、前記表示先頭ピクチャが復号されてから前記表示先頭ピクチャが表示されるまでの遅延時間を示すものであることを特徴とする請求項2または3に記載の再生装置。
  6. 前記タイムスタンプ算出部は、前記復号先頭ピクチャの再生タイムスタンプから、前記復号先頭ピクチャが復号されてから表示されるまでの遅延時間を減算し、その減算結果に、前記復号先頭ピクチャが復号されてから前記表示先頭ピクチャが表示されるまでの遅延時間を加算することにより、前記表示先頭ピクチャの再生タイムスタンプを算出することを特徴とする請求項4に記載の再生装置。
  7. 前記タイムスタンプ算出部は、前記復号先頭ピクチャと前記表示先頭ピクチャが異なる場合にのみ、前記表示先頭ピクチャの再生タイムスタンプの算出を行い、前記復号先頭ピクチャと前記表示先頭ピクチャが一致する場合は、前記復号先頭の再生タイムスタンプをそのまま前記表示先頭ピクチャの再生タイムスタンプとして前記制御部に与えることを特徴とする請求項1から6のいずれかに記載の再生装置。
  8. ビデオストリーム、オーディオストリームおよび字幕ストリームが多重化された多重化ストリームからビデオデータ、オーディオデータおよび字幕データを分離する分離部と、
    前記ビデオデータを復号するビデオ復号部と、
    前記オーディオデータを復号するオーディオ復号部と、
    前記字幕データを復号する字幕復号部と、
    前記オーディオ復号部および前記字幕復号部にビデオの再生と同期を取るための同期信号を与える制御部とを含み、
    前記ビデオ復号部は、前記多重化ストリームに対して途中のピクチャから再生するランダムアクセスがなされた場合に、最初に復号される復号先頭ピクチャの再生時刻を指定する再生タイムスタンプを前記ビデオストリームから取得し、前記復号先頭ピクチャの再生タイムスタンプをもとに最初に表示される表示先頭ピクチャの再生タイムスタンプを算出するタイムスタンプ算出部を含み、
    前記制御部は、算出された前記表示先頭ピクチャの再生タイムスタンプを前記同期信号として前記オーディオ復号部および前記字幕復号部に与えることを特徴とする再生装置。
  9. ビデオストリームとオーディオストリームが多重化された多重化ストリームから分離されたビデオデータを復号する復号部と、
    前記多重化ストリームに対して途中のピクチャから再生するランダムアクセスがなされた場合に、最初に復号される復号先頭ピクチャの再生時刻を指定する再生タイムスタンプを前記ビデオストリームから取得し、前記復号先頭ピクチャの再生タイムスタンプをもとに最初に表示される表示先頭ピクチャの再生タイムスタンプを算出するタイムスタンプ算出部とを含むことを特徴とするビデオ復号装置。
  10. ビデオストリームとオーディオストリームが多重化された多重化ストリームに対して途中のピクチャから再生するランダムアクセスがなされた場合に、最初に復号される復号先頭ピクチャの再生時刻を指定する再生タイムスタンプを前記ビデオストリームから取得し、前記復号先頭ピクチャの再生タイムスタンプをもとに最初に表示される表示先頭ピクチャの再生タイムスタンプを算出し、算出された前記表示先頭ピクチャの再生タイムスタンプに同期させて前記オーディオストリームを復号して再生することを特徴とする同期再生方法。
  11. ビデオストリームとオーディオストリームが多重化された多重化ストリームに対して途中のピクチャから再生するランダムアクセスがなされた場合に、最初に復号される復号先頭ピクチャの再生時刻を指定する再生タイムスタンプを前記ビデオストリームから取得するステップと、
    前記復号先頭ピクチャの再生タイムスタンプをもとに最初に表示される表示先頭ピクチャの再生タイムスタンプを算出するステップと、
    ビデオの再生にオーディオの再生を同期させるための同期信号として、算出された前記表示先頭ピクチャの再生タイムスタンプを出力するステップとをコンピュータに実行させることを特徴とするプログラム。
  12. 請求項11に記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2005194383A 2005-07-01 2005-07-01 再生装置、ビデオ復号装置および同期再生方法 Expired - Fee Related JP4311570B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005194383A JP4311570B2 (ja) 2005-07-01 2005-07-01 再生装置、ビデオ復号装置および同期再生方法
PCT/JP2006/311921 WO2007004395A1 (ja) 2005-07-01 2006-06-14 再生装置、ビデオ復号装置、同期再生方法、プログラム及び記録媒体
EP20060766690 EP1909278B1 (en) 2005-07-01 2006-06-14 Reproduction device, video decoding device, synchronization/reproduction method, program, and recording medium
US11/922,942 US7844166B2 (en) 2005-07-01 2006-06-14 Reproduction device, video decoding device, synchronization/reproduction method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005194383A JP4311570B2 (ja) 2005-07-01 2005-07-01 再生装置、ビデオ復号装置および同期再生方法

Publications (2)

Publication Number Publication Date
JP2007012218A JP2007012218A (ja) 2007-01-18
JP4311570B2 true JP4311570B2 (ja) 2009-08-12

Family

ID=37604270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005194383A Expired - Fee Related JP4311570B2 (ja) 2005-07-01 2005-07-01 再生装置、ビデオ復号装置および同期再生方法

Country Status (4)

Country Link
US (1) US7844166B2 (ja)
EP (1) EP1909278B1 (ja)
JP (1) JP4311570B2 (ja)
WO (1) WO2007004395A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090180546A1 (en) 2008-01-09 2009-07-16 Rodriguez Arturo A Assistance for processing pictures in concatenated video streams
US8416859B2 (en) 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US8875199B2 (en) * 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8804845B2 (en) 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US8718388B2 (en) 2007-12-11 2014-05-06 Cisco Technology, Inc. Video processing with tiered interdependencies of pictures
US8416858B2 (en) 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
WO2009152450A1 (en) 2008-06-12 2009-12-17 Cisco Technology, Inc. Picture interdependencies signals in context of mmco to assist stream manipulation
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8705631B2 (en) 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8320465B2 (en) 2008-11-12 2012-11-27 Cisco Technology, Inc. Error concealment of plural processed representations of a single video signal received in a video program
CN104113749B (zh) * 2009-01-08 2016-10-26 Lg电子株式会社 3d字幕信号发送方法和3d字幕显示方法
WO2010096767A1 (en) 2009-02-20 2010-08-26 Cisco Technology, Inc. Signalling of decodable sub-sequences
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
RU2011147112A (ru) * 2009-04-20 2013-05-27 Конинклейке Филипс Электроникс Н.В. Верификация и синхронизация файлов, полученных отдельно от видеоконтента
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US20110222837A1 (en) * 2010-03-11 2011-09-15 Cisco Technology, Inc. Management of picture referencing in video streams for plural playback modes
ES2370218B1 (es) * 2010-05-20 2012-10-18 Universidad Carlos Iii De Madrid Procedimiento y dispositivo para sincronizar subtítulos con audio en subtitulación en directo.
JP4889836B1 (ja) * 2010-08-18 2012-03-07 パナソニック株式会社 3d符号化装置
US9420307B2 (en) 2011-09-23 2016-08-16 Qualcomm Incorporated Coding reference pictures for a reference picture set
JP5791451B2 (ja) * 2011-09-29 2015-10-07 キヤノン株式会社 符号化装置およびプログラム
CN102623032B (zh) * 2012-04-01 2014-09-17 深圳英飞拓科技股份有限公司 一种实现硬盘录像机同步回放的方法
CN107801029B (zh) * 2012-04-23 2020-06-05 太阳专利托管公司 编码方法及编码装置
ES2936058T3 (es) * 2012-08-09 2023-03-14 Sun Patent Trust Procedimiento y aparato de codificación de imágenes
US9554146B2 (en) * 2012-09-21 2017-01-24 Qualcomm Incorporated Indication and activation of parameter sets for video coding
US9503753B2 (en) * 2012-09-24 2016-11-22 Qualcomm Incorporated Coded picture buffer arrival and nominal removal times in video coding
US9661341B2 (en) 2013-01-07 2017-05-23 Microsoft Technology Licensing, Llc Syntax and semantics for buffering information to simplify video splicing
JP2015226305A (ja) * 2014-05-30 2015-12-14 三菱電機株式会社 符号化装置
JP6729547B2 (ja) * 2015-02-20 2020-07-22 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN106211102B (zh) * 2016-09-14 2020-05-05 Oppo广东移动通信有限公司 一种聊天信息区别同步的方法及装置
CN107864393A (zh) * 2017-11-17 2018-03-30 青岛海信电器股份有限公司 视频与字幕同步显示的方法及装置
KR102437726B1 (ko) * 2020-10-12 2022-08-26 세종대학교 산학협력단 스낵 컬처 컨텐츠 저장 방법 및 장치
US11361108B1 (en) 2021-03-11 2022-06-14 Tsj Technology, Inc. Unidirectional communication system for public access to detained persons
CN114302215B (zh) * 2021-12-29 2023-09-29 北京奕斯伟计算技术股份有限公司 视频数据流解码系统、方法、电子设备和介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3197766B2 (ja) 1994-02-17 2001-08-13 三洋電機株式会社 Mpegオーディオデコーダ、mpegビデオデコーダおよびmpegシステムデコーダ
JP3264303B2 (ja) 1994-04-06 2002-03-11 ソニー株式会社 オーディオ情報および動画像情報の再生方法および再生装置
JP3814929B2 (ja) 1997-03-19 2006-08-30 ソニー株式会社 符号化データ再生方法及び再生装置
JPH11149717A (ja) 1997-11-19 1999-06-02 Toshiba Corp デコード処理方法及び装置
KR19990061872A (ko) * 1997-12-31 1999-07-26 서평원 에스티비에서 비디오데이터 전송제어시스템
JP3422686B2 (ja) 1998-06-12 2003-06-30 三菱電機株式会社 データ復号装置及びデータ復号方法
JP3806020B2 (ja) * 1999-02-18 2006-08-09 株式会社東芝 ストリームデータの情報記憶媒体、その記録方法、再生方法、記録装置および再生装置
JP2001238208A (ja) 2000-02-21 2001-08-31 Matsushita Electric Ind Co Ltd 動画像復号化方法および動画像復号化装置
JP3542976B2 (ja) 2000-03-29 2004-07-14 松下電器産業株式会社 圧縮符号化データ再生方法および装置
US6906755B2 (en) * 2002-01-04 2005-06-14 Microsoft Corporation Method and apparatus for synchronizing audio and video data
JP3922447B2 (ja) 2002-09-25 2007-05-30 ソニー株式会社 情報再生装置および方法、記録媒体、並びにプログラム
WO2005025224A1 (ja) * 2003-09-02 2005-03-17 Sony Corporation コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システム

Also Published As

Publication number Publication date
EP1909278B1 (en) 2012-06-20
WO2007004395A1 (ja) 2007-01-11
US7844166B2 (en) 2010-11-30
JP2007012218A (ja) 2007-01-18
EP1909278A4 (en) 2009-11-18
US20090214178A1 (en) 2009-08-27
EP1909278A1 (en) 2008-04-09

Similar Documents

Publication Publication Date Title
JP4311570B2 (ja) 再生装置、ビデオ復号装置および同期再生方法
JP2002518898A (ja) ディジタルビデオレコーダのトリックプレイ信号生成
KR101132043B1 (ko) 디코더 장치 및 디코드 방법
JP2003169292A (ja) アフレコ装置、コンピュータプログラム、記録媒体、伝送方法及び再生装置
JP2008167061A (ja) 符号化装置及び符号化方法
JP2001204032A (ja) Mpeg復号装置
KR100975170B1 (ko) 화상 데이터 재생 장치 및 방법
JP4092681B2 (ja) Mpeg記録装置、再生装置及び伝送装置
JP3748234B2 (ja) Mpegデータ記録方法
JP4569847B2 (ja) データ再構築装置及びデータ再構築方法
JP2823806B2 (ja) 画像復号装置
JP4178521B2 (ja) 符号化映像信号の記録方法、及び映像信号符号化装置
KR20040010173A (ko) 화상 데이터 재생 장치 및 방법
JPH099215A (ja) データ多重方法、データ伝送方法、及び多重データ復号方法、多重データ復号装置
JP2005198350A (ja) アフレコ信号再生方法
JP3847848B2 (ja) 信号処理装置
JP3748243B2 (ja) Mpegデータ記録装置
JP3748244B2 (ja) Mpegデータ記録装置
JP3748242B2 (ja) Mpegデータ記録方法
JP3748240B2 (ja) Mpegデータ記録方法
JP3748241B2 (ja) Mpegデータ記録方法
JP3748245B2 (ja) Mpegデータ記録装置
JP2007325304A (ja) Mpegデータ記録再生方法
JP2005198349A (ja) 記録媒体
JP2006311135A (ja) 動画像符号化装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090507

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4311570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130522

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140522

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees