JP4013800B2 - Data creation method and data recording apparatus - Google Patents
Data creation method and data recording apparatus Download PDFInfo
- Publication number
- JP4013800B2 JP4013800B2 JP2003073840A JP2003073840A JP4013800B2 JP 4013800 B2 JP4013800 B2 JP 4013800B2 JP 2003073840 A JP2003073840 A JP 2003073840A JP 2003073840 A JP2003073840 A JP 2003073840A JP 4013800 B2 JP4013800 B2 JP 4013800B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- information
- encoded
- encoding
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、デジタル符号化されたオーディオ・ビデオデータを一旦デコードしたあとで、本機器以外の外部機器で扱うことができるデジタル符号化方式に変換し、再エンコード記録を実行するためのデータ作成方法及び作成されたデータを記録するデータ記録装置に関する。
【0002】
【従来の技術】
近年、CDや、DVD、ハードディスク等の各種記録媒体にデジタル圧縮されて記録されたAV信号を読み取り、伸張した信号を、装置に接続された映像モニタや音響スピーカ等を通じて再生するAV再生装置が広く普及してきている。
【0003】
デジタル圧縮符号化されたAV信号のデータをそれぞれ伸張してオーディオ成分信号とビデオ成分信号とを再生するAV再生装置において、デジタル圧縮に際しての既知な規格としては、MPEG(Motion Picture Experts Group)が知られている。MPEGでは多重化されて圧縮符号化されたAV信号のデータをデコードしたあとで、同期して再生を実行するため、符号時にAV信号におけるオーディオ成分信号とビデオ成分信号とのそれぞれに再生及び表示を実行する時刻情報が付加されて圧縮される。これにより、伸張時には装置が有するシステム時刻基準参照値に対し、これらの時刻情報を参照してオーディオ成分信号とビデオ成分信号との同期を合わせながら再生を実行している。
【0004】
さらに、再生装置だけでなく、入力されたAV信号のデジタル符号化を実施し、エンコード機能を有する記録装置も普及してきた。以下、従来のエンコードデータを作成するデータ作成方法について説明する。なお、出願人は、特許文献1に開示されているデータ作成方法を認識しており、本発明の課題を明確にするために、先行技術の内容を従来例として、簡単に説明する。
【0005】
従来例では、すでにエンコードされたデジタルビットストリームを他のセクションまたはエンコードされたビデオに置き換える方法及びシステムについて説明している。除去されるビデオの代わりに挿入されるエンコードのために、変更区間の各ピクチャーで消費されたビット数、各ピクチャーのシーケンスヘッダーのビット数、各ピクチャーグループ(GOP)ヘッダーのビット数、及び全スタッフビットを加算し計算される。そしてエンコードされたデータで置き換える工程が実施される。
【0006】
【特許文献1】
特表平11−500592号公報
【0007】
【発明が解決しようとする課題】
しかしながら、上述した特許文献1に開示されている方法では、指定された部分のビデオデータを同じ符号化方式によって交換する方法が記述されているが、オーディオデータを交換する方法が説明されていない。特にオーディオデータにおいては、符号化方式がデジタル放送ではAAC方式とDVDプレーヤ等ではドルビー方式等で異なるので、デジタル放送を受信記録したオーディオデータを、DVDプレーヤ等で再生可能なオーディオ方式で再生するためには、オーディオの符号化方式を変換して記録しておくことが必要であった。しかしながら従来の方法をそのままオーディオ側に採用したとしても、符号化処理の相違により、そのまま適用できないという課題があった。
【0008】
本発明は、以上のような問題点を解消するためになされたもので、外部から入力されたデジタル符号化オーディオデータを一旦デコードしたあとで、本機器以外の外部機器で扱うことができるデジタル符号化方式に変換し、再エンコード記録を実行するためのデータ作成方法またはデータ記録装置を提供することができるものである。
【0009】
【課題を解決するための手段】
第1の本発明(請求項1に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力データのデコードを行って同期情報を抜き出し、デコードと同時にオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするもので、元々の入力データによるAVの同期再生と同様に、後でビデオデータと再エンコードしたオーディオデータという組でも同期再生が可能であるという作用を有する。
【0010】
第2の本発明(請求項2に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力データのデコードを行って符号化情報及び同期情報を抜き出し、デコードと同時に前記抜き出した符号化情報と同じまたは少ないビット量でオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするもので、後でビデオデータと再エンコードしたオーディオデータという組で同期再生を行うための再エンコードオーディオデータ量が、元のオーディオデータ量以下であるため、再エンコードオーディオデータ記録容量を抑制できるという作用を有する。
【0011】
第3の本発明(請求項3に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力データのデコードを行って符号化情報及び同期情報を抜き出すと同時に、デコードのバッファモデル情報を取得し、前記抜き出したバッファモデル内で前記抜き出した符号化情報と同じまたは少ないビット量でオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするもので、後でビデオデータと再エンコードしたオーディオデータという組で同期再生を行うときに、元のバッファモデル情報を参照してエンコードするので、バッファモデルが破綻しないエンコードできるという作用を有する。
【0012】
第4の本発明(請求項4に対応)によるデータ作成方法は、入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に前記抜き出した符号化情報より同じもしくは低いビットレートで符号化した再エンコードを行うことを特徴とするもので、元オーディオデータに対して同等または低いビットレートで符号化し再エンコードするため、記録媒体の記録容量を押さえた記録、もしくは低速な伝送帯域での出力への対応を可能とする。
【0013】
第5の本発明(請求項5に対応)によるデータ作成方法は、入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に前記抜き出した符号化情報と同じもしくは少ないオーディオチャンネル数で符号化した再エンコードを行うことを特徴とするもので、再エンコード符号化方法や、再生機器の制限等でオーディオチャンネル数を制限して再エンコードするため、例えば総チャンネル数を減らしても、1チャンネルあたりのビットレートを上げて記録できるという作用を有する。
【0014】
第6の本発明(請求項6に対応)によるデータ作成方法は、入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に前記抜き出した符号化情報と同じもしくは少ないオーディオチャンネル数でかつ各オーディオチェンネル信号を合成することにより新たな音響効果を加えて再エンコードを行うことを特徴とするもので、再エンコード時に特殊な音響効果をいれられるため、低域をアップするような処理や、サラウンド効果を増加させて記録できるという作用を有する。
【0015】
第7の本発明(請求項7に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力信号をそのまま記録した元データと、請求項1、請求項2、または請求項3によるデータ記録を行った再エンコードデータの両方を参照し、前記元データの一部と、前記再エンコードデータ及び各々の同期情報を用いてシステムエンコードを実施することにより、デジタル符号化データを生成することを特徴とするもので、元のオーディオデータと再エンコードしたオーディオデータを入れ替えても、ビデオデータと再エンコードしたオーディオデータを用いた同期再生が可能であるという作用を有する。
【0016】
第8の本発明(請求項8に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力信号をそのまま記録した元データと、請求項2または、請求項3によるデータ記録を行った再エンコードデータの両方を参照し、前記元データの一部と、前記再エンコードデータ及び各々の同期情報、及び符号化情報を用いてシステムエンコードを実施することにより、デジタル符号化データを生成することを特徴とするもので、再エンコードしたオーディオデータ量が、元のオーディオデータ量と同等またはそれ以下であるため、元オーディオデータと入れ替えた後でも記録媒体への記録容量が増加しないという作用を有する。
【0017】
第9の本発明(請求項9に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力信号をそのまま記録した元データと、請求項3によるデータ記録を行った再エンコードデータの両方を参照し、前記元データの一部と、前記再エンコードデータ及び各々の同期情報、符号化情報、及びバッファモデル情報を用いてシステムエンコードを実施することにより、デジタル符号化データを生成することを特徴とするもので、再エンコードしたオーディオデータとビデオデータをあわせてデコードしたときにおいても、オーバーフローやアンダーフローが発生しないようにシステムエンコードを実施したものを生成
できるという作用を有する。
【0018】
第10の本発明(請求項10に対応)によるデータ作成方法は、デジタル符号化されたAV入力信号をデコードすることなく記録した一次記録Aのファイルと、請求項1、請求項2、または請求項3により生成されたデジタル符号化データを記録した一次記録Bのファイルを単一のファイルとして保存することを特徴とするもので、同期情報を一にするAVストリームデータを一括管理できるという作用を有する。
【0019】
第11の本発明(請求項11に対応)によるデータ作成方法は、デジタル符号化されたAV入力信号をデコードすることなく記録した一次記録Aのファイルと、請求項1、請求項2、または請求項3により生成されたデジタル符号化データを記録した一次記録Bのファイルと、各々のファイルを関連づける関連情報により別々のファイルとして保存することを特徴とするもので、一次記録Aのオリジナル情報ファイルと入力後に作成したファイルを、別々の記録媒体に保存しても関連づけて再生できるという作用を有する。
【0020】
第12の本発明(請求項12に対応)によるデータ記録方法は、利用者からの入力等による出力情報設定により、請求項7、請求項8、または請求項9により生成されたデジタル符号化データを、直接二次記録媒体に記録する形式に変換して記録することを特徴とするもので、二次記録媒体への高速記録が可能であれば、再生に比べ短時間での記録を可能とするという作用を有する。
【0021】
第13の本発明(請求項13に対応)によるデータ出力方法は、利用者からの入力等による出力情報設定により、請求項7、請求項8、または請求項9により生成されたデジタル符号化データを、接続された外部機器インタフェースの仕様に変換して出力することを特徴とするもので、伝送帯域と品質に応じた出力を可能とし、相手機器側での再生もしくは記録を保証できるという作用を有する。
【0022】
第14の本発明(請求項14に対応)によるデータ記録装置は、デジタル符号化されたAV信号を入力する入力部と、入力データをデコードすることなく記録する一次記録A部と、入力データのデコードを実行するデコード部と、前記デコード部により符号化情報及び同期情報を抜き出して格納するデコード情報格納部と、前記デコード部によりデコードされたデコードデータの再エンコードを行うエンコード部と、前記エンコード部で作成したエンコードデータを記録する一次記録B部と、前記エンコード部でエンコード時に作成した符号化情報及び同期情報を格納するエンコード情報格納部と、前記一次記録A部と少なくとも一つの一次記録B部、及び前記エンコード情報格納部の情報によりシステムエンコードを実施するシステムエンコード部と、前記システムエンコード部により作成されたデジタル符号化AV信号を記録する二次記録部とから構成し、前記システムエンコード部が、前記エンコード情報格納部に格納された符号化情報及び同期情報をもちいて一次記録A部の内容の一部を一次記録B部の内容と入れ替えてシステムエンコードを行うことを特徴とするもので、ビデオデータは再エンコードすることなく元データのままで、オーディオデータのみを再エンコードデータを入れ替えることによりシステムエンコードを、各同期情報を用いて高速変換でき、二次記録部へ高速記録を実行できるという作用を有する。
【0023】
第15の本発明(請求項15に対応)によるデータ出力装置は、デジタル符号化されたAV信号を入力する入力部と、入力データをデコードすることなく記録する一次記録A部と、入力データのデコードを実行するデコード部と、前記デコード部により符号化情報及び同期情報を抜き出して格納するデコード情報格納部と、前記デコード部によりデコードされたデコードデータの再エンコードを行うエンコード部と、前記エンコード部で作成したエンコードデータを記録する一次記録B部と、前記エンコード部でエンコード時に作成した符号化情報及び同期情報を格納するエンコード情報格納部と、前記一次記録A部と少なくとも一つの一次記録B部、及び前記エンコード情報格納部の情報によりシステムエンコードを実施するシステムエンコード部と、前記システムエンコード部により作成されたデジタル符号化AV信号を外部接続機器に出力する別機器出力部とから構成し、前記システムエンコード部が、前記エンコード情報格納部に格納された符号化情報及び同期情報をもちいて一次記録A部の内容の一部を一次記録B部の内容と入れ替えてシステムエンコードを行うことを特徴とするもので、ビデオデータは再エンコードすることなく元データのままで、オーディオデータのみを再エンコードデータを入れ替えることによりシステムエンコードを、各同期情報を用いて高速変換でき、外部出力機器へ高速転送を実行できるという作用を有する。
【0024】
【発明の実施の形態】
以下に、本発明にかかる実施の形態について、図面を参照しつつ説明を行う。
【0025】
(実施の形態1)
はじめに、本発明の実施の形態1によるデータ記録装置の構成を示すブロック図である図1と図2を主として参照しながら、本実施の形態のデータ作成方法について説明する。
【0026】
まず、図1、図3、図5のブロック図及び、図4、図6の流れ図を用いて、入力データから一次記録データを作成するところまでを説明する。
【0027】
デジタル圧縮符号化されたオーディオ・ビデオデータを格納するDVHSレコーダや光ディスク等のデータ記録装置や、BSデジタル放送等の受信機からデータを読み出す入力部1と、入力部1から入力されたデータを記録する一次記録A部7と、多重化されて記録されているオーディオ・ビデオデータを分離し、ビデオ再生時刻情報とオーディオ再生時刻情報等を抽出し、再生時刻情報に従って伸張処理を行うデコード部2と、デコード部2によって抽出された再生時刻情報等のデコード情報を格納するデコード情報格納部3と、デコード部2でデコードされたオーディオデータと、デコード情報格納部3に格納された同期情報をもとにオーディオエンコードを実行するエンコード部4と、エンコード部4により作成された符号化オーディオデータを格納する一次記録B部5と、エンコード部4により作成された符号化オーディオデータの同期情報等を格納するエンコード情報格納部6から構成される。
【0028】
図3は、デコード部2の詳細を示したブロック図であり、多重化されて記録されているオーディオ・ビデオデータを分離し、ビデオ再生時刻情報とオーディオ再生時刻情報を抽出するシステムデコード部21と、システムデコード部21によって分離された圧縮ビデオデータをビデオ再生時刻情報に従って伸張処理を行うビデオデコード部22と、システムデコード部21によって分離された圧縮オーディオデータをオーディオ再生時刻情報に従って伸張処理を行うオーディオデコード部23から構成される。
【0029】
ビデオ処理は、システムデコーダ部21内のパーサ部211によって分離されたビデオデータを格納する圧縮ビデオバッファ部212と、圧縮ビデオバッファ部212に格納されたビデオ信号とビデオ再生時刻情報を関連づけるテーブルを有するビデオ再生時刻情報管理部213と、圧縮ビデオデータの属性情報(ビデオヘッダ情報)の解析、及び伸張を実行するビデオデコーダ部22と、伸張したビデオデータを格納するフレームバッファ部221と、フレームバッファ部221から外部にビデオ信号を出力するビデオ出力部222から構成される。
【0030】
オーディオ処理は、システムデコード部21内のパーサ部211によって分離されたオーディオデータを格納する圧縮オーディオバッファ部214と、圧縮オーディオバッファ部214に格納されたオーディオ信号とオーディオ再生時刻情報を関連づけるテーブルを有するオーディオ再生時刻情報管理部215と、圧縮オーディオデータの属性情報(オーディオヘッダ情報)の解析、及び伸張を実行するオーディオデコーダ部23と、伸張したオーディオデータを格納するPCMバッファ部231と、PCMバッファ部231内のオーディオデータを外部に出力するオーディオ出力部232から構成される。
【0031】
オーディオ再生時刻情報管理部215には、オーディオデコード部23により、該当するオーディオデータが再生されるまでの時刻情報が保管される。該当時刻に対応するオーディオデータが再生されれば、そのテーブル値は不要となり、パーサ部211から次の入力データ登録される形で、テーブルが更新される。
【0032】
MPEGでの同期を実現するために、ビデオとオーディオの各アクセスユニットと呼ばれる復号再生の単位ごと(ビデオは1フレーム、オーディオは1オーディオフレーム)に、いつ復号再生すべきかというタイムスタンプ情報が付加されている。このタイムスタンプ値は、PTS(Presentation Time Stamp)と呼ばれ、ビデオ用は、Video PTS (VPTSと略)、オーディオ用は、 AudioPTS (APTSと略)の再生出力の時刻管理情報を表している。
【0033】
再生装置内の標準のシステム基準参照部24では、MPEGシステムの基準復号器内部のSTC(System Time Clock) を発生する。装置側でSTCを作成するためには、DVDディスク等で使用されるプログラムストリーム(PS)で用いるSCR(System Clock Reference:システム時刻基準参照値)、またはBSデジタル放送で使用されるトランスポートストリーム(TS)で用いるPCR(Program Clock Reference:プログラム時刻基準参照値)の値を用いる。その最終バイトの到着時(読み込み時)に、SCRまたはPCRの示す値をSTCに設定することによって、基準時刻を設定することができる。さらに、このSTCの値の設定と、PLL(位相ロックループ)回路を組み合わせることにより、デコーダ側の基準時刻用システムクロックと完全に周波数が一致したSTCをもつことができる。このSTCのシステムクロックは27メガヘルツで構成される。このSTCからカウンタ等により分周することにより、各PTS(90キロヘルツ周期)が参照される。各デコーダは、STCが、ビデオはVPTS、オーディオはAPTSが一致したときに、そのアクセスユニットを再生出力する。PTSの精度は、90キロヘルツである。従って、この90キロヘルツの精度の範囲内で、STCとVPTS、APTSの同期をとれるように、各々のデコードを実施すれば、AV同期のとれた出力がなされるものである。
【0034】
図4は、本発明によるAV同期処理の流れ図である。ステップA301及びA302において、システムデコード部21は、データ記録装置等から入力された符号化データを、圧縮ビデオデータと圧縮オーディオデータに分離する。圧縮ビデオデータは、圧縮ビデオバッファ部212に、圧縮オーディオデータは、圧縮オーディオバッファ部214に格納される。またビデオフレームについているビデオ再生時刻情報VPTSを抜き出し、圧縮ビデオバッファ部212への参照アドレスと共に、ビデオ再生時刻管理部213に格納される。
【0035】
一方、圧縮オーディオデータは、オーディオフレームについているオーディオ再生時刻情報APTSを抜き出し、図5に示すように、例えばAPTSごとにスロットという単位で分割し、圧縮オーディオバッファ部214への参照アドレスと共に、オーディオ再生時刻管理部215に格納される。また、APTSエントリ数は、このテーブルで管理している時刻情報の管理数を示す。
【0036】
ステップA303で、VPTSがシステム時刻基準(STC)に達するまえに、ビデオデコードを実施しフレームバッファ部221に格納する。同じようにステップA304で、APTSがSTCに達するまえに、オーディオデコードを実施し、PCMバッファ部231に格納する。各々デコードは実施するが、デコード後直ちに出力するわけではない。ステップA305で、STCを参照し、VPTSが一致もしくは超過した時点で、該VPTSに関連するビデオデコードデータを、フレームバッファ部221から、ビデオ出力部222を介して出力する。
【0037】
次にステップA306で、STCを参照し、APTSが一致もしくは超過した時点で、該APTSに関連するオーディオデコードデータを、PCMバッファ部231から、オーディオ出力部232を介して出力する。
【0038】
なお、装置によっては、光出力端子からドルビーデジタル等のストリームのままで出力する場合もある。このような場合、ストリームバッファ(図示せず)に一旦蓄えて、STCを参照し、APTSが一致もしくは超過した時点で、オーディオ出力部232から出力する。
【0039】
入力されるデータの終了もしくは、ユーザによる再生の停止が指示されれば、ステップA307でデコードを終了する。
【0040】
STCに対して、VPTS及びAPTSを同期させるよう、ビデオデコード及びオーディオデコードを実施する。特に、APTSにVPTSが、50ミリ秒先行から、30ミリ秒遅延までの間にあわせれば、リップシンクのずれは気にならない程度となる。
【0041】
入力されたデータをデコードする動作について説明してきたが、デコードされたデータを入力として、そのデータをエンコードし直す(以下再エンコードと称す)処理について、図1のブロック図と、図6の流れ図を参照しながら説明する。
【0042】
デジタル符号化されたAV信号の記録用の入力が開始される(ステップA101)。ここで、入力されたAV信号の符号化方式を変更する必要がなければ、再エンコードの系を起動する必要はない。着脱可能な記録媒体もしくは外部出力の再生に適した符号化方式への変換が必要であれば、符号化方式を変換(以下codec変換と略す)する。ステップA102で、codec変換が必要かどうかを判断し、不要であれば、一次記録A部7に入力データをデコードすることなく記録する。codec変換が必要であれば、先に説明したデコード動作を開始する。
【0043】
デコード実施時において、デコード部により符号化情報及び同期情報を抜き出して(ステップA104、ステップA105)、デコード情報格納部3に記録する。codec変換時においても、入力データは一次記録A部7へ記録される。記録終了時には、デコード情報格納部3へ記録された各情報の一部もしくは全部が、入力データとともに一次記録A部7へ記録するように構成しておくと、記録終了後に再エンコードや編集を加えるときに、同期情報や時刻情報があるので都合がよい。デコード情報格納部3は、例えば図8のように構成される。31は符号化情報を格納するcodec情報部である。32は同期時刻情報部である。また33は後で説明するバッファモデル情報格納部である。
【0044】
ステップA106で、codec変換をするために、デコード部2によりデコードされた、例えばオーディオデコードデータの再エンコードを行うエンコード部5により、オーディオエンコードが実施される。エンコードを実施するためには、デコード情報格納部3に格納された符号化情報を参照する。
【0045】
デコード情報格納部3のcodec情報部31には、例えば、符号化情報(オーディオ)には、MPEG−2 AAC(Advanced Audio Coding)方式(以下AAC方式と略す)や、ドルビーデジタル方式など符号化変換方式情報、チャンネル数、ビットレート、サンプリング周波数情報、量子化ビット数、などが該当する。
【0046】
オーディオの再エンコードは、入力されたオーディオの符号化情報を参照しながら、符号化する符号化情報を決定する。AAC方式からドルビーデジタル方式への変換や、チャンネル数が5.1チャンネルからステレオ2チャンネル形式への変換、384キロビット/秒から、256キロビット/秒への変換などである。入力された信号のサンプリング周波数から記録再生機器に適したサンプリング周波数の変更を行う場合もある。また符号化方式がリニアPCMになる場合などでは、量子化ビット数が変更になる場合もある。デコーダ部2からエンコーダ部4へ入力されるときに、例えば入力音声が32キロヘルツのサンプリング周波数から、記録用音声が48キロヘルツへのサンプリング周波数に変換するときには、サンプリングレートコンバータなどの半導体素子や、デジタルフィルタによる演算処理、デジタルアナログ変換素子とアナログデジタル変換素子の組み合わせなどで、これらの変換を実現することができる。
【0047】
図9にエンコード情報格納部6の構成を示す。codec情報部61に再エンコードされた符号化情報を格納する。
【0048】
次にステップA105で抜き出した同期情報を用い、再エンコードしたオーディオデータに同期情報を追加する。ステップA107で、もとの映像データと同期したオーディオデータに対する同期情報を用い、デコードから再エンコードへの遅延時間を考慮して、同じ映像に対する再エンコードデータが一致するように同期情報を追加する。エンコード情報格納部6の同期時刻情報部62に同期情報が格納される。一旦デコードしたデータを例えば一旦メモリ上に待避し、待避データを再エンコードのために取り込むための半導体メモリなどが必要になる。しかしながら、この変換のための時間が33ミリ秒(NTSC方式の画像更新周期)であるならば、デコードしたPCMデータは、サンプリング周波数が48キロヘルツ、量子化16ビット、2チャンネルで換算すれば、約6400バイトとなる。
【0049】
ステップA108で、再エンコードしたオーディオ符号化データは、一次記録B部5に記録され、エンコード部4でエンコード時に作成した符号化情報及び同期情報は、エンコード情報格納部6に格納される。さらにエンコード情報格納部6の内容も一次記録B部5へ記録するように構成してもよい。あとで、符号化されたビデオデータと再エンコードされたオーディオデータとの同期再生のときに、同期情報が同じ一次記録B部5にあれば、データの保守管理がしやすい。
【0050】
再エンコード時に、デジタル符号化されたAV信号入力時に、入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に抜き出した符号化情報と同じまたは少ないビット量でオーディオデコードデータの再エンコードを行えば、抜き出した同期情報を付与することにより、再エンコードデータを作成すれば、再エンコードオーディオデータ量が、元のオーディオデータ量以下であるため、再エンコードオーディオデータ記録容量を抑制できる。例えば、ある記録媒体に記録された入力データから別の記録媒体への変換を施す場合に、記録容量の増減の見込みが立てられやすくなる。記録容量のより少ない記録媒体への記録が想定される場合には特に有効である。
【0051】
また、外部記録媒体で、再生可能なビットレートとするために、入力データから抜き出した符号化情報と同じまたは少ないビット量とすることもある。例えば携帯型オーディオプレーヤでは、その再生機や記録媒体の形状やバッテリ容量などから記録容量と記録時間が制約される場合が多い。そのためにより圧縮符号化度を高める再エンコードを行って、ビットレートを下げて記録することもある。
【0052】
また、再生機器の制限等でオーディオチャンネル数を低減して再エンコードする場合もある。オーディオデコードと同時に抜き出した符号化情報と同じもしくは少ないオーディオチャンネル数で符号化した再エンコードを行う。これは再生機側の再生仕様や機能により、5.1チャンネルサラウンド再生機能がない場合や、2ヶ国語放送を再生するためのデュアルモノラルといわれる方式で片方のチャンネル(例えば日本語/英語が記録され、日本語のみ再生など)のみの選択再生ができない場合は、デコード後、オーディオ信号処理を施し、チャンネル数を減らした上で予め再エンコード時を実施し、記録媒体B部6へ記録する。チャンネル数を減らすための信号処理としては、5.1チャンネルの各チャンネルからステレオ2チャンネルへの変更に対しAAC方式などでは、各々加算係数が規定されているので、各位相がずれないように加算すればよい。
【0053】
地上波の現行のアナログ2カ国語放送では、左右の2チャンネルに別々の言語音声(英語と日本語など)がはいっているので、2カ国語放送から一方の言語音声のモノラル記録を行うときなどへのチャンネル数変換が発生することがある。また入力側のソースがデュアルモノラル音声であるときも、一方の音声のみのモノラルへの変換が発生する。例えば左音声(以下Lと略)と右音声(以下Rと略)から片方を選択し、選択された側のみのモノラル記録とすればよい。あるいは、片方のLの選択音声を位相がずれないようにR側へデータ複写することでも実現できる。
【0054】
この場合再エンコード時において、再生機器の制限等でオーディオチャンネル数を制限して再エンコードするが、記録側の記録容量が入力データと同一であれば、例えば総チャンネル数を減らしても、1チャンネルあたりのビットレートを上げて記録することもできる。例えば入力が5.1チャンネル(合計で256キロビット/秒で、再エンコード側が2チャンネル(合計256キロビット/秒)の場合には、1チャンネルあたりのビットレートを上げて記録できる。
【0055】
さらに再エンコード時において、各オーディオチェンネル信号を合成することにより新たな音響効果を加えて再エンコードを行えば、低域の音量をアップするような処理や、サラウンド効果を増加させて記録できる。再生機器側が貧弱な音響装置しかない場合、映画の主役のセリフを強調すれば、背景音楽に消されそうなセリフ音声が聞きやすくなる。また逆にライブ音楽番組の記録等で反響された音楽を強調したい場合など、サラウンド効果用信号処理を施した後で再エンコードを実施すれば、擬似ステージ感覚を楽しめる。例えば、エコーのようなある一定の遅延素子と、遅延信号に特定のゲイン係数を掛けて加算する信号処理を施せば、反響音を作り出すことができる。
【0056】
このように符号化方式を変更するときだけではなく、音響効果を加えた別のオーディオストリームを作り出すときにも本発明は有効である。さらに、元のビデオデータとの同期再生が可能であるため、元の入力オーディオストリームと再エンコードしたオーディオストリームによる再生オーディオストリームの途中切り替えも可能である。各々同じビデオストリームに対して同期が可能であるので、ビデオ出力を止めることなく、途中でオーディオ出力のみを入れ替えることができる。このように元のストリームに対し、再エンコードを実施したストリームを組にして記録媒体にすれば、再生機器の環境に応じて再生可能なオーディオストリームでの再生を可能とすることもできる。
【0057】
なお、元データに対し、再エンコードしたオーディオデータ量が少ない場合には、必要に応じてMPEGの方式で定められているスタッフィングビットが追加される。
【0058】
また、エンコード部4は、1つのみではなく、再エンコードしたい符号化方式の数等に応じられるよう、複数保有する形でもよい。再エンコード毎に、一次記録B部5の個数を増やすもしくは、別のファイルに記録し、またエンコード情報格納部6における各情報も別々にもてばよい。ハードウェア資源、もしくはソフトウェアによる演算量と及びデータ転送、記録速度と記録容量等が許す範囲内であれば個数に制限はない。
【0059】
もちろん一次記録A部7も複数あってよい。例えば、マルチアングルストリームなど、入力部1から同じ番組に対するマルチストリームが入った場合に、同一の一次記録B部5に対して、複数の一次記録A部7が対応する場合が存在する。ただし、複数のマルチストリームにおいて、各々のビデオストリームに対して同一の識別番号を有するオーディオストリームが用いられている、もしくは異なる識別番号でありながら、同期情報は同じでかつ中身は全く同一のオーディオストリームである場合などの限定が必要になる。一次記録A部7と一次記録B部5は、同期情報という共通情報で結びつけることができる。
【0060】
さらに一次記録A部7と一次記録B部5が複数ずつ存在するという場合もある。しかし共通の時刻情報を同期情報としてある限りは、どのような組み合わせでも同期再生が可能となる。また、1つのビデオストリームに対し、2種類以上のオーディオストリームがある場合がある。これに対しては、元のオーディオストリーム間で共通の時刻情報による管理がされていれば、複数のオーディオストリームをデコードし、各々の再エンコードしたオーディオストリームを作成しても同期再生が可能となる。
【0061】
次に、図2のブロック図及び、図7の流れ図を用いて、一次記録データから二次記録データもしくは外部出力データを作成するところを説明する。
【0062】
図2において、一次記録A部7と一次記録B部5、及びエンコード情報格納部6は図1と同様のものである。加えて、エンコード情報格納部6の情報によりシステムエンコードを実施するシステムエンコード部11と、システムエンコード部11により作成されたデジタル符号化AV信号を記録する二次記録部13、システムエンコード部11により作成されたデジタル符号化AV信号を外部接続機器に出力する別機器出力部14、及びシステムエンコードを二次記録部13、あるいは別機器出力部14の選択もしくは両方等を設定する出力先情報設定部12とから構成する。
【0063】
ステップA201で二次記録開始(もしくは外部接続機器出力開始)が選択される。ステップA202では一次記録A部7から入力され記録された元データを読み出す。ステップA203で、二次記録部13に記録する符号化方式が一次記録A部7と同一でよいかを判断する。同一でよい場合は、読み出したデータをそのまま記録する。あとで説明する再エンコードされた一次記録B部5の情報を用いる必要はない。
【0064】
一方、符号化方式の変更が必要な場合は、ステップA204で、システムエンコードに必要な情報をエンコード情報格納部6から読み出す。このエンコード情報格納部6には、codec情報部61から符号化情報(オーディオ)である符号化方式(AAC方式、ドルビーデジタル方式など)、チャンネル数、ビットレート、サンプリング周波数情報、量子化ビット数が、同期時刻情報部62には同期情報、時刻情報などが、オーディオエンコード時に保存されている。一次記録A部7の元映像ストリームのどのVPTSと、一次記録B部5の再エンコードオーディオストリームのAPTSとを読み出すことによって、ステップA205で、両一時記録部内のAV同期づけられたシステムエンコードを実現することができる。
【0065】
ビデオデータとの参照は、VPTSとAPTSの関連づけを再優先とする。もともとAV同期再生用にビデオストリームにはVPTSが、オーディオストリームにはAPTSが付与されている。そこで、オーディオ側のみを入れ替えるときには、VPTS側には何の操作も行わず、再エンコードしたオーディオデータに適したAPTSを付与することにより、AV同期再生を実現する。
【0066】
つまり、システムエンコード部11が、エンコード情報格納部6に格納された符号化情報及び同期情報をもちいて一次記録A部7の元オーディオストリームを一次記録B部5の再エンコードオーディオストリームと入れ替えてシステムエンコードを行うものである。本発明では、再エンコード時において、ビデオストリームを再エンコードする必要がないため、ビデオエンコード用のバッファメモリや演算プロセッサ資源等は必要がない。またオーディオストリームも基本的に入れ替えを前提とすれば、元データより多くの記録容量を必要とせず、外部機器への伝送において多くの伝送帯域や速度を必要とすることはない。
【0067】
出力先情報設定部12の入力により、ステップA206で二次記録部13へ出力するか否かを選択する。二次記録部13への記録が選択されれば、ステップA207で、二次記録部13への記録が、ステップA208で記録終了判定がなされるまで実行される。記録終了判定としては、記録するデータがなくなった場合、記録媒体への残り記録容量がなくなった場合、利用者指示による記録停止が指示された場合、記録媒体がなんらかの障害(例えば傷など)による記録の続行が不可能になった場合などである。一方、外部接続機器側への出力が選択された場合は、ステップA209により、別機器出力部14から出力が、出力終了判定がなされるまで実行される。出力終了判定としては、出力するデータがなくなった場合、相手側機器側からによる出力停止指示の受信の場合、利用者指示による出力停止が指示された場合、出力インタフェースのなんらかの障害(例えば伝送経路の切断など)による出力の続行が不可能になった場合などである。
【0068】
なお、出力先情報設定部12の構成例として、例えば二次記録部13が挿入され、記録可能容量があるときや、別機器出力部14が相手先機器との接続を確認したときに自動判別する方式、利用者による選択ボタン設定や、GUIによるメニュー選択方式などがある。
【0069】
よって、デジタル符号化されたAV入力信号をそのまま記録した元データと、再エンコードデータの両方を参照し、元データの一部と、再エンコードデータ及び各々の同期情報、及び符号化情報を用いてシステムエンコードを実施することにより、出力用のデジタル符号化データを生成することを特徴とする。
【0070】
デコード時においてビデオストリームとオーディオストリームを通常再生する場合のバッファモデル情報を、デコード情報格納部3のバッファモデル情報部33に格納しておくような構成をとれば、下記のような効果が得られる。再エンコード時に、デコード時に作成したバッファモデル情報33を参照したエンコードを行い、その結果としてエンコード情報格納部6内にバッファモデル情報部63を作成する。すると、システムエンコード時において、オーディオデータとビデオデータをあわせてデコードしたときにおいても、オーバーフローやアンダーフローが発生しないように、ビデオストリームとオーディオストリームの分割を考慮したシステムエンコードが実施できる。もともと入力されたデータをデコードしたときにおいて、通常デコードが可能であるならば、デコード時のバッファモデル情報に従って、再エンコード用のバッファモデル情報を作成して残しておけば、システムエンコード時のバッファモデル管理が行いやすい。
【0071】
特に、ビデオ符号化が、変化が激しい時に多くのビット量を割り当てる可変レート制御方式であれば、ビデオストリームとオーディオストリームの単位時間あたりのビット割付量は絶えず変化する。一方システムエンコードされたデータをデコード時において、ビデオとオーディオの一方のアンダーフローやオーバーフローを起こすことなく再生できるように、バッファモデル管理は重要である。そこで、再エンコード時に作成しておいたバッファモデル情報部63を用いてシステムエンコード時に使用することにより、どの部分でビデオストリームのビット割当量が増加するか前もってわかるため、オーディオストリームを前もって記録しておくなどシステムエンコードの制御を可能とする。
【0072】
一方ビデオ符号化が、毎回同じビット割付量である固定ビットレートであった場合は、単位時間あたりのビット割当量が変化しないため、バッファモデル管理はたやすいものとなる。最初にオーバーフローやアンダーフローが行い割り当てを行えば、記録が終了するまでシステムエンコーダによる割り当て変更の制御は必要がない。
【0073】
そこで、デジタル符号化されたAV入力信号をそのまま記録した元データと、再エンコードデータの両方を参照し、元データの一部と、再エンコードデータ及び各々の同期情報、符号化情報、及びバッファモデル情報を用いてシステムエンコードを実施することにより、出力用のデジタル符号化データを生成することを特徴とする。
【0074】
元データの一部とは、これまで説明してきた再エンコードデータに取り変えられる部分のデータを指す。例えば、オーディオデータとそれに付随するオーディオ再生同期情報、符号化情報などである。
【0075】
しかし、本発明は、オーディオの再エンコードについて説明してきたが、取り替えられるデータが、以下に説明するように、オーディオデータばかりとは限らない。記録媒体を再生する再生機側の都合により、出力設定に合わせたビデオ再エンコードについても、本発明と同様に実現できる。例えば、ビデオ出力のアスペクト比が16:9から4:3への変換にともなう画像切り出し、24コマ/秒の映画ソースから、30コマ/秒のTV放送の再生に即したビデオ信号への変換などは、同じようにビデオを再エンコードすることにより実現できる。つまり符号化方式は変わらなくとも、もとの映像再生情報を変更して記録したいときなどにも有効である。さらにオーディオストリームやビデオストリーム以外にも適用可能である。字幕情報などがはいったサブピクチャストリームのみの変更といった用途にも適用可能である。
【0076】
また同じオーディオ入力ストリームに対し、2つ以上のビデオ入力ストリームがある場合がある。マルチアングルで撮影した映像をデジタル衛星放送やケーブル放送で放送している。このような場合、片方のストリームのデコード映像に対し、もう片方のストリームを再エンコードしたビデオデータに同期情報を付加し、同じ同期情報を有するものを重ね合わせてさらに1つの画面に合成して、同期情報を付加して記録すれば、同時に2画面の再生と1つのオーディオを同期して再生できる。またNTSC方式だけでなく、PAL方式への再エンコードなど、異なった再生方式への再エンコードも有効である。
【0077】
一部の入れ替えについて説明してきたが、全部入れ替える場合においては、真映像も音声も全く再エンコードとなるため、デコード再生したAV信号を再エンコードすることとなる。一次記録A部7の元AV信号データに対し、一次記録B部5には、再エンコードされた独立なAV信号データが作成されることとなり、二次記録部13への記録は、再エンコードされた一次記録B部5のみが記録されるため、本発明の対象ではない。
【0078】
これまでは、一次記録A部7のファイルと、一次記録B部5のファイルを、各々のファイルを関連づける関連情報により別々のファイルとして保存する方法について説明してきた。
【0079】
単に容量の増加に対応するといった目的の他に、一次記録A部7を大容量のリムーバルディスクに、一次記録B部5はハードディスクにといった別の記録媒体に記録することによって、例えば入力部1から記録したデータをそのまま記録した一次記録A部7については、単独で別の機器に装着して再生することができるが、一次記録B部5は、一次記録A部7との組み合わせでのみ再生出力が有効とするような運用を図ることができる。関連情報さえあれば、複数の一次記録B部5を有する構成となる場合にファイルが、別れていてもよい。
【0080】
一方、一次記録A部7のファイルと、一次記録B部5のファイルを単一のファイルとして保存する構成も想定される。一方が着脱可能な形で外されてしまったときには、両者を参照したシステムエンコードはできない。両者のファイルを唯一的に管理したい要望が強い場合には、同一のファイルのなかに両者の符号化データ及び同期情報などの情報を格納しておけば、管理は行いやすいという利点がある。目的や用途に応じて、一時記録の構成はどちらもとりうるが、本発明のデータ作成方法によれはどちらの要望にも応えることができる。
【0081】
さらに、利用者からの入力等による出力情報設定により、再エンコードされたデジタル符号化データを、直接二次記録媒体に記録する形式に変換して記録すること、または接続された外部機器インタフェースの仕様に変換して出力することが必要な場合がある。
【0082】
二次記録部13へ記録するためには、記録容量を鑑みながら、記録媒体のフォーマットやファイルシステムの作成、記録番組名や記録ファイルの識別子、番組の付属情報等をつけることがある。必要に応じて記録した内容のベリファイや、また残り記録容量をみながら記録の終了判定が必要である。なお残り記録容量がなくなれば、システムエンコードを続けることは不要である。
【0083】
二次記録部13に記録する場合は、ストリームの最初から順序よく記録することは大きな問題ではない。再エンコードができあがった部分から記録すればよい。二次記録部13を再生するときに最初から再生できるようにさえ記録されていればよい。また記録速度も二次記録部13の記録媒体に応じればよい。つまりシステムエンコードが高速であり、記録速度も通常再生に必要な再生速度の数倍以上が可能であれば、再生に比べて短時間で記録が終了する。
【0084】
さらに利用者への便宜をはかるため、各種ナビゲーション情報も追加することが好ましい。番組の先頭へのポインタ情報、ある一定間隔でスキップするときなどの飛び先アドレス情報などがこれに該当する。二次記録部13を例えばDVDプレーヤと想定すると、ナビゲーション情報を追加して記録しておけば、通常市販のDVDディスク再生と同様に、各番組別や、ある一定時間単位でのスキップ(順方向、逆方向など)が可能である。従って、システムエンコード時に、デコード情報格納部3やエンコード情報格納部6の、同期時刻情報などの情報を用いてこれらのナビゲーション情報を生成する。
【0085】
一方、別機器への出力の場合は、インタフェース接続のコネクション処理や、プロトコル処理、相手機器側からの応答処理などが必要である。別機器出力部14の相手機期側で入力と同時にデコード再生している場合は、ストリームの最初から順序よく途中でとぎれることなく一定の転送速度で出力することが必要である。つまり、伝送帯域と品質に応じた出力を可能とするため、相手機器側での再生もしくは記録を保証できるという作用を有する。もちろん別機器出力部14の相手側に記録機器が接続されている場合、記録時に再生が必要でなければ、高速転送による短時間記録が可能となる。
【0086】
一次記録A部7や一次記録B部5については、ハードディスク等を想定して説明してきたが、半導体メモリや、CDやDVD、Blu−Rayなどの光ディスク、デジタル信号記録テープ等の媒体をもちいてもよい。二次記録部13は、着脱可能なテープやディスク、半導体メモリなどのメモリ単体及びメモリ機器などが該当する。
【0087】
本発明では、入力時に、再エンコードデータを作成する方法について説明してきたが、再エンコードは入力時のみに限ることはない。予めデジタル符号化されたAV信号が入力され、一次記録A部7とデコード情報格納部3へ記録しておき、夜間など利用者が視聴しない時間などに、一旦デコード再生をして、デコード情報格納部3を参照しながら、再エンコードして一次記録B部5へ記録するデータを作成する構成でもよい。また、予めデジタル符号化されたAV信号が入力され、一次記録A部7へ記録しておき、夜間など利用者が視聴しない時間などに、一旦デコード再生をして、デコード情報格納部3を作成しながら、再エンコードして一次記録B部5へ記録するデータを作成する構成でもよい。入力から二次記録部13への記録、もしくは別機器出力部14からの出力までの期間に、再エンコードしたデータを作成し、元データとの一部の入れ替えによるシステムエンコードを容易に実現することをポイントとする。
【0088】
なお、外部接続機器の機器ID等、相手側機器を特定する情報を認識することによって、再エンコードする情報を読みこんで、エンコード条件設定値を設定するような構成でもよい。例えば、相手側出力機器側の機器種別を知るID番号等を受け取り、本体内もしくは、エンコード条件設定用のメモリカード内のIDとエンコードパラメータの関係を納めたテーブルを参照し、設定を行うような構成をとれば、再生装置による設定を利用者の操作をともなわずとも実現することが可能である。これらの外部接続機器には、TVなどのモニタ出力機器や、オーディオ出力アンプ、AVセレクタ機能を有するAVアンプなどのインタフェース機器、携帯型出力機器、車載用AV再生機器などが想定される。
【0089】
なお、入力データは、外部から入力されるデータとして説明してきたが、予め機器内に存在するデータであってもよい。また入力はシステムデコード部21がAV分離したあとについて説明してきた。しかし、あらかじめAV分離されているファイルデータであってもよい。圧縮ビデオデータと関連する再生時刻情報、圧縮オーディオデータと再生時刻情報を入力として、オーディオデータの再エンコードを実施する形式でもよい。これは、ビデオカメラ等で撮影した信号をパーソナルコンピュータ上で編集した結果として、AV混合ファイルもしくは、AV独立のファイルどちらの場合でも、圧縮ビデオデータと関連する再生時刻情報、圧縮オーディオデータと再生時刻情報を互いに関連づけた同期をとって再生する場合すべてに適応されるものである。
【0090】
また、デジタル圧縮符号化ストリームとして、オーディオが非圧縮であるリニアPCMの場合もある。リニアPCMの場合、非圧縮オーディオフレームであるから、伸張動作は不要であるが、ストリームに含まれる同期情報に従ってAV同期再生は同じ方式を持って対応することができる。
【0091】
この本発明のデータ作成方法及び、記録装置の適用例としては、DVDレコーダ、ハードディスクレコーダ、内部に記録装置を有するセットトップボックス、同じく記録装置を有するデジタル衛星放送受像機、パーソナルコンピュータなどがある。本発明のデータ作成方法によるAVデータ作成プログラムを作成しておくことにより、パーソナルコンピュータ等へ、外部からの動作プログラムをロードして実行動作させることができる。
【0092】
【発明の効果】
以上説明したように、本発明では、デジタル符号化されたAV信号入力時に、入力データのデコードを行って同期情報を抜き出し、オーディオデコードと同時にオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするもので、後でビデオデータと再エンコードしたオーディオデータを用いた同期再生が可能であるとともに、同期情報を元に高速にシステムエンコードができるため、二次きろくへの高速な短時間記録を可能とするという効果がある。
【図面の簡単な説明】
【図1】本発明の実施例の一時記録を作成するまでの構成を示すブロック図
【図2】本発明の実施例の二次記録を作成するところの構成を示すブロック図
【図3】本発明の実施例のデコード部の構成を示す図
【図4】本発明の実施例のデコード方法を説明する流れ図
【図5】本発明の実施例のオーディオ再生時刻情報管理部の構成を示す図
【図6】本発明の実施例の一時記録を作成するまで方法を説明する流れ図
【図7】本発明の実施例の二次記録を作成するまでの方法を説明する流れ図
【図8】本発明の実施例のデコード情報格納部の構成を示す図
【図9】本発明の実施例のエンコード情報格納部の構成を示す図
【符号の説明】
1 入力部
2 デコード部
3 デコード情報格納部
4 エンコード部
5 一次記録B部
6 エンコード情報格納部
7 一次記録A部
11 システムエンコード部
12 出力先情報設定部
13 二次記録部
14 別機器出力部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a data creation method for executing re-encoding recording by once decoding digitally encoded audio / video data and then converting the digitally encoded audio / video data into a digital encoding method that can be handled by an external device other than the present device. The present invention also relates to a data recording apparatus for recording the created data.
[0002]
[Prior art]
In recent years, AV playback apparatuses that read AV signals that have been digitally compressed and recorded on various recording media such as CDs, DVDs, and hard disks, and play the expanded signals through video monitors, audio speakers, and the like connected to the apparatus are widely used. It has become widespread.
[0003]
MPEG (Motion Picture Experts Group) is known as a known standard for digital compression in an AV reproduction apparatus that reproduces an audio component signal and a video component signal by respectively decompressing digital compression encoded AV signal data. It has been. In MPEG, after decoding multiplexed and compression-encoded AV signal data, playback is performed synchronously, so that playback and display are performed on each of the audio component signal and video component signal in the AV signal at the time of encoding. Time information to be executed is added and compressed. Thus, at the time of decompression, reproduction is executed while synchronizing the audio component signal and the video component signal with reference to the time information with respect to the system time base reference value possessed by the apparatus.
[0004]
Furthermore, not only a reproducing apparatus but also a recording apparatus that performs an digital encoding of an input AV signal and has an encoding function has become widespread. A conventional data creation method for creating encoded data will be described below. The applicant is aware of the data creation method disclosed in
[0005]
The prior art describes a method and system for replacing an already encoded digital bitstream with another section or encoded video. The number of bits consumed in each picture in the modified interval, the number of bits in the sequence header of each picture, the number of bits in each picture group (GOP) header, and the total stuff for the inserted encoding instead of the video to be removed Calculated by adding bits. Then, the process of replacing with the encoded data is performed.
[0006]
[Patent Document 1]
Japanese National Patent Publication No. 11-500592
[0007]
[Problems to be solved by the invention]
However, although the method disclosed in
[0008]
The present invention has been made in order to solve the above-described problems. A digital code that can be handled by an external device other than the present device after once decoding externally input digitally encoded audio data. It is possible to provide a data creation method or a data recording apparatus for performing re-encoding recording by converting to a conversion method.
[0009]
[Means for Solving the Problems]
According to the first aspect of the present invention (corresponding to claim 1), when a digitally encoded AV signal is input, the input data is decoded to extract synchronization information, and at the same time as the decoding, the audio decoded data is re-encoded. And re-encoding data is created by adding the extracted synchronization information, and the video data and re-encoded audio data are later re-encoded in the same manner as the AV synchronous playback based on the original input data. Even in such a group, synchronized playback is possible.
[0010]
According to a second aspect of the present invention (corresponding to claim 2), when digitally encoded AV signals are input, the input data is decoded to extract encoded information and synchronization information, and the extracted information is extracted simultaneously with decoding. The audio decoding data is re-encoded with the same or less bit amount as the encoded information, and the re-encoded data is created by adding the extracted synchronization information. Since the amount of re-encoded audio data for performing synchronous reproduction with the set of encoded audio data is less than or equal to the original audio data amount, the re-encoded audio data recording capacity can be suppressed.
[0011]
According to a third aspect of the present invention (corresponding to claim 3), when a digitally encoded AV signal is input, the input data is decoded to extract encoded information and synchronization information, and at the same time, a decoding buffer model Obtains information, re-encodes audio decode data with the same or less bit amount as the extracted encoded information in the extracted buffer model, and creates re-encoded data by adding the extracted synchronization information When performing synchronous playback with a pair of video data and re-encoded audio data later, encoding is performed with reference to the original buffer model information, so that the buffer model can be encoded without failing. Has an effect.
[0012]
According to a fourth aspect of the present invention (corresponding to claim 4), input data is decoded to extract encoded information and synchronization information, and at the same or lower bit rate than the extracted encoded information simultaneously with audio decoding. In order to encode and re-encode the original audio data at the same or lower bit rate, the recording capacity of the recording medium can be reduced, or the transmission bandwidth can be reduced. It is possible to correspond to the output at.
[0013]
According to a fifth aspect of the present invention (corresponding to claim 5), the input data is decoded to extract the encoded information and the synchronization information, and the audio channel is the same as or less than the extracted encoded information simultaneously with the audio decoding. The number of audio channels is limited due to the re-encoding method and the limitation of the playback equipment, so that re-encoding is performed. For example, even if the total number of channels is reduced This has the effect that recording can be performed by increasing the bit rate per channel.
[0014]
According to a sixth aspect of the present invention (corresponding to claim 6), the input data is decoded to extract the encoded information and the synchronization information, and the audio channel is the same as or less than the extracted encoded information simultaneously with the audio decoding. It is characterized by re-encoding by adding a new sound effect by synthesizing each audio channel signal with a number, and a special sound effect can be put at the time of re-encoding, so that the low range is increased. It has the function of recording with increased processing and surround effect.
[0015]
According to a seventh aspect of the present invention (corresponding to claim 7), when a digitally encoded AV signal is inputted, original data in which the input signal is recorded as it is, and
[0016]
According to an eighth aspect of the present invention (corresponding to claim 8), when a digitally encoded AV signal is inputted, the original data in which the input signal is recorded as it is and the data recording according to
[0017]
According to a ninth aspect of the present invention (corresponding to claim 9), when digitally encoded AV signals are inputted, original data in which the input signals are recorded as they are, and re-encoded data in which the data recording according to
Has the effect of being able to.
[0018]
A data creation method according to a tenth aspect of the present invention (corresponding to claim 10) is a primary record A file in which a digitally encoded AV input signal is recorded without decoding, and
[0019]
A data creation method according to an eleventh aspect of the present invention (corresponding to claim 11) is a primary record A file in which a digitally encoded AV input signal is recorded without decoding, and
[0020]
A data recording method according to a twelfth aspect of the present invention (corresponding to claim 12) is the digitally encoded data generated by
[0021]
The data output method according to the thirteenth aspect of the present invention (corresponding to claim 13) is the digitally encoded data generated according to
[0022]
A data recording apparatus according to a fourteenth aspect of the present invention (corresponding to claim 14) is an input unit for inputting a digitally encoded AV signal, a primary recording A unit for recording the input data without decoding, and an input data A decoding unit that performs decoding; a decoding information storage unit that extracts and stores encoded information and synchronization information by the decoding unit; an encoding unit that re-encodes decoded data decoded by the decoding unit; and the encoding unit A primary recording B section that records the encoded data created in
[0023]
According to a fifteenth aspect of the present invention (corresponding to claim 15), an input unit for inputting a digitally encoded AV signal, a primary recording A unit for recording the input data without decoding, and an input data A decoding unit that performs decoding; a decoding information storage unit that extracts and stores encoded information and synchronization information by the decoding unit; an encoding unit that re-encodes decoded data decoded by the decoding unit; and the encoding unit A primary recording B section that records the encoded data created in
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments according to the present invention will be described below with reference to the drawings.
[0025]
(Embodiment 1)
First, a data creation method according to the present embodiment will be described with reference mainly to FIGS. 1 and 2 which are block diagrams showing the configuration of the data recording apparatus according to the first embodiment of the present invention.
[0026]
First, the process of creating primary recording data from input data will be described with reference to the block diagrams of FIGS. 1, 3, and 5 and the flowcharts of FIGS.
[0027]
Data recording device such as DVHS recorder and optical disc for storing digital compression encoded audio / video data,
[0028]
FIG. 3 is a block diagram showing details of the
[0029]
The video processing includes a compressed
[0030]
The audio processing includes a compressed
[0031]
The audio reproduction time
[0032]
In order to realize the synchronization in MPEG, time stamp information indicating when to decode and reproduce is added to each unit of decoding and reproduction called video and audio access units (one frame for video and one audio frame for audio). ing. This time stamp value is called PTS (Presentation Time Stamp), and represents the time management information of the reproduction output of Video PTS (abbreviated as VPTS) for video and AudioPTS (abbreviated as APTS) for audio.
[0033]
A standard system
[0034]
FIG. 4 is a flowchart of AV synchronization processing according to the present invention. In steps A301 and A302, the system decoding unit 21 separates the encoded data input from the data recording device or the like into compressed video data and compressed audio data. The compressed video data is stored in the compressed
[0035]
On the other hand, the audio playback time information APTS attached to the audio frame is extracted from the compressed audio data, and divided into slots, for example, for each APTS, as shown in FIG. 5, and the audio playback together with the reference address to the compressed
[0036]
In step A303, video decoding is performed and stored in the
[0037]
Next, in step A306, the STC is referred to, and when the APTS matches or exceeds, audio decode data related to the APTS is output from the
[0038]
Depending on the device, there may be a case where the optical output terminal is output as a Dolby Digital stream. In such a case, the data is temporarily stored in a stream buffer (not shown), is referred to the STC, and is output from the
[0039]
If the input data is finished or the user instructs to stop the reproduction, the decoding is finished in step A307.
[0040]
Video decoding and audio decoding are performed so that VPTS and APTS are synchronized with the STC. In particular, if the VPTS is set to the APTS between the time of 50 milliseconds preceding and the time of 30 milliseconds delay, the lip sync will not be noticed.
[0041]
The operation for decoding the input data has been described. The block diagram of FIG. 1 and the flowchart of FIG. 6 are shown for the process of re-encoding the data with the decoded data as input (hereinafter referred to as re-encoding). The description will be given with reference.
[0042]
Input for recording the digitally encoded AV signal is started (step A101). Here, if it is not necessary to change the encoding method of the input AV signal, it is not necessary to activate the re-encoding system. If conversion to a detachable recording medium or an encoding method suitable for reproduction of an external output is necessary, the encoding method is converted (hereinafter abbreviated as codec conversion). In step A102, it is determined whether codec conversion is necessary. If not, input data is recorded in the primary
[0043]
At the time of decoding, encoded information and synchronization information are extracted by the decoding unit (step A104, step A105) and recorded in the decoding
[0044]
In step A106, in order to perform codec conversion, audio encoding is performed by the
[0045]
The
[0046]
In the re-encoding of audio, the encoding information to be encoded is determined while referring to the encoding information of the input audio. Conversion from AAC system to Dolby Digital system, conversion from 5.1 channel to stereo 2-channel format, conversion from 384 kilobits / second to 256 kilobits / second, and the like. In some cases, the sampling frequency suitable for the recording / reproducing apparatus is changed from the sampling frequency of the input signal. In addition, when the encoding method is linear PCM, the number of quantization bits may be changed. When input from the
[0047]
FIG. 9 shows the configuration of the encode
[0048]
Next, using the synchronization information extracted in step A105, the synchronization information is added to the re-encoded audio data. In step A107, the synchronization information for the audio data synchronized with the original video data is used, and the synchronization information is added so that the re-encoding data for the same video matches in consideration of the delay time from decoding to re-encoding. Synchronization information is stored in the synchronization time information section 62 of the encode
[0049]
In step A108, the re-encoded audio encoded data is recorded in the primary
[0050]
At the time of re-encoding, when digitally encoded AV signals are input, the input data is decoded to extract the encoded information and synchronization information, and the audio decoding data is decoded with the same or less bit amount as the encoded information extracted simultaneously with the audio decoding. If re-encoding is performed, the re-encoded audio data amount is less than or equal to the original audio data amount if the re-encoded data is created by adding the extracted synchronization information, so that the re-encoded audio data recording capacity can be suppressed. . For example, when conversion is performed from input data recorded on a certain recording medium to another recording medium, an increase or decrease in recording capacity is likely to be made. This is particularly effective when recording on a recording medium having a smaller recording capacity is assumed.
[0051]
Also, in order to obtain a bit rate that can be reproduced by an external recording medium, the bit amount may be the same as or less than the encoded information extracted from the input data. For example, in a portable audio player, the recording capacity and the recording time are often restricted due to the shape of the player or recording medium, the battery capacity, and the like. For this reason, re-encoding may be performed to increase the degree of compression encoding, and recording may be performed at a reduced bit rate.
[0052]
In some cases, the number of audio channels is reduced and re-encoding is performed due to restrictions on playback equipment. Re-encoding is performed with the same or fewer number of audio channels as the encoded information extracted at the same time as audio decoding. This is based on the playback specifications and functions of the player, and when there is no 5.1 channel surround playback function, or one channel (for example, Japanese / English is recorded) in a so-called dual monaural system for playing bilingual broadcasts. If only selective playback is not possible, audio signal processing is performed after decoding, the number of channels is reduced, re-encoding is performed in advance, and recording is performed on the recording
[0053]
In the current analog bilingual broadcast of terrestrial, separate language sounds (English and Japanese etc.) are inserted in the left and right channels, so when recording monophonic sound of one language sound from the bilingual broadcast etc. Conversion of the number of channels to may occur. Also, when the source on the input side is dual monaural sound, conversion of only one sound to monaural occurs. For example, one may be selected from left audio (hereinafter abbreviated as L) and right audio (hereinafter abbreviated as R), and monaural recording is performed only on the selected side. Alternatively, it can also be realized by copying data to the R side so that one of the L selected voices is not out of phase.
[0054]
In this case, at the time of re-encoding, re-encoding is performed by limiting the number of audio channels due to the limitation of the playback device. However, if the recording capacity on the recording side is the same as the input data, even if the total number of channels is reduced, for example The per bit rate can be increased and recorded. For example, when the input is 5.1 channels (total 256 kilobits / second and the re-encoding side is two channels (total 256 kilobits / second), recording can be performed by increasing the bit rate per channel.
[0055]
Further, when re-encoding is performed by synthesizing each audio channel signal and re-encoding is performed by adding a new acoustic effect, the recording can be performed by increasing the processing of the volume in the low frequency range and the surround effect. If there is only a poor sound device on the playback device side, emphasizing the dialogue that plays the leading role in the movie makes it easier to hear speech that is likely to be erased in the background music. On the other hand, if the re-encoding is performed after the surround effect signal processing is performed, for example, when it is desired to emphasize the music reflected in the recording of the live music program, a pseudo stage feeling can be enjoyed. For example, if a certain delay element such as an echo and signal processing for multiplying the delayed signal by a specific gain coefficient are added, a reverberant sound can be created.
[0056]
Thus, the present invention is effective not only when changing the encoding method, but also when creating another audio stream to which an acoustic effect is added. Furthermore, since synchronized playback with the original video data is possible, it is also possible to switch between playback audio streams using the original input audio stream and the re-encoded audio stream. Since it is possible to synchronize the same video stream, only the audio output can be switched in the middle without stopping the video output. In this way, when a stream that has been re-encoded with respect to the original stream is used as a recording medium, it is possible to perform playback with an audio stream that can be played back according to the environment of the playback device.
[0057]
When the amount of audio data re-encoded with respect to the original data is small, stuffing bits defined by the MPEG method are added as necessary.
[0058]
The number of encoding units 4 is not limited to one, and a plurality of encoding units 4 may be provided so as to correspond to the number of encoding methods to be re-encoded. For each re-encoding, the number of primary
[0059]
Of course, there may be a plurality of primary
[0060]
Furthermore, there may be a plurality of primary
[0061]
Next, the creation of secondary recording data or external output data from primary recording data will be described using the block diagram of FIG. 2 and the flowchart of FIG.
[0062]
In FIG. 2, the primary
[0063]
In step A201, secondary recording start (or external device output start) is selected. In step A202, the original data input and recorded from the primary
[0064]
On the other hand, if the encoding method needs to be changed, information necessary for system encoding is read from the encoded
[0065]
For the reference to video data, the association between VPTS and APTS is given priority. Originally, VPTS is assigned to a video stream and APTS is assigned to an audio stream for AV synchronized playback. Therefore, when only the audio side is replaced, no operation is performed on the VPTS side, and APTS suitable for the re-encoded audio data is assigned to realize AV synchronized reproduction.
[0066]
That is, the system encoding unit 11 replaces the original audio stream of the primary
[0067]
Depending on the input of the output destination
[0068]
As an example of the configuration of the output destination
[0069]
Therefore, referring to both the original data in which the digitally encoded AV input signal is recorded as it is and the re-encoded data, a part of the original data, the re-encoded data, the respective synchronization information, and the encoded information are used. By performing system encoding, digitally encoded data for output is generated.
[0070]
If the buffer model information for normal playback of the video stream and the audio stream at the time of decoding is stored in the buffer
[0071]
In particular, if the video encoding is a variable rate control method in which a large amount of bits is allocated when the change is severe, the bit allocation amount per unit time of the video stream and the audio stream constantly changes. On the other hand, it is important to manage the buffer model so that system-encoded data can be reproduced without causing underflow or overflow of one of video and audio. Therefore, since the buffer
[0072]
On the other hand, when the video encoding is a fixed bit rate that is the same bit allocation amount every time, the bit allocation amount per unit time does not change, so that the buffer model management becomes easy. If an allocation is performed by overflow or underflow at the beginning, it is not necessary to control the allocation change by the system encoder until the recording is completed.
[0073]
Therefore, referring to both the original data in which the digitally encoded AV input signal is recorded as it is and the re-encoded data, a part of the original data, the re-encoded data, the respective synchronization information, the encoded information, and the buffer model By performing system encoding using information, digital encoded data for output is generated.
[0074]
The part of the original data refers to the part of the data that can be replaced with the re-encoded data described so far. For example, audio data and accompanying audio reproduction synchronization information, encoding information, and the like.
[0075]
However, although the present invention has been described with respect to audio re-encoding, the data to be replaced is not limited to audio data, as will be described below. For the convenience of the playback device that plays back the recording medium, video re-encoding according to the output setting can also be realized in the same manner as the present invention. For example, image cutout when the video output aspect ratio is converted from 16: 9 to 4: 3, conversion from a 24 frame / second movie source to a video signal suitable for playback of a 30-frame / second TV broadcast, etc. Can be achieved by re-encoding the video in the same way. In other words, even if the encoding method is not changed, it is effective when the original video reproduction information is changed and recorded. Furthermore, the present invention can be applied to other than audio streams and video streams. It can also be applied to uses such as changing only a sub-picture stream including subtitle information.
[0076]
There may also be more than one video input stream for the same audio input stream. Multi-angle video is broadcast on digital satellite and cable broadcasts. In such a case, synchronization information is added to the video data obtained by re-encoding the other stream with respect to the decoded video of one stream, and those having the same synchronization information are superimposed and combined into one screen, If synchronization information is added and recorded, playback of two screens and one audio can be played back synchronously at the same time. In addition to the NTSC system, re-encoding to a different playback system such as re-encoding to the PAL system is also effective.
[0077]
Although partial replacement has been described, in the case of complete replacement, since the true video and audio are completely re-encoded, the decoded and reproduced AV signal is re-encoded. For the original AV signal data of the primary
[0078]
So far, a method has been described in which the file of the primary
[0079]
In addition to the purpose of simply responding to the increase in capacity, the primary
[0080]
On the other hand, the structure which preserve | saves the file of the primary
[0081]
Furthermore, by setting the output information by user input, etc., the re-encoded digital encoded data can be directly converted into a format for recording on the secondary recording medium and recorded, or the specifications of the connected external device interface It may be necessary to convert to output.
[0082]
In order to record in the
[0083]
When recording in the
[0084]
Furthermore, it is preferable to add various kinds of navigation information for convenience to the user. This includes pointer information to the beginning of a program, jump destination address information when skipping at certain intervals, and the like. Assuming that the
[0085]
On the other hand, in the case of output to another device, interface connection processing, protocol processing, response processing from the counterpart device, and the like are required. When the other
[0086]
The primary
[0087]
In the present invention, the method of creating re-encoded data at the time of input has been described, but re-encoding is not limited to only at the time of input. AV signal that has been digitally encoded in advance is input and recorded in the primary
[0088]
Note that a configuration may be adopted in which the information to be re-encoded is read and the encoding condition setting value is set by recognizing information identifying the counterpart device such as the device ID of the externally connected device. For example, an ID number or the like for knowing the device type on the partner output device side is received, and setting is performed by referring to a table in which the relationship between the ID and the encoding parameter in the main body or the memory card for setting the encoding condition is stored. If the configuration is adopted, it is possible to realize the setting by the playback apparatus without the user's operation. As these externally connected devices, monitor output devices such as a TV, interface devices such as audio output amplifiers and AV amplifiers having an AV selector function, portable output devices, in-vehicle AV playback devices, and the like are assumed.
[0089]
Although the input data has been described as data input from the outside, it may be data existing in the device in advance. The input has been described after the system decoding unit 21 performs AV separation. However, it may be file data that has been previously AV-separated. The audio data may be re-encoded with the reproduction time information related to the compressed video data and the compressed audio data and the reproduction time information as inputs. This is because, as a result of editing a signal photographed by a video camera or the like on a personal computer, playback time information related to compressed video data, compressed audio data and playback time, both in the case of an AV mixed file or an AV independent file This is applicable to all cases where information is reproduced in synchronization with each other.
[0090]
In addition, there is a case of linear PCM in which audio is not compressed as a digital compression encoded stream. In the case of linear PCM, since it is an uncompressed audio frame, no decompression operation is necessary, but AV synchronous reproduction can be handled with the same method according to the synchronous information included in the stream.
[0091]
As an application example of the data creation method and the recording apparatus of the present invention, there are a DVD recorder, a hard disk recorder, a set-top box having an internal recording apparatus, a digital satellite broadcast receiver having the same recording apparatus, a personal computer, and the like. By creating an AV data creation program according to the data creation method of the present invention, an external operation program can be loaded and executed on a personal computer or the like.
[0092]
【The invention's effect】
As described above, according to the present invention, when digitally encoded AV signals are input, input data is decoded to extract synchronization information, and audio decoding data is re-encoded simultaneously with audio decoding. This is characterized in that re-encoded data is created by adding, and synchronized playback using video data and re-encoded audio data is possible later, and system encoding is performed at high speed based on the synchronization information. Therefore, there is an effect that high-speed and short-time recording can be performed on the secondary frame.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration until a temporary record is created according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration for creating a secondary record according to an embodiment of the present invention.
FIG. 3 is a diagram showing a configuration of a decoding unit according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating a decoding method according to an embodiment of the present invention.
FIG. 5 is a diagram showing a configuration of an audio playback time information management unit according to an embodiment of the present invention.
FIG. 6 is a flowchart illustrating a method until a temporary record is created according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating a method for creating a secondary record according to an embodiment of the present invention.
FIG. 8 is a diagram showing a configuration of a decode information storage unit according to the embodiment of the present invention.
FIG. 9 is a diagram illustrating a configuration of an encoding information storage unit according to the embodiment of this invention.
[Explanation of symbols]
1 Input section
2 Decoding part
3 Decoding information storage
4 Encoding section
5 Primary recording part B
6 Encoding information storage
7 Primary recording section A
11 System encoding part
12 Output destination information setting section
13 Secondary recording section
14 Separate equipment output section
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003073840A JP4013800B2 (en) | 2003-03-18 | 2003-03-18 | Data creation method and data recording apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003073840A JP4013800B2 (en) | 2003-03-18 | 2003-03-18 | Data creation method and data recording apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004280994A JP2004280994A (en) | 2004-10-07 |
JP4013800B2 true JP4013800B2 (en) | 2007-11-28 |
Family
ID=33289638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003073840A Expired - Fee Related JP4013800B2 (en) | 2003-03-18 | 2003-03-18 | Data creation method and data recording apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4013800B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7366462B2 (en) * | 2003-10-24 | 2008-04-29 | Qualcomm Incorporated | Method and apparatus for seamlessly switching reception between multimedia streams in a wireless communication system |
JP2006295344A (en) * | 2005-04-06 | 2006-10-26 | Toshiba Corp | Content processor |
JP2007013735A (en) * | 2005-06-30 | 2007-01-18 | Toshiba Corp | Content server device |
JP4846502B2 (en) * | 2006-09-29 | 2011-12-28 | 株式会社東芝 | Audio output device and audio output method |
JP2008244574A (en) * | 2007-03-26 | 2008-10-09 | Pioneer Electronic Corp | Digital broadcast recorder and method |
JP4506879B2 (en) * | 2008-06-09 | 2010-07-21 | ソニー株式会社 | Recording apparatus, recording method, program, and recording system |
JP2010072364A (en) * | 2008-09-18 | 2010-04-02 | Toshiba Corp | Audio data interpolating device and audio data interpolating method |
CN102934168B (en) * | 2010-06-16 | 2015-12-02 | 株式会社索思未来 | Digital-data recording-and-reproddevice device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000278643A (en) * | 1999-03-26 | 2000-10-06 | Sharp Corp | Data conversion device |
JP2002175098A (en) * | 2000-09-21 | 2002-06-21 | Matsushita Electric Ind Co Ltd | Device and method for encoding, and program, and program recording medium |
JP2003008447A (en) * | 2001-06-27 | 2003-01-10 | Matsushita Electric Ind Co Ltd | System encoder |
-
2003
- 2003-03-18 JP JP2003073840A patent/JP4013800B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004280994A (en) | 2004-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100505064C (en) | Audio reproducing apparatus | |
JP4211947B2 (en) | Multiplexer and playback device | |
JP4288613B2 (en) | REPRODUCTION DEVICE AND REPRODUCTION METHOD, PROGRAM, RECORDING MEDIUM, AND DATA STRUCTURE | |
US8676038B2 (en) | Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program | |
US20120179475A1 (en) | Reproducing apparatus and method, and recording medium | |
JP4613674B2 (en) | Audio playback device | |
JP4013800B2 (en) | Data creation method and data recording apparatus | |
MXPA02006516A (en) | Method and apparatus for recording and reproducing video data, and information storage medium in which video data is recorded by the same. | |
JP2003111023A (en) | Data recorder, data recording method, program and medium | |
JP5161549B2 (en) | VIDEO RECORDING DEVICE, VIDEO REPRODUCTION DEVICE, AND ITS CONTROL METHOD | |
JP2007533054A (en) | Stream recording / reproducing device | |
JPWO2004080071A1 (en) | Data processing device | |
MXPA05000116A (en) | Reproducing apparatus and method, and recording medium. | |
JP2005012499A (en) | Method and device for reproducing data | |
JP3769330B2 (en) | Playback apparatus and playback method | |
JP3647387B2 (en) | Optical recording / reproducing device | |
JPH1166754A (en) | Multiple channel data recording medium and transmission record and recording device | |
KR100300984B1 (en) | Apparatus for writing/playback of optical disk written with multi-language audio signals and method thereof | |
JP4169002B2 (en) | Audio format conversion apparatus and encoding apparatus | |
JP2006139827A (en) | Device for recording three-dimensional sound field information, and program | |
JP2004362747A (en) | Signal processor | |
JP2009192944A (en) | Voice output device and voice output method | |
JPH08256309A (en) | Audio video data supplying device and audio video data reproducing device | |
JP2000067513A (en) | Digital signal processor as well as recorder and reproducer | |
JPH08329605A (en) | Method and device for processing digital audio signal and recording/reproducing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060208 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070821 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070903 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110921 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120921 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130921 Year of fee payment: 6 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |