JP2005198350A - After-recording signal reproducing method - Google Patents
After-recording signal reproducing method Download PDFInfo
- Publication number
- JP2005198350A JP2005198350A JP2005074646A JP2005074646A JP2005198350A JP 2005198350 A JP2005198350 A JP 2005198350A JP 2005074646 A JP2005074646 A JP 2005074646A JP 2005074646 A JP2005074646 A JP 2005074646A JP 2005198350 A JP2005198350 A JP 2005198350A
- Authority
- JP
- Japan
- Prior art keywords
- data
- recording
- audio
- post
- main data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Signal Processing For Digital Recording And Reproducing (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、少なくともオーディオ信号とビデオ信号により構成されるメインデータに対してオーディオ信号などを後で記録(アフターレコード、以下、アフレコ)・差し替えを行うアフレコシステムに好適なアフレコ信号再生方法に関する。 The present invention relates to an after-recording signal reproduction method suitable for an after-recording system that performs recording (after-recording, hereinafter referred to as after-recording) / replacement of an audio signal or the like with respect to main data composed of at least an audio signal and a video signal.
従来例として、特開平11−144378号公報には、アフレコ用の新たな音声ビットストリームをデジタル記録媒体のうち、オリジナルデータの記録領域と略等しい時刻に対応する領域に書き込む方法が提案されている。また、特開平11−259992号公報には、あらかじめ用意した空きパックにアフレコデータを記録する方法が提案されている。また、特開2000−197005号公報には、無音と判定された音声パックにアフレコ音声を上書き記録する方法が開示されている。 As a conventional example, Japanese Patent Application Laid-Open No. 11-144378 proposes a method of writing a new audio bit stream for post-recording in an area corresponding to a time substantially equal to the recording area of the original data in the digital recording medium. . Japanese Patent Laid-Open No. 11-259992 proposes a method for recording post-recording data in an empty pack prepared in advance. Japanese Patent Laid-Open No. 2000-197005 discloses a method for overwriting recording after-recording sound on a sound pack determined to be silent.
ところで、最近のデジタル機器として、D−VHSやSTBではTS(トランスポート・ストリーム)、DVDではPS(プログラム・ストリーム)という多重化方式を用いて多重化されたデータを扱うようになっている。一方、いったん多重化すると、そのデータの一部を取り替えることが困難な形態となってしまうのも多重化の問題である。すなわち、音声のアフレコを行うために、多重化ストリームの音声部分のみを入れ替えるのは、簡単ではない。そこで記録メディア内での符号化データとしてアフレコなどへ簡単に対応できるフォーマットの必要性が高まっている。 By the way, as a recent digital device, data multiplexed using a multiplexing system called TS (transport stream) in D-VHS and STB and PS (program stream) in DVD are handled. On the other hand, once multiplexed, it is a problem of multiplexing that it becomes difficult to replace a part of the data. That is, it is not easy to replace only the audio portion of the multiplexed stream in order to perform audio after-recording. Therefore, there is an increasing need for a format that can easily cope with post-recording as encoded data in a recording medium.
しかしながら、上記の従来の方式では、アフレコを行う要素データに対して書き込みを行い、多重化されているメインストリームを書き換えてしまうことを前提としているため、書き換えた後は再度元に戻すことができない。また、複数のアフレコ音声を記録した後に、ユーザが選択的にアフレコデータを楽しむシステムは構築できなかった。 However, since the above-described conventional method is based on the premise that the element data to be dubbed is written and the multiplexed main stream is rewritten, it cannot be restored again after rewriting. . In addition, after recording a plurality of post-recording sounds, a system in which the user can selectively enjoy post-recording data cannot be constructed.
本発明は上記従来例の問題点に鑑み、アフレコデータを元のデータに戻すことができ、また、ユーザが複数のアフレコデータを記録して再生時に選択的にメインデータと置き換えて再生することを可能とするアフレコ信号再生方法を提供することを目的とする。 In view of the above-described problems of the conventional example, the present invention can return the post-record data to the original data, and the user can record a plurality of post-record data and selectively replace the main data with the main data during playback. An object of the present invention is to provide an after-recording signal reproduction method that enables this.
本発明は上記目的を達成するために、
メインデータを構成するオーディオ信号とビデオ信号との2つの信号の圧縮符号化データが、それぞれ所定の単位に前記オーディオ信号と前記ビデオ信号との同期再生用のタイムスタンプであるデコード開始時刻情報と表示・再生開始時刻情報とが付加され多重化されてなるメインデータのストリームが入力される入力ステップと、
前記メインデータを構成するオーディオ信号に対する複数のアフレコ用圧縮符号化オーディオデータの1つを選択指定する選択指定ステップと、
前記複数のアフレコ用圧縮符号化オーディオデータが、前記メインデータと同期再生するためのタイムスタンプであるデコード開始時刻情報と表示・再生開始時刻情報、及び個々の前記アフレコ用圧縮符号化オーディオデータを識別するための識別情報が付加され、前記メインデータと多重化されることなくストリーム化されてなるアフレコ用データのストリームから、前記選択指示ステップで選択指定されたアフレコ用圧縮符号化オーディオデータを含むアフレコ用データのストリームを前記識別情報に基づき選択入力する入力ステップと、
前記メインデータのストリームからメインデータを読み出すとともに、前記選択指定された1つのアフレコ用圧縮符号化オーディオデータを前記選択入力されたアフレコ用データのストリームから読み出して、前記選択指定されたアフレコ用圧縮符号化オーディオデータを当該アフレコ用圧縮符号化オーディオデータに対する前記メインデータ内のオーディオ信号と置き換え、前記メインデータのストリームから読み出したタイムスタンプであるデコード開始時刻情報と表示・再生開始時刻情報、及び前記選択入力されたアフレコ用データのストリームから読み出したタイムスタンプであるデコード開始時刻情報と表示・再生開始時刻情報に基づいて、前記メインデータのビデオ信号と前記選択指定されたアフレコ用圧縮符号化オーディオデータとを同期再生する同期再生ステップと、
を備えたことを特徴とするアフレコ信号再生方法、
を提供する。
In order to achieve the above object, the present invention
Decoding start time information and display in which compression-coded data of two signals of the audio signal and the video signal constituting the main data are time stamps for synchronous reproduction of the audio signal and the video signal in predetermined units, respectively An input step in which a stream of main data that is multiplexed with playback start time information added thereto;
A selection designating step of selecting and designating one of a plurality of post-recording compressed and encoded audio data for the audio signal constituting the main data;
The plurality of after-recording compressed and encoded audio data identify the decoding start time information and display / reproduction start time information, which are time stamps for synchronous playback with the main data, and the individual after-recording compressed and encoded audio data And after-recording compressed encoded audio data selected and designated in the selection instruction step from the post-record data stream that is streamed without being multiplexed with the main data. An input step of selectively inputting a stream of data based on the identification information;
The main data is read out from the main data stream, and the one selected after-recording compressed encoded audio data is read out from the selected after-recording data stream, and the selected after-recording compressed code is read out. The decoded audio data is replaced with the audio signal in the main data for the post-recording compressed encoded audio data, and the decoding start time information, display / reproduction start time information, which are time stamps read from the main data stream, and the selection Based on the decoding start time information and the display / playback start time information, which are time stamps read from the input post-record data stream, the video signal of the main data and the selected and designated post-record compression-encoded audio data are recorded. And synchronous playback step for synchronized playback and data,
An after-recording signal reproduction method, comprising:
I will provide a.
以上説明したように本発明によれば、複数のアフレコ用の圧縮データは、メインデータと同期再生するためのタイムスタンプ及び個々のデータを識別するための識別情報を付加され、メインデータの多重化データと多重化することなくストリーム化されているので、アフレコデータを元のデータに戻すことが可能となる。また、ユーザが複数のアフレコデータを記録して再生時に選択的にメインデータと置き換えて再生することを可能とする。 As described above, according to the present invention, a plurality of post-recording compressed data is added with a time stamp for synchronous reproduction with main data and identification information for identifying individual data, and multiplexing of main data is performed. Since the data is streamed without being multiplexed with the data, it is possible to return the post-record data to the original data. In addition, the user can record a plurality of post-record data and selectively replace the main data with the main data during reproduction.
以下、図面を参照して本発明の実施の形態について説明する。
<MPEG>
まず、本実施例で使用されているMPEGビデオ(ビデオ符号化方式)及びMPEGシステム(オーディオビデオ多重化方式)について説明する。MPEGは1988年、ISO/IEC JTC1/SC2(国際標準化機構/国際電気標準化会合同技術委員会1/専門部会2,現在のSC29)に設立された動画像符号化標準を検討する組織の名称(Moving Picture Experts Group)の略称である。MPEG1(MPEGフェーズ1)は1.5Mbps程度の蓄積メディアを対象とした標準であり、静止画符号化を目的としたJPEGと、ISDNのテレビ会議やテレビ電話の低転送レート用の動画像圧縮を目的としたH.261(CCIT SGXV:現在のITU−T SG15で標準化)の基本的な技術を受け継ぎ、蓄積メディア用に新しい技術を導入したものである。これらは1993年8月、ISU/IEC 11172として成立している。また、MPEG2(MPEGフェーズ2)は通信や放送などの多様なアプリケーションに対応できるように汎用標準を目的として、1994年11月ISU/IEC 13818 H.262として成立している。
Embodiments of the present invention will be described below with reference to the drawings.
<MPEG>
First, an MPEG video (video encoding system) and an MPEG system (audio video multiplexing system) used in this embodiment will be described. MPEG is the name of the organization that examines video coding standards established in 1988 by ISO / IEC JTC1 / SC2 (International Organization for Standardization / International Electrotechnical Standards Meeting Technical Committee 1 / Technical Committee 2, now SC29). Abbreviation for Moving Picture Experts Group. MPEG1 (MPEG Phase 1) is a standard for storage media of about 1.5 Mbps, and JPEG for the purpose of encoding still images, and video compression for low transfer rates of ISDN video conferences and videophones. The target H.C. It inherits the basic technology of H.261 (CCIT SGXV: standardized by the current ITU-T SG15) and introduces a new technology for storage media. These were established in August 1993 as ISU / IEC 11172. In addition, MPEG2 (MPEG Phase 2) is an ISU / IEC 13818 H.264 standard in November 1994 for the purpose of general-purpose standards so as to be compatible with various applications such as communication and broadcasting. It is established as 262.
MPEGは幾つかの技術を組み合わせて作成されている。図12はMPEG圧縮装置を示す。まず、入力画像Vinは加算器1により、動き補償予測器11で復号化したリファレンスの画像との差分を取ることで時間冗長部分を削減する。予測の方向は、過去、未来、両方からの3モードが存在する。また、これらは16画素×16画素のMB(マクロブロック)ごとに切り替えて使用できる。予測方向は入力画像に与えられたピクチャタイプによって決定される。過去からの予測と、予測をしないでそのMBを独立で符号化する2モードが存在するのがPピクチャである。また未来からの予測、過去からの予測、両方からの予測、独立で符号化する4モードが存在するのがBピクチャである。そして、全てのMBが独立で符号化するのがIピクチャである。
MPEG is created by combining several technologies. FIG. 12 shows an MPEG compression apparatus. First, the input image Vin is reduced by the adder 1 by taking the difference from the reference image decoded by the
動き補償では、動き領域をMBごとにパターンマッチングを行ってハーフぺル精度で動きベクトルを検出し、動き分だけシフトしてから予測する。動きベクトルは水平方向と垂直方向が存在し、何れからの予測かを示すMC(Motion Compensation)モードと共にMBの付加情報として伝送される。Iピクチャから次のIピクチャの前のピクチャまでをGOP(Group Of Pictures)といい、蓄積メディアなどで使用される場合には、一般に約15ピクチャ程度が使用される。 In motion compensation, a motion region is subjected to pattern matching for each MB, a motion vector is detected with half-pel accuracy, and prediction is performed after shifting by the amount of motion. The motion vector has a horizontal direction and a vertical direction, and is transmitted as additional information of the MB together with an MC (Motion Compensation) mode indicating which one is predicted. From the I picture to the picture before the next I picture is called a GOP (Group Of Pictures), and when it is used in a storage medium or the like, generally about 15 pictures are used.
差分画像はDCT(Discrete Cosine Transform)器2において直交変換が行われる。DCTとは、余弦関数を積分核とした積分変換を有限空間への離散変換する直交変換である。MPEGでは、MBを4分割して8×8のDCTブロックに対して、2次元DCTを行う。一般に、ビデオ信号は低域成分が多く高域成分が少ないため、DCTを行うと係数が低域に集中する。
The difference image is subjected to orthogonal transformation in a DCT (Discrete Cosine Transform)
DCTされた画像データ(DCT係数)は量子化器3で量子化が行われる。量子化は量子化マトリックスという8×8の2次元周波数を視覚特性で重み付けした値と、その全体をスカラー倍する量子化スケールという値で乗算した値を量子化値として、DCT係数をその量子化値で除算する。デコーダで逆量子化するときは、量子化値で乗算することにより、元のDCT係数に近似している値を得ることになる。 The quantized image data (DCT coefficient) subjected to DCT is quantized by the quantizer 3. Quantization is a quantized value obtained by multiplying a value obtained by weighting the 8 × 8 two-dimensional frequency called the quantization matrix with a visual characteristic and a value called a quantization scale that is a scalar multiplication of the whole, and the DCT coefficient is quantized. Divide by value. When inverse quantization is performed by the decoder, a value that approximates the original DCT coefficient is obtained by multiplying by the quantized value.
量子化されたデータはVLC器4で可変長符号化される。量子化された値のうち直流(DC)成分は、予測符号化のひとつであるDPCM(Differential Pulse Code Modulation)を使用して符号化する。また、交流(AC)成分は 低域から高域の方向にジグザグ・スキャンを行い、ゼロのラン長及び有効係数値を1つの事象とし、出現確率の高いものから符号長の短い符号を割り当てていくハフマン符号化が行われる。可変長符号化されたデータは一時、バッファ5に蓄えられ、所定の転送レートで符号化データとして出力される。
The quantized data is variable length encoded by the
また、その出力されるデータのマクロブロック毎の発生符号量は、符号量制御器6に送信され、目標符号量に対する発生符号量との誤差符号量を量子化器3にフィードバックして量子化スケールを調整することで符号量が制御される。また、量子化された画像データは逆量子化器7にて逆量子化され、次いで逆DCT器8にて逆DCTされて元のDCT係数が復元される。このDCT係数は加算器9により、動き補償予測器11で復号化したリファレンスの画像と加算され、この加算された画像データが一時、画像メモリ10に蓄えられた後、動き補償予測器11において、差分画像を計算するためのリファレンスの復号化画像として使用される。
The generated code amount for each macroblock of the output data is transmitted to the
図13はMPEG復号装置を示す。符号化されたストリームはバッファリングされ、バッファ12からのデータはVLD(可変長復号)器13に入力される。VLD器13では可変長復号化され、直流(DC)成分及び交流(AC)成分を得る。交流(AC)成分データは低域から高域の方向にジグザグ・スキャンされて8×8のマトリックスに配置する。このデータは逆量子化器14に入力され、量子化マトリクスにて逆量子化される。逆量子化されたデータは逆DCT器15に入力されて逆DCTされ、このDCT係数は加算器16により、動き補償予測器18で復号化したリファレンスの画像と加算され、この加算された画像データが復号化データとして出力される。また、復号化データは一時、画像メモリ17に蓄えられた後、動き補償予測器18において差分画像を計算するためのリファレンスの復号化画像として使用される。
FIG. 13 shows an MPEG decoding apparatus. The encoded stream is buffered, and the data from the
MPEGシステムはMPEGビデオ及びオーディオなどで符号化されたビットストリームを1個のビットストリームに多重化し、同期を確保しながら再生する方式を規定したものである。システムで規定されている内容は大きく分けて次の5点である。
1)複数の符号化されたビットストリームの同期再生
2)複数の符号化されたビットストリームの単一ビットストリームへの多重化
3)再生開始時のバッファの初期化
4)連続的なバッファの管理
5)復号や再生などの時刻の確定
MPEGシステムで多重化を行うには情報をパケット化する必要がある。パケットによる多重化とは、例えばビデオ、オーディオを多重化する場合、各々をパケットと呼ばれる適当な長さのストリームに分割し、ヘッダなどの付加情報を付けて、適宜、ビデオ、オーディオのパケットを切り替えて時分割伝送する方式である。ヘッダにはビデオ、オーディオなどを識別する情報や、同期のための時間情報が存在する。パケット長は伝送媒体やアプリケーションに依存し、ATMのように53バイトから、光ディスクのように4Kバイトと長いものまで存在している。MPEGでは、パケット長は可変で任意に指定できるようになっている。
The MPEG system stipulates a method for multiplexing a bit stream encoded by MPEG video and audio into one bit stream and reproducing it while ensuring synchronization. The contents specified in the system are roughly divided into the following five points.
1) Synchronous playback of multiple encoded bitstreams 2) Multiplexing of multiple encoded bitstreams into a single bitstream 3) Buffer initialization at playback start 4) Continuous buffer management 5) Determination of time for decoding, reproduction, etc. Information must be packetized for multiplexing in the MPEG system. Packet multiplexing means, for example, when video and audio are multiplexed, each is divided into streams of appropriate length called packets, attached with additional information such as headers, and video and audio packets are switched appropriately. Time-division transmission. The header includes information for identifying video, audio, etc., and time information for synchronization. The packet length depends on the transmission medium and application, and ranges from 53 bytes as in ATM to 4 Kbytes as long as an optical disk. In MPEG, the packet length is variable and can be arbitrarily specified.
データはパック、パケット化され、1パックは数パケットで構成されている。各パックの先頭部分には、pack-start-codeやSCR(System Clock Reference)が記述されており、パケットの先頭部分にはStream IDやタイムスタンプが記述されている。タイムスタンプにはオーディオ、ビデオなどの同期をとる時間情報が記述されており、DTS(Decoding Time Stamp)とPTS(Presentation Time Stamp)の2種類が存在する。PCR(Program Clock Reference)は27MHzの時間精度で記述されており、デコーダの基準時計をロックする情報である。DTSはそのパケットデータ内の最初のアクセスユニット(ビデオなら1ピクチャ、オーディオなら例えば1152サンプル)のデコード開始時刻を示し、PTSは表示(再生)開始時刻を示している。 Data is packed and packetized, and one pack is composed of several packets. Pack-start-code and SCR (System Clock Reference) are described in the head part of each pack, and Stream ID and time stamp are described in the head part of the packet. The time stamp describes time information for synchronizing audio, video, etc., and there are two types of DTS (Decoding Time Stamp) and PTS (Presentation Time Stamp). PCR (Program Clock Reference) is described with a time accuracy of 27 MHz and is information for locking the reference clock of the decoder. DTS indicates the decoding start time of the first access unit (1 picture for video, 1152 samples for audio) in the packet data, and PTS indicates the display (playback) start time.
図14に示すように、オーディオ、ビデオ、その他のデコーダは、PCRでロックした共通の基準時計を常に監視し、DTSやPTSの時間と一致したときに、デコードや表示を行う仕組みになっている。多重化されたデータが各デコーダでバッファリングされ、同期した表示を行うための仮想的なデコーダをSTD(System Target Decoder)と呼び、このSTDがオーバーフローやアンダーフローを起こさないように多重化されていなければならない。 As shown in FIG. 14, the audio, video, and other decoders are configured to constantly monitor a common reference clock locked by PCR and to perform decoding and display when the time matches with the time of DTS or PTS. . Multiplexed data is buffered by each decoder, and a virtual decoder for performing synchronized display is called STD (System Target Decoder), and this STD is multiplexed so as not to cause overflow or underflow. There must be.
また、MPEGシステムには、大きく分けてTS(Transport Stream)とPS(Program Stream)が存在する。これらはPES(Packetized Elementary Stream)、及びその他の必要な情報を含むパケットから構成されている。PESは両ストリーム間の変換を可能とするための中間ストリームとして規定されていて、MPEGで符号化されたビデオ、オーディオデータの他、プライベートストリームなどをパケット化したものである。 The MPEG system is roughly divided into TS (Transport Stream) and PS (Program Stream). These are composed of packets including PES (Packetized Elementary Stream) and other necessary information. PES is defined as an intermediate stream for enabling conversion between both streams, and is a packet of a private stream or the like in addition to video and audio data encoded by MPEG.
PSは共通の基準時間を有するプログラムのビデオ、オーディオを多重化することが可能である。パケットレイヤはPESと呼ばれ、この構造は図15に示すように、後述するTSと共用して用いられ、これらの相互互換性を可能とする。PSのSTDモデルでは、ストリームはPESパケット内のStream IDによってスイッチされる。 PS can multiplex video and audio of programs having a common reference time. The packet layer is called PES, and this structure is used in common with a TS described later as shown in FIG. In the PS STD model, the stream is switched by the Stream ID in the PES packet.
TSもPSと同じように共通の基準時間を有するプログラムのビデオ、オーディオの多重化をすることが可能であるが、TSはさらに異なる基準時間を有する通信や放送などのマルチプログラムの多重化を可能としている。TSはATMセル長や誤り訂正符号化する場合を考慮し、188バイトの固定長パケットで構成されており、エラーが存在する系でも使用できるように考慮されている。TSパケット自体の構造はそれほど複雑ではないがマルチプログラムのストリームであるため、その運用は複雑である。PSと比べて特徴的なことは、TSパケットが上位構造であるにも関わらず、PESパケットより(通常は)短く、PESパケットを分割してTSパケットに乗せて伝送する点である。 TS can multiplex video and audio of programs having a common reference time as well as PS, but TS can also multiplex multi-programs such as communication and broadcasting having different reference times. It is said. The TS is composed of a fixed-length packet of 188 bytes in consideration of the case of ATM cell length and error correction coding, and is considered so that it can be used even in a system in which an error exists. Although the structure of the TS packet itself is not so complicated, since it is a multi-program stream, its operation is complicated. What is characteristic compared to PS is that, although the TS packet has a higher structure, it is shorter (usually) than the PES packet, and the PES packet is divided and transmitted on the TS packet.
TSのSTDモデルでは、ストリームはTSパケット内のPID(パケットID)によってスイッチされる。TSパケットの構造を図15に示す。始めのヘッダには8ビットのSYNCバイトがあり、その後にエラー指示、ユニット先頭指示、破棄する場合の優先指示のビットが1ビットずつ記述される。その後にPIDと言って、このパケットのペイロードの種類を示すIDが記述される。その後にスクランブル情報(2ビット)、ペイロードにアダプテーションフィールドを伝送するかどうかを示す情報(2ビット)、パケットの連続性を示す情報(4ビット)がそれぞれ記述され、最後に要素符号化データもしくはアダプテーション情報の後に要素データを記述する。また無効データを伝送することもできるようになっている。 In the STD model of TS, the stream is switched by the PID (packet ID) in the TS packet. The structure of the TS packet is shown in FIG. The first header has an 8-bit SYNC byte, followed by an error instruction, a unit head instruction, and a priority instruction bit for discarding one bit at a time. Thereafter, an ID indicating the type of payload of this packet is described as PID. After that, scramble information (2 bits), information indicating whether the adaptation field is transmitted in the payload (2 bits), information indicating the continuity of the packet (4 bits) are respectively described, and finally, the element encoded data or the adaptation Describe the element data after the information. It is also possible to transmit invalid data.
MPEGシステムのTSには、その多重化されている番組の情報に関するパケットがどのPIDであるのかを指示する仕組みがある。それを図16を参照して説明する。まずTSパケット群の中からPID=0のものを探す。それはPAT(Program Association Table)と呼ばれる情報パケットであり、そのパケットの中にはプログラムナンバーPRに対応する情報PlDがリンクされた形で記述されている。次に目的のPRに対応するPIDのパケットを読みに行くと、PMT(Program Map Table)と呼ばれる情報パケットがあり、そのパケットの中にはそのプログラムナンバーPRに対応する番組のビデオパケットのPIDと、オーディオパケットのPIDの情報が記述されている。PATとPMTのことをPSI(Program Specific Infomation)と呼び、目的の番組のチャンネルにアクセス(エントリ)することが可能な情報体系になっている。 The TS of the MPEG system has a mechanism for indicating which PID is a packet related to information of the multiplexed program. This will be described with reference to FIG. First, the TS packet group is searched for PID = 0. It is an information packet called a PAT (Program Association Table), in which information PlD corresponding to the program number PR is described in a linked form. Next, when reading the packet of the PID corresponding to the target PR, there is an information packet called PMT (Program Map Table), in which the PID of the video packet of the program corresponding to the program number PR and The PID information of the audio packet is described. PAT and PMT are called PSI (Program Specific Infomation), and it is an information system that allows access (entry) to a channel of a target program.
<アフレコ装置>
次に本発明の好適な実施の形態について説明する。まず、図1を用いて本発明のアフレコ信号再生方法にて再生されるアフレコ用データを生成するアフレコ装置の一例について説明する。ユーザインターフェース(User I/F)109はメインデータを記録するのか、アフレコ・オーディオデータを記録するのかが選択可能であり、その指示信号がCPU110から信号切り替え器105に伝送される。まず、メインのデータを生成して記録メディア108に記録する場合について説明する。ビデオデータとオーディオデータはそれぞれ、ビデオ符号化器101a、オーディオ符号化器101bに入力され、既に説明したMPEG符号化が行われる。符号化されたデータはそれぞれ、MPEGのシステム多重化を行うために、各要素ごとにそれぞれPESパケット化器102a、102bに伝送される。PESパケット化器で102a、102bはそれぞれ、ビデオ、オーディオの各要素データをパケット化する。
<Post-recording equipment>
Next, a preferred embodiment of the present invention will be described. First, an example of an after-recording apparatus for generating after-recording data to be played back by the after-recording signal playback method of the present invention will be described with reference to FIG. A user interface (User I / F) 109 can select whether to record main data or after-recording audio data, and the instruction signal is transmitted from the
各PESパケットにはそれぞれ、タイムスタンプ記録器103a、103bにおいて前述したPCRや、PTS、DTSなどのタイムスタンプデータが記録される。タイムスタンプは27MHzのクロック情報を用いて作成する。次いで各PESパケットの要素データは多重化器104においてPS多重もしくは図5に示すようにTS多重などのフォーマットで多重化される。多重化されたデータは、信号切り替え器105に入力される。
In each PES packet, time stamp data such as the above-described PCR, PTS, DTS, etc. is recorded in the
ここではメインデータを記録するために、信号切り替え器105では多重化器104からのデータが選択されて、いったんバッファ106aに記録される。バッファされたデータは記録制御器107によって記録メディア108に記録される。メインデータは後述する情報フォーマットに従って、図2に示すPR0.dat というファイル名で記録される。
Here, in order to record the main data, the signal switch 105 selects the data from the
次に、アフレコ・オーディオデータを生成して記録メディア108に記録する場合について説明する。この場合には、ユーザインターフェース109においてアフレコ・オーディオデータの記録が選択されており、CPU110からその指示信号が信号切り替え器105に、また、アフレコデータ識別情報がPESパケット化器102bに伝送される。アフレコ・オーディオデータはオーディオ符号化器101bに入力され、同様にMPEG符号化が行われる。符号化されたアフレコ・オーディオデータは、MPEGのシステムのタイムスタンプ付加を行うために、PESパケット化器102bに伝送される。
Next, a case where after-recording audio data is generated and recorded on the
PESパケット化器102bでは、アフレコ・オーディオの要素データに識別情報を付加してパケット化する。アフレコ・オーディオのPESパケットにはタイムスタンプ記録器103bにおいて前述したPCRや、PTS、DTSなどのタイムスタンプデータが記録される。タイムスタンプは27MHzのクロック情報を用いて作成する。次いで識別情報及びタイムスタンプが記録されたアフレコ・オーディオのPESパケットは多重化器104を経由することなく信号切り替え器105に伝送される。信号切り替え器105では、アフレコオーディオデータが記録されるので、タイムスタンプ記録器103bからのデータが選択されてバッファ106bに記録される。バッファされたデータは記録制御器107によって記録メディア108に記録される。
The PES packetizer 102b adds the identification information to the after-recording audio element data and packetizes it. In the post-recording audio PES packet, the
<フォーマット及び記録媒体>
アフレコ・オーディオデータは後述する情報フォーマットに従ってプレイリストという情報として記録される。ファイル名は第1番目のアフレコデータであれば、図2に示したPLOのフォルダ内のAF-1.datというファイル名として記録される。第M番目のアフレコオーディオデータであれば、AF-m.datというファイル名となる。図8に示したように、アフレコ用のデータとして記述できるAF_numberは8ビットあるので(0は使用しない)、254個までの独立したアフレコ・オーディオデータを記録することができる。
<Format and recording medium>
The post-recording audio data is recorded as information called a playlist according to an information format described later. If the file name is the first post-record data, it is recorded as the file name AF-1.dat in the PLO folder shown in FIG. For the Mth after-recording audio data, the file name is AF-m.dat. As shown in FIG. 8, since AF_number that can be described as data for after-recording is 8 bits (0 is not used), up to 254 independent after-recording audio data can be recorded.
次に、記録メディア108に記録する情報のフォーマットについて図2〜図9を用いて説明する。記録する情報はオーディオやビデオのサイド情報データである。情報データは図2のように、ROOTの下にLIBという名前のフォルダを作成し、その下に複数のプログラムに関するSIDE.ifoというファイルネームでサイド情報を記録する。SIDE.ifoのフォーマットは図3に示すように階層構造をもっている。一番上位にTOTAL_MANAGER_IFOが定義され、そのなかにはGENERAL_IFOとCNTNT_IFOがある。GENERAL_IFOは、この情報群全体に関するパラメータが記述される。GENERAL_IFOの詳細は図6に示すようなSYNTAX構造になっている。
Next, the format of information recorded on the
次のCNTNT_IFOの中身は、複数のプログラムごとの情報としてPR_IFO_0からPL_IFO_nまでが記述されている。詳細は図7に示すようになっている。また、アフレコ編集した場合にはPLAYL_IFOというプレイリスト情報を記述する。これは基となる図2に示すPRというフォルダの中のオーディオビデオの多重化ストリームPRn.datとアフレコした場合の図2に示すPLnの中のアフレコオーディオデータAF-1.dat〜AF-m.datのストリームファイルをリンクさせるためのリスト情報である。 The contents of the next CNTNT_IFO describe PR_IFO_0 to PL_IFO_n as information for each of a plurality of programs. Details are as shown in FIG. When post-record editing is performed, playlist information called PLAYL_IFO is described. This is the post-record audio data AF-1.dat to AF-m. In the PLn shown in FIG. 2 when the audio video multiplexed stream PRn.dat in the folder PR shown in FIG. List information for linking dat stream files.
ユーザは基となる図2に示すPRというフォルダの中のオーディオビデオの多重化ストリームPRn.datに対して、1からmまでのm種類のアフレコ・オーディオデータを登録できる。mが0のときにはアフレコオーディオを使わないで、元の音声を使用する。1からmまでの番号を指示したときには、アフレコ・オーディオ音声を用いて、再生もしくは伝送を行う。PLAYL_IFOの構造の詳細は図8に示すようになっている。またこの下の階層に、プログラムの一部をインデックスとして登録できる構造INDEX_IFOがある。この構造のフォーマットは図4に示すようになっている。INDEX_のシンタックスは図9に示すようになっている。 The user can register m types of post-recording audio data from 1 to m in the audio video multiplexed stream PRn.dat in the folder PR shown in FIG. When m is 0, the original sound is used without using the after-recording audio. When a number from 1 to m is instructed, playback or transmission is performed using post-record audio audio. Details of the structure of PLAYL_IFO are as shown in FIG. In the lower hierarchy, there is a structure INDEX_IFO that allows a part of the program to be registered as an index. The format of this structure is as shown in FIG. The syntax of INDEX_ is as shown in FIG.
<再生装置>
次に、図10を用いて本発明のアフレコ信号再生方法の一実施例を適用した再生装置について説明する。ここで、CPU121はユーザインターフェース(User I/F)120から、通常のメインデータを再生するか又はアフレコ・オーディオデータを再生するかの指示が入力され、また識別情報が入力されると、入力に応じた指示信号を信号切り替え器114に出力し、また、その識別情報を識別情報検出器123に出力する。まず、通常のメインデータを再生する場合について説明する。記録メディア108に記録されたメインデータの多重化ストリームデータは、読み取り制御器111によって読み取られてバッファ112aに記録される。バッファ112aに入力されたデータは分離器113によって、多重化されていたデータを要素ごとに分離して、ビデオ信号はタイムスタンプ検出器115aへ、オーディオ信号は信号切り替え器114に伝送する。
<Reproducing device>
Next, a reproducing apparatus to which one embodiment of the after-recording signal reproducing method of the present invention is applied will be described with reference to FIG. Here, the
信号切り替え器114ではメインデータを再生するので、分離器113からのオーディオ信号が選択され、タイムスタンプ検出器115bへ伝送される。タイムスタンプ検出器115a、115bではそれぞれ、前述したPCRや、PTS、DTSなどのタイムスタンプデータを検出し、検出したタイムスタンプ関連の情報はタイムスタンプ比較器124に伝送される。
Since the
次にビデオ、オーディオの各PESパケットは、それぞれPESパケット解除器116a、116bによってパケットが解除され、それぞれビデオデータはビデオ復号化器117aへ、オーディオデータはオーディオ復号化器117bへ伝送される。ビデオ復号化器117aでは復号されたビデオデータをメモリ118aに一時記憶し、オーディオ復号器117bではオーディオデータをメモリ118bに一時記憶する。
Next, the video and audio PES packets are released by the
このとき、タイムスタンプ比較器124では、検出したPCR情報からシステムのクロックを同期させて、マスターとなるクロック情報を生成する一方、DTSの復号タイミング情報をシステムクロックと比較し、一致したときにビデオ復号器117aへ復号開始信号を伝送することにより、タイムスタンプデータが記述されていたパケットに対応するビデオをそのタイミングで復号する。またPTSについては、オーディオとビデオ共に表示タイミング情報をシステムクロックと比較し、一致したときにビデオデータは表示モニタ119aへ、オーディオデータはスピーカ119bへそのタイミングで出力する。タイムスタンプ比較器124においては、基準クロックをPCR信号にてPLLをロックするが、基準信号は27MHzのクロックを用いて行う。
At this time, the
次にアフレコ・オーディオ信号を再生する場合について説明する。アフレコ・オーディオ信号は、メインデータのビデオ信号を再生しつつ、メインデータのオーディオ信号の部分をアフレコ・オーディオ信号と取り替えて再生する。まず、ユーザインターフェース120からはアフレコ・オーディオの何番をメインデータの何番に取り替えて再生するかが入力される。図8に示す情報フォーマットのPLAYL_INFO()内のPR_numberがメインデータの番号、AF_numberがアフレコ・オーディオデータの番号に相当する。識別情報検出器123は、CPU121からの指示信号により、情報フォーマットの図8に示すデータ構造から、前記PR_numberとAF_numberを読み取り、読み取り制御器111に対して相当するファイル名のデータを読み取る指示信号を出す。CPU121はまた、信号切り替え器114に対してアフレコ選択信号を出す。
Next, a case where an after-recording audio signal is reproduced will be described. The after-recording audio signal is reproduced by replacing the audio signal portion of the main data with the after-recording audio signal while reproducing the video signal of the main data. First, the
これにより、記録メディア108に記録されているビデオとオーディオが多重化されたメインデータファイルと、アフレコ・オーディオデータファイルの2つのファイルを読み取り制御器111にてバースト的に読み取りを行い、それぞれの要素データをバッファ112a,バッファ112bに一時蓄える。バッファ112bに蓄えられたアフレコ・オーディオデータは信号切り替え器114に伝送される。一方、バッファ112aに入力されたデータは分離器113によって多重化されていたデータを要素ごとに分離して、ビデオ信号はタイムスタンプ検出器115aへ、オーディオ信号は信号切り替え器114に伝送する。信号切り替え器114ではアフレコデータを再生するので、バッファ112bからの信号が選択されてタイムスタンプ検出器115bへ伝送される。タイムスタンプ検出器115a、115b以下の動作は、メインデータ再生の場合と同じであるので説明を省略する。
As a result, the main data file in which the video and audio recorded on the
<伝送装置>
次に、図11を用いてメインデータとアフレコオーディオデータとを伝送する伝送装置について説明する。まず、普通のメインデータを伝送する場合について説明する。記録メディア108に記録されたメインデータの多重化ストリームデータは、読み取り制御器111によってバッファ112aに記録される。バッファ112aに入力されたデータは、要素切り替え器125に伝送される。このとき、ユーザインターフェース120からメインデータを伝送することが入力され、CPU121から要素切り替え器125メインデータを伝送することを示す指示信号が伝送されている場合、要素切り替え器125では、バッファ112aからの信号をそのままバッファ126を介して伝送路に伝送する。
<Transmission equipment>
Next, a transmission apparatus that transmits main data and post-recording audio data will be described with reference to FIG. First, a case where normal main data is transmitted will be described. The multiplexed stream data of the main data recorded on the
次に、アフレコ・オーディオ信号を伝送する場合について説明する。アフレコ・オーデイオ信号は、メインデータのビデオ信号を基に、メインデータのオーディオ信号の部分をアフレコ・オーディオ信号と取り替えて伝送する。まず、ユーザインターフェース120からはアフレコ・オーディオの何番をメインデータの何番に取り替えて、伝送するかが入力される。図8に示す情報フォーマットのPLAYL_INFO()内のPR_numberがメインデータの番号、AF_numberがアフレコオーディオデータの番号に相当する。識別情報検出器123はCPU121からの指示信号により、情報フォーマットの図8に示すデータ構造から、前記PR_numberとAF_number を読み取り、読み取り制御器11に対して相当するファイル名のデータを読み取る指示信号を出す。
Next, a case where an after-recording audio signal is transmitted will be described. The post-recording audio signal is transmitted by replacing the audio signal portion of the main data with the after-recording audio signal based on the video signal of the main data. First, the
これにより、記録メディア108に記録されているビデオとオーディオが多重化されたメインデータファイルと、アフレコ・オーディオデータファイルの2つのファイルを読み取り制御器111にてバースト的に読み取りを行い、それぞれの要素データをバッファ112a、バッファ112bに一時蓄える。バッファ112bに蓄えられたアフレコ・オーディオデータは信号切り替え器114へ伝送され、一方、バッファ112aに入力されたデータは要素切り替え器125に伝送される。
As a result, the main data file in which the video and audio recorded on the
このとき、ユーザインターフェース120からアフレコ・オーディオデータを伝送することが入力されて、CPUから信号切り替え器114、要素切り替え器125にアフレコオーディオデータを伝送することを示す指示信号が伝送されており、要素切り替え器125ではアフレコオーディオデータを伝送するので、メインデータの多重化データのオーディオ部分を信号切り替え器114から入力されたアフレコ・オーディオデータのオーディオ部分と入れ替えてバッファ126を介して伝送路に伝送する。PCRやDTS、PTSなどのタイムスタンプはまったく変更しなくてよい。ただし、MPEG多重化規格で採用されているCRCコードはアフレコオーディオデータを入れ替えたパケット部分に応じて、再計算されて新しい値に変更する。
At this time, transmission of post-recording audio data is input from the
なお、本実施例はメインデータを作成するときに、アフレコデータの種類のデータをあらかじめ要素データの中に作成すること、及びアフレコデータの転送レートはメインデータに含まれるアフレコデータの種類と同じ要素データと同じであることを想定してるが、メインデータを作成するときに、あらかじめダミーデータで、予想するアフレコデータと同じ転送レートの要素データを多重化しておいてもよい。 In this embodiment, when creating the main data, the data of the after-record data type is created in advance in the element data, and the transfer rate of the after-record data is the same element as the type of the after-record data included in the main data. Although it is assumed that the data is the same as the data, element data having the same transfer rate as the expected after-recording data may be multiplexed in advance with dummy data when the main data is created.
また、あらかじめダミーデータで、予想するアフレコデータと同じ転送レートの要素データを多重化しておくか、ダミーでない要素データをメインデータ作成時に記録しておくときには、図11における要素切り替え器125においては、PCRやDTS、PTSなどのタイムスタンプはまったく変更しなくてよいが、ダミーデータを記録しておかない場合や、アフレコデータの転送レートが違う場合には、要素切り替え器125が実質的に再多重化をして、新たなPCRやDTS、PTSなどのタイムスタンプを付け直すことが必要である。しかしながらその場合でも、本発明の効果は、十分に発揮される。
In addition, when the element data having the same transfer rate as the expected after-recording data is multiplexed in advance with dummy data, or when element data that is not dummy is recorded at the time of main data creation, the
以上のように、少なくともオーディオとビデオ信号を圧縮符号化し、それぞれの符号化データの所定の単位に同期再生用のタイムスタンプを記録して、それぞれを多重化して記録するメインデータと、多重化された要素データの少なくとも1つの種類について、1つもしくは複数のアフレコ用の圧縮データを多重化しないで記録するので、簡単にアフレコデータを記録するフォーマットが実現でき、アフレコデータも多くの種類を記録することができる。 As described above, at least audio and video signals are compressed and encoded, and a time stamp for synchronous reproduction is recorded in a predetermined unit of each encoded data, and each is multiplexed with main data to be recorded by multiplexing. Since at least one kind of element data is recorded without multiplexing one or more after-recording compressed data, a format for easily recording after-recording data can be realized, and many kinds of after-recording data can be recorded. be able to.
また、少なくともオーディオとビデオ信号が圧縮符号化され、それぞれの符号化データの所定の単位に同期再生用のタイムスタンプが記録されているデータが、多重化されて記録されているメインデータと、多重化された要素データの少なくとも1つもしくは複数種類について、アフレコ用の圧縮データが多重化されない状態で記録されているアフレコデータを、時分割的に読み出し、再生するので、記録した複数のアフレコデータを簡単に識別することができ、しかも、再多重化することなく、アフレコデータを再生できる。 Further, at least audio and video signals are compression-encoded, and data in which a time stamp for synchronous reproduction is recorded in a predetermined unit of each encoded data is multiplexed with the main data recorded and multiplexed. Since at least one or a plurality of types of elemental data is recorded and read after-recorded in a time-division manner, the post-record data recorded in a state in which the compressed data for post-recording is not multiplexed is recorded. It can be easily identified, and the post-recording data can be reproduced without re-multiplexing.
また、少なくともオーディオとビデオ信号が圧縮符号化され、それぞれの符号化データの所定の単位に同期再生用のタイムスタンプが記録されているデータが、多重化されて記録されているメインデータと、多重化された要素データの少なくとも1つもしくは複数種類について、アフレコ用の圧縮データが多重化されないで記録されているアフレコデータを時分割的に読み出し、多重化されて記録されているメインデータの要素データのデータと、アフレコ用のデータを入れ替えて伝送するので、伝送されるデータにおいては完全にMPEG多重化規格に準拠したデータを伝送可能となり、外部の伝送先に存在するMPEG対応の再生器で、本発明のアフレコデータを反映した伝送データを再生することができる。 Further, at least audio and video signals are compression-encoded, and data in which a time stamp for synchronous reproduction is recorded in a predetermined unit of each encoded data is multiplexed with the main data recorded and multiplexed. For at least one or a plurality of types of component data, the post-record data recorded without being multiplexed is read in a time-sharing manner, and the component data of the main data is recorded after being multiplexed And the data for after-recording are exchanged and transmitted, so that the data that is completely compliant with the MPEG multiplexing standard can be transmitted in the transmitted data, and an MPEG compatible player that exists at an external transmission destination, Transmission data reflecting the post-recording data of the present invention can be reproduced.
また、すべてにおいて、この構成によって、アフレコを選択して記録、再生伝送した後でも、再度元に戻すことができ、かつ複数のアフレコ音声を記録した後に、ユーザが選択的にアフレコデータを楽しむシステムを提供できる。 In addition, in all cases, with this configuration, even after the recording is selected, recorded, reproduced and transmitted, the system can be restored again, and the user can enjoy the after-recording data selectively after recording a plurality of after-recording sounds. Can provide.
さらにまた、上記したアフレコ装置の機能をプログラムによりコンピュータに実現させてもよいし、上記した再生装置の機能をプログラムによりコンピュータに実現させてもよい。これらのプログラムは、記録媒体から読み取られてコンピュータに取り込まれてもよいし、通信ネットワークを介して伝送されてコンピュータに取り込まれてもよい。 Furthermore, the function of the above-described after-recording apparatus may be realized by a computer by a program, and the function of the above-described playback apparatus may be realized by a computer by a program. These programs may be read from a recording medium and loaded into a computer, or may be transmitted via a communication network and loaded into a computer.
101a ビデオ符号化器
101b オーディオ符号化器
102a,102b PESパケット化器
103a,103b タイムスタンプ記録器
104 多重化器
105,114 信号切り替え器
108 記録メディア
109,120 ユーザインターフェース
123 識別情報検出器
124 タイムスタンプ比較器
Claims (1)
前記メインデータを構成するオーディオ信号に対する複数のアフレコ用圧縮符号化オーディオデータの1つを選択指定する選択指定ステップと、
前記複数のアフレコ用圧縮符号化オーディオデータが、前記メインデータと同期再生するためのタイムスタンプであるデコード開始時刻情報と表示・再生開始時刻情報、及び個々の前記アフレコ用圧縮符号化オーディオデータを識別するための識別情報が付加され、前記メインデータと多重化されることなくストリーム化されてなるアフレコ用データのストリームから、前記選択指示ステップで選択指定されたアフレコ用圧縮符号化オーディオデータを含むアフレコ用データのストリームを前記識別情報に基づき選択入力する入力ステップと、
前記メインデータのストリームからメインデータを読み出すとともに、前記選択指定された1つのアフレコ用圧縮符号化オーディオデータを前記選択入力されたアフレコ用データのストリームから読み出して、前記選択指定されたアフレコ用圧縮符号化オーディオデータを当該アフレコ用圧縮符号化オーディオデータに対する前記メインデータ内のオーディオ信号と置き換え、前記メインデータのストリームから読み出したタイムスタンプであるデコード開始時刻情報と表示・再生開始時刻情報、及び前記選択入力されたアフレコ用データのストリームから読み出したタイムスタンプであるデコード開始時刻情報と表示・再生開始時刻情報に基づいて、前記メインデータのビデオ信号と前記選択指定されたアフレコ用圧縮符号化オーディオデータとを同期再生する同期再生ステップと、
を備えたことを特徴とするアフレコ信号再生方法。 Decoding start time information and display in which compression-coded data of two signals of the audio signal and the video signal constituting the main data are time stamps for synchronous reproduction of the audio signal and the video signal in predetermined units, respectively An input step in which a stream of main data that is multiplexed with playback start time information added thereto;
A selection designating step of selecting and designating one of a plurality of post-recording compressed and encoded audio data for the audio signal constituting the main data;
The plurality of after-recording compressed and encoded audio data identify the decoding start time information and display / reproduction start time information, which are time stamps for synchronous playback with the main data, and the individual after-recording compressed and encoded audio data And after-recording compressed encoded audio data selected and designated in the selection instruction step from the post-record data stream that is streamed without being multiplexed with the main data. An input step of selectively inputting a stream of data based on the identification information;
The main data is read out from the main data stream, and the one selected after-recording compressed encoded audio data is read out from the selected after-recording data stream, and the selected after-recording compressed code is read out. The decoded audio data is replaced with the audio signal in the main data for the post-recording compressed encoded audio data, and the decoding start time information, display / reproduction start time information, which are time stamps read from the main data stream, and the selection Based on the decoding start time information and display / playback start time information, which are time stamps read from the input post-record data stream, the video signal of the main data and the selected and designated post-recording compressed encoded audio data are recorded. And synchronous playback step for synchronized playback and data,
An after-recording signal reproduction method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005074646A JP2005198350A (en) | 2005-03-16 | 2005-03-16 | After-recording signal reproducing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005074646A JP2005198350A (en) | 2005-03-16 | 2005-03-16 | After-recording signal reproducing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001367614A Division JP2003169292A (en) | 2001-11-30 | 2001-11-30 | After-recording device, computer program, recording medium, transmission method and reproducing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005198350A true JP2005198350A (en) | 2005-07-21 |
Family
ID=34824867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005074646A Pending JP2005198350A (en) | 2005-03-16 | 2005-03-16 | After-recording signal reproducing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005198350A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166098A (en) * | 2019-03-29 | 2020-10-08 | 東京瓦斯株式会社 | Voice information replacement system and program |
JP2020166911A (en) * | 2019-03-29 | 2020-10-08 | 東京瓦斯株式会社 | Sound story generation system, and program |
JP2021060484A (en) * | 2019-10-04 | 2021-04-15 | 東京瓦斯株式会社 | Voice information replacement system and program |
-
2005
- 2005-03-16 JP JP2005074646A patent/JP2005198350A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166098A (en) * | 2019-03-29 | 2020-10-08 | 東京瓦斯株式会社 | Voice information replacement system and program |
JP2020166911A (en) * | 2019-03-29 | 2020-10-08 | 東京瓦斯株式会社 | Sound story generation system, and program |
JP2021060484A (en) * | 2019-10-04 | 2021-04-15 | 東京瓦斯株式会社 | Voice information replacement system and program |
JP7341024B2 (en) | 2019-10-04 | 2023-09-08 | 東京瓦斯株式会社 | Audio information replacement system and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8238383B2 (en) | Method and apparatus for generating information signal to be recorded | |
US8244108B2 (en) | After-recording apparatus | |
JP4092681B2 (en) | MPEG recording device, playback device, and transmission device | |
JP2005198350A (en) | After-recording signal reproducing method | |
JP2005198349A (en) | Recording medium | |
JP2005198351A (en) | After-recording signal reproducing apparatus | |
JP2005198347A (en) | Method for generating after-recording signal | |
JP2005198348A (en) | Transmission method | |
JP2005237021A (en) | After-recording signal reproduction program | |
JP2005260979A (en) | Method for transmitting after-recording signal | |
JP2005245006A (en) | Postrecording signal reproducing apparatus | |
JP2005253093A (en) | After recording signal transmitting instrument | |
JP2005260978A (en) | Program for generating after-recording signal | |
JP2006054529A (en) | Mpeg image data recorder and recording method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070313 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070514 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070706 |