Nothing Special   »   [go: up one dir, main page]

JP3552201B2 - 音声符号化方法および装置 - Google Patents

音声符号化方法および装置 Download PDF

Info

Publication number
JP3552201B2
JP3552201B2 JP18511499A JP18511499A JP3552201B2 JP 3552201 B2 JP3552201 B2 JP 3552201B2 JP 18511499 A JP18511499 A JP 18511499A JP 18511499 A JP18511499 A JP 18511499A JP 3552201 B2 JP3552201 B2 JP 3552201B2
Authority
JP
Japan
Prior art keywords
autocorrelation
autocorrelation coefficient
coefficient
encoding
spectrum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18511499A
Other languages
English (en)
Other versions
JP2001013999A (ja
Inventor
公生 三関
正浩 押切
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP18511499A priority Critical patent/JP3552201B2/ja
Publication of JP2001013999A publication Critical patent/JP2001013999A/ja
Application granted granted Critical
Publication of JP3552201B2 publication Critical patent/JP3552201B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、音声信号をスペクトルパラメータと残差成分とで表して低ビットレートで高能率に符号化する音声符号化方法および装置に関する。
【0002】
【従来の技術】
音声信号を少ない情報量で蓄積したり伝送するための低ビットレート符号化方式として、CELP( Code Excited Linear Prediction ,M.R.Schroeder and B.S.Atal, “Code Excited Linear Prediction (CELP) : High Quality Speech at Very Low Bit Rates”, Proc. ICASSP, pp.937−940, 1985(文献1)が知られている。また、「音のコミュニケーション工学」日本音響学会編、1996年、コロナ社(文献2)のpp.33−42においても、CELP方式が解説されている。
【0003】
CELP方式は線形予測分析に基づく符号化方式であり、音声信号を音韻情報となるスペクトル包絡を表すスペクトルパラメータと、音の高さ等を表す残差成分とで表して、両者を符号化する。音声信号のスペクトル包絡を表すスペクトルパラメータとしては様々なものがあるが、音声符号化の分野ではLPC係数(線形予測係数)が最も一般的に使用される。
【0004】
CELP方式では、LPC係数は音声信号の自己相関係数に窓掛けを行うことで修正された自己相関係数から求められる。自己相関係数からLPC係数を求めるには、Levinson−Durbin algorithmやDurbinの再帰的解法として知られている方法が用いられる。この方法の詳細については、例えば「ディジタル音声処理」東海大学出版会、古井貞氏著(文献3)のpp.75に記載されている。このようにして求められたLPC係数は、符号化に適したLSP係数などの等価なパラメータに変換される(文献3のpp.89−92参照)。そして、これが符号化されることによりスペクトルパラメータの符号が求められる。
【0005】
一方、残差成分の符号化に当たっては、聴覚的に符号化歪みが聞こえにくくなるように聴覚重み付きの歪み尺度により符号選択が行われる。CELP方式などの従来の音声符号化技術では、符号化される前のLPC係数を聴覚重み付けにも利用することが特徴である。
【0006】
音声信号の復号に当たっては、スペクトルパラメータの符号と残差成分の符号が復号され、復号化されたスペクトルパラメータに従って、復号化された残差成分にスペクトル包絡を与えることにより音声信号を再生する。
【0007】
このように従来の音声符号化技術では、符号化対象にすることを主目的に求められたLPC係数を聴覚重み特性の設定にも流用しており、この制約のために必ずしも十分な聴覚重み特性を表現することができない。従って、例えば4kbit/s程度以下の低ビットレート符号化に従来の音声符号化技術を用いると、符号化歪みへの影響が大きい残差成分の劣化を聴覚重み付けによってマスクしきれなくなり、高品質の復号音声を得ることができなくなる。
【0008】
【発明が解決しようとする課題】
上述したように従来の音声符号化技術では、符号化対象にすることを主目的に求められたLPC係数を聴覚重み特性の設定にも流用することから、必ずしも十分な聴覚重み特性を表現することができないため、さらなる低ビットレート化を図ろうとすると、符号化歪みが大きい残差成分の劣化を聴覚重み付けによってマスクしきれなくなり、復号音声の品質が劣化するという問題があった。
【0009】
本発明は、低ビットレート化を図りつつ符号化歪みが知覚されにくい音声符号化方法および装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
上記の課題を解決するため、本発明は入力音声信号をスペクトル包絡を表すスペクトルパラメータと残差成分とで表し、これらスペクトルパラメータおよび残差成分を符号化する音声符号化に際して、入力音声信号から求められた第1の自己相関係数を修正して得られた第2の自己相関係数からスペクトルパラメータを算出して符号化し、また第2の自己相関係数を得る際の第1の自己相関係数の修正の度合いよりも小さな修正の度合で第1の自己相関係数を修正して求められた第3の自己相関係数から聴覚重み特性を求め、これらスペクトルパラメータおよび聴覚重み特性を用いて残差成分を符号化することを基本的な特徴とする。
【0011】
ここで、自己相関係数の修正は、例えば自己相関窓を用いて行われる。第1の自己相関係数に対して自己相関窓を用いて窓掛けを行うことにより、修正された第2または第3の自己相関係数が得られる。この場合、第2の自己相関係数を得る際に用いる第1の自己相関窓と、第3の自己相関係数を得る際に用いる第2の自己相関窓を形状の異なるものとする。
【0012】
より具体的には、本発明では入力音声信号から所定の時間単位毎に第1の自己相関係数が算出される。第1の自己相関係数に対し、第1の窓掛け部で第1の自己相関窓を用いて窓掛けを行うことにより第2の自己相関係数が求められ、同様に第2の窓掛け部で形状が第1の自己相関窓と異なる第2の自己相関窓を用いて窓掛けを行うことにより第3の自己相関係数を求められる。
【0013】
第2の自己相関係数を用いて符号化対象となる第1のスペクトルパラメータが算出され、この第1のスペクトルパラメータが符号化される。一方、第3の自己相関係数を用いて別の第2のスペクトルパラメータが算出され、この第2のスペクトルパラメータから聴覚重み特性が設定され、第1のスペクトルパラメータおよび聴覚重み特性を用いて残差成分が符号化される。
【0014】
このような本発明によると、第1の自己相関窓を符号化対象となる第1のスペクトルパラメータ(例えばLPC係数)を求めるために最適化した形状とし、第2の自己相関窓を聴覚重み特性の設定に用いる第2のスペクトルパラメータを求めるために最適化した形状とすることにより、符号化対象の第1のスペクトルパラメータと聴覚重み特性のそれぞれを精度よく求めることができるようになる。従って、非常に低い符号化ビットレートでも、復号時に符号化歪みが知覚されにくく、高品質の復号音声を再生できる音声符号化が可能となる。
【0015】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
【0016】
(第1の実施形態)
図1は、本発明の第1の実施形態に係る音声符号化装置の構成を示すブロック図である。この音声符号化装置は自己相関算出部101、第1窓掛け部102、第2窓掛け部103、符号化用スペクトルパラメータ算出部104、聴覚重み用スペクトルパラメータ算出部105、スペクトルパラメータ符号化部106、聴覚重み設定部107、残差成分符号化部108および多重化部109からなる。
【0017】
自己相関算出部101では、所定のサンプリング周波数でサンプリングされディジタル化された入力音声信号から、所定の時間単位毎に次式で示すように第1の自己相関係数ri(r0,r1,…,rN)が算出される。
【0018】
【数1】
Figure 0003552201
【0019】
ここで、{x}は入力音声信号に長さLの時間窓をかけて切り出した入力音声信号系列、Nは自己相関の次数をそれぞれ表しており、入力音声信号のサンプリング周波数が8kHzの場合、典型的なNの値はN=10である。
【0020】
次に、自己相関算出部101で求められた第1の自己相関係数riに対して、第1窓掛け部102で第1の自己相関窓による窓掛けが行われることにより、第1の自己相関係数riが修正され、第2の自己相関係数φi(φ0,φ1,…,φN)が求められる。この第1の自己相関窓による窓掛け処理の一例は、次式に示される。
φi=ri×wi (i=0,1,…,N) (2)
ここで、wiは第1の自己相関窓を表す。
【0021】
次に、符号化用スペクトルパラメータ算出部104において、第2の自己相関係数φiを用いて符号化対象となるスペクトルパラメータが求められる。スペクトルパラメータとしてはパワースペクトル、LPCケプストラム、メル尺度のスペクトルパラメータ、サブバンドエネルギーなど様々なものが知られているが、ここではLPC係数(線形予測係数)の例について示す。LPC係数は、次の線形方程式を解くことにより算出される。
Φα=ψ (3)
ここで、Φは次式に示すように、第2の自己相関係数φiから構成される自己相関行列である。
【0022】
【数2】
Figure 0003552201
【0023】
式(3)の方程式からLPC係数{αi}を求める方法としては、例えばLevinson−Durbin algorithmや、Durbinの再帰的解法を用いることができ、これらの方法は先の文献3のpp.75に記載されているので、詳細な説明は省略する。
【0024】
こうして求められた符号化対象となるスペクトルパラメータ(以下、符号化用スペクトルパラメータという)(ここではLPC係数{αi})は、スペクトルパラメータ符号化部106によって符号化され、量子化されたスペクトルパラメータとこれを表すスペクトルパラメータの符号Aが出力される。
【0025】
このスペクトルパラメータの符号化に当たっては、例えばスペクトルパラメータがLPC係数である場合、LPC係数をLSP(線スペクトル対)係数などの等価なパラメータに変換し(文献3のpp.89−92参照)、これをベクトル量子化法を用いて符号化することにより、同一ビット数の下でより量子化歪みの少ないスペクトルパラメータの符号化を行うことができる。
【0026】
次に、自己相関係数から聴覚重み特性を設定するために、まず自己相関算出部101で求められた第1の自己相関係数riに対して第2窓掛け部103で第2の自己相関窓による窓掛けが行われることにより、第1の自己相関係数riが修正され、第3の自己相関係数φ′i(φ′0,φ′1,…,φ′N)が求められる。この第2の自己相関窓による窓掛け処理の一例は、次式に示される。
φ′i=ri×vi (i=0,1,…,N) (5)
ここで、viは第2の自己相関窓を表す。
【0027】
第2の自己相関窓viは、聴覚重み特性を設定するために用いる窓であり、第1の自己相関窓wiとは形状が異なる。より具体的には、第1の自己相関窓wiよりも第2の自己相関窓viの方が自己相関係数に与える修正の度合いが小さくなるような関係になるように、これら2つの自己相関窓wi,viを設定することが望ましい。この理由は、次の通りである。
【0028】
まず、第1の自己相関窓wiについては、これを用いて最終的に符号化用スペクトルパラメータ算出部104で求められる符号化用スペクトルパラメータは、スペクトルパラメータ符号化部106内で量子化された後に音声信号を生成するための合成フィルタのフィルタ特性として用いられるので、周波数特性に過度に強い共振点を持たないように、自己相関係数に対する修正の度合いが比較的強い窓形状とすることが望ましい。
【0029】
一方、第2の自己相関窓viは、最終的に音声信号のスペクトルの形状に対応した周波数マスキング効果を反映するための聴覚重み特性の設定に使用することから、過度に強い共振点を持たないようにすることが必要ではあるが、合成フィルタのフィルタ特性として用いられることはないので、第1の自己相関窓wiよりも自己相関係数に対する修正の度合いは小さくなるような窓形状とすることが望ましい。
【0030】
次に、聴覚重み用スペクトルパラメータ算出部105において、第2窓掛け部103で得られた第3の自己相関係数φ′iを用いて聴覚重みの設定に必要なスペクトルパラメータ(以下、聴覚重み用スペクトルパラメータという)が求められる。この聴覚重み用スペクトルパラメータとして、LPC係数を用いる場合には、前述の符号化用パラメータとして用いられるLPC係数の算出方法と同じアルゴリズムを用いることができることは言うまでもない。このときの線形方程式は、次のようになる。
Φ′β=ψ′ (6)
ここで、Φ′は次式に示すように、第3の自己相関係数φ′iから構成される自己相関行列である。
【0031】
【数3】
Figure 0003552201
【0032】
第2の自己相関窓viは第1の自己相関窓wiと異なるため、第2の自己相関窓viにより修正される第3の自己相関係数φ′iを用いて算出される聴覚重み用スペクトルパラメータとしてのLPC係数{βi}は、第1の自己相関窓wiにより修正された符号化用スペクトルパラメータとしてのLPC係数{αi}とはスペクトルの特性が異なる。従って、第2の自己相関窓viを聴覚重み用に適切に設定することによって、より精度の高い聴覚重み特性を残差成分の符号化に用いることができるという効果がある。
【0033】
聴覚重み設定部107は、聴覚重み用スペクトルパラメータ(この例ではLPC係数{βi})を用いて、残差成分符号化部108での聴覚重み付けに用いる聴覚重み特性の設定を行う。残差成分符号化部108において時間領域で聴覚重み付けを行って残差成分の符号化を行う場合には、聴覚重み付けはW(z)なる特性の重みフィルタによるフィルタリング処理として実現される。LPC係数{βi}を用いた聴覚重み付けフィルタ特性W(z)の典型的な例は、次式に示される。
【0034】
【数4】
Figure 0003552201
【0035】
ここで、B(z)は次式となる。
【0036】
【数5】
Figure 0003552201
【0037】
γ1,γ2は残差成分符号化部108での聴覚重み付け特性を設定するパラメータであり、1≧γ1>γ2>0の関係が必要である。典型的な例としては、例えばγ1=0.94、γ2=0.6を用いることができる。
【0038】
残差成分符号化部108は、入力音声信号とスペクトルパラメータ符号化部106からの量子化されたスペクトルパラメータと聴覚重みの情報を入力し、量子化されたスペクトルパラメータと共に音声信号を表すの必要な残差成分の符号化を行い、得られた残差成分の符号Bを出力する。
【0039】
以上のようにしてスペクトルパラメータ符号化部106で得られたスペクトルパラメータの符号Aと、残差成分符号化部108で得られた残差成分の符号Bは多重化部109で多重化され、入力音声信号を表す符号化データとして出力される。この符号化データは、蓄積系または伝送系へ送出される。
【0040】
次に、図2に示すフローチャートを用いて、本実施形態による音声符号化装置と同様の音声符号化処理をソフトウェアにより実現する場合の処理手順を説明する。
【0041】
まず、入力音声信号から所定の時間単位毎に第1の自己相関係数ri(r0,r1,…,rN)を求める(ステップS1)。
次に、この自己相関係数riに第1の自己相関窓wi(w0,w1,…,wN)による窓掛けを行い、修正された第2の自己相関係数φi(φ0,φ1,…,φN)を求める(ステップS2)。
次に、第2の自己相関係数φiを用いて符号化対象となる符号化用スペクトルパラメータを求める(ステップS3)。
次に、符号化用スペクトルパラメータを符号化し、この符号化の過程で得られる量子化されたスペクトルパラメータとそれを表すスペクトルパラメータの符号を求める(ステップS4)。
【0042】
一方、ステップS1で求められた第1の自己相関係数riから、聴覚重み特性を設定するまでの処理を以下のようにして行う。
すなわち、自己相関係数riに第2の自己相関窓vi(v0,v1,…,vN)による窓掛けを行い、修正された第3の自己相関係数φ′i(φ′0,φ′1,…,φ′N)を求める(ステップS5)。
次に、第3の自己相関係数φ′iを用いて、聴覚重みの設定に必要な聴覚重み用スペクトルパラメータを求める(ステップS6)。
次に、この聴覚重み用スペクトルパラメータを用いて残差成分符号化で用いる聴覚重み特性の設定を行う(ステップS7)。
次に、入力音声信号と量子化されたスペクトルパラメータと聴覚重み特性の情報を用いて、量子化されたスペクトルパラメータと共に音声信号を表すために必要な残差成分の符号化を行う(ステップS8)。
そして、ステップS4とS8の処理により得られたスペクトルパラメータの符号と残差成分の符号を多重化して音声信号の符号データとして出力する(ステップS9)。
【0043】
以上のステップS1〜S9の処理を終えると、一つの時間単位(典型的には、入力音声信号が8kHzでサンプリングされているとき20msec)の音声信号の符号化処理が終了する。この一連の処理をステップS10で次の時間単位の処理を行わないと判定されるまで時間単位毎に連続して行うことにより、連続して入力される音声信号の符号化を行うことができる。
【0044】
(第2の実施形態)
図3は、本発明をCELP方式に適用した音声符号装置の構成を示すブロック図である。この図では、特にCELP方式の特徴である残差成分符号化部について、図1よりも詳細に示している。CELP方式の詳細については、前述したように文献1や文献2に記載されている。
【0045】
この音声符号化装置は自己相関算出部301、第1窓掛け部302、第2窓掛け部303、符号化用LPC係数算出部304、聴覚重み用LPC係数算出部305、LPC係数符号化部306、聴覚重み設定部307、残差成分符号化部308および多重化部309からなる。
【0046】
ここで、自己相関算出部301、第1窓掛け部302、第2窓掛け部303、符号化用LPC係数算出部304、聴覚重み用LPC係数算出部305、LPC係数符号化部306および聴覚重み設定部307については、第1の実施形態における自己相関算出部101、第1窓掛け部102、第2窓掛け部103、符号化用スペクトルパラメータ算出部104、聴覚重み用スペクトルパラメータ算出部105、スペクトルパラメータ符号化部106および聴覚重み設定部107と同様であるので、説明を省略する。
【0047】
残差成分符号化部308は目標信号生成部311、適応音源符号化部312、雑音音源符号化部313、ゲイン符号化部314、駆動信号生成部315および重み付き合成フィルタ316から構成される。以下、残差成分符号化部308の各部の構成について詳細に説明する。
【0048】
目標信号生成部311は、聴覚重み設定部307により聴覚重み特性が設定される聴覚重みフィルタを有し、この聴覚重みフィルタを用いて入力音声信号に対しフィルタリングを行うことにより聴覚重み付けがなされた音声信号を生成すると共に、この聴覚重み付けがなされた音声信号から前の時間単位での符号化の影響を差引くことにより、残差成分の符号化の目標となる目標信号{fn}を生成する。
【0049】
適応音源符号化部312は、CELP方式の音声符号化でよく知られている適応符号帳を有し、目標信号{fn}(目標ベクトルf)を用いて次式の誤差ベクトルe0の大きさをより小さくする、好ましくは最小化する最適な適応符号ベクトルc0を適応符号帳の中から探索する。
e0=f−Hwc0(i) (10)
ここで、iは適応符号ベクトルの候補となるコードベクトルのインデックスを示す。また、Hwは聴覚重み付けられた音声のスペクトル包絡特性(聴覚重み付けられた合成フィルタの特性)Hw(z)を有するフィルタのインパルス応答から構成されるインパルス応答行列である。
【0050】
聴覚重み付けられたスペクトル包絡特性Hw(z)は、次式で表される。
【0051】
【数6】
Figure 0003552201
【0052】
ここで、W(z)は式(4)に示した聴覚重みフィルタ特性、またAq(z)は次式で表される。
【0053】
【数7】
Figure 0003552201
【0054】
ただし、αqiは量子化されたLPC係数である。
【0055】
こうして適応符号ベクトルの候補の中から選択された適応符号ベクトルのインデックスIと、これに対応する適応符号ベクトルc0(I)が適応音源符号化部312から出力される。
【0056】
次に、雑音音源符号化部313においては、CELP方式の音声符号化でよく知られている所定の方法で構成される雑音符号帳または擬似的に雑音を表現することのできるパルス音源等を用いて、適応音源符号化部312で表しきれなかった成分の符号化を行う。この際に用いる目標ベクトルdは、d=f−c0(I)とすることができる。この目標ベクトルdを用いて、次式の誤差ベクトルe1の大きさをより小さくする、好ましくは最小化する最適な雑音符号ベクトルc1を雑音符号ベクトル候補の中から探索する。
e1=d−Hwc1(j) (13)
ここで、jは雑音符号ベクトルの候補となる符号ベクトルのインデックスを示す。
【0057】
こうして雑音符号ベクトルの候補の中から選択された雑音符号ベクトルのインデックスJと、これに対応する雑音符号ベクトルc1(J)が雑音音源符号化部311から出力される。
【0058】
次に、ゲイン符号化部314は、CELP方式の音声符号化でよく知られている所定の方法で構成されるゲイン符号化帳を有し、適応音源符号化部312から出力される適応符号ベクトルc0(I)と雑音音源符号化部313から出力される雑音符号ベクトルc1(J)にそれぞれ乗じるためのゲインを符号化する。符号化に際しては、次式に示す誤差ベクトルegの大きさをより小さくする、好ましくは最小化する最適なゲインをゲイン符号化帳に格納されたゲインベクトルの候補g0(k),g1(k)(ただし、kはゲインベクトルのインデックス)の中から探索する。
Figure 0003552201
こうしてゲインベクトルの候補g0(k),g1(k)の中から探索されたゲインのインデックスKと、それに対応するゲインベクトルg0(K),g1(K)がゲイン符号化部314から出力される。
【0059】
適応音源符号化部312から出力される適応符号化ベクトルc0(I)、雑音音源符号化部313から出力される雑音符号ベクトルc1(J)およびゲイン符号化部314から出力されるゲインベクトルg0(K),g1(K)は、駆動信号生成部315に入力される。駆動信号生成部315は、次式に示すように適応符号ベクトルc0(I),雑音符号ベクトルc1(J)をそれぞれにゲインベクトルg0(K),g1(K)を乗じた後に加算することにより、量子化された残差ベクトルexを求める。この残差ベクトルexは、適応音源符号化部312に入力されて適応符号帳に格納されるとともに、重み付き合成フィルタ316に駆動信号として入力される。
【0060】
ex=g0(K)c0(I)+g1(K)c1(J) (15)
そして最後に、残差ベクトルexと重み付き合成フィルタの特性W(z)およびAq(z)を用いて、入力音声信号の次の時間単位の符号化に及ぶ影響を求めるための重み付き合成フィルタの内部状態を求め、これを目標信号生成部311に供給する。
【0061】
最後に、以上のようにして得られたスペクトルパラメータ(LPC係数)の符号Aと、図1における残差成分の符号Bに相当する適応符号ベクトルのインデックスI、雑音符号ベクトルのインデックスJおよびゲインベクトルのインデックスKが多重化部309で多重化され、入力音声信号を表す符号化データとして出力される。この符号化データは、蓄積系または伝送系に送出される。
【0062】
次に、本実施形態に係る音声復号化装置について説明する。図4は、同実施形態に係る図3に示した音声符号化装置に対応する音声復号化装置の構成を示すブロック図である。
【0063】
本発明は、基本的に符号化側におけるスペクトルパラメータ(例えばLPC係数)および残差成分の抽出法に特徴を有するものであり、図3に示した音声符号化装置から出力される符号化データそのものは、従来のCELP方式のそれと基本的に変わらない。従って、音声復号化装置の構成は、従来のCELP方式のそれと同様でよい。
【0064】
図4に示す音声復号化装置は、分離部400、LPC係数復号化部401、適応音源復号化部402、雑音音源復号化部403、ゲイン復号化部404、駆動信号生成部405、合成フィルタ406およびポストフィルタ407から構成される。
【0065】
分離部400では、図3に示した音声符号化装置より蓄積系または伝送系を経て入力された符号化データから、スペクトルパラメータ(LPC係数)の符号Aと、残差成分の符号に相当する適応符号ベクトルのインデックスI、雑音符号ベクトルのインデックスJおよびゲインベクトルのインデックスKが分離され、それぞれLPC係数復号化部401、適応音源復号化部402、雑音音源復号化部403およびゲイン復号化部404に入力される。
【0066】
LPC係数復号化部401では、音声符号化装置と同様にしてスペクトルパラメータAの符号に対応する量子化されたLPC係数を再生し、これを合成フィルタ406およびポストフィルタ407に供給する。
【0067】
適応音源復号化部402は、図3の適応音源符号化部312と同様に適応符号帳を有し、インデックスIに対応する適応符号ベクトルc0(I)を求めて駆動信号生成部405に供給する。雑音音源復号化部403は、図3の雑音音源符号化部313と同様に雑音符号帳を有し、インデックスJに対応する雑音符号ベクトルc1(J)を求めて駆動信号生成部405に供給する。さらに、ゲイン復号化部404は、図3のゲイン符号化部314と同様にゲイン符号帳を有し、インデックスKに対応するゲインベクトルg0(K),g1(K)を求めて駆動信号生成部405に供給する。
【0068】
駆動信号生成部405は、図3の駆動信号生成部315と同様に式(15)に従って適応符号ベクトルc0(I)、雑音符号ベクトルc1(J)およびゲインベクトルg0(K),g1(K)から量子化された残差ベクトルexを求める。この残差ベクトルexは、適応音源復号化部402に入力されて適応符号帳に格納されるとともに、合成フィルタ406に駆動信号として入力される。
【0069】
合成フィルタ406は、LPC係数復号化部401で求められた量子化されたLPC係数αqiを用いて式(12)と逆特性1/Aq(z)のフィルタリングを駆動信号(残差ベクトルex)に対して行うことにより、復号された音声信号を合成する。この合成フィルタ406の出力信号は、LPC係数復号化部401で求められた量子化されたLPC係数αqiを用いて特性が設定されたポストフィルタ407によってスペクトル形状が強調されることにより、最終的な復号音声信号が生成される。
【0070】
以上、本発明の実施形態について説明したが、本発明はこれに限られるものでなく、種々変形して実施することができる。
例えば、上記の実施形態においては、自己相関係数の修正法として自己相関係数に自己相関窓を乗じて窓掛け処理を行う方法を例にとり説明したが、自己相関係数の修正手法はこれに限られるものではない。要するに、符号化の対象とするスペクトルパラメータに供する自己相関係数と、聴覚重み特性の設定に供する自己相関係数がそれぞれに適した異なる条件で修正され、共通の自己相関係数に端を発して求められる手法であればよい。
【0071】
また、自己相関係数の定義に上記実施形態での説明と多少違いがある場合や、自己相関係数の代りに正規化自己相関係数を用いた場合についても、本発明を適用できることは言うまでもない。
【0072】
【発明の効果】
以上説明したように、本発明では入力音声信号から求められた第1の自己相関係数をそれぞれ異なる条件で修正して得られた第2、第3の自己相関係数をそれぞれ用いて、符号化対象のスペクトルパラメータと残差成分の符号化に用いる聴覚重み特性を個別に求めることによって、符号化対象のスペクトルパラメータおよび聴覚重み特性をいずれも精度よく求めることが可能となる。
【0073】
従って、本発明によると4kbit/s程度以下というような低ビットレート符号化においても、符号化歪みが知覚されにくい高品質の復号音声が得られる音声符号化を実現することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る音声符号化装置の構成を示すブロック図
【図2】同第2の実施形態に係る音声符号化の処理手順を示すフローチャート
【図3】本発明の第2の実施形態に係る音声符号化装置の構成を示すブロック図
【図4】同第2の実施形態に係る音声符号化装置に対応する音声復号化装置の構成を示すブロック図
【符号の説明】
101,301…自己相関算出部
102,302…第1窓掛け部
103,303…第2窓掛け部
104,304…符号化用スペクトルパラメータ算出部
105,305…聴覚重み用スペクトルパラメータ算出部
106…スペクトルパラメータ符号化部
306…LPC係数符号化部
107,307…聴覚重み設定部
108,308…残差成分符号化部
109,309…多重化部

Claims (4)

  1. 入力音声信号をスペクトル包絡を表すスペクトルパラメータと残差成分とで表し、これらスペクトルパラメータおよび残差成分を符号化する音声符号化方法において、
    前記入力音声信号から求められた第1の自己相関係数を修正して得られた第2の自己相関係数から前記スペクトルパラメータを算出して符号化し、
    前記第2の自己相関係数を得る際の前記第1の自己相関係数の修正の度合いよりも小さな修正の度合で前記第1の自己相関係数を修正して求められた第3の自己相関係数から聴覚重み特性を求め、
    前記スペクトルパラメータおよび前記聴覚重み特性を用いて前記残差成分を符号化することを特徴とする音声符号化方法。
  2. 入力音声信号をスペクトル包絡を表すスペクトルパラメータと残差成分とで表し、これらスペクトルパラメータおよび残差成分を符号化する音声符号化方法において、
    前記入力音声信号から求められた第1の自己相関係数を第1の自己相関窓を用いて修正して得た第2の自己相関係数から前記スペクトルパラメータを算出して符号化し、
    前記第1の自己相関係数を前記第1の自己相関窓よりも前記第1の自己相関係数に与える修正の度合いが小さい第2の自己相関窓を用いて修正して得た第3の自己相関係数から聴覚重み特性を求め、
    前記スペクトルパラメータおよび聴覚重み特性を用いて前記残差成分を符号化を行うことを特徴とする音声符号化方法。
  3. 入力音声信号をスペクトル包絡を表すスペクトルパラメータと残差成分とで表し、これらスペクトルパラメータおよび残差成分を符号化する音声符号化方法において、
    前記入力音声信号から所定の時間単位毎に第1の自己相関係数を算出するステップと、
    前記第1の自己相関係数に対し第1の自己相関窓を用いて窓掛けを行うことにより、前記第1の自己相関係数を修正して第2の自己相関係数を求めるステップと、
    前記第2の自己相関係数を用いて第1のスペクトルパラメータを算出するステップと、
    前記第1のスペクトルパラメータを符号化するステップと、
    前記第1の自己相関係数に対し前記第1の自己相関窓よりも前記第1の自己相関係数に与える修正の度合いが小さい、前記第1の自己相関係数とは形状の異なる第2の自己相関窓を用いて窓掛けを行うことにより、前記第1の自己相関係数を修正して第3の自己相関係数を求めるステップと、
    前記第3の自己相関係数を用いて第2のスペクトルパラメータを算出するステップと、
    前記第2のスペクトルパラメータに基づいて聴覚重み特性を設定するステップと、
    前記第1のスペクトルパラメータおよび前記聴覚重み特性を用いて前記残差成分を符号化するステップと
    を有することを特徴とする音声符号化方法。
  4. 入力音声信号をスペクトル包絡を表すスペクトルパラメータと残差成分とで表し、これらスペクトルパラメータおよび残差成分を符号化する音声符号化装置において、
    前記入力音声信号から所定の時間単位毎に第1の自己相関係数を算出する自己相関算出手段と、
    前記第1の自己相関係数に対し第1の自己相関窓を用いて窓掛けを行うことにより、前記第1の自己相関係数を修正して第2の自己相関係数を求める第1の窓掛け手段と、
    前記第2の自己相関係数を用いて第1のスペクトルパラメータを算出する第1のスペクトルパラメータ算出手段と、
    前記第1のスペクトルパラメータ算出手段により算出されたスペクトルパラメータを符号化するスペクトルパラメータ符号化手段と、
    前記第1の自己相関係数に対し前記第1の自己相関窓よりも前記第1の自己相関係数に 与える修正の度合いが小さい、前記第1の自己相関係数とは形状の異なる第2の自己相関窓を用いて窓掛けを行うことにより、前記第1の自己相関係数を修正して第3の自己相関係数を求める第2の窓掛け手段と、
    前記第1の自己相関係数に対し形状が前記第1の自己相関窓と異なる第2の自己相関窓を用いて窓掛けを行うことにより、第3の自己相関係数を求める第2の窓掛け手段と、
    前記第3の自己相関係数を用いて第2のスペクトルパラメータを算出する第2のスペクトルパラメータ算出手段と、
    前記第2のスペクトルパラメータに基づいて聴覚重み特性を設定する聴覚重み特性設定手段と、
    前記第1のスペクトルパラメータおよび前記聴覚重み設定手段により設定された聴覚重み特性を用いて前記残差成分を符号化する残差成分符号化手段と
    を有することを特徴とする音声符号化装置。
JP18511499A 1999-06-30 1999-06-30 音声符号化方法および装置 Expired - Fee Related JP3552201B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18511499A JP3552201B2 (ja) 1999-06-30 1999-06-30 音声符号化方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18511499A JP3552201B2 (ja) 1999-06-30 1999-06-30 音声符号化方法および装置

Publications (2)

Publication Number Publication Date
JP2001013999A JP2001013999A (ja) 2001-01-19
JP3552201B2 true JP3552201B2 (ja) 2004-08-11

Family

ID=16165116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18511499A Expired - Fee Related JP3552201B2 (ja) 1999-06-30 1999-06-30 音声符号化方法および装置

Country Status (1)

Country Link
JP (1) JP3552201B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101460998A (zh) * 2006-05-30 2009-06-17 皇家飞利浦电子股份有限公司 音频信号的线性预测编码
CN101609678B (zh) 2008-12-30 2011-07-27 华为技术有限公司 信号压缩方法及其压缩装置
JP6399679B2 (ja) * 2013-06-03 2018-10-03 オリオン機械株式会社 搾乳システムの制御方法

Also Published As

Publication number Publication date
JP2001013999A (ja) 2001-01-19

Similar Documents

Publication Publication Date Title
JP2940005B2 (ja) 音声符号化装置
JP4005359B2 (ja) 音声符号化及び音声復号化装置
JP3180762B2 (ja) 音声符号化装置及び音声復号化装置
US4720865A (en) Multi-pulse type vocoder
JP3180786B2 (ja) 音声符号化方法及び音声符号化装置
JP3137176B2 (ja) 音声符号化装置
JP3582589B2 (ja) 音声符号化装置及び音声復号化装置
JP3063668B2 (ja) 音声符号化装置及び復号装置
JP3558031B2 (ja) 音声復号化装置
JP3531780B2 (ja) 音声符号化方法および復号化方法
JP3308764B2 (ja) 音声符号化装置
JP3552201B2 (ja) 音声符号化方法および装置
JPH0782360B2 (ja) 音声分析合成方法
JP3268750B2 (ja) 音声合成方法及びシステム
JP3003531B2 (ja) 音声符号化装置
JP3510168B2 (ja) 音声符号化方法及び音声復号化方法
JPH08292797A (ja) 音声符号化装置
JP3916934B2 (ja) 音響パラメータ符号化、復号化方法、装置及びプログラム、音響信号符号化、復号化方法、装置及びプログラム、音響信号送信装置、音響信号受信装置
JP3232701B2 (ja) 音声符号化方法
JP3319396B2 (ja) 音声符号化装置ならびに音声符号化復号化装置
JP3299099B2 (ja) 音声符号化装置
JP2956068B2 (ja) 音声符号化復号化方式
JP2001318698A (ja) 音声符号化装置及び音声復号化装置
JPH0258100A (ja) 音声符号化復号化方法及び音声符号化装置並びに音声復号化装置
JP2853170B2 (ja) 音声符号化復号化方式

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090514

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090514

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110514

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110514

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120514

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120514

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees