Nothing Special   »   [go: up one dir, main page]

JPH11126098A - 音声合成方法及び装置、並びに帯域幅拡張方法及び装置 - Google Patents

音声合成方法及び装置、並びに帯域幅拡張方法及び装置

Info

Publication number
JPH11126098A
JPH11126098A JP9291405A JP29140597A JPH11126098A JP H11126098 A JPH11126098 A JP H11126098A JP 9291405 A JP9291405 A JP 9291405A JP 29140597 A JP29140597 A JP 29140597A JP H11126098 A JPH11126098 A JP H11126098A
Authority
JP
Japan
Prior art keywords
voiced
unvoiced
parameter
wideband
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9291405A
Other languages
English (en)
Other versions
JP4132154B2 (ja
Inventor
Shiro Omori
士郎 大森
Masayuki Nishiguchi
正之 西口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP29140597A priority Critical patent/JP4132154B2/ja
Priority to TW087116840A priority patent/TW384467B/zh
Priority to US09/175,616 priority patent/US6289311B1/en
Priority to EP98308629A priority patent/EP0911807B1/en
Priority to KR1019980044279A priority patent/KR100574031B1/ko
Publication of JPH11126098A publication Critical patent/JPH11126098A/ja
Application granted granted Critical
Publication of JP4132154B2 publication Critical patent/JP4132154B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0004Design or structure of the codebook
    • G10L2019/0005Multi-stage vector quantisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Abstract

(57)【要約】 【課題】 従来の音声帯域拡張装置では、音質の不十分
さは顕著であった。 【解決手段】 音声帯域幅拡張装置は、広帯域有声音及
び無声音から抽出した有声音用及び無声音用パラメータ
を用いて予め作成した広帯域有声音用コードブック12
と広帯域無声音用コードブック14と、上記広帯域音声
を周波数帯域制限して得た周波数帯域が例えば300H
z〜3400Hzの狭帯域音声信号から抽出した有声音
用及び無声音用パラメータにより予め作成した狭帯域有
声音用コードブック7と狭帯域無声音用コードブック1
0とを備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、送信側から伝送さ
れてきた符号化パラメータを用いて音声を合成する音声
合成方法及び装置、並びに電話のような通信、放送によ
って伝えられる周波数帯域の狭い音声信号を、伝送路で
はそのままに、受信側で帯域幅を拡張する帯域幅拡張方
法及び装置に関する。
【0002】
【従来の技術】電話回線の帯域は例えば300〜340
0Hzと狭く、電話回線を介して送られてくる音声信号
の周波数帯域は制限されている。このため、従来のアナ
ログ電話回線の音質はあまり良好とは言えない。また、
ディジタル携帯電話の音質についても不満がある。
【0003】しかしながら、伝送路の規格が定まってい
るため、この帯域幅を広げることは難しく、したがっ
て、受信側で帯域外の信号成分を予測し、広帯域信号を
生成するシステムが様々提案されている。この中で、コ
ードブックマッピングを用いた方式の品質が良いとされ
ている。この方式は、入力された狭帯域音声のスペクト
ル包絡から、広帯域音声のスペクトル包絡を予測するた
めに、分析用と合成用の二つのコードブックを持つこと
を特徴とする。
【0004】具体的には、あらかじめスペクトル包絡を
表すパラメータの一種であるLPCケプストラムによ
り、狭帯域用、広帯域用の二つのコードブックを作成し
ておく。この二つのコードブックのコードベクタは一対
一に対応しており、狭帯域入力音声から狭帯域用LPC
ケプストラムを求め、狭帯域コードブック内コードベク
タと比較することによりベクトル量子化し、対応する広
帯域コードブック内コードベクタを用いて逆量子化する
ことによって広帯域用LPCケプストラムが求められる
という仕組みである。
【0005】ここで、二つのコードブックのコードベク
タが一対一に対応するための作成方法は以下の通りであ
る。まず広帯域学習用音声と、それを帯域制限した狭帯
域学習用音声を用意し、それぞれをフレーミングし、狭
帯域音声から求めたLPCケプストラムにより、まず狭
帯域コードブックを学習、作成する。そして、結果とし
て得られた各コードベクタに量子化される狭帯域学習用
音声のフレームに対応する広帯域学習用音声のフレーム
を集め、その重心を取ることによって広帯域コードベク
タとし、広帯域コードブックを作成する。
【0006】また、この応用として、広帯域学習用音声
で先に広帯域用コードブックを作成し、対応する狭帯域
学習用音声のフレームの重心を取ることで狭帯域コード
ベクタとし、狭帯域コードブックを作成しても良い。
【0007】さらに、コードベクタとするパラメータに
自己相関を用いた方式もある。また、LPC分析、合成
を行う方式の場合、励振源が必要となるが、この励振源
には、パルス列とノイズを用いたもの、狭帯域励振源を
アップサンプルしたもの、がある。
【0008】
【発明が解決しようとする課題】ところで、上述したよ
うな方法を用いても、まだ音質は十分とは言えず、特に
現在我が国で利用されているディジタル方式の携帯電話
に採用されている、いわゆるCELP(Code Excited L
inear Prediction:符号励起線形予測)符号化系の符号
化方式であるVSELP(Vector Sum Excited Linear
Prediction:ベクトル和励起線形予測)符号化方式や、
PSI−CELP(Pitch Synchronus Innovation - CE
LP:ピッチ同期雑音励振源−CELP)符号化方式等の
低ビットレートの音声符号化方式を用いて符号化した音
声に適用すると、音質の不十分さは顕著であった。
【0009】また、狭帯域と広帯域のコードブックを用
意しておくことによる、使用メモリ領域の大きさも問題
であった。
【0010】本発明は、上記実情に鑑みてなされたもの
であり、聴感上品質の良い広帯域音声を得ることのでき
る音声合成方法及び装置、並びに帯域幅拡張方法及び装
置の提供を目的とする。
【0011】また、本発明は、上記実情に鑑みてなされ
たものであり、コードブックを分析合成両用とすること
によりメモリ容量を節約できる音声合成方法及び装置、
並びに帯域幅拡張方法及び装置の提供を目的とする。
【0012】
【課題を解決するための手段】本発明に係る音声合成方
法は、所定時間単位毎に有声音と無声音に分けた広帯域
音声から抽出した有声音用及び無声音用特徴パラメータ
により予め作成した広帯域有声音用及び無声音用コード
ブックと、上記有声音と無声音に分けた広帯域音声を周
波数帯域制限して得た狭帯域音声から抽出した有声音用
及び無声音用特徴パラメータにより予め作成した狭帯域
有声音用及び無声音用コードブックとを備え、入力され
た複数種類の符号化パラメータを用いて音声を合成する
音声合成方法において、上記課題を解決するために、上
記複数種類の符号化パラメータを復号化し、この復号化
された複数種類の符号化パラメータの内の第1の符号化
パラメータを用いて励振源を求めると共に、第2の符号
化パラメータを音声合成用の特徴パラメータに変換し、
第3の符号化パラメータによって判定できる有声音と無
声音との判別結果により、上記音声合成用特徴パラメー
タを上記狭帯域有声音用及び無声音用コードブックを用
いて量子化し、この狭帯域有声音用及び無声音用コード
ブックを用いた狭帯域有声音用及び無声音用量子化デー
タを上記広帯域有声音用及び無声音用コードブックを用
いて逆量子化し、この逆量子化データと上記励振源とに
基づいて音声を合成する。
【0013】また、本発明に係る音声合成装置は、所定
時間単位毎に有声音と無声音に分けた広帯域音声から抽
出した有声音用及び無声音用パラメータにより予め作成
した広帯域有声音用及び無声音用コードブックと、上記
有声音と無声音に分けた広帯域音声を周波数帯域制限し
て得た狭帯域音声から抽出した有声音用及び無声音用パ
ラメータにより予め作成した狭帯域有声音用及び無声音
用コードブックとを備え、入力された複数種類の符号化
パラメータを用いて音声を合成する音声合成装置におい
て、上記課題を解決するために、上記複数種類の符号化
パラメータを復号化する復号化手段と、上記復号化手段
によって復号化された符号化パラメータの内の第1の符
号化パラメータを用いて励振源を形成する励振源形成手
段と、上記復号化手段によって復号化された符号化パラ
メータの内の第2の符号化パラメータを用いて音声合成
用の特徴パラメータを出力する特徴パラメータ出力手段
と、上記復号化手段によって復号化された符号化パラメ
ータの内の第3の符号化パラメータによって有声音と無
声音とを判別する有声音/無声音判定手段と、上記有声
音/無声音判定手段の判定結果により、上記音声合成用
特徴パラメータを上記狭帯域有声音用及び無声音用コー
ドブックを用いて量子化する有声音用及び無声音用量子
化手段と、上記有声音用及び無声音用量子化手段からの
有声音用及び無声音用量子化データを上記広帯域有声音
用及び無声音用コードブックを用いて逆量子化する広帯
域有声音用及び無声音用逆量子化手段と、上記広帯域有
声音用及び無声音用逆量子化手段からの逆量子化データ
と上記励振源形成手段からの励振源とに基づいて上記広
帯域音声を合成する合成手段とを備える。
【0014】また、本発明に係る音声合成方法は、所定
時間単位毎に広帯域音声から抽出した特徴パラメータに
より予め作成した広帯域コードブックを備え、入力され
た複数種類の符号化パラメータを用いて音声を合成する
音声合成方法において、上記課題を解決するために、上
記複数種類の符号化パラメータを復号化し、この復号化
された複数種類の符号化パラメータの内の第1の符号化
パラメータを用いて励振源を求めると共に、第2の符号
化パラメータを音声合成用の特徴パラメータに変換し、
この音声合成用特徴パラメータを上記広帯域コードブッ
ク内の各コードベクトルより演算によって求めた狭帯域
特徴パラメータと比較することによって量子化し、この
量子化データを上記広帯域コードブックを用いて逆量子
化し、この逆量子化データと上記励振源とに基づいて音
声を合成する。
【0015】また、本発明に係る音声合成装置は、所定
時間単位毎に広帯域音声から抽出した特徴パラメータに
より予め作成した広帯域コードブックを備え、入力され
た複数種類の符号化パラメータを用いて音声を合成する
音声合成装置において、上記課題を解決するために、上
記複数種類の符号化パラメータを復号化する復号化手段
と、上記復号化手段により復号化された複数種類の符号
化パラメータの内の第1の符号化パラメータを用いて励
振源を求めると励振源形成手段と、上記復号化手段によ
り復号化された複数種類の符号化パラメータの内の第2
の符号化パラメータを音声合成用の特徴パラメータに変
換するパラメータ変換手段と、上記広帯域コードブック
内の各コードベクトルより演算によって狭帯域パラメー
タを求める演算手段と、上記パラメータ変換手段からの
上記特徴パラメータを上記演算手段からの狭帯域パラメ
ータを用いて量子化する量子化手段と、上記量子化手段
からの量子化データを上記広帯域コードブックを用いて
逆量子化する逆量子化手段と、上記逆量子化手段からの
逆量子化データと上記励振源形成手段からの励振源とに
基づいて音声を合成する合成手段とを備える。
【0016】また、本発明に係る音声合成方法は、所定
時間単位毎に広帯域音声から抽出した特徴パラメータに
より予め作成した広帯域コードブックを備え、入力され
た複数種類の符号化パラメータを用いて音声を合成する
音声合成方法において、上記課題を解決するために、上
記複数種類の符号化パラメータを復号化し、この復号化
された複数種類の符号化パラメータの内の第1の符号化
パラメータを用いて励振源を求めると共に、第2の符号
化パラメータを音声合成用の特徴パラメータに変換し、
この音声合成用特徴パラメータを上記広帯域コードブッ
ク内の各コードベクトルより部分抽出して求めた狭帯域
特徴パラメータと比較することによって量子化し、この
量子化データを上記広帯域コードブックを用いて逆量子
化し、この逆量子化データと上記励振源とに基づいて音
声を合成する。
【0017】また、本発明に係る音声合成装置は、所定
時間単位毎に広帯域音声から抽出した特徴パラメータに
より予め作成した広帯域コードブックを備え、入力され
た複数種類の符号化パラメータを用いて音声を合成する
音声合成装置において、上記課題を解決するために、上
記複数種類の符号化パラメータを復号化する復号化手段
と、上記復号化手段により復号化された複数種類の符号
化パラメータの内の第1の符号化パラメータを用いて励
振源を求めると励振源形成手段と、上記復号化手段によ
り復号化された複数種類の符号化パラメータの内の第2
の符号化パラメータを音声合成用の特徴パラメータに変
換するパラメータ変換手段と、上記広帯域コードブック
内の各コードベクトルを部分抽出して狭帯域パラメータ
を求める部分抽出手段と、上記パラメータ変換手段から
の上記特徴パラメータを上記部分抽出手段からの狭帯域
パラメータを用いて量子化する量子化手段と、上記量子
化手段からの量子化データを上記広帯域コードブックを
用いて逆量子化する逆量子化手段と、上記逆量子化手段
からの逆量子化データと上記励振源形成手段からの励振
源とに基づいて音声を合成する合成手段とを備える。
【0018】また、本発明に係る帯域幅拡張方法は、所
定時間単位毎に有声音と無声音に分けた広帯域音声から
抽出した有声音用及び無声音用パラメータにより予め作
成した広帯域有声音用及び無声音用コードブックと、上
記有声音と無声音に分けた広帯域音声を周波数帯域制限
して得た狭帯域音声から抽出した有声音用及び無声音用
パラメータにより予め作成した狭帯域有声音用及び無声
音用コードブックとを備え、入力された狭帯域音声を帯
域幅拡張する帯域幅拡張方法において、上記課題を解決
するために、上記入力された狭帯域音声を所定時間単位
毎に有声音と無声音に判定し、この狭帯域有声音及び無
声音から有声音用及び無声音用パラメータを出力し、こ
の狭帯域音声の有声音用及び無声音用パラメータを上記
狭帯域有声音用及び無声音用コードブックを用いて量子
化し、この狭帯域有声音用及び無声音用コードブックを
用いた狭帯域有声音用及び無声音用量子化データを上記
広帯域有声音用及び無声音用コードブックを用いて逆量
子化し、この逆量子化データに基づいて上記狭帯域音声
の帯域幅を拡張する。
【0019】また、本発明に係る帯域幅拡張装置は、所
定時間単位毎に有声音と無声音に分けた広帯域音声から
抽出した有声音用及び無声音用パラメータにより予め作
成した広帯域有声音用及び無声音用コードブックと、上
記有声音と無声音に分けた広帯域音声を周波数帯域制限
して得た狭帯域音声から抽出した有声音用及び無声音用
パラメータにより予め作成した狭帯域有声音用及び無声
音用コードブックとを備え、入力された狭帯域音声を帯
域幅拡張する帯域幅拡張装置において、上記課題を解決
するために、上記入力された狭帯域音声を所定時間単位
毎に有声音と無声音に判定する有声音/無声音判定手段
と、この有声音/無声音判定手段で判定した有声音及び
無声音から狭帯域有声音用及び無声音用パラメータを出
力する狭帯域有声音用及び無声音用パラメータ出力手段
と、上記狭帯域有声音用及び無声音用パラメータ出力手
段からの狭帯域有声音用及び無声音用パラメータを上記
狭帯域有声音用及び無声音用コードブックを用いて量子
化する狭帯域有声音用及び無声音用量子化手段と、上記
狭帯域有声音用及び無声音用量子化手段からの狭帯域有
声音用及び無声音用量子化データを上記広帯域有声音用
及び無声音用コードブックを用いて逆量子化する広帯域
有声音用及び無声音用逆量子化手段とを備え、上記広帯
域有声音用及び無声音用逆量子化手段からの逆量子化デ
ータに基づいて上記狭帯域音声の帯域幅を拡張する。
【0020】また、本発明に係る帯域幅拡張方法は、所
定時間単位毎に広帯域音声から抽出したパラメータによ
り予め作成した広帯域コードブックを備え、入力された
狭帯域音声を帯域幅拡張する帯域幅拡張方法において、
上記課題を解決するために、上記入力された狭帯域音声
から狭帯域パラメータを出力し、この狭帯域パラメータ
を、上記広帯域コードブック内の各コードベクトルより
演算によって求めた狭帯域パラメータと比較することに
よって量子化し、この量子化データを上記広帯域コード
ブックを用いて逆量子化し、この逆量子化データに基づ
いて上記狭帯域音声の帯域幅を拡張する。
【0021】また、本発明に係る帯域幅拡張装置は、所
定時間単位毎に広帯域音声から抽出したパラメータによ
り予め作成した広帯域コードブックを備え、入力された
狭帯域音声を帯域幅拡張する帯域幅拡張装置において、
上記課題を解決するために、上記入力された狭帯域音声
から狭帯域パラメータを出力する狭帯域パラメータ出力
手段と、上記広帯域コードブック内の各コードベクトル
より演算によって狭帯域パラメータを求める狭帯域パラ
メータ演算手段と、上記狭帯域パラメータ出力手段から
の狭帯域パラメータを上記狭帯域パラメータ演算手段か
らの狭帯域パラメータを用いて量子化する狭帯域音声量
子化手段と、上記狭帯域音声量子化手段からの狭帯域量
子化データを上記広帯域コードブックを用いて逆量子化
する広帯域音声逆量子化手段とを備え、上記広帯域音声
逆量子化手段からの逆量子化データに基づいて上記狭帯
域音声の帯域幅を拡張する。
【0022】また、本発明に係る帯域幅拡張方法は、所
定時間単位毎に広帯域音声から抽出したパラメータによ
り予め作成した広帯域コードブックを備え、入力された
狭帯域音声を帯域幅拡張する帯域幅拡張方法において、
上記課題を解決するために、上記入力された狭帯域音声
から狭帯域パラメータを出力し、この狭帯域パラメータ
を、上記広帯域コードブック内の各コードベクトルより
部分抽出して求めた狭帯域パラメータと比較することに
よって量子化し、この量子化データを上記広帯域コード
ブックを用いて逆量子化し、この逆量子化データに基づ
いて上記狭帯域音声の帯域幅を拡張する。
【0023】また、本発明に係る帯域幅拡張装置は、所
定時間単位毎に広帯域音声から抽出したパラメータによ
り予め作成した広帯域コードブックを備え、入力された
狭帯域音声を帯域幅拡張する帯域幅拡張装置において、
上記課題を解決するために、上記入力された狭帯域音声
から狭帯域パラメータを出力する狭帯域パラメータ出力
手段と、上記広帯域コードブック内の各コードベクトル
を部分抽出して狭帯域パラメータを求める部分抽出手段
と、上記部分抽出手段からの狭帯域パラメータを上記狭
帯域パラメータ演算手段からの狭帯域パラメータを用い
て量子化する狭帯域音声量子化手段と、上記狭帯域音声
量子化手段からの狭帯域量子化データを上記広帯域コー
ドブックを用いて逆量子化する広帯域音声逆量子化手段
とを備え、上記広帯域音声逆量子化手段からの逆量子化
データに基づいて上記狭帯域音声の帯域幅を拡張する。
【0024】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。この実施の形態は、本
発明に係る帯域幅拡張方法を用いて、入力された狭帯域
音声の帯域幅を拡張する図1に示す音声帯域幅拡張装置
である。この音声帯域幅拡張装置の入力端子1には、周
波数帯域が例えば300Hz〜3400Hzで、サンプ
リング周波数が8kHzの狭帯域音声信号が供給され
る。
【0025】この音声帯域幅拡張装置は、広帯域有声音
及び無声音から抽出した有声音用及び無声音用パラメー
タを用いて予め作成した広帯域有声音用コードブック1
2と広帯域無声音用コードブック14と、上記広帯域音
声を周波数帯域制限して得た周波数帯域が例えば300
Hz〜3400Hzの狭帯域音声信号から抽出した有声
音用及び無声音用パラメータにより予め作成した狭帯域
有声音用コードブック7と狭帯域無声音用コードブック
10とを備える。
【0026】また、この帯域幅拡張装置は、入力端子1
から入力され、フレーム化回路2により、160サンプ
ル毎にフレーミング(サンプリング周波数は8kHzで
あるので1フレームは20msec)された上記狭帯域信
号に基づいて励振源を求める励振源形成手段となるゼロ
詰め部16と、上記入力狭帯域信号を20msecの1フレ
ーム毎に有声音(V)と無声音(UV)に判定する有声
音(V)/無声音(UV)判定部5と、この有声音
(V)/無声音(UV)判定部5からの有声音(V)/
無声音(UV)判定結果に基づいて狭帯域有声音用及び
無声音用の線形予測係数αを出力するLPC(線形予測
符号化)分析回路3と、このLPC分析回路3からの線
形予測係数αをパラメータの一種である自己相関rに変
換する線形予測係数→自己相関(α→r)変換回路4
と、このα→r変換回路4からの狭帯域有声音用自己相
関を狭帯域有声音用コードブック8を用いて量子化する
狭帯域有声音用量子化器7と、上記α→r変換回路4か
らの狭帯域無声音用自己相関を狭帯域無声音用コードブ
ック10を用いて量子化する狭帯域無声音用量子化器9
と、狭帯域有声音用量子化器7からの狭帯域有声音用量
子化データを広帯域有声音用コードブック12を用いて
逆量子化する広帯域有声音用逆量子化器11と、狭帯域
無声音用量子化貴9からの狭帯域無声音用量子化データ
を広帯域無為静穏用コードブック14を用いて逆量子化
する広帯域無声音用逆量子化器13と、広帯域有声音用
逆量子化器11からの逆量子化データとなる広帯域有声
音用自己相関を広帯域有声音用の線形予測係数に変換す
ると共に広帯域無声音用逆量子化器13からの逆量子化
データとなる広帯域無声音用自己相関を広帯域無声音用
の線形予測係数に変換する自己相関→線形予測係数(r
→α)変換回路15と、このr→α変換回路15からの
広帯域有声音用線形予測係数と広帯域無声音用線形予測
係数とゼロ詰め部16からの励振源とに基づいて広帯域
音声を合成するLPC合成回路17とを備えてなる。
【0027】また、この帯域幅拡張装置は、フレーム化
回路2でフレーミングされた狭帯域音声のサンプリング
周波数を8kHzから16kHzにオーバーサンプリン
グするオーバーサンプル回路19と、LPC合成回路1
7からの合成出力から入力狭帯域音声信号の周波数帯域
300Hz〜3400Hzの信号成分を除去するバンド
ストップフィルタ(BSF)18と、このBSF18か
らのフィルタ出力にオーバーサンプル回路19からのサ
ンプリング周波数16kHzの周波数帯域300Hz〜
3400Hzの基の狭帯域音声信号の成分とを加算する
加算器20とを備えている。そして、出力端子21から
は、周波数帯域が300〜7000Hzで、サンプリン
グ周波数が16kHzのディジタル音声信号が出力され
る。
【0028】ここで、広帯域有声音用コードブック12
と広帯域無声音用コードブック14と、狭帯域有声音用
コードブック8と狭帯域無声音用コードブック10の作
成について説明する。
【0029】先ず、広帯域有声音用コードブック12と
広帯域無声音用コードブック14は、フレーム化回路2
でのフレーミングと同様に例えば20msec毎にフレーミ
ングした、周波数帯域が例えば300Hz〜7000H
zの広帯域音声信号を、有声音(V)と無声音(UV)
に分け、この広帯域有声音及び無声音から抽出した有声
音用及び無声音用パラメータを用いて作成する。
【0030】また、狭帯域有声音用コードブック7と狭
帯域無声音用コードブック10は、上記広帯域音声を周
波数帯域制限して得た周波数帯域が例えば300Hz〜
3400Hzの狭帯域音声信号から抽出した有声音用及
び無声音用パラメータにより作成する。
【0031】図2は、上記4つのコードブックを作成す
るにあたっての学習データの作り方を説明するための図
である。図2に示すように、広帯域の学習用音声信号を
用意し、ステップS1で1フレーム20msecにフレーミ
ングする。また、上記広帯域の学習用音声信号をステッ
プS2で帯域制限して狭帯域とした信号についても上記
ステップS1でのフレーミングと同じタイミングのフレ
ーム位相によりステップS3でフレーミングする。そし
て、狭帯域音声の各フレームにおいて、例えばフレーム
エネルギーやゼロクロスの値等を調べることによってス
テップS4で有声音(V)か無声音(UV)かの判別を
行う。
【0032】ここで、コードブックの品質を良いものと
するために、有声音(V)から無声音(UV)、UVか
らVへの遷移状態のものや、VともUVとも判別しがた
いものは除外してしまい、確実にVであるものと、確実
にUVであるもののみを利用する。このようにして、学
習用狭帯域Vフレームの集まりと、同うVフレームの集
まりを作成する。
【0033】次に、広帯域フレームもVとUVに分類す
るが、狭帯域フレームと同じタイミングでフレーミング
されているため、その判別結果を用いて、狭帯域でVと
判別された狭帯域フレームと同じ時刻の広帯域フレーム
はVとし、UVと判別された狭帯域フレームと同じ時刻
の広帯域フレームはUVとする。以上により、学習用デ
ータが作成される。ここで、狭帯域でVにもUVにも分
類されなかったもは、広帯域でも同様であることは言う
までもない。
【0034】また、図示しないが、これと対称な方法で
学習データを作ることも可能である。すなわち、広帯域
フレームを用いてV/UVの判別を行い、その判別結果
を用いて狭帯域フレームのV/UVを分類するというも
のである。
【0035】続いて、ここで得られた学習データを用
い、図3に示すようにコードブックを作成する。図3に
示すように、まず広帯域V(またはUV)フレームの集ま
りを用いて広帯域V(UV)コードブックを学習し作成
する。
【0036】先ず、ステップS6に示すように、各広帯
域フレームにおいて、例えばdn次までの自己相関パラ
メータを抽出する。自己相関パラメータは以下の(1)
式に基づいて算出される。
【0037】
【数1】
【0038】ここで、xは入力信号、φ(xi)はi次
の自己相関、Nはフレーム長である。
【0039】この各フレームのdn次元の自己相関パラ
メータから、GLA(Generalized Lloyd Algorithm)に
より次元dn、サイズsnの広帯域V(UV)コードブ
ックをステップS7で作成する。
【0040】ここで、各広帯域V(UV)フレームの自
己相関パラメータが、作成されたコードブックの、どの
コードベクタに量子化されるかをエンコード結果から調
べる。そしてコードベクタごとに、そのベクタに量子化
された各広帯域V(UV)フレームに対応する、すなわ
ち同じ時刻の各狭帯域V(UV)フレームから求められ
るdw次元の自己相関パラメータ同士の例えば重心を算
出し、これをステップS8で狭帯域コードベクタとす
る。これをすべてのコードベクタに対して行うことによ
り、狭帯域コードブックが生成される。
【0041】また、図4に示すように、これと対称な方
法も可能である。すなわち、先にステップS9からステ
ップS10で狭帯域フレームのパラメータを用いて学習
することにより広帯域コードブックを作成し、ステップ
S11で対応する広帯域フレームのパラメータの重心を
求めるというものである。
【0042】以上により狭帯域V/UV、広帯域V/U
Vの4つのコードブックが作成される。
【0043】次に、これらのコードブックを使用して、
実際に狭帯域音声が入力されたときに、広帯域音声を出
力する、上記帯域幅拡張方法を適用した帯域幅拡張装置
の動作について図5を参照しながら説明する。
【0044】入力端子1から入力された上記狭帯域音声
信号は、先ずステップS21でフレーム化回路2により
160サンプル(20msec)毎にフレーミングされる。
そして各フレームについて、LPC分析回路3で、ステ
ップS23のようにLPC分析が行われ、線形予測係数
αパラメータとLPC残差に分けられる。αパラメータ
はステップS24でα→r変換回路4により自己相関r
に変換される。
【0045】また、フレーミングされた信号は、ステッ
プS22でV/UV判定回路5により、V/UVの判別
が行われており、ここで、Vと判定されると、α→r変
換回路4からの出力を切り替えるスイッチ6は、狭帯域
有声音量子化回路7に接続され、UVと判定されると、
狭帯域無声音量子化回路9に接続される。
【0046】ただし、ここでのV/UVの判別は、コー
ドブック作成時とは異なり、VにもUVにも属さないフ
レームは発生させず、必ずどちらかに振り分ける。実際
には、UVの方が、高域エネルギーが大きいために、高
域を予測した場合、大きなエネルギーとなる傾向がある
が、V/UV判断が難しいもの等をUVと誤って判断し
た場合に異音を発生することにつながる。したがって、
コードブック作成時にはVともUVとも判別できなかっ
たものは、Vとするよう設定している。
【0047】UV判定回路5がVと判定したときには、
ステップS25では、スイッチ6からの有声音用自己相
関rを狭帯域V量子化回路7に供給し、狭帯域Vコード
ブック8を用いて量子化する。一方、UV判定回路5が
Vであるときには、ステップS25では、スイッチ6か
らの無声音用自己相関rを狭帯域UV量子化回路9に供
給し、狭帯域UVコードブック10を用いて量子化す
る。
【0048】そして、ステップS26でそれぞれ対応す
る広帯域V逆量子化回路11又は広帯域UV逆量子化回
路13により広帯域Vコードブック12又は広帯域UV
コードブック14を用いて逆量子化され、これにより広
帯域自己相関が得られる。
【0049】そして、広帯域自己相関はステップS27
でr→α変換回路15により広帯域αに変換される。
【0050】一方で、LPC分析回路3からのLPC残
差は、ステップS28でゼロ詰め部16によりサンプル
間にゼロが詰められることでアップサンプルされ、エイ
リアシングにより広帯域化される。そして、これが広帯
域励振源として、LPC合成回路17に供給される。
【0051】そして、ステップS29で、LPC合成回
路17が広帯域αと広帯域励振源とを、LPC合成し、
広帯域の音声信号が得られる。
【0052】しかし、このままでは予測によって求めら
れた広帯域信号にすぎず、予測による誤差が含まれる。
特に入力狭帯域音声の周波数範囲に関しては、入力音声
をそのまま利用したほうが良い。
【0053】したがって、入力狭帯域音声の周波数範囲
をステップS30でBSF18を用いたフィルタリング
により除去してから、ステップ31でオーバーサンプル
回路19により狭帯域音声をオーバーサンプルしたもの
と、ステップS32で加算する。これにより、帯域幅拡
張された広帯域音声信号が得られる。ここで、前記加算
時にゲインの調節、また高域の若干の抑圧等を行い、聴
感上の品質を向上させることも可能である。
【0054】以上、図1に示した帯域幅拡張装置では、
都合4つのコードブックで、自己相関パラメータを使用
することを前提としたが、これは自己相関に限るもので
はない。たとえば、LPCケプストラムでも良好な効果
が得られるし、スペクトル包絡を予測するという観点か
ら、スペクトル包絡そのものをパラメータとしても良
い。
【0055】また、上記音声帯域幅拡張装置では、狭帯
域V(UV)用のコードブック8及び10を用いたが、
これらを用いずに、コードブック用のRAM容量を削減
することも可能である。
【0056】この場合の音声帯域幅拡張装置の構成を図
6に示す。この図6に示す音声帯域幅拡張装置は、狭帯
域V(UV)用のコードブック8及び10の代わりに、
広帯域コードブック内の各コードベクトルより演算によ
って狭帯域V(UV)パラメータを求める演算回路25
及び26を用いている。他の構成は上記図1と同様であ
る。
【0057】コードブックに使うパラメータを自己相関
とした場合、広帯域自己相関と狭帯域自己相関には以下
の(2)式のような関係が成り立つ。
【0058】
【数2】
【0059】このために、広帯域自己相関φ(xw)から狭
帯域自己相関φ(xn)を演算によって算出することが可能
で、理論的に広帯域ベクタと狭帯域ベクタを両方持つ必
要がない。ここで、φは自己相関、xnは狭帯域信号、
xwは広帯域信号、hは帯域制限フィルタのインパルス
応答である。
【0060】すなわち、狭帯域自己相関は、広帯域自己
相関と、帯域制限フィルタのインパルス応答の自己相関
との畳み込みで求められる。
【0061】したがって、帯域幅拡張処理は、上記図5
の代わりに、図7のように行える。すなわち、入力端子
1から入力された上記狭帯域音声信号は、先ずステップ
S41でフレーム化回路2により160サンプル(20
msec)毎にフレーミングされる。そして各フレームにつ
いて、LPC分析回路3で、ステップS43のようにL
PC分析が行われ、線形予測係数αパラメータとLPC
残差に分けられる。αパラメータはステップS44でα
→r変換回路4により自己相関rに変換される。
【0062】また、フレーミングされた信号は、ステッ
プS42でV/UV判定回路5により、V/UVの判別
が行われており、ここで、Vと判定されると、α→r変
換回路4からの出力を切り替えるスイッチ6は、狭帯域
有声音量子化回路7に接続され、UVと判定されると、
狭帯域無声音量子化回路9に接続される。
【0063】このV/UVの判別も、コードブック作成
時とは異なり、VにもUVにも属さないフレームは発生
させず、必ずどちらかに振り分ける。
【0064】UV判定回路5がVと判定したときには、
ステップS46では、スイッチ6からの有声音用自己相
関rを狭帯域V量子化回路7に供給して、量子化する。
しかし、この量子化は狭帯域用のコードブックを用いる
のではなく、上述したように演算回路25によりステッ
プS45で求めた狭帯域V用パラメータを用いる。
【0065】一方、UV判定回路5がVであるときに
は、ステップS46では、スイッチ6からの無声音用自
己相関rを狭帯域UV量子化回路9に供給して量子化す
るが、ここでも、狭帯域UVコードブックを用いずに、
演算回路26で演算により求めた狭帯域UV用パラメー
タを用いて量子化する。
【0066】そして、ステップS47でそれぞれ対応す
る広帯域V逆量子化回路11又は広帯域UV逆量子化回
路13により広帯域Vコードブック12又は広帯域UV
コードブック14を用いて逆量子化し、これにより広帯
域自己相関が得られる。
【0067】そして、広帯域自己相関はステップS48
でr→α変換回路15により帯域αに変換される。
【0068】一方で、LPC分析回路3からのLPC残
差は、ステップS49でゼロ詰め部16によりサンプル
間にゼロが詰められることでアップサンプルされ、エイ
リアシングにより広帯域化される。そして、これが広帯
域励振源として、LPC合成回路17に供給される。
【0069】そして、ステップS50で、LPC合成回
路17が広帯域αと広帯域励振源とを、LPC合成し、
広帯域の音声信号が得られる。
【0070】しかし、このままでは予測によって求めら
れた広帯域信号にすぎず、予測による誤差が含まれる。
特に入力狭帯域音声の周波数範囲に関しては、入力音声
をそのまま利用したほうが良い。
【0071】したがって、入力狭帯域音声の周波数範囲
をステップS51でBSF18を用いたフィルタリング
により除去してから、ステップ52でオーバーサンプル
回路19により狭帯域音声をオーバーサンプルしたもの
と、ステップS53で加算する。
【0072】このように、図6に示した音声帯域幅拡張
装置では、量子化時に狭帯域コードブックのコードベク
タと比較することによって量子化するのではなく、広帯
域コードブックから演算によって求められるコードベク
タとの比較で量子化する。これにより、広帯域コードブ
ックが分析、合成の両用となり、狭帯域コードブックを
保持するメモリが不要となる。
【0073】しかしながら、この図6に示した音声帯域
幅拡張装置では、メモリ容量を節約する効果よりも、演
算による処理量が増えることが問題となる場合も考えら
れる。そこで、コードブックは広帯域のみとしつつ、演
算量も増やさない帯域幅拡張方法を適用した図8に示す
音声帯域幅拡張装置を説明する。この図8に示す音声帯
域幅拡張装置は、演算回路25及び26の代わりに、上
記広帯域コードブック内の各コードベクトルを部分的に
抽出して狭帯域パラメータを求める部分抽出回路28及
び29を用いている。他の構成は上記図1又は図6と同
様である。
【0074】先に示した帯域制限フィルタのインパルス
応答の自己相関は、周波数領域では、次の(3)式で示
すように帯域制限フィルタのパワースペクトル特性とな
る。
【0075】
【数3】
【0076】ここで、この帯域制限フィルタのパワー特
性と等しい周波数特性を持つ、もう一つの帯域制限フィ
ルタを考え、この周波数特性をH’とすれば、上記
(3)式は次の(4)式になる。
【0077】
【数4】
【0078】この(4)式で示される新たなフィルタの
通過域、阻止域は当初の帯域制限フィルタと同等であ
り、減衰特性が2乗となる。したがって、この新たなフ
ィルタもまた、帯域制限フィルタと言える。
【0079】これを考慮すると、狭帯域自己相関は、広
帯域自己相関と帯域制限フィルタのインパルス応答との
畳み込み、すなわち広帯域自己相関を帯域制限した次の
(5)式のように単純化される。
【0080】
【数5】
【0081】ここで、コードブックに使用するパラメー
タを自己相関とする場合、そもそも現実にVにおいて
は、自己相関パラメータは1次よりも2次が小さく、2
次よりも3次がさらに小さく、という具合に、なだらか
な単調減少の曲線を描く傾向がある。
【0082】一方で、狭帯域信号と広帯域信号との関係
は、広帯域信号をローパスしたものを狭帯域信号として
いるため、狭帯域自己相関は、広帯域自己相関をローパ
スすることによって理論的に求められる。
【0083】しかしながら、そもそも広帯域自己相関が
なだらかであるため、ローパスしてもほとんど変化がな
く、このローパス処理は省略しても影響がない。したが
って、広帯域自己相関を狭帯域自己相関そのものとして
利用することが可能である。ただし、広帯域信号のサン
プリング周波数は、狭帯域信号のサンプリング周波数の
2倍としているため、実際には、狭帯域自己相関は広帯
域自己相関の1次おきに取ったものとなる。
【0084】すなわち、広帯域自己相関コードベクタを
1次おきに取ったものは、狭帯域自己相関コードベクタ
と同等に扱うことができ、入力狭帯域音声の自己相関
は、広帯域コードブックによって量子化することがで
き、狭帯域コードブックが不要ということである。
【0085】また、UVにおいては、先に述べたよう
に、高域エネルギーが大きく、予測を誤ると影響が大の
ため、V/UV判断をV側に偏らせてあり、UVと判断
されるのは、UVである確度が高い場合のみである。そ
のため、UV用コードブックサイズはV用よりも小さく
しており、互いにはっきりと異なるベクタのみが登録さ
れている。したがって、UVの自己相関はVほどなだら
かな曲線ではないにも関わらず、広帯域自己相関コード
ベクタを1次おきに取ったものと入力狭帯域信号の自己
相関とを比較することで、広帯域自己相関コードベクタ
をローパスしたものと同等の、すなわち狭帯域コードブ
ックが存在する場合と同等の量子化が可能である。すな
わち、VもUVも、狭帯域コードブックが不要となる。
【0086】以上のように、コードブックに使用するパ
ラメータを自己相関とした場合は、入力狭帯域音声の自
己相関を、広帯域コードベクタを1次おきに取ったもの
と比較することで量子化できる。この動作は、上記図7
のステップS45で部分抽出回路28及び29に広帯域
コードブックのコードベクトルを1次おきに取らせるこ
とにより実現できる。
【0087】ここで、コードブックに使用するパラメー
タを、スペクトル包絡とした場合について考える。この
場合、明らかであるが、狭帯域スペクトルは、広帯域ス
ペクトルの一部であるから、狭帯域スペクトルのコード
ブックは不要である。狭帯域入力音声のスペクトル包絡
を、広帯域スペクトル包絡コードベクタの一部と比較を
することによって量子化が可能であることは言うまでも
ない。
【0088】次に、本発明に係る音声合成方法及び装置
の実施の形態について図面を参照しながら説明する。こ
の実施の形態は、所定時間単位毎に広帯域音声から抽出
した特徴パラメータにより予め作成した広帯域コードブ
ックを備え、入力された複数種類の符号化パラメータを
用いて音声を合成する音声合成装置であり、例えば、図
9に示すディジタル携帯電話装置の受信機側にあって
は、音声復号化器38と音声合成部39とから構成され
る音声合成装置である。
【0089】先ず、このディジタル携帯電話装置の構成
を説明しておく。ここでは、送信機側と受信機側を別々
に記しているが、実際には一つの携帯電話装置内にまと
めて内蔵されている。
【0090】送信機側では、マイクロホン31から入力
された音声信号を、A/D変換器32によりディジタル
信号に変換し、音声符号化器33により符号化してから
送信器34で出力ビットに送信処理を施し、アンテナ3
5から送信する。
【0091】このとき、音声符号化器33は、伝送路に
より制限される狭帯域化を考慮した符号化パラメータを
送信器34に供給する。例えば、符号化パラメータとし
ては、励振源に関するパラメータや、線形予測係数α、
有声音/無声音判定フラグなどがある。
【0092】また、受信機側では、アンテナ36で捉え
た電波を、受信器37で受信し、音声復号化器38で上
記符号化パラメータを復号し、音声合成部39で上記復
号化パラメータを用いて音声を合成し、D/A変換器4
0でアナログ音声信号に戻して、スピーカ41から出力
する。
【0093】このディジタル携帯電話装置における、上
記音声合成装置の第1の具体例を図10に示す。この図
10に示す音声合成装置は、上記ディジタル携帯電話装
置の送信側の音声符号化器33から送られてきた符号化
パラメータを用いて音声を合成する装置であるため、音
声符号化器33での符号化方法に従った復号化を音声復
号化器38で行う。
【0094】音声符号器33での符号化方法がPSI−
CELP(Pitch Synchronus Innovation - CELP:ピッ
チ同期雑音励振源−CELP)符号化方式によるもので
あるとすれば、この音声復号化器38での復号化方法も
PSI−CELPによる。
【0095】音声復号化器38は、上記符号化パラメー
タの内の第1の符号化パラメータである励振源に関する
パラメータをゼロ詰め部16に供給する。また、上記符
号化パラメータの内の第2の符号化パラメータである線
形予測係数αをα→r(線形予測係数→自己相関)変換
回路4に供給する。また、上記符号化パラメータの内の
第3の符号化パラメータである有声音/無声音判定フラ
グをV/UV判定回路5に供給する。
【0096】この音声合成装置は、上記音声復号化器3
8と、ゼロ詰め部16と、α→r変換回路4と、V/U
V判定回路5の他、広帯域有声音及び無声音から抽出し
た有声音用及び無声音用パラメータを用いて予め作成し
た広帯域有声音用コードブック12と広帯域無声音用コ
ードブック14とを備える。
【0097】さらに、この音声合成装置は、広帯域有声
音用コードブック12と広帯域無声音用コードブック1
4内の各コードベクトルを部分抽出して狭帯域パラメー
タを求める部分抽出回路28及び部分抽出回路29と、
α→r変換回路4からの狭帯域有声音用自己相関を部分
抽出回路28からの狭帯域パラメータを用いて量子化す
る狭帯域有声音用量子化器7と、上記α→r変換回路4
からの狭帯域無声音用自己相関を部分抽出回路29から
の狭帯域パラメータを用いて量子化する狭帯域無声音用
量子化器9と、狭帯域有声音用量子化器7からの狭帯域
有声音用量子化データを広帯域有声音用コードブック1
2を用いて逆量子化する広帯域有声音用逆量子化器11
と、狭帯域無声音用量子化貴9からの狭帯域無声音用量
子化データを広帯域無為静穏用コードブック14を用い
て逆量子化する広帯域無声音用逆量子化器13と、広帯
域有声音用逆量子化器11からの逆量子化データとなる
広帯域有声音用自己相関を広帯域有声音用の線形予測係
数に変換すると共に広帯域無声音用逆量子化器13から
の逆量子化データとなる広帯域無声音用自己相関を広帯
域無声音用の線形予測係数に変換する自己相関→線形予
測係数(r→α)変換回路15と、このr→α変換回路
15からの広帯域有声音用線形予測係数と広帯域無声音
用線形予測係数とゼロ詰め部16からの励振源とに基づ
いて広帯域音声を合成するLPC合成回路17とを備え
てなる。
【0098】また、この音声合成装置は、音声復号化器
38で復号化された狭帯域音声データのサンプリング周
波数を8kHzから16kHzにオーバーサンプリング
するオーバーサンプル回路19と、LPC合成回路17
からの合成出力から入力狭帯域音声データの周波数帯域
300Hz〜3400Hzの信号成分を除去するバンド
ストップフィルタ(BSF)18と、このBSF18か
らのフィルタ出力にオーバーサンプル回路19からのサ
ンプリング周波数16kHzの周波数帯域300Hz〜
3400Hzの基の狭帯域音声データ成分を加算する加
算器20とを備えている。
【0099】ここで、上記広帯域有声音及び無声音用コ
ードブック12及び14は、上記図2〜図4に示した手
順に基づいて作成できる。学習用データとしては、コー
ドブックの品質を良いものとするために、有声音(V)
から無声音(UV)、UVからVへの遷移状態のもの
や、VともうVとも判別しがたいものは除外してしま
い、確実にVであるものと、確実にUVであるもののみ
を利用する。このようにして、学習用狭帯域Vフレーム
の集まりと、同うVフレームの集まりを作成する。
【0100】次に、上記広帯域有声音及び無声音用コー
ドブック12及び14を用い、実際に送信側から伝送さ
れてきた符号化パラメータを用いて音声を合成する動作
について図11を参照しながら説明する。
【0101】先ず、音声復号化器38でデコードされた
線形予測係数αは、ステップS61でα→r変換回路4
により自己相関rに変換される。
【0102】また、音声復号化器38でデコードされた
有声音/無声音判定フラグはステップS62でV/UV
判定回路5により解読され、V/UVの判別が行われ
る。
【0103】ここで、Vと判定されると、α→r変換回
路4からの出力を切り替えるスイッチ6は、狭帯域有声
音量子化回路7に接続され、UVと判定されると、狭帯
域無声音量子化回路9に接続される。
【0104】このV/UVの判別も、コードブック作成
時とは異なり、VにもUVにも属さないフレームは発生
させず、必ずどちらかに振り分ける。
【0105】UV判定回路5がVと判定したときには、
ステップS64では、スイッチ6からの有声音用自己相
関rを狭帯域V量子化回路7に供給して、量子化する。
しかし、この量子化は狭帯域用のコードブックを用いる
のではなく、上述したように部分抽出回路28によりス
テップS63で求めた狭帯域V用パラメータを用いる。
【0106】一方、UV判定回路5がVであるときに
は、ステップS63では、スイッチ6からの無声音用自
己相関rを狭帯域UV量子化回路9に供給して量子化す
るが、ここでも、狭帯域UVコードブックを用いずに、
部分抽出回路29で演算により求めた狭帯域UV用パラ
メータを用いて量子化する。
【0107】そして、ステップS65でそれぞれ対応す
る広帯域V逆量子化回路11又は広帯域UV逆量子化回
路13により広帯域Vコードブック12又は広帯域UV
コードブック14を用いて逆量子化し、これにより広帯
域自己相関が得られる。
【0108】そして、広帯域自己相関はステップS66
でr→α変換回路15により帯域αに変換される。
【0109】一方で、音声復号化器38からの励振源に
関するパラメータは、ステップS67でゼロ詰め部16
によりサンプル間にゼロが詰められることでアップサン
プルされ、エイリアシングにより広帯域化される。そし
て、これが広帯域励振源として、LPC合成回路17に
供給される。
【0110】そして、ステップS68で、LPC合成回
路17が広帯域αと広帯域励振源とを、LPC合成し、
広帯域の音声信号が得られる。
【0111】しかし、このままでは予測によって求めら
れた広帯域信号にすぎず、予測による誤差が含まれる。
特に入力狭帯域音声の周波数範囲に関しては、入力音声
をそのまま利用したほうが良い。
【0112】したがって、入力狭帯域音声の周波数範囲
をステップS69でBSF18を用いたフィルタリング
により除去してから、ステップ70でオーバーサンプル
回路19により符号化音声データをオーバーサンプルし
たものと、ステップS71で加算する。
【0113】このように、図10に示した音声合成装置
では、量子化時に狭帯域コードブックのコードベクタと
比較することによって量子化するのではなく、広帯域コ
ードブックから部分抽出して求められるコードベクタと
の比較で量子化する。
【0114】すなわち、デコード中にαパラメータが得
られるので、これを利用し、αから狭帯域自己相関に変
換、これを広帯域コードブックの各ベクタを1次おきに
とったものと比較をし、量子化する。そして同じベクタ
の今度は全部を用いて逆量子化することで広帯域自己相
関を得る。そして広帯域自己相関から広帯域αに変換す
る。このときに、ゲイン調整および高域の若干の抑圧も
先の説明同様に行い、聴感上の品質を向上させている。
【0115】これにより、広帯域コードブックが分析、
合成の両用となり、狭帯域コードブックを保持するメモ
リが不要となる。
【0116】なお、PSI−CELPによる音声復号化
器38からの符号化パラメータを用いて音声を合成する
音声合成装置としては、図12に示す音声合成装置も考
えられる。この図12に示す音声合成装置は、部分抽出
回路28及び部分抽出回路29の代わりに、広帯域コー
ドブック内の各コードベクトルより演算によって狭帯域
V(UV)パラメータを求める演算回路25及び26を
用いている。他の構成は上記図10と同様である。
【0117】次に、上記ディジタル携帯電話装置におけ
る、上記音声合成装置の第2の具体例を図13に示す。
この図13に示す音声合成装置も、上記ディジタル携帯
電話装置の送信側の音声符号化器33から送られてきた
符号化パラメータを用いて音声を合成する装置であるた
め、音声符号化器33での符号化方法に従った復号化を
音声復号化器46で行う。
【0118】音声符号器33での符号化方法がVSEL
P(Vector Sum Excited Linear Prediction:ベクトル
和励起線形予測)符号化方式によるものであるとすれ
ば、この音声復号化器46での復号化方法もVSELP
による。
【0119】音声復号化器46は、上記符号化パラメー
タの内の第1の符号化パラメータである励振源に関する
パラメータを励振源切り換え部47に供給する。また、
上記符号化パラメータの内の第2の符号化パラメータで
ある線形予測係数αをα→r(線形予測係数→自己相
関)変換回路4に供給する。また、上記符号化パラメー
タの内の第3の符号化パラメータである有声音/無声音
判定フラグをV/UV判定回路5に供給する。
【0120】上記図10及び図12に示したPSI−C
ELPを用いた音声合成装置と異なるのは、励振源切り
換え回路47をゼロ詰め部16の前段に設けている点で
ある。
【0121】PSI−CELPは、コーデック自体、特
にVを聴感上滑らかに聞こえるような処理を行っている
が、VSELPにはこれがなく、このために帯域幅拡張
したときに若干雑音が混入したように聞こえる。そこ
で、広帯域励振源を作成する際に、励振源切り換え回路
47により図14のような処理を施す。ここでの処理
は、ステップS87〜ステップS89までの処理が上記
図11に示した処理と異なるだけである。
【0122】VSELPの励振源は、コーデックに利用
されるパラメータbeta(長期予測係数), bL[i](長期フィ
ルタ状態),gamma1(利得), c1[i](励起コードベクタ)に
より、 beta * bL[i] + gamma1 * c1[i] として作成さ
れるが、このうち前者がピッチ成分、後者がノイズ成分
を表すので、これをbeta * bL[i]とgamma1 * c1[i]に分
け、ステップS87で、一定の時間範囲において、前者
のエネルギーが大きい場合にはピッチが強い有声音と考
えられるため、ステップS88でYESに進み、励振源
をパルス列とし、ピッチ成分のない部分ではNOに進み
0に抑圧した。また、ステップS87でエネルギーが大
きくない場合には従来どおりとし、こうして作成された
狭帯域励振源にステップS89でゼロ詰め部16により
PSI-CELP同様0を詰めアップサンプルすることにより広
帯域励振源とした。これにより、VSELPにおける有
声音の聴感上の品質が向上した。
【0123】なお、VSELPによる音声復号化器46
からの符号化パラメータを用いて音声を合成する音声合
成装置としては、図15に示す音声合成装置も考えられ
る。この図15に示す音声合成装置は、部分抽出回路2
8及び部分抽出回路29の代わりに、広帯域コードブッ
ク内の各コードベクトルより演算によって狭帯域V(U
V)パラメータを求める演算回路25及び26を用いて
いる。他の構成は上記図13と同様である。
【0124】なお、このような音声合成装置において
も、図1に示したような広帯域有声音及び無声音から抽
出した有声音用及び無声音用パラメータを用いて予め作
成した広帯域有声音用コードブック12と広帯域無声音
用コードブック14と、上記広帯域音声を周波数帯域制
限して得た周波数帯域が例えば300Hz〜3400H
zの狭帯域音声信号から抽出した有声音用及び無声音用
パラメータにより予め作成した狭帯域有声音用コードブ
ック7と狭帯域無声音用コードブック10とを用いての
音声合成処理も可能である。
【0125】また、低域から高域を予測するものだけに
限定するものではない。また、広帯域スペクトルを予測
する手段においては、信号を音声に限るものではない。
【0126】
【発明の効果】本発明に係る帯域幅拡張方法及び装置に
よれば、広帯域スペクトル包絡を予測するためのコード
ブックを有声音用と無声音用に分けることにより、ま
た、有声音と無声音の判別法を、コードブック作成時と
帯域拡張時で異なるものにしたことにより、聴感上品質
の良い広帯域音声を得ることができるようになった。
【0127】また、本発明に係る音声合成方法及び装置
によれば、コードブックを分析合成両用とすることによ
りメモリ容量が節約できる。また、演算量を削減するこ
ともできる。
【0128】さらに、広帯域励振源を、ピッチが強い場
合にパルス列とすることにより、特に有声音における聴
感上の品質を向上できる。
【図面の簡単な説明】
【図1】本発明に係る帯域幅拡張方法及び装置の実施の
形態となる音声帯域幅拡張装置のブロック図である。
【図2】上記図1に示した音声帯域幅拡張装置に用いて
いるコードブック用のデータを作成する方法を説明する
ためのフローチャートである。
【図3】上記図1に示した音声帯域幅拡張装置に用いて
いるコードブックを作成する方法を説明するためのフロ
ーチャートである。
【図4】上記図1に示した音声帯域幅拡張装置に用いて
いるコードブックを作成する他の方法を説明するための
フローチャートである。
【図5】上記図1に示した音声帯域幅拡張装置の動作を
説明するためのフローチャートである。
【図6】上記図1に示した音声帯域幅拡張装置からコー
ドブックの数を減らした変形例の構成を示すブロック図
である。
【図7】上記図6に示す変形例の動作を説明するための
フローチャートである。
【図8】上記図1に示した音声帯域幅拡張装置からコー
ドブックの数を減らした他の変形例の構成を示すブロッ
ク図である。
【図9】本発明に係る音声合成方法及び装置の実施の形
態となる音声合成装置を受信機側に適用したディジタル
携帯電話装置の構成を示すブロック図である。
【図10】本発明に係る音声合成方法及び装置の実施の
形態となる、音声復号化器にPSI−CELP方式を採
用した音声合成装置の構成を示すブロック図である。
【図11】上記図10に示した音声合成装置の動作を説
明するためのフローチャートである。
【図12】音声復号化器にPSI−CELP方式を採用
した音声合成装置の他の構成を示すブロック図である。
【図13】本発明に係る音声合成方法及び装置の実施の
形態となる、音声復号化器にVSELP方式を採用した
音声合成装置の構成を示すブロック図である。
【図14】上記図13に示した音声合成装置の動作を説
明するためのフローチャートである。
【図15】音声復号化器にVSELP方式を採用した音
声合成装置の他の構成を示すブロック図である。
【符号の説明】
3 LPC分析回路、4 線形予測係数−自己相関変換
回路、7 狭帯域有声音用量子化器、8 狭帯域有声音
用コードブック、9 狭帯域無声音用量子化器、10
狭帯域無声音用コードブック、11 広帯域有声音用逆
量子化器、12広帯域有声音用コードブック、13 広
帯域無声音用逆量子化器、14 広帯域無声音用コード
ブック、15 自己相関−線形予測係数変換回路、16
ゼロ詰め回路、17 LPC合成回路、18 バンド
ストップフィルタ、19 オーバーサンプル回路、20
加算器

Claims (38)

    【特許請求の範囲】
  1. 【請求項1】 所定時間単位毎に有声音と無声音に分け
    た広帯域音声から抽出した有声音用及び無声音用特徴パ
    ラメータにより予め作成した広帯域有声音用及び無声音
    用コードブックと、上記有声音と無声音に分けた広帯域
    音声を周波数帯域制限して得た狭帯域音声から抽出した
    有声音用及び無声音用特徴パラメータにより予め作成し
    た狭帯域有声音用及び無声音用コードブックとを備え、
    入力された複数種類の符号化パラメータを用いて音声を
    合成する音声合成方法において、 上記複数種類の符号化パラメータを復号化し、 この復号化された複数種類の符号化パラメータの内の第
    1の符号化パラメータを用いて励振源を求めると共に、 第2の符号化パラメータを音声合成用の特徴パラメータ
    に変換し、 第3の符号化パラメータによって判定できる有声音と無
    声音との判別結果により、上記音声合成用特徴パラメー
    タを上記狭帯域有声音用及び無声音用コードブックを用
    いて量子化し、 この狭帯域有声音用及び無声音用コードブックを用いた
    狭帯域有声音用及び無声音用量子化データを上記広帯域
    有声音用及び無声音用コードブックを用いて逆量子化
    し、 この逆量子化データと上記励振源とに基づいて音声を合
    成することを特徴とする音声合成方法。
  2. 【請求項2】 上記複数種類の符号化パラメータは狭帯
    域音声を符号化することによって得られた符号化パラメ
    ータであり、上記第1の符号化パラメータは励振源に関
    するパラメータであり、上記第2の符号化パラメータは
    線形予測係数であり、上記第3の符号化パラメータは有
    声音/無声音判定フラグであることを特徴とする請求項
    1記載の音声合成方法。
  3. 【請求項3】 上記広帯域有声音用及び無声音用コード
    ブックと上記狭帯域有声音用及び無声音用コードブック
    の作成時に行う有声音/無声音の判定処理と、上記第3
    の符号化パラメータを用いての有声音/無声音の判定処
    理とを異ならせることを特徴とする請求項1記載の音声
    合成方法。
  4. 【請求項4】 上記広帯域有声音用及び無声音用コード
    ブックと上記狭帯域有声音用及び無声音用コードブック
    の作成時には、有声音/無声音の判定が不確実である入
    力音声を除外してパラメータを抽出することを特徴とす
    る請求項3記載の音声合成方法。
  5. 【請求項5】 上記特徴パラメータとして自己相関を用
    いることを特徴とする請求項1記載の音声合成方法。
  6. 【請求項6】 上記特徴パラメータとしてケプストラム
    を用いることを特徴とする請求項1記載の音声合成方
    法。
  7. 【請求項7】 上記パラメータとしてスペクトラム包絡
    を用いることを特徴とする請求項1記載の音声合成方
    法。
  8. 【請求項8】 上記第1の符号化パラメータからピッチ
    成分の強弱を判定し、ピッチ成分が強いと判定したとき
    にはパルス列を励振源とすることを特徴とする請求項1
    記載の音声合成方法。
  9. 【請求項9】 所定時間単位毎に有声音と無声音に分け
    た広帯域音声から抽出した有声音用及び無声音用パラメ
    ータにより予め作成した広帯域有声音用及び無声音用コ
    ードブックと、上記有声音と無声音に分けた広帯域音声
    を周波数帯域制限して得た狭帯域音声から抽出した有声
    音用及び無声音用パラメータにより予め作成した狭帯域
    有声音用及び無声音用コードブックとを備え、入力され
    た複数種類の符号化パラメータを用いて音声を合成する
    音声合成装置において、 上記複数種類の符号化パラメータを復号化する復号化手
    段と、 上記復号化手段によって復号化された符号化パラメータ
    の内の第1の符号化パラメータを用いて励振源を形成す
    る励振源形成手段と、 上記復号化手段によって復号化された符号化パラメータ
    の内の第2の符号化パラメータを用いて音声合成用の特
    徴パラメータを出力する特徴パラメータ出力手段と、 上記復号化手段によって復号化された符号化パラメータ
    の内の第3の符号化パラメータによって有声音と無声音
    とを判別する有声音/無声音判定手段と、 上記有声音/無声音判定手段の判定結果により、上記音
    声合成用特徴パラメータを上記狭帯域有声音用及び無声
    音用コードブックを用いて量子化する有声音用及び無声
    音用量子化手段と、 上記有声音用及び無声音用量子化手段からの有声音用及
    び無声音用量子化データを上記広帯域有声音用及び無声
    音用コードブックを用いて逆量子化する広帯域有声音用
    及び無声音用逆量子化手段と、 上記広帯域有声音用及び無声音用逆量子化手段からの逆
    量子化データと上記励振源形成手段からの励振源とに基
    づいて上記広帯域音声を合成する合成手段とを備えるこ
    とを特徴とする音声合成装置。
  10. 【請求項10】 所定時間単位毎に広帯域音声から抽出
    した特徴パラメータにより予め作成した広帯域コードブ
    ックを備え、入力された複数種類の符号化パラメータを
    用いて音声を合成する音声合成方法において、 上記複数種類の符号化パラメータを復号化し、 この復号化された複数種類の符号化パラメータの内の第
    1の符号化パラメータを用いて励振源を求めると共に、 第2の符号化パラメータを音声合成用の特徴パラメータ
    に変換し、 この音声合成用特徴パラメータを上記広帯域コードブッ
    ク内の各コードベクトルより演算によって求めた狭帯域
    特徴パラメータと比較することによって量子化し、 この量子化データを上記広帯域コードブックを用いて逆
    量子化し、 この逆量子化データと上記励振源とに基づいて音声を合
    成することを特徴とする音声合成方法。
  11. 【請求項11】 上記複数種類の符号化パラメータは狭
    帯域音声を符号化することによって得られた符号化パラ
    メータであり、上記第1の符号化パラメータは励振源に
    関するパラメータであり、上記第2の符号化パラメータ
    は線形予測係数に関するパラメータであることを特徴と
    する請求項10記載の音声合成方法。
  12. 【請求項12】 上記第1の符号化パラメータからピッ
    チ成分の強弱を判定し、ピッチ成分が強いと判定したと
    きにはパルス列を励振源とすることを特徴とする請求項
    10記載の音声合成方法。
  13. 【請求項13】 上記特徴パラメータとして自己相関を
    用い、上記第2の符号化パラメータから自己相関を出力
    し、この自己相関を、上記広帯域コードブック内の各帯
    域自己相関と帯域制限フィルタのインパルス応答の自己
    相関との畳み込み演算により求めた狭帯域自己相関と比
    較することによって量子化し、この量子化データを上記
    広帯域コードブックを用いて逆量子化して、上記音声を
    合成することを特徴とする請求項10記載の音声合成方
    法。
  14. 【請求項14】 上記広帯域コードブックは所定時間単
    位毎に有声音と無声音に分けた広帯域音声から抽出した
    有声音用及び無声音用特徴パラメータにより予め作成さ
    れた広帯域有声音用及び無声音用コードブックであり、
    上記入力された複数種類の符号化パラメータの内の第3
    の符号化パラメータによって判定できる有声音と無声音
    との判別結果により、上記音声合成用特徴パラメータ
    を、上記広帯域有声音用及び無声音用コードブック内の
    各コードベクトルより演算によって求めた狭帯域特徴パ
    ラメータと比較することによって量子化し、この量子化
    データを上記広帯域有声音用及び無声音用コードブック
    を用いて逆量子化し、この逆量子化データと上記励振源
    とに基づいて音声を合成することを特徴とする請求項1
    0記載の音声合成方法。
  15. 【請求項15】 上記特徴パラメータとして自己相関を
    用い、上記第2の符号化パラメータから自己相関を出力
    し、この自己相関を、上記広帯域コードブック内の各帯
    域自己相関と帯域制限フィルタのインパルス応答の自己
    相関との畳み込み演算により求めた狭帯域自己相関と比
    較することによって量子化し、この量子化データを上記
    広帯域コードブックを用いて逆量子化して、上記音声を
    合成することを特徴とする請求項14記載の音声合成方
    法。
  16. 【請求項16】 上記広帯域有声音用及び無声音用コー
    ドブックと上記狭帯域有声音用及び無声音用コードブッ
    クの作成時に行う有声音/無声音の判定処理と、上記第
    3の符号化パラメータを用いての有声音/無声音の判定
    処理とを異ならせることを特徴とする請求項14記載の
    音声合成方法。
  17. 【請求項17】 上記広帯域有声音用及び無声音用コー
    ドブックと上記狭帯域有声音用及び無声音用コードブッ
    クの作成時には、有声音/無声音の判定が不確実である
    入力音声を除外してパラメータを抽出することを特徴と
    する請求項16記載の音声合成方法。
  18. 【請求項18】 所定時間単位毎に広帯域音声から抽出
    した特徴パラメータにより予め作成した広帯域コードブ
    ックを備え、入力された複数種類の符号化パラメータを
    用いて音声を合成する音声合成装置において、 上記複数種類の符号化パラメータを復号化する復号化手
    段と、 上記復号化手段により復号化された複数種類の符号化パ
    ラメータの内の第1の符号化パラメータを用いて励振源
    を求めると励振源形成手段と、 上記復号化手段により復号化された複数種類の符号化パ
    ラメータの内の第2の符号化パラメータを音声合成用の
    特徴パラメータに変換するパラメータ変換手段と、 上記広帯域コードブック内の各コードベクトルより演算
    によって狭帯域パラメータを求める演算手段と、 上記パラメータ変換手段からの上記特徴パラメータを上
    記演算手段からの狭帯域パラメータを用いて量子化する
    量子化手段と、 上記量子化手段からの量子化データを上記広帯域コード
    ブックを用いて逆量子化する逆量子化手段と、 上記逆量子化手段からの逆量子化データと上記励振源形
    成手段からの励振源とに基づいて音声を合成する合成手
    段とを備えることを特徴とする音声合成装置。
  19. 【請求項19】 所定時間単位毎に広帯域音声から抽出
    した特徴パラメータにより予め作成した広帯域コードブ
    ックを備え、入力された複数種類の符号化パラメータを
    用いて音声を合成する音声合成方法において、 上記複数種類の符号化パラメータを復号化し、 この復号化された複数種類の符号化パラメータの内の第
    1の符号化パラメータを用いて励振源を求めると共に、 第2の符号化パラメータを音声合成用の特徴パラメータ
    に変換し、 この音声合成用特徴パラメータを上記広帯域コードブッ
    ク内の各コードベクトルより部分抽出して求めた狭帯域
    特徴パラメータと比較することによって量子化し、 この量子化データを上記広帯域コードブックを用いて逆
    量子化し、 この逆量子化データと上記励振源とに基づいて音声を合
    成することを特徴とする音声合成方法。
  20. 【請求項20】 上記複数種類の符号化パラメータは、
    狭帯域音声を符号化した符号化パラメータであり、上記
    第1の符号化パラメータは励振源に関するパラメータで
    あり、上記第2の符号化パラメータは線形予測係数に関
    するパラメータであることを特徴とする請求項19記載
    の音声合成方法。
  21. 【請求項21】 上記特徴パラメータとして自己相関を
    用いることを特徴とする請求項19記載の音声合成方
    法。
  22. 【請求項22】 上記特徴パラメータとして周波数ケプ
    ストラムを用いることを特徴とする請求項19記載の音
    声合成方法。
  23. 【請求項23】 上記特徴パラメータとしてスペクトラ
    ム包絡を用いることを特徴とする請求項19記載の音声
    合成方法。
  24. 【請求項24】 上記第1の符号化パラメータからピッ
    チ成分の強弱を判定し、ピッチ成分が強いと判定したと
    きにはパルス列を励振源とすることを特徴とする請求項
    19記載の音声合成方法。
  25. 【請求項25】 上記広帯域コードブックは所定時間単
    位毎に有声音と無声音に分けた広帯域音声から抽出した
    有声音用及び無声音用特徴パラメータにより予め作成さ
    れた広帯域有声音用及び無声音用コードブックであり、
    上記入力された複数種類の符号化パラメータの内の第3
    の符号化パラメータによって判定できる有声音と無声音
    との判別結果により、上記音声合成用特徴パラメータ
    を、上記広帯域有声音用及び無声音用コードブック内の
    各コードベクトルより部分抽出して求めた狭帯域特徴パ
    ラメータと比較することによって量子化し、この量子化
    データを上記広帯域有声音用及び無声音用コードブック
    を用いて逆量子化し、この逆量子化データと上記励振源
    とに基づいて音声を合成することを特徴とする請求項1
    9記載の音声合成方法。
  26. 【請求項26】 上記特徴パラメータとして自己相関を
    用いることを特徴とする請求項25記載の音声合成方
    法。
  27. 【請求項27】 上記特徴パラメータとして周波数ケプ
    ストラムを用いることを特徴とする請求項25記載の音
    声合成方法。
  28. 【請求項28】 上記特徴パラメータとしてスペクトラ
    ム包絡を用いることを特徴とする請求項25記載の音声
    合成方法。
  29. 【請求項29】 上記広帯域有声音用及び無声音用コー
    ドブックと上記狭帯域有声音用及び無声音用コードブッ
    クの作成時に行う有声音/無声音の判定処理と、上記第
    3の符号化パラメータを用いての有声音/無声音の判定
    処理とを異ならせることを特徴とする請求項25記載の
    音声合成方法。
  30. 【請求項30】 上記広帯域有声音用及び無声音用コー
    ドブックと上記狭帯域有声音用及び無声音用コードブッ
    クの作成時には、有声音/無声音の判定が不確実である
    入力音声を除外してパラメータを抽出することを特徴と
    する請求項25記載の音声合成方法。
  31. 【請求項31】 上記第1の符号化パラメータからピッ
    チ成分の強弱を判定し、ピッチ成分が強いと判定したと
    きにはパルス列を励振源とすることを特徴とする請求項
    19記載の音声合成方法。
  32. 【請求項32】 所定時間単位毎に広帯域音声から抽出
    した特徴パラメータにより予め作成した広帯域コードブ
    ックを備え、入力された複数種類の符号化パラメータを
    用いて音声を合成する音声合成装置において、 上記複数種類の符号化パラメータを復号化する復号化手
    段と、 上記復号化手段により復号化された複数種類の符号化パ
    ラメータの内の第1の符号化パラメータを用いて励振源
    を求めると励振源形成手段と、 上記復号化手段により復号化された複数種類の符号化パ
    ラメータの内の第2の符号化パラメータを音声合成用の
    特徴パラメータに変換するパラメータ変換手段と、 上記広帯域コードブック内の各コードベクトルを部分抽
    出して狭帯域パラメータを求める部分抽出手段と、 上記パラメータ変換手段からの上記特徴パラメータを上
    記部分抽出手段からの狭帯域パラメータを用いて量子化
    する量子化手段と、 上記量子化手段からの量子化データを上記広帯域コード
    ブックを用いて逆量子化する逆量子化手段と、 上記逆量子化手段からの逆量子化データと上記励振源形
    成手段からの励振源とに基づいて音声を合成する合成手
    段とを備えることを特徴とする音声合成装置。
  33. 【請求項33】 所定時間単位毎に有声音と無声音に分
    けた広帯域音声から抽出した有声音用及び無声音用パラ
    メータにより予め作成した広帯域有声音用及び無声音用
    コードブックと、上記有声音と無声音に分けた広帯域音
    声を周波数帯域制限して得た狭帯域音声から抽出した有
    声音用及び無声音用パラメータにより予め作成した狭帯
    域有声音用及び無声音用コードブックとを備え、入力さ
    れた狭帯域音声を帯域幅拡張する帯域幅拡張方法におい
    て、 上記入力された狭帯域音声を所定時間単位毎に有声音と
    無声音に判定し、 この狭帯域有声音及び無声音から有声音用及び無声音用
    パラメータを出力し、 この狭帯域音声の有声音用及び無声音用パラメータを上
    記狭帯域有声音用及び無声音用コードブックを用いて量
    子化し、 この狭帯域有声音用及び無声音用コードブックを用いた
    狭帯域有声音用及び無声音用量子化データを上記広帯域
    有声音用及び無声音用コードブックを用いて逆量子化
    し、 この逆量子化データに基づいて上記狭帯域音声の帯域幅
    を拡張することを特徴とする帯域幅拡張方法。
  34. 【請求項34】 所定時間単位毎に有声音と無声音に分
    けた広帯域音声から抽出した有声音用及び無声音用パラ
    メータにより予め作成した広帯域有声音用及び無声音用
    コードブックと、上記有声音と無声音に分けた広帯域音
    声を周波数帯域制限して得た狭帯域音声から抽出した有
    声音用及び無声音用パラメータにより予め作成した狭帯
    域有声音用及び無声音用コードブックとを備え、入力さ
    れた狭帯域音声を帯域幅拡張する帯域幅拡張装置におい
    て、 上記入力された狭帯域音声を所定時間単位毎に有声音と
    無声音に判定する有声音/無声音判定手段と、 この有声音/無声音判定手段で判定した有声音及び無声
    音から狭帯域有声音用及び無声音用パラメータを出力す
    る狭帯域有声音用及び無声音用パラメータ出力手段と、 上記狭帯域有声音用及び無声音用パラメータ出力手段か
    らの狭帯域有声音用及び無声音用パラメータを上記狭帯
    域有声音用及び無声音用コードブックを用いて量子化す
    る狭帯域有声音用及び無声音用量子化手段と、 上記狭帯域有声音用及び無声音用量子化手段からの狭帯
    域有声音用及び無声音用量子化データを上記広帯域有声
    音用及び無声音用コードブックを用いて逆量子化する広
    帯域有声音用及び無声音用逆量子化手段とを備え、 上記広帯域有声音用及び無声音用逆量子化手段からの逆
    量子化データに基づいて上記狭帯域音声の帯域幅を拡張
    することを特徴とする帯域幅拡張装置。
  35. 【請求項35】 所定時間単位毎に広帯域音声から抽出
    したパラメータにより予め作成した広帯域コードブック
    を備え、入力された狭帯域音声を帯域幅拡張する帯域幅
    拡張方法において、 上記入力された狭帯域音声から狭帯域パラメータを出力
    し、 この狭帯域パラメータを、上記広帯域コードブック内の
    各コードベクトルより演算によって求めた狭帯域パラメ
    ータと比較することによって量子化し、 この量子化データを上記広帯域コードブックを用いて逆
    量子化し、 この逆量子化データに基づいて上記狭帯域音声の帯域幅
    を拡張することを特徴とする帯域幅拡張方法。
  36. 【請求項36】 所定時間単位毎に広帯域音声から抽出
    したパラメータにより予め作成した広帯域コードブック
    を備え、入力された狭帯域音声を帯域幅拡張する帯域幅
    拡張装置において、 上記入力された狭帯域音声から狭帯域パラメータを出力
    する狭帯域パラメータ出力手段と、 上記広帯域コードブック内の各コードベクトルより演算
    によって狭帯域パラメータを求める狭帯域パラメータ演
    算手段と、 上記狭帯域パラメータ出力手段からの狭帯域パラメータ
    を上記狭帯域パラメータ演算手段からの狭帯域パラメー
    タを用いて量子化する狭帯域音声量子化手段と、 上記狭帯域音声量子化手段からの狭帯域量子化データを
    上記広帯域コードブックを用いて逆量子化する広帯域音
    声逆量子化手段とを備え、 上記広帯域音声逆量子化手段からの逆量子化データに基
    づいて上記狭帯域音声の帯域幅を拡張することを特徴と
    する帯域幅拡張装置。
  37. 【請求項37】 所定時間単位毎に広帯域音声から抽出
    したパラメータにより予め作成した広帯域コードブック
    を備え、入力された狭帯域音声を帯域幅拡張する帯域幅
    拡張方法において、 上記入力された狭帯域音声から狭帯域パラメータを出力
    し、 この狭帯域パラメータを、上記広帯域コードブック内の
    各コードベクトルより部分抽出して求めた狭帯域パラメ
    ータと比較することによって量子化し、 この量子化データを上記広帯域コードブックを用いて逆
    量子化し、 この逆量子化データに基づいて上記狭帯域音声の帯域幅
    を拡張することを特徴とする帯域幅拡張方法。
  38. 【請求項38】 所定時間単位毎に広帯域音声から抽出
    したパラメータにより予め作成した広帯域コードブック
    を備え、入力された狭帯域音声を帯域幅拡張する帯域幅
    拡張装置において、 上記入力された狭帯域音声から狭帯域パラメータを出力
    する狭帯域パラメータ出力手段と、 上記広帯域コードブック内の各コードベクトルを部分抽
    出して狭帯域パラメータを求める部分抽出手段と、 上記部分抽出手段からの狭帯域パラメータを上記狭帯域
    パラメータ演算手段からの狭帯域パラメータを用いて量
    子化する狭帯域音声量子化手段と、 上記狭帯域音声量子化手段からの狭帯域量子化データを
    上記広帯域コードブックを用いて逆量子化する広帯域音
    声逆量子化手段とを備え、 上記広帯域音声逆量子化手段からの逆量子化データに基
    づいて上記狭帯域音声の帯域幅を拡張することを特徴と
    する帯域幅拡張装置。
JP29140597A 1997-10-23 1997-10-23 音声合成方法及び装置、並びに帯域幅拡張方法及び装置 Expired - Fee Related JP4132154B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP29140597A JP4132154B2 (ja) 1997-10-23 1997-10-23 音声合成方法及び装置、並びに帯域幅拡張方法及び装置
TW087116840A TW384467B (en) 1997-10-23 1998-10-09 Sound synthesizing method and apparatus, and sound band expanding method and apparatus
US09/175,616 US6289311B1 (en) 1997-10-23 1998-10-20 Sound synthesizing method and apparatus, and sound band expanding method and apparatus
EP98308629A EP0911807B1 (en) 1997-10-23 1998-10-22 Sound synthesizing method and apparatus, and sound band expanding method and apparatus
KR1019980044279A KR100574031B1 (ko) 1997-10-23 1998-10-22 음성합성방법및장치그리고음성대역확장방법및장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29140597A JP4132154B2 (ja) 1997-10-23 1997-10-23 音声合成方法及び装置、並びに帯域幅拡張方法及び装置

Publications (2)

Publication Number Publication Date
JPH11126098A true JPH11126098A (ja) 1999-05-11
JP4132154B2 JP4132154B2 (ja) 2008-08-13

Family

ID=17768476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29140597A Expired - Fee Related JP4132154B2 (ja) 1997-10-23 1997-10-23 音声合成方法及び装置、並びに帯域幅拡張方法及び装置

Country Status (5)

Country Link
US (1) US6289311B1 (ja)
EP (1) EP0911807B1 (ja)
JP (1) JP4132154B2 (ja)
KR (1) KR100574031B1 (ja)
TW (1) TW384467B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6622782B2 (en) * 1999-06-14 2003-09-23 Telefonaktiebolaget Lm Ericsson (Publ) Device for cooling of electronic components
JP2006119265A (ja) * 2004-10-20 2006-05-11 Yamaha Corp オーバーサンプリングシステム、デコードlsi、およびオーバーサンプリング方法
JP2013515287A (ja) * 2009-12-21 2013-05-02 マインドスピード テクノロジーズ インコーポレイテッド 音声帯域拡張方法及び音声帯域拡張システム

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0945852A1 (en) * 1998-03-25 1999-09-29 BRITISH TELECOMMUNICATIONS public limited company Speech synthesis
US6539355B1 (en) * 1998-10-15 2003-03-25 Sony Corporation Signal band expanding method and apparatus and signal synthesis method and apparatus
KR20000047944A (ko) * 1998-12-11 2000-07-25 이데이 노부유끼 수신장치 및 방법과 통신장치 및 방법
US6260009B1 (en) 1999-02-12 2001-07-10 Qualcomm Incorporated CELP-based to CELP-based vocoder packet translation
JP4792613B2 (ja) * 1999-09-29 2011-10-12 ソニー株式会社 情報処理装置および方法、並びに記録媒体
WO2001035395A1 (en) * 1999-11-10 2001-05-17 Koninklijke Philips Electronics N.V. Wide band speech synthesis by means of a mapping matrix
US6732070B1 (en) * 2000-02-16 2004-05-04 Nokia Mobile Phones, Ltd. Wideband speech codec using a higher sampling rate in analysis and synthesis filtering than in excitation searching
EP1298643B1 (en) * 2000-06-14 2005-05-11 Kabushiki Kaisha Kenwood Frequency interpolating device and frequency interpolating method
EP1944759B1 (en) 2000-08-09 2010-10-20 Sony Corporation Voice data processing device and processing method
GB2368761B (en) * 2000-10-30 2003-07-16 Motorola Inc Speech codec and methods for generating a vector codebook and encoding/decoding speech signals
JP2002268698A (ja) 2001-03-08 2002-09-20 Nec Corp 音声認識装置と標準パターン作成装置及び方法並びにプログラム
JP4679049B2 (ja) * 2003-09-30 2011-04-27 パナソニック株式会社 スケーラブル復号化装置
TWI498882B (zh) * 2004-08-25 2015-09-01 Dolby Lab Licensing Corp 音訊解碼器
BRPI0802614A2 (pt) 2007-02-14 2011-08-30 Lg Electronics Inc métodos e aparelhos para codificação e decodificação de sinais de áudio baseados em objeto
KR101290622B1 (ko) * 2007-11-02 2013-07-29 후아웨이 테크놀러지 컴퍼니 리미티드 오디오 복호화 방법 및 장치
JP5754899B2 (ja) * 2009-10-07 2015-07-29 ソニー株式会社 復号装置および方法、並びにプログラム
US8538035B2 (en) 2010-04-29 2013-09-17 Audience, Inc. Multi-microphone robust noise suppression
US8473287B2 (en) 2010-04-19 2013-06-25 Audience, Inc. Method for jointly optimizing noise reduction and voice quality in a mono or multi-microphone system
US8798290B1 (en) 2010-04-21 2014-08-05 Audience, Inc. Systems and methods for adaptive signal equalization
US8781137B1 (en) 2010-04-27 2014-07-15 Audience, Inc. Wind noise detection and suppression
US9245538B1 (en) * 2010-05-20 2016-01-26 Audience, Inc. Bandwidth enhancement of speech signals assisted by noise reduction
US8447596B2 (en) 2010-07-12 2013-05-21 Audience, Inc. Monaural noise suppression based on computational auditory scene analysis
EP2864983B1 (en) * 2012-06-20 2018-02-21 Widex A/S Method of sound processing in a hearing aid and a hearing aid
US10043535B2 (en) 2013-01-15 2018-08-07 Staton Techiya, Llc Method and device for spectral expansion for an audio signal
US10045135B2 (en) 2013-10-24 2018-08-07 Staton Techiya, Llc Method and device for recognition and arbitration of an input connection
KR101592642B1 (ko) * 2013-12-17 2016-02-11 현대자동차주식회사 풀핸들 일체형 도어 인사인드 핸들 장치
US10043534B2 (en) 2013-12-23 2018-08-07 Staton Techiya, Llc Method and device for spectral expansion for an audio signal

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2779886B2 (ja) 1992-10-05 1998-07-23 日本電信電話株式会社 広帯域音声信号復元方法
JP3230782B2 (ja) * 1993-08-17 2001-11-19 日本電信電話株式会社 広帯域音声信号復元方法
DE4343366C2 (de) 1993-12-18 1996-02-29 Grundig Emv Verfahren und Schaltungsanordnung zur Vergrößerung der Bandbreite von schmalbandigen Sprachsignalen
JP3230791B2 (ja) * 1994-09-02 2001-11-19 日本電信電話株式会社 広帯域音声信号復元方法
JP3189598B2 (ja) * 1994-10-28 2001-07-16 松下電器産業株式会社 信号合成方法および信号合成装置
JP3483958B2 (ja) * 1994-10-28 2004-01-06 三菱電機株式会社 広帯域音声復元装置及び広帯域音声復元方法及び音声伝送システム及び音声伝送方法
JP3275224B2 (ja) * 1994-11-30 2002-04-15 富士通株式会社 ディジタル信号処理システム
DE69619284T3 (de) 1995-03-13 2006-04-27 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zur Erweiterung der Sprachbandbreite
US5864797A (en) * 1995-05-30 1999-01-26 Sanyo Electric Co., Ltd. Pitch-synchronous speech coding by applying multiple analysis to select and align a plurality of types of code vectors
JPH1020891A (ja) * 1996-07-09 1998-01-23 Sony Corp 音声符号化方法及び装置
JPH10124088A (ja) 1996-10-24 1998-05-15 Sony Corp 音声帯域幅拡張装置及び方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6622782B2 (en) * 1999-06-14 2003-09-23 Telefonaktiebolaget Lm Ericsson (Publ) Device for cooling of electronic components
JP2006119265A (ja) * 2004-10-20 2006-05-11 Yamaha Corp オーバーサンプリングシステム、デコードlsi、およびオーバーサンプリング方法
JP2013515287A (ja) * 2009-12-21 2013-05-02 マインドスピード テクノロジーズ インコーポレイテッド 音声帯域拡張方法及び音声帯域拡張システム

Also Published As

Publication number Publication date
EP0911807A3 (en) 2001-04-04
TW384467B (en) 2000-03-11
EP0911807B1 (en) 2003-06-25
KR100574031B1 (ko) 2006-12-01
US6289311B1 (en) 2001-09-11
KR19990037291A (ko) 1999-05-25
EP0911807A2 (en) 1999-04-28
JP4132154B2 (ja) 2008-08-13

Similar Documents

Publication Publication Date Title
JP4132154B2 (ja) 音声合成方法及び装置、並びに帯域幅拡張方法及び装置
CA2347667C (en) Periodicity enhancement in decoding wideband signals
US6539355B1 (en) Signal band expanding method and apparatus and signal synthesis method and apparatus
EP1328928B1 (en) Apparatus for bandwidth expansion of a speech signal
CA2562916C (en) Coding of audio signals
JP2000305599A (ja) 音声合成装置及び方法、電話装置並びにプログラム提供媒体
EP2901450B1 (en) Method and apparatus for encoding an audio signal
JP4302978B2 (ja) 音声コーデックにおける擬似高帯域信号の推定システム
EP1785984A1 (en) Audio encoding apparatus, audio decoding apparatus, communication apparatus and audio encoding method
JP2009541797A (ja) 種々の音声フレーム・レートの混合励振線形予測(melp)ボコーダ間でトランスコーディングするボコーダ及び関連した方法
JP4558734B2 (ja) 信号復号化装置
EP1020848A2 (en) Method for transmitting auxiliary information in a vocoder stream
WO2001065542A1 (fr) Dispositif de codage/decodage de la voix et procede associe
JP4373693B2 (ja) 音響信号の階層符号化方法および階層復号化方法
JP2000134162A (ja) 帯域幅拡張方法及び装置
JP3496618B2 (ja) 複数レートで動作する無音声符号化を含む音声符号化・復号装置及び方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050502

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060508

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060524

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060728

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130606

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees