Nothing Special   »   [go: up one dir, main page]

JPWO2007097176A1 - 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム - Google Patents

音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム Download PDF

Info

Publication number
JPWO2007097176A1
JPWO2007097176A1 JP2008501662A JP2008501662A JPWO2007097176A1 JP WO2007097176 A1 JPWO2007097176 A1 JP WO2007097176A1 JP 2008501662 A JP2008501662 A JP 2008501662A JP 2008501662 A JP2008501662 A JP 2008501662A JP WO2007097176 A1 JPWO2007097176 A1 JP WO2007097176A1
Authority
JP
Japan
Prior art keywords
speech recognition
text data
dictionary
language model
creation support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008501662A
Other languages
English (en)
Other versions
JP5040909B2 (ja
Inventor
孝文 越仲
孝文 越仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008501662A priority Critical patent/JP5040909B2/ja
Publication of JPWO2007097176A1 publication Critical patent/JPWO2007097176A1/ja
Application granted granted Critical
Publication of JP5040909B2 publication Critical patent/JP5040909B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

低コストで入手可能なテキストデータを利用して、音声認識誤りを低減するように効率的に音声認識用辞書・言語モデルを作成・更新することのできる音声認識辞書作成支援システムを提供する。音声認識辞書作成支援システムは、認識辞書記憶部105と言語モデル記憶部106と音響モデル記憶部107を備える。仮想的音声認識処理部102は、テキスト解析部101が生成した解析済みテキストデータに対し、認識辞書、言語モデル及び音響モデルを参照して、仮想的音声認識結果テキストデータを生成し、元の解析済みテキストデータと比較する。更新処理部103は、両テキストデータの相違箇所が少なくなるように認識辞書・言語モデルを更新する。

Description

本発明は、音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラムに関し、特に、音声認識処理の構成要素である語彙を格納した音声認識辞書と、語の並びを規則化した言語モデルと、を作成するための音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラムに関する。
従来の音声認識辞書作成支援システムの概要について説明する。図6に示すように、テキスト解析手段201と、出現頻度計数手段202と、更新手段203と、背景辞書記憶手段204と、認識辞書記憶手段205と、言語モデル記憶手段206と、から構成されている。
このような構成を有する従来の音声認識辞書作成支援システムは次のように動作する。
すなわち、テキスト解析手段201は、音声認識対象語彙を含んだテキストデータを外部から受け取り、背景辞書記憶手段204に記憶された単語辞書を用いた形態素解析処理を施すことにより、テキストデータを個々の単語の系列に分割し、読み文字列を付与し、また必要に応じて品詞タグを付与し、その結果を出現頻度計数手段202に送る。出現頻度計数手段202は、テキスト解析手段201から単語系列を受け取り、各単語について出現頻度を計数し、結果を更新手段203に送る。更新手段203は、出現頻度計数手段202から受け取った単語出現頻度から、各単語の出現確率を算出し、同じく言語モデル記憶手段206に記憶された単語の出現確率と照合し、前者すなわちテキストデータから算出された出現確率に近くなるように、後者すなわち言語モデル記憶手段206に記憶された出現確率を補正する。また、テキストデータに出現した単語のうち、一定以上の出現確率値を持つものについて、認識辞書記憶手段205に記憶された認識辞書に登録されているか否かを確認し、未登録であった場合にはその単語を未知語と認定し、その単語および出現確率を、それぞれ認識辞書記憶手段205および言語モデル記憶手段206に登録する。
なお、上記出現頻度計数手段202では、単語の出現頻度に加えて、連続する2単語あるいは3単語の出現回数を単位とした計数を行うことは通常よく行われる。また、テキスト解析手段201の形態素解析処理において、単語の分割を誤って行ったり、誤った読みを付与してしまったりするケースに対応するために、単語境界を修正したり読みを人手で入力したりするインタフェースを更新手段203などに設けることも、よく行われる(後記特許文献1等参照)。
従来の音声認識辞書作成支援システムの別の一例が、特許文献1に記載されている。図7は、特許文献1の音声認識辞書作成支援システムを図6と対比できるように書き換えたものであり、文字列比較手段301と、未知語抽出手段302と、更新手段303と、認識辞書記憶手段305と、言語モデル記憶手段306とから構成され、統計的手法を用いて未知語を検出するのではなく、誤認識を修正した結果を用いる点を大きな特徴としている。
このような構成を有する従来の音声認識辞書作成支援システムは次のように動作する。
すなわち、文字列比較手段301は、認識辞書記憶手段305に記憶された認識辞書、及び言語モデル記憶手段306に記憶された言語モデルを構成要素として含んだ図示しない音声認識手段を用いて認識対象音声を認識した結果である認識結果テキストデータと、この認識結果テキストデータに含まれる認識誤りを人手で修正した誤認識修正済テキストデータを外部から受け取り、差異を生じている箇所毎に、すなわち認識誤りを生じた箇所ごとに、認識誤りを包含する形で単語または単語列を抽出し、未知語抽出手段302に送る。未知語抽出手段302は、文字列比較手段301から受け取った単語又は単語列毎に、認識辞書記憶手段305に記憶された認識辞書にその単語又は単語列が登録されているか否かを確認し、未登録であった場合にはその単語または単語列を新規単語として認識辞書記憶手段305に登録する。さらに、登録した新規単語と所定の出現確率を、言語モデル記憶手段306にも登録する。
また、特許文献2〜4にその他の音声認識辞書への未知語の抽出・登録方法が記載されている。特許文献2では、未知語が含まれている文書ファイルに対し、形態素解析等を行って単語を抽出し、音声認識辞書に存在しない単語をバックグランド辞書(背景辞書)を参照して読みや品詞を付与した後登録できるようにした未知語登録装置が開示されている。また、特許文献3、4には、上記未知語の品詞や発音の推定機能を備え未知語を自動登録する未知語登録装置が開示されている。
また、特許文献5には、広くインターネット上のサイトから収集したページの単語の出現頻度を計数し、単語音声認識辞書における同一の読みの単語中の選択順序を更新する方法が開示されている。
また、特許文献6には、音声認識装置に対し、入力音声との照合に用いる音声のモデル(音響モデルと言語モデル)を送信する音響モデル管理サーバ及び言語モデル管理サーバであって、音響モデルと言語モデルを定期的に更新する機能を備えた音響モデル管理サーバ及び言語モデル管理サーバが開示されている。
また、本発明の背景技術として、特許文献7を挙げておく。特許文献7は、音声認識装置に関するものであるが、背景辞書(形態素解析辞書)に登録されていない未知語からの音韻列の発生方法に関する技術が記載されている。
特開2002−229585号公報 特開2003-316376号公報 特開2004-265440号公報 特開2002-014693号公報 特開2005-099741号公報 特開2002-091477号公報 特開2004−294542号公報
前者の統計的な手法を用いて未知語を検出する手法の問題点は、テキストデータの収集にコストがかかる、若しくは、良好な結果を得るためのテキストデータの選別に高度なスキルを要するという点である。特に、認識対象音声と類似したテキストデータを用意するのが必ずしも容易ではない。
上記「認識対象音声との類似」とは、内容や話題に関する類似性と、発話スタイルの類似性の両方を指す。例えば、ニュース放送の字幕付与を音声認識で行う場合、最近の新聞記事をテキストデータとして用意することは一般的に行われる。この場合、認識対象音声(ニュースキャスターの発声)と新聞記事は、話題は一致しているが、発話スタイル、すなわち話し言葉特有の言い回しが異なる。例えば、ニュースキャスターの音声は「です/ます」調の文であるのに対し、新聞記事は「だ/である」調の文となる。また、音声では「えー」、「あのー」といったフィラーが頻繁に出現する点も異なる。このような発話スタイルの差異を無視して辞書・言語モデルを作成すると、話し言葉特有の発話スタイルを正しく音声認識できないという弊害が発生する。
以上のとおり、正しい音声認識結果が得られるような環境を構築するには、使用しようとするテキストデータを、経験を積んだ者が注意深く精査選別する、若しくは、認識対象音声の過去の蓄積を人手と時間をかけて正確に書き起こすことが必要となり、結果的に運用コストの増大が避けられない。
同様に、上記特許文献3、5、6には、インターネットやマルチメディア放送からテキストを収集することが提案されているが、これらについても当然に、上記「認識対象音声」との「ズレ」が生じるのであり、認識結果にも自ずと限界が表れるものと考えられる。
従来技術の第2の問題点は、音韻的に類似する単語や単語列が存在する場合の認識誤りが辞書・言語モデルに反映されないという点である。例えば、特許文献2〜5を見てみると、テキストデータ中に個々の単語が出現したか否か及び出現回数を考慮するのみであり、音韻情報も関わってくる実際の音声認識処理を行った場合にどうなるかついて何ら考慮していない。ある単語を辞書に含めるかどうかは、本来、辞書中の他の単語と音韻的に同じでないか、あるいは類似していないかを考慮しなければならず、もし類似した単語が存在する場合には、一方の単語を辞書から除外する若しくは言語モデル中での優先度(出現確率)を下げることが必要であるところ、従来の技術では、2重に登録される可能性を否定できないと考えられる。
従来技術の第3の問題点は、複数の単語が連結された複合語を正しく音声認識できるように辞書・言語モデルを構成することが必ずしも容易でないという点である。複合語を構成する個々の単語が、すでに辞書に登録されている既知語であるケースでも、音声認識に用いる言語モデルにおける各単語の連接確率が低いと、単語の総体としての複合語を正しく認識できる確率は低くなる。また、複合語が大量に含まれたテキストデータを収集すること自体、先に述べたとおり困難であり、コスト的な問題が発生する。
従来技術の第4の問題点は、以上の結果として、認識誤りを辞書・言語モデルに正しくフィードバックし、認識誤りを未然に防ぐことが難しいという点である。この点、上記特許文献1記載の方式では、運用している音声認識システムで実際に起こった認識誤りを利用しているため、認識誤りを確実に反映することが可能となっているが、そのためには、運用中の音声認識システムで発生する認識誤りを実際に観測しなければならないという別の不都合が生じてしまう。
また、上記特許文献1記載の方式にも、辞書・言語モデルが原因でない認識誤りを除外できないという別の問題点が残っている。音声認識システムで発生する認識誤りには、辞書・言語モデルが原因となった認識誤りのほか、音響的要因に起因するものがある。例えば、大音量の背景雑音が重畳した音声を認識した結果として誤りとなるケース、電話音声のように一般に認識困難な狭帯域音声を認識した結果として誤りとなるケース、発声が不明瞭で聞き取り難いために認識誤りとなるケース等々である。これらのケースにおいては、上記特許文献1に記載の方式をもってしても、意味のある辞書・言語モデルの修正を行うことは難しいと考えられる。
本発明の目的は、上記した事情に鑑みてなされたものであって、低コストのテキストデータを利用でき、単語間の音韻的類似性を考慮し、また、言語的要因による音声認識誤りを効率的に低減することのできるよう最適化された辞書・言語モデルを生成できる音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラムを提供することにある。
本発明の第1の視点によれば、辞書、言語モデル及び音響モデルを記憶する記憶部と、テキストデータについて形態素解析処理を施すテキスト解析部と、前記テキスト解析部により解析された解析済みテキストデータについて前記辞書、言語モデル及び音響モデルを用いて仮想的音声認識結果テキストデータを生成するとともに、前記解析済みテキストデータと前記仮想的音声認識結果テキストデータとの相違箇所を抽出する仮想的音声認識処理部と、前記相違箇所に基づいて、前記辞書又は前記言語モデルの少なくとも一方を修正する更新処理部と、を備えたことを特徴とする音声認識辞書作成支援システムと、該システムを用いて行う音声認識辞書作成支援方法及び該システムを実現するためのプログラムが提供される。
上記構成よりなる音声認識辞書作成支援システムは、所与のテキストデータの仮想的音声認識結果テキストデータを生成し、該仮想的音声認識結果テキストデータと元のテキストデータと比較した結果を用いて、辞書・言語モデルの更新処理を行う。
本発明によれば、比較的容易に入手可能なテキストデータを利用して、運用中の音声認識処理における認識誤りを予測し、その予測結果を反映した辞書・言語モデルを作成することが可能となる。その理由は、前記辞書、言語モデル及び音響モデルを用いて仮想的音声認識を実行し、かつ、その結果を用いた辞書及び言語モデルの更新を行うよう構成したことにある。
本発明の第1の実施形態に係る音声認識辞書作成支援システムの概略構成を表した図である。 本発明の第1の実施形態に係る音声認識辞書作成支援システムを機能ブロックで表したブロック図である。 本発明の第1の実施形態に係る音声認識辞書作成支援システムの仮想的音声認識処理部の一構成例を表した図である。 本発明の第1の実施形態に係る音声認識辞書作成支援システムの動作を表したフローチャートである。 本発明の第1の実施形態に係る音声認識辞書作成支援システムの動作具体例を説明するための図である。 従来の音声認識辞書作成支援システムを機能ブロックで表したブロック図である。 従来の音声認識辞書作成支援システムを機能ブロックで表したブロック図である。
符号の説明
61 読み/音素列変換部
62 音素/状態列変換部
63 状態/特徴列変換部
64 最適単語列サーチ部
65 テキストデータ比較部
71 入力装置
72 音声認識辞書作成支援プログラム
73 データ処理装置
74 記憶装置
101 テキスト解析部
102 仮想的音声認識処理部
103 更新処理部
104、741 背景辞書記憶部
105、742 認識辞書記憶部
106、743 言語モデル記憶部
107、744 音響モデル記憶部
108 テキストデータ
201 テキスト解析手段
202 出現頻度計数手段
203 更新手段
204 背景辞書記憶手段
205 認識辞書記憶手段
206 言語モデル記憶手段
301 文字列比較手段
302 未知語抽出手段
303 更新手段
305 認識辞書記憶手段
306 言語モデル記憶手段
続いて、本発明を実施するための最良の形態について図面を参照して詳細に説明する。図1は、本発明の第1の実施形態に係る音声認識辞書作成支援システムの概略構成を表した図である。図1を参照すると、入力装置71及び記憶装置74を備えたデータ処理装置(コンピュータ)73により構成された音声認識辞書作成支援システムが示されている。
記憶装置74は、背景辞書記憶部741、認識辞書記憶部742、言語モデル記憶部743及び音響モデル記憶部744を有するハードディスク等により構成され、それぞれ背景辞書、認識辞書、言語モデル及び音響モデルを保持することが可能なっている。
上記構成よりなるデータ処理装置(コンピュータ)73に、音声認識辞書作成支援プログラム72を実行させることによって、後記する各処理手段(図2のテキスト解析部101〜更新処理部103)が実現される。
図2は、上記音声認識辞書作成支援システムを機能ブロックで表したブロック図である。図2を参照すると、本実施形態に係る音声認識辞書作成支援システムは、テキスト解析部101と、仮想的音声認識処理部102と、更新処理部103と、背景辞書記憶部104と、認識辞書記憶部105と、言語モデル記憶部106と、音響モデル記憶部107とから構成されている。
テキスト解析部101は、外部から与えられたテキスト(文字列)データ108を単語に分割し品詞タグや読みを付与する処理を行う。より具体的には、テキスト解析部101は、テキストデータ108を読み込み、背景辞書記憶部104に記憶された背景辞書を読み込んで、テキストデータ108を解析し、解析済みテキストデータを出力する処理を行う。
仮想的音声認識処理部102は、認識辞書に含まれていなかったり、言語モデルで低い優先度を与えられていたりすることにより音声認識誤りを生ずる可能性が高い語句等の抽出を行う。より具体的には、仮想的音声認識処理部102は、認識辞書記憶部105、言語モデル記憶部106及び音響モデル記憶部107にそれぞれ記憶された認識辞書、言語モデル及び音響モデルを読み込み、テキスト解析部101より出力された解析済みテキストデータについて仮想的に認識処理を行い、解析済みテキストデータに対応する仮想的認識結果テキストデータを生成し、更に、元の解析済みテキストデータと仮想的認識結果テキストデータを比較した上で相違箇所を抽出して出力する処理を行う。
更新処理部103は、仮想的音声認識処理部102にて判定された認識誤りを生ずる可能性が高い語句を考慮して認識辞書・言語モデルを変更する処理を行う。より具体的には、更新処理部103は、仮想的音声認識処理部102にて出力された相違箇所に基づいて、認識辞書記憶部105及び言語モデル記憶部106にそれぞれ記憶された認識辞書及び言語モデルを修正する処理を行う。
背景辞書記憶部104及び認識辞書記憶部105は、それぞれ背景辞書と認識辞書を記憶する。背景辞書は、形態素解析辞書ともいい、認識辞書と比べて数10〜数100倍の規模の語彙を保持している。従って多くの場合、与えられたテキストデータのほぼすべてに対して読み等の情報を付与することができる。また、背景辞書にも登録されていない未知語が出現した場合でも、例えば、特許文献5に記載の技術等を用いて、読み情報を付与することができる。
言語モデル記憶部106及び音響モデル記憶部107は、それぞれ言語モデルと音響モデルを記憶する。
なお、上記認識辞書記憶部105及び言語モデル記憶部106にそれぞれ初期に記憶する認識辞書及び言語モデルは、実際に運用しようとしている音声認識システムで使用するものと同様のものを用いる。同様に、音響モデル記憶部107に記憶する音響モデルも、実際に運用しようとしている音声認識システムで使用する音響モデルと原則同等のものを用いることが好ましい。
続いて、上記認識辞書、言語モデル及び音響モデルを用いて、解析済みテキストデータから仮想的認識結果テキストデータを作成する仮想的音声認識処理部102の詳細構成についてさらに詳しく説明する。
図3は、仮想的音声認識処理部102の一構成例を表した図である。図3を参照すると、仮想的音声認識処理部102は、読み/音素列変換部61と、音素/状態列変換部62と、状態/特徴列変換部63と、最適単語列サーチ部64と、テキストデータ比較部65、とから構成されている。
読み/音素列変換部61は、単語毎に分割され読みが付与された解析済みテキストデータを、適当な単位毎、例えば1文ずつ読み込んで、予め記憶された音節/音素列変換テーブルに従い、通常ひらがなやカタカナで表された読み文字列を音素列に変換し、順次出力する。ここで音素とは、音声認識における認識の最小単位、すなわち認識単位であり、個々の音素は、母音a,i,u,・・・、子音k,s,t,・・・といった記号で表される。
例えば「おはようございます」という読み文字列が与えられた場合、読み/音素列変換部61は、「/#/o/h/a/y/o/o/g/o/z/a/i/m/a/s/u/#/」という音素列を出力する(ここで”#”は発声始終端の無音を表すものとする)。
また、より一般的に用いられている、音素を前後の音素環境によって区別する3つ組音素(triphone)による音響モデルの場合は、読み/音素列変換部61は、上記「おはようございます」という読み文字列について、「/#/#−o+h/o−h+a/h−a+y/a−y+o/y−o+o/o−o+g/o−g+o/g−o+z/o−z+a/z−a+i/a−i+m/i−m+a/m−a+s/a−s+u/s−u+#/#/」という音素列を出力する。
なお、昨今のほとんどの音声認識システムは認識単位として音素を用いているため、本発明の実施の形態もそれにならい、認識単位として音素を用いているが、音素以外の認識単位、例えば音節や半音節を認識単位としても、本発明は、原理的に実施可能であり、認識単位のとり方に特段の制約はない。
音素/状態列変換部62は、読み/音素列変換部61より受け取った音素列について、音響モデル記憶部107に記憶された音響モデルの構成情報を参照して、各音素を状態の系列に展開した状態列を出力する。
ここで「状態」とは、音声認識における音響モデルとして一般的に用いられる隠れマルコフモデル(Hidden Markov Model,以下「HMM」)に付随する概念である。各音素をHMMでモデル化した場合は、「状態」は音素をさらに細分化した単位ということができる。音響モデルは音素毎のHMMの集合として構成されており、音素のHMMは各々数個の「状態」から構成されている。いずれにしても、音響モデルを参照することにより、音素を状態列に容易に変換することができる。例えば、各音素が一律に3状態で構成された音響モデルの場合は、前出の音素列は、#[1],o[1],o[2],o[3],h[1],h[2],h[3],a[1],a[2],a[3],y[1],y[2],y[3],o[1],…,i[3],m[1],m[2],m[3],a[1],a[2],a[3],s[1],s[2],s[3],u[1],u[2],u[3],#[1]と変換される。ここに括弧数字は状態番号を示す。音響モデルが前述の3つ組音素(triphone)で構成されている場合も同様である。なお、無音モデル”#”は1状態としてモデル化するのが一般的である。
状態/特徴列変換部63は、音響モデル記憶部107に記憶された音響モデルを読み込み、音素/状態列変換部62が出力する状態列を順次受け取り、音声認識で用いる音声特徴パラメータを含む特徴ベクトルの系列を出力する。すなわち、音響モデルにおいて状態ごとに定義されている確率分布、例えば混合ガウス分布に従って、乱数に基づいて特徴ベクトルを生成する。また、1状態あたりに生成する特徴ベクトルの個数は、やはり状態毎に定義されている状態遷移確率に基づいて乱数で決定する。
最適単語列サーチ部64は、認識辞書記憶部105、言語モデル記憶部106及び音響モデル記憶部107にそれぞれ記憶された認識辞書、言語モデル及び音響モデルを読み込み、状態/特徴列変換部63の出力する特徴ベクトル列を順次受け取り、音声認識システムで一般的に用いられるフレーム同期ビームサーチ等の探索方法を用いて、特徴ベクトル列に最もマッチする単語列、すなわち仮想的な音声認識結果テキストデータ(一般的には漢字かな混じり文)を探索し出力する。
テキストデータ比較部65は、最適単語列サーチ部64により出力された仮想的認識結果テキストデータを、仮想的音声認識処理部102の入力である解析済みテキストデータの対応部分と比較し、相違箇所の文字列の対、すなわち仮想的正解文字列と仮想的認識結果文字列の対として抽出し、同一文字列毎に出現頻度を計数した上で、図5に例示する仮想的認識誤り事例データとして、更新処理部103に送る。
続いて、本実施形態の全体の動作について図面を参照して詳細に説明する。図4は、本実施形態に係る音声認識辞書作成支援システムの動作を表したフローチャートである。
図4を参照すると、まず、テキスト解析部101は、背景辞書記憶部104に記憶された背景辞書を読み込み(ステップA1)、与えられたテキストデータに対して形態素解析処理を施す(ステップA2)。この形態素解析処理により、テキストデータは単語に分割され、各単語に対して必要に応じて品詞タグや読み(単語の発音を表現する記号列)が付与される。
なお、背景辞書は上述のとおり、認識辞書と比べて数10〜数100倍の規模の語彙を保持しているため、与えられたテキストデータのほぼすべてに対して読み等の情報を付与することができる。また、背景辞書にも登録されていない未知語が出現した場合であっても、例えば、特許文献5に記載の技術等を用いて、読み情報を付与することができる。
続いて、仮想的音声認識処理部102は、認識辞書記憶部105、言語モデル記憶部106及び音響モデル記憶部107にそれぞれ記憶された認識辞書、言語モデル及び音響モデルを読み込み(ステップA3〜A5)、テキスト解析部101が出力したテキストに基づいて仮想的な音声認識処理を実行し、仮想的認識結果テキストデータを作成する(ステップA6)。
続いて、仮想的音声認識処理部102は、解析済みテキストデータと、対応する仮想的認識結果テキストデータを比較し、差異を生じている箇所、すなわち仮想的な認識誤り事例としての単語又は単語列を両テキストデータから抽出し、仮想的認識誤り事例データ(図5参照)を生成する(ステップA7)。
この際、差異を生じている箇所の単語を含む一連の単語列が、名詞が連続している等の形態からひとまとまりの句を構成していると判断できる場合は、句単位での抽出を行ってもよい。例えば、解析済みテキストデータ中に「・・・/地上波/デジタル/・・・」という単語列があり、仮想的認識結果テキストデータ中の対応箇所において、「・・・/地上波/デッキ/足る/・・・」となっていた場合、単語レベルのペアとして「デジタル」「デッキ/足る」を抽出してもよく、名詞句レベルのペアとして「地上波/デジタル」、「地上波/デッキ/足る」との文字列対を抽出してもよく、あるいは、その両方を抽出してもよい。
仮想的音声認識処理部102は、最終的に、単語レベル及び/又は句レベルの文字列対とその読みを、それぞれの出現頻度とともに更新処理部103に送る。図5は、仮想的音声認識処理部102が更新処理部103に送る仮想的認識誤り事例データ情報の一例を表したものである。
以下、更新処理部103は、仮想的音声認識処理部102により出力された仮想的認識誤り事例データを受け取り、1つずつ順に取り出し、その内容に応じて、認識辞書記憶部105及び言語モデル記憶部106にそれぞれ記憶された認識辞書及び言語モデルに対して、以下のように変更を加える(ステップA8〜A10)。
例えば、図5の例で説明すると、最初のエントリ(HTML,栄一/低迷)を取り出して、音声認識における正解文字列に相当する解析済みテキストの単語「HTML」が認識辞書に存在していない場合、更新処理部103は、認識辞書に「HTML」を追加し、言語モデルにおける単語「HTML」の優先度としてデフォルト値(適当に定めた中程度の優先度)をセットする。
また「HTML」がすでに認識辞書に存在する場合は、更新処理部103は、認識辞書の更新を行わず、言語モデルにおける単語「HTML」の優先度を、予め定めた適当な所定の値だけ増加させる。
次のエントリ(地上波/デジタル,地上波/デッキ/足る)についても同様に、「地上波デジタル」が認識辞書になければ認識辞書に追加し、言語モデルにおける優先度に適当なデフォルト値をセットする。また「地上波デジタル」がすでに認識辞書にあれば、言語モデルにおける優先度の値を増加させる。
以降、すべてのエントリについて上記の処理をくり返すことにより、容易に入手できる低コストなテキストデータを用いながらも、音声認識誤りを未然に防止できるよう最適化された辞書・言語モデルを得ることが可能となる。
なお、上記した実施形態では、仮想的認識誤り事例データすべてのエントリを用いて認識辞書と言語モデルの更新を行うこととしているが、例えば、極端に出現頻度の低いエントリについては、認識辞書・言語モデルの変更には使用しないよう設定することも有効である。また、出現頻度情報等を用いて認識辞書・言語モデルに反映させるエントリを選別し、仮想的認識結果テキストデータの中の認識誤りに相当する部分が一定割合より少なくなるまで、反復することとしてもよい。
また、上記した実施形態では、正解文字列に対応する解析済みテキスト「HTML」、「地上波デジタル」を利用した認識辞書・言語モデルの変更を行うものとして説明したが、これに加えて、認識誤りに対応する仮想的認識結果テキストを利用した認識辞書・言語モデルの変更を行わせることとしてもよい。
例えば、図5の例で説明すると、更新処理部103は、エントリ(HTML,栄一/低迷)については、単語「HTML」の言語モデル中での優先度を上げると同時に、「栄一」及び「低迷」の優先度を下げ、さらには、「栄一」と「低迷」という2単語の並びに関する優先度を下げるように言語モデルを変更してもよい。
さらには、上記認識辞書の更新処理において、所定のしきい値よりも優先度が小さくなった単語については、認識辞書から削除する処理を行うこととしてもよい。
また、これら一連の優先度の値の変更に際しては、出現頻度に依存して変更量を制御してもよい。つまり、出現頻度の高いエントリについては対応する単語または単語列の優先度を大きく変更するようにし、逆に出現頻度の低いエントリについては、優先度をわずかしか変更しないように制御してもよい。
更に、辞書・言語モデルの更新内容をシステム操作者に予め提示するインタフェース、及び、システム操作者に更新の可否を問うインタフェースを、適宜設け、辞書・言語モデルの更新に際して、不適切な変更を避けることが出来るよう構成することも好ましい。
また、上記仮想的認識誤り事例データに、各単語に対応する品詞を含めるようにすることも好ましい。このようにすることにより、当該品詞の情報を参照して、認識辞書・言語モデルの変更要否を判断することが可能となる。例えば、認識辞書・言語モデルの更新に際して一般に重要と考えられる、名詞や動詞語幹等の内容語を含むエントリのみを認識辞書・言語モデルの変更に使用するように動作させることが可能となる。
なお、ここまで言語モデルの変更において、単語や単語の並びに関する「優先度」の値を変更すると述べてきたが、ここでの優先度とは、例えば、公知のN−gram言語モデルにおける確率値と解釈すればよい。つまり、例えばunigram(N=1)における確率値は、単語の並びを無視した場合の個々の単語の出現確率であり、形式的にはPr(“HTML”)のように表現される量である。また、bigram(N=2)における確率値は、直前の1単語を履歴として仮定した場合の単語の条件付出現確率であり、Pr(“デジタル”|“地上波”)やPr(“低迷”|“栄一”)のように表現される。同様にtrigram(N=3)における確率値は、直前の2単語を履歴として仮定した場合の単語の条件付出現確率となる。
また、図3に例示した仮想的音声認識処理部102を、より単純な構成とすることも可能である。例えば、状態/特徴列変換部63を取り除き、音素/状態列変換部62を最適単語列サーチ部64に直接接続した構成が考えられる。
この場合、最適単語列サーチ部64は、音素/状態列変換部62から受け取ったHMMの状態列の各要素について、音響モデル内の全状態との類似度又は距離を計算し、認識辞書及び言語モデルによって既定される言語的制約に従い、最適な単語列を求めることになる。状態間の距離は、状態に付随する確率分布間の距離尺度、例えばカルバック・ライブラのダイバージェンス等の尺度を用いて計算すればよい。また、音響モデル内のすべての状態間の距離を予め計算して、テーブル形式で音響モデル記憶部107に記憶しておくことが効率的である。
また、処理の高速化のために、前述のフレーム同期ビームサーチに類する探索範囲の限定(枝刈り)を適宜行っておくこととしてもよい。図3に例示した仮想的音声認識処理部102の形態では、特徴ベクトルと状態との間の距離計算をベースとしてフレーム同期ビームサーチを構成するのに対して、状態/特徴列変換部63を省いた本形態においては、状態間の距離計算をベースとしてサーチを構成する点が異なっているが、原理はほとんど同じものである。
また、図3に例示した仮想的音声認識処理部102を、更に簡素な構成とすることも可能である。例えば、音素/状態列変換部62及び状態/特徴列変換部63を取り除き、読み/音素列変換部61を最適単語列サーチ部64に直接接続した構成が考えられる。
この場合、最適単語列サーチ部64は、読み/音素列変換部61から受け取った音素列の各要素について、音響モデル内の全音素との類似度または距離を計算し、認識辞書及び言語モデルによって既定される言語的制約に従い、最適な単語列を求める。音素間の距離は、互いに対応する状態間の距離の総和などとして計算すればよい。
以上、本発明の各実施の形態を説明したが、本発明の技術的範囲は、上述した実施の形態に限定されるものではなく、音声認識対象の言語や、音声認識システムの種々の応用場面に応じて、各種の変形を加えることが可能である。

Claims (10)

  1. 辞書、言語モデル及び音響モデルを記憶する記憶部と、
    テキストデータについて形態素解析処理を施すテキスト解析部と、
    前記テキスト解析部により解析された解析済みテキストデータについて前記辞書、言語モデル及び音響モデルを用いて仮想的音声認識結果テキストデータを生成するとともに、前記解析済みテキストデータと前記仮想的音声認識結果テキストデータとの相違箇所を抽出する仮想的音声認識処理部と、
    前記相違箇所に基づいて、前記辞書又は前記言語モデルの少なくとも一方を修正する更新処理部と、
    を備えたことを特徴とする音声認識辞書作成支援システム。
  2. 前記仮想的音声認識処理部は、前記解析済みテキストデータから音響パラメータを要素とする特徴ベクトルの系列を生成し、仮想的に音声認識処理を実行することにより音声認識結果テキストデータを生成すること、
    を特徴とする請求項1に記載の音声認識辞書作成支援システム。
  3. 前記記憶部は、認識単位を構成する状態等要素間の距離又は類似度テーブルを記憶し、
    前記仮想的音声認識処理部は、前記解析済みテキストデータから前記認識単位の系列を生成し、前記辞書及び言語モデルから、距離の総和最小又は類似度の総和最大となる単語列を探索することにより前記仮想的音声認識結果テキストデータを生成すること、
    を特徴とする請求項1又は2に記載の音声認識辞書作成支援システム。
  4. 前記記憶部は、認識単位を構成する状態等要素間の距離又は類似度テーブルを記憶し、
    前記仮想的音声認識処理部は、前記解析済みテキストデータから前記要素の系列を生成し、前記辞書及び言語モデルから、距離の総和最小又は類似度の総和最大となる単語列を探索することにより前記仮想的音声認識結果テキストデータを生成すること、
    を特徴とする請求項1又は2に記載の音声認識辞書作成支援システム。
  5. 前記更新処理部は、前記解析済みテキストデータ及び前記仮想的音声認識結果テキストデータの相違箇所に基づき、前記辞書に、前記解析済みテキストデータ側に出現している語句を追加すること、
    を特徴とする請求項1乃至4いずれか一に記載の音声認識辞書作成支援システム。
  6. 前記更新処理部は、前記解析済みテキストデータ及び前記仮想的音声認識結果テキストデータの相違箇所に基づき、前記解析済みテキストデータ側に出現している単語又は単語列の優先度が高くなるように、前記言語モデルを修正すること、
    を特徴とする請求項1乃至4いずれか一に記載の音声認識辞書作成支援システム。
  7. 前記更新処理部は、前記解析済みテキストデータ及び前記仮想的音声認識結果テキストデータの相違箇所に基づき、前記仮想的音声認識結果テキストデータ側に出現している単語又は単語列の優先度が低くなるように、前記言語モデルを修正すること、
    を特徴とする請求項1乃至4いずれか一に記載の音声認識辞書作成支援システム。
  8. 前記更新処理部は、前記解析済みテキストデータ及び仮想的音声認識結果テキストデータにおける単語又は単語列の出現頻度に応じて前記優先度の増減量を制御すること、
    を特徴とする請求項6又は7に記載の音声認識辞書作成支援システム。
  9. コンピュータを用いた音声認識辞書作成支援方法であって、
    前記コンピュータが、テキストデータについて形態素解析処理を施すテキスト解析ステップと、
    前記コンピュータが、前記テキスト解析ステップにて出力された解析済みテキストデータに基づいて、所定の記憶装置に保持された辞書、言語モデル及び音響モデルを用いて仮想的音声認識結果テキストデータを生成するステップと、
    前記コンピュータが、前記解析済みテキストデータと、前記仮想的音声認識結果テキストデータと、を比較し相違箇所を抽出するステップと、
    前記コンピュータが、前記相違箇所に基づいて前記辞書又は前記言語モデルの少なくとも一方を修正する更新ステップと、を含むこと、
    を特徴とする音声認識辞書作成支援方法。
  10. テキストデータについて形態素解析処理を施すテキスト解析処理と、
    前記テキスト解析処理にて出力された解析済みテキストデータに基づいて、所定の記憶装置に保持された辞書、言語モデル及び音響モデルを用いて仮想的音声認識結果テキストデータを生成する処理と、
    前記解析済みテキストデータと、前記仮想的音声認識結果テキストデータと、を比較し相違箇所を抽出する仮想的音声認識処理と、
    前記相違箇所に基づいて、前記辞書又は前記言語モデルの少なくとも一方を修正する更新処理と、を音声認識辞書作成支援システムを構成するコンピュータに実行させるためのプログラム。
JP2008501662A 2006-02-23 2007-02-02 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム Active JP5040909B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008501662A JP5040909B2 (ja) 2006-02-23 2007-02-02 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006046812 2006-02-23
JP2006046812 2006-02-23
PCT/JP2007/051778 WO2007097176A1 (ja) 2006-02-23 2007-02-02 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム
JP2008501662A JP5040909B2 (ja) 2006-02-23 2007-02-02 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム

Publications (2)

Publication Number Publication Date
JPWO2007097176A1 true JPWO2007097176A1 (ja) 2009-07-09
JP5040909B2 JP5040909B2 (ja) 2012-10-03

Family

ID=38437215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008501662A Active JP5040909B2 (ja) 2006-02-23 2007-02-02 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム

Country Status (4)

Country Link
US (1) US8719021B2 (ja)
JP (1) JP5040909B2 (ja)
CN (1) CN101432801B (ja)
WO (1) WO2007097176A1 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4897737B2 (ja) * 2008-05-12 2012-03-14 日本電信電話株式会社 単語追加装置、単語追加方法、そのプログラム
US8301446B2 (en) * 2009-03-30 2012-10-30 Adacel Systems, Inc. System and method for training an acoustic model with reduced feature space variation
JP5471106B2 (ja) * 2009-07-16 2014-04-16 独立行政法人情報通信研究機構 音声翻訳システム、辞書サーバ装置、およびプログラム
US9045098B2 (en) * 2009-12-01 2015-06-02 Honda Motor Co., Ltd. Vocabulary dictionary recompile for in-vehicle audio system
US20120330662A1 (en) * 2010-01-29 2012-12-27 Nec Corporation Input supporting system, method and program
EP2586193A4 (en) * 2010-06-28 2014-03-26 Nokia Corp METHOD AND APPARATUS FOR ACCESSING MULTIMEDIA CONTENT HAVING SUBTITLE DATA
US8484024B2 (en) * 2011-02-24 2013-07-09 Nuance Communications, Inc. Phonetic features for speech recognition
US10019995B1 (en) 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
US11062615B1 (en) 2011-03-01 2021-07-13 Intelligibility Training LLC Methods and systems for remote language learning in a pandemic-aware world
US8676580B2 (en) * 2011-08-16 2014-03-18 International Business Machines Corporation Automatic speech and concept recognition
RU2631164C2 (ru) * 2011-12-08 2017-09-19 Общество с ограниченной ответственностью "Базелевс-Инновации" Способ анимации sms-сообщений
CN103165129B (zh) * 2011-12-13 2015-07-01 北京百度网讯科技有限公司 一种优化语音识别声学模型的方法及系统
JP5787780B2 (ja) * 2012-01-25 2015-09-30 株式会社東芝 書き起こし支援システムおよび書き起こし支援方法
JP6019604B2 (ja) * 2012-02-14 2016-11-02 日本電気株式会社 音声認識装置、音声認識方法、及びプログラム
US9489940B2 (en) * 2012-06-11 2016-11-08 Nvoq Incorporated Apparatus and methods to update a language model in a speech recognition system
CN103680498A (zh) 2012-09-26 2014-03-26 华为技术有限公司 一种语音识别方法和设备
US8983849B2 (en) 2012-10-17 2015-03-17 Nuance Communications, Inc. Multiple device intelligent language model synchronization
WO2014172167A1 (en) * 2013-04-19 2014-10-23 Audience, Inc. Vocal keyword training from text
US20180317019A1 (en) 2013-05-23 2018-11-01 Knowles Electronics, Llc Acoustic activity detecting microphone
TWI508057B (zh) * 2013-07-15 2015-11-11 Chunghwa Picture Tubes Ltd 語音辨識系統以及方法
US20160004502A1 (en) * 2013-07-16 2016-01-07 Cloudcar, Inc. System and method for correcting speech input
JP2015060095A (ja) * 2013-09-19 2015-03-30 株式会社東芝 音声翻訳装置、音声翻訳方法およびプログラム
US9508345B1 (en) 2013-09-24 2016-11-29 Knowles Electronics, Llc Continuous voice sensing
CN103578465B (zh) * 2013-10-18 2016-08-17 威盛电子股份有限公司 语音辨识方法及电子装置
US9953634B1 (en) 2013-12-17 2018-04-24 Knowles Electronics, Llc Passive training for automatic speech recognition
CN103903615B (zh) * 2014-03-10 2018-11-09 联想(北京)有限公司 一种信息处理方法及电子设备
US9437188B1 (en) 2014-03-28 2016-09-06 Knowles Electronics, Llc Buffered reprocessing for multi-microphone automatic speech recognition assist
CN107112012B (zh) 2015-01-07 2020-11-20 美商楼氏电子有限公司 用于音频处理的方法和系统及计算机可读存储介质
JP6516585B2 (ja) * 2015-06-24 2019-05-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置、その方法及びプログラム
US10152298B1 (en) * 2015-06-29 2018-12-11 Amazon Technologies, Inc. Confidence estimation based on frequency
CN106935239A (zh) * 2015-12-29 2017-07-07 阿里巴巴集团控股有限公司 一种发音词典的构建方法及装置
JP6495850B2 (ja) * 2016-03-14 2019-04-03 株式会社東芝 情報処理装置、情報処理方法、プログラムおよび認識システム
JP6545633B2 (ja) * 2016-03-17 2019-07-17 株式会社東芝 単語スコア計算装置、単語スコア計算方法及びプログラム
CN105845139B (zh) * 2016-05-20 2020-06-16 北方民族大学 一种离线语音控制方法和装置
CN106297797B (zh) * 2016-07-26 2019-05-31 百度在线网络技术(北京)有限公司 语音识别结果纠错方法和装置
CN106710587A (zh) * 2016-12-20 2017-05-24 广东东田数码科技有限公司 一种语音识别数据预处理方法
CN107015969A (zh) * 2017-05-19 2017-08-04 四川长虹电器股份有限公司 可自我更新的语义理解系统与方法
KR102353486B1 (ko) * 2017-07-18 2022-01-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP6790003B2 (ja) * 2018-02-05 2020-11-25 株式会社東芝 編集支援装置、編集支援方法及びプログラム
US10846319B2 (en) * 2018-03-19 2020-11-24 Adobe Inc. Online dictionary extension of word vectors
CN108831473B (zh) * 2018-03-30 2021-08-17 联想(北京)有限公司 一种音频处理方法及装置
JP6910987B2 (ja) * 2018-06-07 2021-07-28 株式会社東芝 認識装置、認識システム、端末装置、サーバ装置、方法及びプログラム
CN110781270B (zh) * 2018-07-13 2024-10-29 北京搜狗科技发展有限公司 一种解码网络中非关键词模型的构建方法和装置
CN112997247A (zh) * 2018-11-05 2021-06-18 株式会社赛斯特安国际 利用大数据的最佳语言模型生成方法及用于其的装置
KR20200063521A (ko) * 2018-11-28 2020-06-05 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN110032626B (zh) * 2019-04-19 2022-04-12 百度在线网络技术(北京)有限公司 语音播报方法和装置
US11934779B2 (en) * 2019-05-30 2024-03-19 Sony Group Corporation Information processing device, information processing method, and program
CN110718226B (zh) * 2019-09-19 2023-05-05 厦门快商通科技股份有限公司 语音识别结果处理方法、装置、电子设备及介质
CN111475611B (zh) * 2020-03-02 2023-09-15 北京声智科技有限公司 词典管理方法、装置、计算机设备及存储介质
CN112037770B (zh) * 2020-08-03 2023-12-29 北京捷通华声科技股份有限公司 发音词典的生成方法、单词语音识别的方法和装置
US11829720B2 (en) * 2020-09-01 2023-11-28 Apple Inc. Analysis and validation of language models
JP7479249B2 (ja) * 2020-09-02 2024-05-08 株式会社日立ソリューションズ・テクノロジー 未知語検出方法及び未知語検出装置
JP2022074509A (ja) * 2020-11-04 2022-05-18 株式会社東芝 差分抽出装置、方法及びプログラム
JP7481999B2 (ja) * 2020-11-05 2024-05-13 株式会社東芝 辞書編集装置、辞書編集方法及び辞書編集プログラム
JP2023125311A (ja) * 2022-02-28 2023-09-07 国立研究開発法人情報通信研究機構 言語モデル学習装置、対話装置及び学習済言語モデル

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5855000A (en) * 1995-09-08 1998-12-29 Carnegie Mellon University Method and apparatus for correcting and repairing machine-transcribed input using independent or cross-modal secondary input
US5864805A (en) * 1996-12-20 1999-01-26 International Business Machines Corporation Method and apparatus for error correction in a continuous dictation system
US5933804A (en) * 1997-04-10 1999-08-03 Microsoft Corporation Extensible speech recognition system that provides a user with audio feedback
KR100277694B1 (ko) * 1998-11-11 2001-01-15 정선종 음성인식시스템에서의 발음사전 자동생성 방법
US6434521B1 (en) * 1999-06-24 2002-08-13 Speechworks International, Inc. Automatically determining words for updating in a pronunciation dictionary in a speech recognition system
US6622121B1 (en) * 1999-08-20 2003-09-16 International Business Machines Corporation Testing speech recognition systems using test data generated by text-to-speech conversion
JP3976959B2 (ja) 1999-09-24 2007-09-19 三菱電機株式会社 音声認識装置、音声認識方法および音声認識プログラム記録媒体
JP2002014693A (ja) 2000-06-30 2002-01-18 Mitsubishi Electric Corp 音声認識システム用辞書提供方法、および音声認識インタフェース
US6856956B2 (en) * 2000-07-20 2005-02-15 Microsoft Corporation Method and apparatus for generating and displaying N-best alternatives in a speech recognition system
JP2002091477A (ja) 2000-09-14 2002-03-27 Mitsubishi Electric Corp 音声認識システム、音声認識装置、音響モデル管理サーバ、言語モデル管理サーバ、音声認識方法及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体
US6975985B2 (en) * 2000-11-29 2005-12-13 International Business Machines Corporation Method and system for the automatic amendment of speech recognition vocabularies
JP4089861B2 (ja) 2001-01-31 2008-05-28 三菱電機株式会社 音声認識文章入力装置
JP2003108180A (ja) * 2001-09-26 2003-04-11 Seiko Epson Corp 音声合成方法および音声合成装置
JP2003186494A (ja) * 2001-12-17 2003-07-04 Sony Corp 音声認識装置および方法、記録媒体、並びにプログラム
JP2003316376A (ja) 2002-04-22 2003-11-07 Toshiba Corp 未知語登録装置および未知語登録方法
JP4217495B2 (ja) * 2003-01-29 2009-02-04 キヤノン株式会社 音声認識辞書作成方法、音声認識辞書作成装置及びプログラム、記録媒体
US7437296B2 (en) * 2003-03-13 2008-10-14 Matsushita Electric Industrial Co., Ltd. Speech recognition dictionary creation apparatus and information search apparatus
JP2004294542A (ja) 2003-03-25 2004-10-21 Mitsubishi Electric Corp 音声認識装置及びそのプログラム
US20040243412A1 (en) * 2003-05-29 2004-12-02 Gupta Sunil K. Adaptation of speech models in speech recognition
JP4515186B2 (ja) 2003-09-02 2010-07-28 株式会社ジー・エフグループ 音声辞書作成装置、音声辞書作成方法、及びプログラム
US7266495B1 (en) * 2003-09-12 2007-09-04 Nuance Communications, Inc. Method and system for learning linguistically valid word pronunciations from acoustic data
US7783474B2 (en) * 2004-02-27 2010-08-24 Nuance Communications, Inc. System and method for generating a phrase pronunciation
US7392186B2 (en) * 2004-03-30 2008-06-24 Sony Corporation System and method for effectively implementing an optimized language model for speech recognition
JP2004265440A (ja) 2004-04-28 2004-09-24 A I Soft Inc 未知語登録装置および方法並びに記録媒体
CN100524457C (zh) * 2004-05-31 2009-08-05 国际商业机器公司 文本至语音转换以及调整语料库的装置和方法
US7684988B2 (en) * 2004-10-15 2010-03-23 Microsoft Corporation Testing and tuning of automatic speech recognition systems using synthetic inputs generated from its acoustic models
US7590536B2 (en) * 2005-10-07 2009-09-15 Nuance Communications, Inc. Voice language model adjustment based on user affinity
US7756708B2 (en) * 2006-04-03 2010-07-13 Google Inc. Automatic language model update

Also Published As

Publication number Publication date
US20090024392A1 (en) 2009-01-22
WO2007097176A1 (ja) 2007-08-30
CN101432801A (zh) 2009-05-13
CN101432801B (zh) 2012-04-18
US8719021B2 (en) 2014-05-06
JP5040909B2 (ja) 2012-10-03

Similar Documents

Publication Publication Date Title
JP5040909B2 (ja) 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム
US7299178B2 (en) Continuous speech recognition method and system using inter-word phonetic information
US6934683B2 (en) Disambiguation language model
US7937262B2 (en) Method, apparatus, and computer program product for machine translation
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
Karpov et al. Large vocabulary Russian speech recognition using syntactico-statistical language modeling
Wang et al. Complete recognition of continuous Mandarin speech for Chinese language with very large vocabulary using limited training data
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
JP2008209717A (ja) 入力された音声を処理する装置、方法およびプログラム
Menacer et al. An enhanced automatic speech recognition system for Arabic
JP2008243080A (ja) 音声を翻訳する装置、方法およびプログラム
Al-Anzi et al. The impact of phonological rules on Arabic speech recognition
Illina et al. Grapheme-to-phoneme conversion using conditional random fields
KR101747873B1 (ko) 음성인식을 위한 언어모델 생성 장치 및 방법
Lin et al. Hierarchical prosody modeling for Mandarin spontaneous speech
Pellegrini et al. Automatic word decompounding for asr in a morphologically rich language: Application to amharic
JP4595415B2 (ja) 音声検索システムおよび方法ならびにプログラム
AbuZeina et al. Cross-word modeling for Arabic speech recognition
JP2011007862A (ja) 音声認識装置、音声認識プログラム、および音声認識方法
Gauvain et al. Speech-to-text conversion in French
JP2000259176A (ja) 音声認識装置およびその記録媒体
JP2012255867A (ja) 音声認識装置
KR100511247B1 (ko) 음성 인식 시스템의 언어 모델링 방법
JP4733436B2 (ja) 単語・意味表現組データベースの作成方法、音声理解方法、単語・意味表現組データベース作成装置、音声理解装置、プログラムおよび記憶媒体
WO2014035437A1 (en) Using character describer to efficiently input ambiguous characters for smart chinese speech dictation correction

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20080731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120625

R150 Certificate of patent or registration of utility model

Ref document number: 5040909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3