JP2001005480A - User uttering discriminating device and recording medium - Google Patents
User uttering discriminating device and recording mediumInfo
- Publication number
- JP2001005480A JP2001005480A JP11176813A JP17681399A JP2001005480A JP 2001005480 A JP2001005480 A JP 2001005480A JP 11176813 A JP11176813 A JP 11176813A JP 17681399 A JP17681399 A JP 17681399A JP 2001005480 A JP2001005480 A JP 2001005480A
- Authority
- JP
- Japan
- Prior art keywords
- character string
- user
- voice
- pronunciation
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、音声認識機能を備
えた各種の機器(例えばカーナビゲーションシステム)
に組み込んで用いるのに好適するユーザー発音判定装置
及び記録媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to various devices having a voice recognition function (for example, a car navigation system).
And a recording medium.
【0002】[0002]
【従来の技術】音声認識機能を備えたカーナビゲーショ
ンシステムでは、例えば地名を入力してその地名の地図
を表示したり、操作コマンドを入力したりする場合に、
ユーザーは、地名や操作コマンドを発声すれば入力する
ことができる。従って、面倒なキー操作が不要になるか
ら、ユーザーにとって非常に便利なシステムとなってい
る。2. Description of the Related Art In a car navigation system having a voice recognition function, for example, when a place name is input to display a map of the place name or input an operation command,
The user can input by uttering a place name or an operation command. Therefore, a troublesome key operation is not required, so that the system is very convenient for the user.
【0003】[0003]
【発明が解決しようとする課題】さて、上記構成の場
合、ユーザーが発声した言葉を誤認識することがあり、
その場合には、ユーザーが希望しない地名の地図が表示
されたり、該当する地図がないという結果になったり、
ユーザーが意図しないコマンドの操作(動作)が実行さ
れたりすることがあった。上記音声の誤認識が生ずる原
因の1つとして、例えば、ユーザーの発音が標準的な発
音でない場合(例えば訛っていたり、発音が不明確であ
ったりする場合など)がある。[0007] In the case of the above configuration, words uttered by a user may be erroneously recognized.
In that case, the user may see a map with a place name they do not want, or there may be no such map,
An operation (action) of a command not intended by the user was sometimes performed. One of the causes of the erroneous recognition of the voice is, for example, a case where the pronunciation of the user is not a standard pronunciation (for example, a case where the user is accentuated or the pronunciation is unclear).
【0004】しかし、上記従来構成の場合、ユーザーの
発音に原因があって誤認識が発声した場合であっても、
ユーザーが希望しない地名の地図が表示されたり、該当
する地図がないという結果になったりするだけで、誤認
識の原因は全くわからない構成となっている。このた
め、ユーザーの発音に原因がある場合でも、ユーザー
は、カーナビゲーションシステムの音声認識機能の性能
が悪いというように考えることが多かった。[0004] However, in the case of the above-mentioned conventional configuration, even if a false recognition is uttered due to a user's pronunciation,
The map is configured such that a map of a place name that the user does not desire is displayed, or that the map does not exist, but the cause of the misrecognition is completely unknown. For this reason, even if the pronunciation of the user has a cause, the user often thinks that the performance of the voice recognition function of the car navigation system is poor.
【0005】そこで、本発明の目的は、ユーザーの発音
に原因があって、音声を誤認識するような場合に、その
原因をユーザーに教示することができるユーザー発音判
定装置及び記録媒体を提供することにある。Accordingly, an object of the present invention is to provide a user pronunciation determination apparatus and a recording medium that can teach a user to cause a user to misunderstand a voice when the user has a cause in pronunciation. It is in.
【0006】[0006]
【課題を解決するための手段】請求項1の発明において
は、ユーザーが設定された文字列を読んで発声したとき
の音声を音声認識処理して前記音声に対応する文字列を
認識する音声認識手段を備え、この音声認識手段により
認識された文字列を表示する表示手段を備え、そして、
認識された文字列と設定された文字列とを比較して一致
しているか否かを判定する判定手段を備える構成とし
た。この構成によれば、ユーザーの発音に原因があっ
て、音声を誤認識するような場合に、ユーザーは自分の
発音に問題があることが容易にわかる。According to the first aspect of the present invention, there is provided a speech recognition apparatus for recognizing a character string corresponding to the set speech by performing a speech recognition process on a speech when the user reads and utters a set character string. Means, and display means for displaying a character string recognized by the voice recognition means, and
A configuration is provided that includes a determination unit that compares the recognized character string with the set character string to determine whether they match. According to this configuration, when there is a cause in the pronunciation of the user and the voice is erroneously recognized, the user can easily recognize that there is a problem in his / her pronunciation.
【0007】請求項2の発明によれば、判定手段によっ
て、認識された文字列と設定された文字列の相違してい
るところを教示するように構成したので、ユーザーは、
認識されない文字を明確に知ることができる。従って、
ユーザーは、認識されない文字の発音を矯正することが
可能になる。According to the second aspect of the present invention, the determination means teaches the difference between the recognized character string and the set character string.
Unrecognized characters can be clearly known. Therefore,
The user can correct the pronunciation of an unrecognized character.
【0008】請求項3の発明によれば、判定手段によっ
て、認識された文字列と設定された文字列の一致度を教
示するように構成したので、ユーザーは、認識された文
字列と設定された文字列の一致度を明確に知ることがで
き、発音の矯正に役立てることが可能となる。According to the third aspect of the present invention, since the determination unit teaches the degree of coincidence between the recognized character string and the set character string, the user can set the recognized character string as the recognized character string. It is possible to clearly know the degree of coincidence of the character string, and to use it for correction of pronunciation.
【0009】請求項4の発明によれば、認識された文字
列が設定された文字列に一致するまで、ユーザーが設定
された文字列を発声する処理を繰り返し実行するように
構成したので、ユーザーの発音を確実に矯正することが
でき、音声の誤認識をより一層防止することができる。According to the fourth aspect of the present invention, the user repeatedly performs the process of speaking the set character string until the recognized character string matches the set character string. Can be reliably corrected, and erroneous recognition of voice can be further prevented.
【0010】[0010]
【発明の実施の形態】以下、本発明をカーナビゲーショ
ンシステムに適用した一実施例について、図面を参照し
ながら説明する。まず、図2は本実施例のカーナビゲー
ションシステム1の全体概略構成を示すブロック図であ
る。この図2に示すように、カーナビゲーションシステ
ム1は、制御回路2と、位置検出器3と、地図データ入
力器4と、操作スイッチ群5と、通信装置6と、外部メ
モリ7と、表示装置(表示手段)8と、スピーカ9と、
音声処理部10とから構成されている。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the present invention is applied to a car navigation system will be described below with reference to the drawings. First, FIG. 2 is a block diagram illustrating the overall schematic configuration of the car navigation system 1 according to the present embodiment. As shown in FIG. 2, the car navigation system 1 includes a control circuit 2, a position detector 3, a map data input device 4, an operation switch group 5, a communication device 6, an external memory 7, a display device (Display means) 8, speaker 9,
An audio processing unit 10 is provided.
【0011】制御回路2は、カーナビゲーションシステ
ム1の動作全般を制御する機能を有しており、通常のコ
ンピュータ(例えばマイクロコンピュータ)として構成
されている。即ち、制御回路2は、CPU、ROM、R
AM、I/O及びこれらを接続するバス(いずれも図示
しない)を備えて構成されている。そして、上記制御回
路2が、本発明の文字列設定手段、判定手段及び繰り返
し手段としての各機能を有している。The control circuit 2 has a function of controlling the overall operation of the car navigation system 1, and is configured as a normal computer (for example, a microcomputer). That is, the control circuit 2 includes a CPU, a ROM, an R
It is configured to include an AM, an I / O, and a bus (not shown) for connecting these. The control circuit 2 has functions as a character string setting unit, a determination unit, and a repetition unit of the present invention.
【0012】また、位置検出器3は、GPS(Global P
ositioning System )受信機11と、ジャイロスコープ
12と、距離センサ13と、地磁気センサ14とから構
成されている。上記位置検出器3は、上記4つのセンサ
11〜14により互いに補間しながら車両の現在位置を
検出するように構成されており、高精度の位置検出機能
を有している。尚、位置検出精度をそれほど必要としな
い場合には、4つのセンサ11〜14のうちの何れかで
位置検出器3を構成しても良い。また、ステアリングの
回転センサや、各転動輪のセンサ等を組み合わせて位置
検出器3を構成しても良い。The position detector 3 is a GPS (Global P
The ositioning system includes a receiver 11, a gyroscope 12, a distance sensor 13, and a geomagnetic sensor 14. The position detector 3 is configured to detect the current position of the vehicle while interpolating each other by the four sensors 11 to 14, and has a highly accurate position detection function. When the position detection accuracy is not so required, the position detector 3 may be configured by any one of the four sensors 11 to 14. Further, the position detector 3 may be configured by combining a steering rotation sensor, a sensor of each rolling wheel, and the like.
【0013】地図データ入力器4は、例えばDVD−R
OM等の記録媒体を読み取る読取装置で構成されてお
り、地図データやマップマッチング用データや目印デー
タやHTML情報(インターネット情報)等を入力する
ための装置である。尚、上記記録媒体としては、例えば
CD−ROMやメモリカード等を用いても良い。The map data input device 4 is, for example, a DVD-R
It is configured by a reading device that reads a recording medium such as an OM, and is a device for inputting map data, map matching data, landmark data, HTML information (Internet information), and the like. The recording medium may be, for example, a CD-ROM or a memory card.
【0014】表示装置8は、例えば液晶ディスプレイ等
で構成されており、カラー表示が可能であると共に地図
や文字や画像等を明確に表示可能な表示画面15(図4
ないし図7参照)を備えている。この表示装置8の表示
画面15には、車両の現在位置マークと、地図データ
と、地図上に表示する誘導経路等の付加データとを重ね
て表示することができるように構成されている。The display device 8 is composed of, for example, a liquid crystal display or the like, and is capable of color display and a display screen 15 (FIG. 4) capable of clearly displaying maps, characters, images, and the like.
To FIG. 7). The display screen 15 of the display device 8 is configured so that a current position mark of the vehicle, map data, and additional data such as a guide route to be displayed on the map can be displayed in a superimposed manner.
【0015】操作スイッチ群5は、上記表示装置8の表
示画面15の上面に設けられたタッチスイッチ(タッチ
パネル)と、表示画面15の周辺部に設けられたメカニ
カルなプッシュスイッチ等とから構成されている。通信
装置6は、例えばインフラデータを送受信する装置であ
ると共に、VICS(Vehicle Information & Communic
ation System)情報を受信する装置である。更に、スピ
ーカ9は、各種の操作手順の案内や経路案内等の音声、
並びに、ユーザーに発声させるための文字列の標準的な
音声(発生)を出力するための装置である。The operation switch group 5 includes a touch switch (touch panel) provided on the upper surface of the display screen 15 of the display device 8 and a mechanical push switch provided on the periphery of the display screen 15. I have. The communication device 6 is, for example, a device that transmits and receives infrastructure data, and has a VICS (Vehicle Information & Communic).
ation System) device. Further, the speaker 9 provides voices for guidance of various operation procedures and route guidance, and the like.
Also, it is a device for outputting a standard voice (generation) of a character string for making the user utter.
【0016】また、上記カーナビゲーションシステム1
の制御回路2は、ユーザーが操作スイッチ群5やリモコ
ン18を操作して目的地を設定すると、現在位置から上
記目的地までの最適経路(誘導経路)を自動的に設定す
る機能や、現在位置を地図上に位置付けるマップマッチ
ング処理を実行する機能や、汎用情報である例えばHT
ML情報(インターネット情報)を閲覧する機能等を備
えている。尚、上記自動的に最適経路を設定する方法と
しては、例えばダイクストラ法等が知られている。The car navigation system 1
The control circuit 2 has a function of automatically setting an optimal route (guidance route) from the current position to the destination when a user operates the operation switch group 5 or the remote controller 18 to set a destination. To perform a map matching process for positioning a map on a map, and general information such as HT
A function for browsing ML information (Internet information) is provided. As a method for automatically setting the optimum route, for example, the Dijkstra method is known.
【0017】さて、音声処理部10は、音声認識ユニッ
ト16と、ユーザーが発声する音声を入力するマイク1
7とを備えて構成されている。上記音声認識ユニット1
6は、図3に示すように、辞書部18a及び照合部18
bからなる認識部18と、過去の照合に基づく学習結果
や外部の状況を保存する記憶部19とを備えて構成され
ている。そして、上記音声処理部10が本発明の音声認
識手段としての機能を備えている。The voice processing unit 10 includes a voice recognition unit 16 and a microphone 1 for inputting voice uttered by a user.
7 are provided. The above speech recognition unit 1
6 is a dictionary unit 18a and a collating unit 18 as shown in FIG.
b, and a storage unit 19 for storing learning results based on past matching and external situations. The voice processing unit 10 has a function as voice recognition means of the present invention.
【0018】尚、記憶部19内に保存される外部の状況
には、制御回路2から通知される車両の現在地の情報
や、表示装置8の表示状態の情報や、ユーザーが設定し
た認識のルール(例えば、音声認識する際にコマンドと
して認識すべき予約語)等が含まれている。また、上記
辞書部18a内には、ユーザーが登録した単語を含む認
識対象語彙、及びその語彙同士の関連を表した構造が記
憶されている。The external situation stored in the storage unit 19 includes information on the current location of the vehicle notified from the control circuit 2, information on the display state of the display device 8, and the recognition rules set by the user. (For example, a reserved word to be recognized as a command when recognizing a voice). The dictionary unit 18a stores a recognition target vocabulary including a word registered by the user and a structure representing the relation between the vocabulary.
【0019】そして、認識部18bにおいては、マイク
17を介して音声入力があると、過去の学習結果に基づ
いて、その音声入力に最も近い文字(文字列)を辞書部
18aから選択する照合処理が行われるように構成され
ている。尚、この照合処理は、すでに知られている照合
処理用のプログラム(アルゴリズム)を用いて実行され
るようになっている。更に、認識部18bでは、上記照
合結果と記憶部19に記憶されている予約語とを比較
し、一致すれば対応するコマンドとして、一致しなけれ
ばカナ文字データとして、制御回路2に出力する処理が
実行されるように構成されている。When there is a voice input via the microphone 17, the recognition unit 18b selects a character (character string) closest to the voice input from the dictionary unit 18a based on the past learning result. Is configured to be performed. Note that this collation processing is executed using a known program (algorithm) for collation processing. Further, the recognizing unit 18b compares the result of the collation with the reserved word stored in the storage unit 19, and outputs to the control circuit 2 as a corresponding command if they match, or as kana character data if they do not match. Is configured to be executed.
【0020】次に、上記構成の作用、具体的には、ユー
ザーが発声する音声(発音)を矯正するために使用する
発音矯正モード(発音矯正運転)の動作について、図
1、図4〜図7も参照して説明する。尚、図1のフロー
チャートは、制御回路2に記憶されている制御プログラ
ムのうちの上記発音矯正モードに相当する部分制御の内
容を示すものである。Next, the operation of the above configuration, specifically, the operation in the pronunciation correction mode (pronunciation correction operation) used to correct the voice (pronunciation) uttered by the user will be described with reference to FIGS. 7 will also be described. The flowchart of FIG. 1 shows the contents of the partial control corresponding to the above-mentioned pronunciation correcting mode in the control program stored in the control circuit 2.
【0021】まず、カーナビゲーションシステム1の例
えばメニュー選択画面(図示しない)において、上記発
音矯正モードを、選択スイッチを操作したり、選択コマ
ンドを音声入力したりして選択する。そして、この選択
がなされると、発音矯正モードが実行開始され、ステッ
プS100にて「YES」へ進み、制御回路2は、外部
メモリ7から特定の名称の文字列を読み込む処理を実行
する(ステップS110)。この特定の名称の文字列
は、発音矯正用の文字列、即ち、ユーザーに発声させる
ための文字列(予め設定された文字列)であり、本実施
例では、「あいちけんとよたし」を用いた。尚、上記特
定の名称の文字列として、他の文字列を使用しても良い
し、また、複数の文字列の中から適宜選択するように構
成しても良いし、また、ユーザーに選択させるように構
成しても良い。First, on the menu selection screen (not shown) of the car navigation system 1, for example, the pronunciation correction mode is selected by operating a selection switch or inputting a selection command by voice. When this selection is made, the pronunciation correcting mode is started, and the process proceeds to "YES" in step S100, and the control circuit 2 executes a process of reading a character string having a specific name from the external memory 7 (step S100). S110). The character string of this specific name is a character string for pronunciation correction, that is, a character string for causing the user to utter (a character string set in advance). In the present embodiment, “Aichiken Toyoshi” is used. Was. It should be noted that another character string may be used as the character string having the specific name, or may be appropriately selected from a plurality of character strings, or may be selected by the user. It may be configured as follows.
【0022】続いて、ステップS120へ進み、制御回
路2は、上記読み込んだ文字列を表示装置8に、図4に
示すような表示形態で表示し、発声を催促する画面を表
示する。これと共に、ステップS130へ進み、制御回
路2は、上記読み込んだ文字列に対応する音声を合成
し、この音声をスピーカ9から出力(発生)させる。
尚、この音声を合成する処理は、例えば音声処理部10
にて実行されるように構成されている。そして、ユーザ
ーは、スピーカ9から出力された音声を聞くことによ
り、上記特定の名称の文字列の標準的な発声(発音)を
聞くことができる。Then, the process proceeds to step S120, where the control circuit 2 displays the read character string on the display device 8 in a display form as shown in FIG. 4, and displays a screen for urging the user to speak. At the same time, the process proceeds to step S130, where the control circuit 2 synthesizes a voice corresponding to the read character string, and outputs (generates) the voice from the speaker 9.
The process of synthesizing the voice is performed, for example, by the voice processing unit 10.
It is configured to be executed by. Then, the user can hear a standard utterance (pronunciation) of the character string having the specific name by listening to the sound output from the speaker 9.
【0023】ここで、ユーザーが上記特定の名称の文字
列を読んで発声(発音)するのを待つ(ステップS14
0)。この待機状態で、ユーザーが上記特定の名称の文
字列を読んで発声すると、その音声は、マイク17を通
して制御回路2に入力され、音声処理部10へ送られ
る。すると、ステップS140にて「YES」へ進み、
ステップS150に移行し、ここで、ユーザーが発声し
た音声を、音声処理部10にて音声認識処理することに
より、上記音声に対応する文字列、即ち、名称を認識
(特定)する。そして、この特定結果の文字列(即ち、
発声された文字列)は、制御回路2へ送られるように構
成されている。Here, it waits for the user to read the character string having the specific name and to utter (pronounce) it (step S14).
0). In this standby state, when the user reads the character string having the specific name and utters the voice, the voice is input to the control circuit 2 through the microphone 17 and sent to the voice processing unit 10. Then, the process proceeds to “YES” in step S140,
The process proceeds to step S150, in which the voice uttered by the user is subjected to voice recognition processing in the voice processing unit 10, thereby recognizing (identifying) a character string corresponding to the voice, that is, a name. Then, the character string of this specific result (ie,
The uttered character string) is sent to the control circuit 2.
【0024】続いて、ステップS160へ進み、制御回
路2は、上記発声された文字列と前記設定された文字列
(即ち、特定の名称の文字列)とを比較する処理を行
う。ここで、両者が一致したら、ステップS160にて
「一致」へ進み、ステップS180へ移行し、ここで、
ユーザーが発声した音声が合っていること、即ち、ユー
ザーが発声した音声が標準的であり、正しく音声認識さ
れたことを、表示装置8に表示する。この場合、図5に
示すように、認識結果の文字列を表示すると共に、「あ
っています」というメッセージを表示するように構成さ
れており、この表示された画面が発声一致画面である。
そして、この後は、上記した発音矯正モードを終了する
ように構成されている。Subsequently, the process proceeds to step S160, where the control circuit 2 performs a process of comparing the uttered character string with the set character string (that is, a character string having a specific name). Here, if they match, the process proceeds to “match” in step S160, and the process proceeds to step S180.
The fact that the voice uttered by the user matches, that is, that the voice uttered by the user is standard and has been correctly recognized is displayed on the display device 8. In this case, as shown in FIG. 5, it is configured to display the character string of the recognition result and to display a message of "meeting", and the displayed screen is the utterance matching screen.
Then, after that, the above-described pronunciation correction mode is ended.
【0025】一方、上記ステップS160において、発
声された文字列と設定された文字列が一致しない場合に
は、「不一致」へ進み、ステップS170へ移行する。
このステップS170においては、図6に示すように、
不一致の結果、即ち、言葉が違っている旨のメッセージ
と、認識結果の文字列(発声された文字列)とを表示装
置8に表示する。ここで、認識結果の文字列のうちの設
定された文字列と異なる文字については、例えば反転表
示するように構成されている。また、言葉が違っている
旨のメッセージについては、音声で出力してユーザーに
教えるように構成しても良い。On the other hand, if it is determined in step S160 that the uttered character string does not match the set character string, the process proceeds to “mismatch” and proceeds to step S170.
In this step S170, as shown in FIG.
A result of the disagreement, that is, a message indicating that the words are different, and a character string of the recognition result (uttered character string) are displayed on the display device 8. Here, a character different from the set character string in the character string of the recognition result is configured to be displayed in reverse video, for example. Further, a message indicating that the language is different may be output as a voice to teach the user.
【0026】尚、上記異なる文字を見つけ出すに当たっ
ては、両方の文字数が同じ場合は、1文字ずつ比較すれ
ば良い。また、両方の文字数が異なる場合は、適当なア
ルゴリズムを用いることにより、両方の文字列につい
て、一致している部分(文字列)をできるだけ多く見つ
け出すような処理を実行して、異なる文字や文字抜け等
の相違点を表示(指摘)するように構成することが好ま
しい。更に、認識された文字列と設定された文字列の一
致度(例えば図6の場合、9文字のうちの8文字が一致
しているから、一致度は、8/9、即ち、約89%とな
る)を表示画面に表示するように構成しても良い。尚、
上記一致度を、表示する代わりに、音声で出力してユー
ザーに教えるように構成しても良い。In order to find the different characters, if both characters have the same number, the characters may be compared one by one. If the numbers of characters are different, an appropriate algorithm is used to execute a process to find as many matching portions (character strings) as possible for both character strings, thereby obtaining different characters and missing characters. It is preferable to display (point out) differences such as. Further, the degree of coincidence between the recognized character string and the set character string (for example, in the case of FIG. 6, eight of nine characters match, the degree of coincidence is 8/9, that is, about 89% May be displayed on the display screen. still,
Instead of displaying the degree of coincidence, it may be configured to output it by voice and to teach the user.
【0027】そして、図6に示すように、認識結果を例
えば所定時間(数秒ないし数十秒程度の時間)表示した
後は、ステップS120へ進み、ここで、図7に示すよ
うに、ユーザーに対して、もう一度発声を促すメッセー
ジ(即ち、発声催促画面)を表示するように構成されて
いる。続いて、ステップS130以降の処理を、前述し
たようにして繰り返すようになっている。尚、ステップ
S130の処理、即ち、設定された文字列を、カーナビ
ゲーションシステム1が標準的な発音で発声する処理に
ついては、2回目以降は省略するように構成しても良い
し、繰り返し発声するように構成しても良い。Then, as shown in FIG. 6, after displaying the recognition result, for example, for a predetermined time (time of about several seconds to several tens of seconds), the process proceeds to step S120, where the user is prompted as shown in FIG. On the other hand, it is configured to display a message prompting utterance again (that is, an utterance prompting screen). Subsequently, the processing after step S130 is repeated as described above. Note that the processing in step S130, that is, the processing in which the car navigation system 1 utters the set character string with standard pronunciation may be omitted in the second and subsequent times, or may be repeated. It may be configured as follows.
【0028】また、本実施例では、ステップS170に
て、認識結果を所定時間表示するように構成したが、こ
れに代えて、認識結果を表示すると共に、発音矯正モー
ドを続けるか否かを、ユーザーに問い合わせるように構
成しても良い。この構成の場合、ユーザーが発音矯正モ
ードを続ける応答をしたときには、ステップS120へ
移行すれば良い。また、ユーザーが発音矯正モードを終
了する応答をしたときには、発音矯正モードを終了する
ように構成すれば良い。In this embodiment, the recognition result is displayed for a predetermined time in step S170. Instead, the recognition result is displayed and whether or not to continue the pronunciation correction mode is determined. It may be configured to ask the user. In the case of this configuration, when the user makes a response to continue the pronunciation correction mode, the process may proceed to step S120. Further, when the user responds to end the pronunciation correction mode, the pronunciation correction mode may be terminated.
【0029】このような構成の本実施例においては、設
定された文字列をユーザーが読んで発声したときの音声
を、音声認識処理してその音声に対応する文字列を認識
した後、この音声認識した文字列を表示し、そして、認
識された文字列と設定された文字列とを比較して一致し
ているか否かを判定するように構成した。この構成によ
れば、ユーザーの発音に原因があって、音声を誤認識す
るような場合に、ユーザーは自分の発音に問題があるこ
とを容易に認識できる。In this embodiment having the above-described structure, the voice when the user reads and utters the set character string is subjected to voice recognition processing to recognize the character string corresponding to the voice, and then the voice is processed. The recognized character string is displayed, and the recognized character string is compared with the set character string to determine whether or not they match. According to this configuration, when there is a cause in the user's pronunciation and the voice is erroneously recognized, the user can easily recognize that there is a problem in his / her pronunciation.
【0030】また、上記実施例では、図6に示すよう
に、認識された文字列と設定された文字列の相違してい
るところを表示(教示)するように構成したので、ユー
ザーは、認識されない文字を明確に知ることができ、そ
の認識されない文字の発音が標準的な発音となるように
矯正することが可能になる。更に、上記実施例では、認
識された文字列と設定された文字列の一致度を表示(教
示)するように構成したので、ユーザーは、認識された
文字列と設定された文字列の一致度を明確に知ることが
できる。Further, in the above embodiment, as shown in FIG. 6, the difference between the recognized character string and the set character string is displayed (taught). The unrecognized character can be clearly known, and the pronunciation of the unrecognized character can be corrected so that it becomes a standard pronunciation. Further, in the above embodiment, the configuration is such that the degree of coincidence between the recognized character string and the set character string is displayed (taught), so that the user can check the degree of coincidence between the recognized character string and the set character string. Can be clearly understood.
【0031】更にまた、上記実施例では、認識された文
字列が設定された文字列に一致するまで、ユーザーが設
定された文字列を発声する処理を繰り返し実行するよう
に構成したので、ユーザーの発音を確実に矯正すること
ができ、音声の誤認識をより一層防止することができ
る。Further, in the above-described embodiment, the user repeatedly performs the process of uttering the set character string until the recognized character string matches the set character string. The pronunciation can be reliably corrected, and erroneous recognition of the voice can be further prevented.
【0032】尚、上記実施例では、カーナビゲーション
システム1の例えばメニュー選択画面において選択スイ
ッチ等を操作することにより、発音矯正モードを選択し
て実行するように構成したが、これに限られるものでは
ない。例えば、地図を表示している画面やその他のナビ
の画面で、特定の操作スイッチを操作したり、特定の複
数の操作スイッチを操作したりすることにより、上記発
音矯正モードを選択して実行できるように構成しても良
い。In the above embodiment, the pronunciation correction mode is selected and executed by operating a selection switch on the menu selection screen of the car navigation system 1, for example. However, the present invention is not limited to this. Absent. For example, by operating a specific operation switch or operating a plurality of specific operation switches on a screen displaying a map or another navigation screen, the pronunciation correction mode can be selected and executed. It may be configured as follows.
【0033】また、上記実施例においては、カーナビゲ
ーションシステム1を動作させるためのプログラム(即
ち、文字列設定手段、判定手段、繰り返し手段及び音声
認識手段としての各機能を実現するプログラム)を制御
回路2のROM内に格納するように構成した。この構成
の場合、上記プログラムを格納するROMを、制御回路
2を構成するプリント配線基板に対して交換可能に構成
しても良い。また、上記プログラムをCD−ROMやD
VD−ROM等の記録媒体に格納しておくと共に、制御
回路2にフラッシュメモリ等の書き換え可能な不揮発性
メモリを配設しておき、上記プログラムを記録媒体から
不揮発性メモリに転送するように構成しても良い。In the above embodiment, a program for operating the car navigation system 1 (ie, a program for realizing each function as a character string setting unit, a judgment unit, a repetition unit, and a voice recognition unit) is controlled by a control circuit. 2 was stored in the ROM. In the case of this configuration, the ROM storing the program may be configured to be replaceable for the printed circuit board configuring the control circuit 2. In addition, the above program is stored on a CD-ROM or D-ROM.
A configuration in which the program is stored in a recording medium such as a VD-ROM, a rewritable nonvolatile memory such as a flash memory is provided in the control circuit 2, and the program is transferred from the recording medium to the nonvolatile memory. You may.
【0034】尚、上記実施例においては、本発明のユー
ザー発音判定装置をカーナビゲーションシステム1に適
用したが、これに限られるものではなく、携帯型のナビ
ゲーションシステムに適用しても良いし、また、音声認
識機能を備えた種々の電気機器に適用しても良い。In the above embodiment, the user pronunciation determination device of the present invention is applied to the car navigation system 1. However, the present invention is not limited to this, and may be applied to a portable navigation system. Alternatively, the present invention may be applied to various electric devices having a voice recognition function.
【図1】本発明の一実施例を示すフローチャートFIG. 1 is a flowchart showing an embodiment of the present invention.
【図2】カーナビゲーションシステムのブロック図FIG. 2 is a block diagram of a car navigation system.
【図3】音声認識ユニットのブロック図FIG. 3 is a block diagram of a speech recognition unit.
【図4】発声催促画面を示す図FIG. 4 is a diagram showing a voice prompting screen.
【図5】発声一致画面を示す図FIG. 5 is a diagram showing an utterance matching screen;
【図6】発声不一致画面を示す図FIG. 6 is a diagram showing an utterance mismatch screen;
【図7】2回目以降の発声催促画面を示す図FIG. 7 is a diagram showing the second and subsequent vocalization prompting screens;
1はカーナビゲーションシステム、2は制御回路(文字
列設定手段、判定手段及び繰り返し手段)、4は地図デ
ータ入力器、5は操作スイッチ群、8は表示装置、9は
スピーカ、10は音声処理部(音声認識手段)、15は
表示画面、16は音声認識ユニット、17はマイク、1
8は認識部、18aは辞書部、18bは照合部、19は
記憶部を示す。1 is a car navigation system, 2 is a control circuit (character string setting means, determination means and repetition means), 4 is a map data input device, 5 is an operation switch group, 8 is a display device, 9 is a speaker, and 10 is a voice processing unit. (Voice recognition means), 15 is a display screen, 16 is a voice recognition unit, 17 is a microphone, 1
Reference numeral 8 denotes a recognition unit, 18a denotes a dictionary unit, 18b denotes a collation unit, and 19 denotes a storage unit.
Claims (5)
定する文字列設定手段と、 ユーザーが前記設定された文字列を読んで発声したとき
の音声を音声認識処理して前記音声に対応する文字列を
認識する音声認識手段と、 この音声認識手段により認識された文字列を表示する表
示手段と、 前記認識された文字列と前記設定された文字列とを比較
して一致しているか否かを判定する判定手段とを備えて
成るユーザー発音判定装置。1. A character string setting means for setting a character string to be uttered by a user, and a character corresponding to the voice by performing a voice recognition process on a voice when the user reads and utters the set character string. Voice recognition means for recognizing a string, display means for displaying a character string recognized by the voice recognition means, and comparing the recognized character string with the set character string to determine whether they match. A user pronunciation determination device, comprising: determination means for determining a user pronunciation.
と前記設定された文字列の相違しているところを教示す
るように構成されていることを特徴とする請求項1記載
のユーザー発音判定装置。2. The user pronunciation according to claim 1, wherein said determination means is configured to teach a difference between said recognized character string and said set character string. Judgment device.
と前記設定された文字列の一致度を教示するように構成
されていることを特徴とする請求項1または2記載のユ
ーザー発音判定装置。3. The user pronunciation determination according to claim 1, wherein the determination unit is configured to teach a degree of coincidence between the recognized character string and the set character string. apparatus.
文字列に一致するまで、ユーザーが前記設定された文字
列を発声する処理を繰り返し実行させる繰り返し手段を
備えたことを特徴とする請求項1ないし3のいずれかに
記載のユーザー発音判定装置。4. A repetition means for causing a user to repeatedly execute a process of uttering the set character string until the recognized character string matches the set character string. Item 4. The user pronunciation determination device according to any one of Items 1 to 3.
グラムを記録する記録媒体において、 前記プログラムは、 ユーザーに発声させるための文字列を設定する文字列設
定手段としての機能と、 ユーザーが前記設定された文字列を読んで発声したとき
の音声を音声認識処理して前記音声に対応する文字列を
認識する音声認識手段としての機能と、 この音声認識手段により認識された文字列を表示する表
示手段としての機能と、 前記認識された文字列と前記設定された文字列とを比較
して一致しているか否かを判定する判定手段としての機
能とを実現するように構成されていることを特徴とする
記録媒体。5. A recording medium for recording a program for operating a user pronunciation determination device, the program comprising: a function as character string setting means for setting a character string for uttering a user; A function as voice recognition means for recognizing a character string corresponding to the voice by reading the character string and uttering the voice and performing voice recognition processing; and a display means for displaying the character string recognized by the voice recognition means. And a function as a determination unit for comparing the recognized character string with the set character string to determine whether or not they match each other, Recording medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11176813A JP2001005480A (en) | 1999-06-23 | 1999-06-23 | User uttering discriminating device and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11176813A JP2001005480A (en) | 1999-06-23 | 1999-06-23 | User uttering discriminating device and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001005480A true JP2001005480A (en) | 2001-01-12 |
Family
ID=16020302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11176813A Pending JP2001005480A (en) | 1999-06-23 | 1999-06-23 | User uttering discriminating device and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001005480A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008262120A (en) * | 2007-04-13 | 2008-10-30 | Nippon Hoso Kyokai <Nhk> | Utterance evaluation device and program |
JP2021089376A (en) * | 2019-12-05 | 2021-06-10 | Tvs Regza株式会社 | Information processing device and program |
JP2021177261A (en) * | 2018-02-19 | 2021-11-11 | ヤフー株式会社 | Determination apparatus, determination method, determination program, and program |
-
1999
- 1999-06-23 JP JP11176813A patent/JP2001005480A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008262120A (en) * | 2007-04-13 | 2008-10-30 | Nippon Hoso Kyokai <Nhk> | Utterance evaluation device and program |
JP2021177261A (en) * | 2018-02-19 | 2021-11-11 | ヤフー株式会社 | Determination apparatus, determination method, determination program, and program |
JP7278340B2 (en) | 2018-02-19 | 2023-05-19 | ヤフー株式会社 | Decision device, decision method, and decision program |
JP2021089376A (en) * | 2019-12-05 | 2021-06-10 | Tvs Regza株式会社 | Information processing device and program |
JP7248564B2 (en) | 2019-12-05 | 2023-03-29 | Tvs Regza株式会社 | Information processing device and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4997796B2 (en) | Voice recognition device and navigation system | |
JP2004029270A (en) | Voice controller | |
US20070005358A1 (en) | Method for determining a list of hypotheses from a vocabulary of a voice recognition system | |
US6879953B1 (en) | Speech recognition with request level determination | |
JP4914632B2 (en) | Navigation device | |
JP2000338993A (en) | Voice recognition device and navigation system using this device | |
JP2005275228A (en) | Navigation system | |
JP2002350146A (en) | Navigation device | |
JP4942406B2 (en) | Navigation device and voice output method thereof | |
JP2002287792A (en) | Voice recognition device | |
JP3890774B2 (en) | Navigation system | |
JP2001005480A (en) | User uttering discriminating device and recording medium | |
KR101063607B1 (en) | Navigation system having a name search function using voice recognition and its method | |
JP3849283B2 (en) | Voice recognition device | |
JP3500948B2 (en) | Voice recognition device | |
JP3911835B2 (en) | Voice recognition device and navigation system | |
JP2003029778A (en) | Voice interactive interface processing method in navigation system | |
JP2001306088A (en) | Voice recognition device and processing system | |
JP2001092493A (en) | Speech recognition correcting system | |
JPH09114487A (en) | Device and method for speech recognition, device and method for navigation, and automobile | |
JP2005114964A (en) | Method and processor for speech recognition | |
JP2006039954A (en) | Database retrieval system, program, and navigation system | |
JP3358498B2 (en) | Voice recognition device and navigation system | |
JP2003330488A (en) | Voice recognition device | |
JP2002108389A (en) | Method and device for retrieving and extracting individual's name by speech, and on-vehicle navigation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090210 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090616 |