Nothing Special   »   [go: up one dir, main page]

JP4869642B2 - Voice recognition apparatus and vehicular travel guidance apparatus including the same - Google Patents

Voice recognition apparatus and vehicular travel guidance apparatus including the same Download PDF

Info

Publication number
JP4869642B2
JP4869642B2 JP2005180751A JP2005180751A JP4869642B2 JP 4869642 B2 JP4869642 B2 JP 4869642B2 JP 2005180751 A JP2005180751 A JP 2005180751A JP 2005180751 A JP2005180751 A JP 2005180751A JP 4869642 B2 JP4869642 B2 JP 4869642B2
Authority
JP
Japan
Prior art keywords
place name
data
display information
display
name
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005180751A
Other languages
Japanese (ja)
Other versions
JP2007003602A (en
Inventor
教明 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2005180751A priority Critical patent/JP4869642B2/en
Publication of JP2007003602A publication Critical patent/JP2007003602A/en
Application granted granted Critical
Publication of JP4869642B2 publication Critical patent/JP4869642B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Description

本発明は、音声認識装置及びこれを備えた車両用走行誘導装置に関する。   The present invention relates to a speech recognition device and a vehicle travel guidance device including the same.

近年、車両が現在走行している位置情報を人工衛星から受信し、車両の位置情報を地図情報と共に表示部に表示し、運転者を誘導する車両用走行誘導装置が実用化されている。さらに、車両用走行誘導装置では、音声によって目的地設定などの操作を可能とするための音声認識装置を備えたものが実用化されている。この音声認識装置はユーザに要する操作の容易化を意図するものである。ところが、音声認識の対象語は、地名、施設名など膨大な数にのぼり、入力音声との比較を基本処理とする音声認識処理は必然的に時間がかかり、また誤認識の可能性も高くなっている。   2. Description of the Related Art In recent years, a vehicular travel guidance device that receives position information where a vehicle is currently traveling from an artificial satellite, displays vehicle position information together with map information on a display unit, and guides a driver has been put into practical use. Further, a vehicle travel guidance device that has a voice recognition device for enabling operations such as destination setting by voice has been put into practical use. This speech recognition device is intended to facilitate the operations required by the user. However, the number of target words for speech recognition is enormous, such as place names and facility names, and speech recognition processing based on comparison with input speech inevitably takes time, and the possibility of misrecognition increases. ing.

そのため、特許文献1では目的地設定などの操作の容易化を図り、音声認識処理時間の短縮を図り、しかも誤認識の可能性も低くすることのできる音声認識装置及び該音声認識装置が搭載されたナビゲーション装置を提案している。特許文献1の提案技術によれば、認識辞書が記憶する比較データのうちから、音声認識処理を行う処理対象データを例えば指定した地図の範囲に絞り込むことができる。これによって、音声認識処理時間を短縮し、また誤認識の可能性を低くすることができ、結果として入力音声の認識結果のうちから所望の対象を選択する操作の容易化を図ることが可能である。
特開2004−20883号公報
For this reason, Patent Document 1 is equipped with a speech recognition device that facilitates operations such as destination setting, shortens the speech recognition processing time, and reduces the possibility of erroneous recognition, and the speech recognition device. A navigation device has been proposed. According to the proposed technique of Patent Literature 1, it is possible to narrow down processing target data to be subjected to speech recognition processing, for example, to a designated map range from comparison data stored in a recognition dictionary. As a result, the voice recognition processing time can be shortened and the possibility of erroneous recognition can be reduced. As a result, the operation of selecting a desired target from the recognition results of the input voice can be facilitated. is there.
JP 2004-20883 A

しかしながら、音声認識装置には上述の課題以外にも、以下に示す課題が存在する。音声認識装置が備える音声認識辞書は、入力音声を認識するための比較対象として比較データを有している。比較データのうち地名に関する比較データ(以下、地名比較データという。)は、一般的には地域単位でまとめて構成され、さらに地名比較データ全体は地域単位でまとめて構成されたものの集合体として構成される。このようにして地名比較データ全体を構成した場合、同一名称の地名が複数の地域に存在すると、それぞれに対応する地名比較データが存在することになる。例えば地名比較データ全体が全米や日本全国を対象とするものであり、地域が州や都道府県である場合には、同一名称の地名それぞれに地名比較データが存在すると、地名比較データ全体はより膨大なデータとなってしまう。また、これら地名比較データは入力音声を認識する上で比較の対象となるため、地名比較データ数が多いとそれだけ音声認識処理時間も増大してしまう。また、入力音声の認識結果としても、異なる地域に存在する同一名称の地名が複数候補地名として挙がるため、ユーザが認識結果のうちから所望する目的地を探し出し選択するのに時間がかかるという問題も発生してしまう。   However, the speech recognition apparatus has the following problems in addition to the problems described above. The speech recognition dictionary provided in the speech recognition apparatus has comparison data as a comparison target for recognizing input speech. Of the comparison data, comparison data related to place names (hereinafter referred to as place name comparison data) is generally organized in units of regions, and the entire place name comparison data is organized as a collection of items organized in units of regions. Is done. When the place name comparison data as a whole is configured in this way, if place names with the same name exist in a plurality of regions, place name comparison data corresponding to each of them exists. For example, if the entire place name comparison data covers the United States and all over Japan, and the region is a state or prefecture, the place name comparison data exists for each place name with the same name. Data. In addition, since the place name comparison data is a comparison target when recognizing the input voice, the voice recognition processing time increases as the number of place name comparison data increases. In addition, as a result of recognition of the input speech, since a plurality of place names with the same name existing in different regions are listed as a plurality of candidate place names, there is a problem that it takes time for the user to find and select a desired destination from among the recognition results. Will occur.

本発明は、上記課題に鑑みてなされたものであり、音声認識辞書が有する比較データの容量を好適に抑制し、同時に音声認識処理時間を短縮するとともに入力音声の認識結果のうちからユーザが所望の目的地を選択する操作の操作性向上を図ることが可能な音声認識装置及びこれを備えた車両用走行誘導装置を提供することを目的とする。   The present invention has been made in view of the above problems, and suitably suppresses the volume of comparison data included in the speech recognition dictionary, and at the same time, shortens the speech recognition processing time and the user desires from the recognition results of the input speech. It is an object of the present invention to provide a voice recognition device capable of improving the operability of an operation for selecting a destination and a vehicle travel guidance device including the same.

上記課題を解決するために、本発明は、入力音声を認識するための比較データを格納する音声認識辞書と、前記入力音声に基づき生成される入力音声データと前記比較データとを比較して前記入力音声を認識し、該入力音声の認識結果を出力する音声認識部とを備えた音声認識装置であって、前記音声認識辞書は、地名を表示情報として有する地名比較データを有し、前記地名比較データは、地名単位でユニークな構成であり、更に、異なる地域に存在する同一名称の地名の地域数を表示情報とする地域数データを含み、前記入力音声が地名である場合に、前記入力音声の認識結果と所定のマッチング度合いを満たす前記地域比較データを候補地名として選出し、該候補地名とともに、該候補地名に対応する地域数データである候補地域数を表示するための第1の表示情報を生成する表示情報生成部を備えることを特徴とする。本発明によれば、地名比較データ全体を地名別で構成することによって、言い換えれば音声認識辞書を地名でユニークな辞書として作成することによって、重複する他の同一名称の地名をデータ内容とする地名比較データを音声認識辞書から除外することができる。これによって、音声認識辞書が有する地名比較データの容量を抑制することが可能である。また、地名比較データの容量を抑制することによって、音声認識処理に要する時間を短縮することが可能である。さらに、入力音声の認識結果として同一名称の地名が複数候補に挙がることがないため、認識結果のうちからユーザが所望の目的地を選択する操作の操作性向上を図ることが可能である。なお、称呼が同一の地名であっても例えば漢字やアルファベットなど同種の文字列で表現した場合に異なる文字列で表現される地名は、同一名称の地名としては扱わない。
また、本発明によれば、同一名称の地名が複数の地域に存在するかどうかをユーザに知らせるための表示を地名比較データに基づき様々な態様で実現可能である。なお、音声認識辞書が地名比較データに関連付けられた他のデータを有して、この他のデータが地名比較データに基づく地名の存在する地域数を表示情報として有してもよい。
そして、本発明によれば、認識結果に基づく候補地名とともにその候補地名が複数の地域に存在するかどうかをユーザに知らせるための第1の表示情報を、様々な表示態様で実現可能である。
In order to solve the above problem, the present invention compares the speech recognition dictionary storing comparison data for recognizing input speech with the input speech data generated based on the input speech and the comparison data. A speech recognition apparatus comprising: a speech recognition unit that recognizes an input speech and outputs a recognition result of the input speech, wherein the speech recognition dictionary includes place name comparison data having place names as display information; comparison data is a unique structure in place names unit, further, different regions in the viewing including the area number data to display information number local place names of the same name exists, and when the input speech is a place name, the The region comparison data satisfying a predetermined matching degree with the recognition result of the input speech is selected as a candidate place name, and the candidate place number which is the number of area data corresponding to the candidate place name is selected together with the candidate place name. Characterized in that it comprises a display information generation unit for generating a first display information for Shimesuru. According to the present invention, by configuring the entire place name comparison data by place name, in other words, by creating a speech recognition dictionary as a unique dictionary by place name, place names having place names having other duplicate names as data contents Comparison data can be excluded from the speech recognition dictionary. Thereby, it is possible to suppress the capacity of place name comparison data included in the speech recognition dictionary. Moreover, it is possible to shorten the time required for the voice recognition processing by suppressing the capacity of the place name comparison data. Furthermore, since a place name having the same name does not appear as a plurality of candidates as a recognition result of the input voice, it is possible to improve the operability of an operation in which the user selects a desired destination from the recognition result. Note that even if the place names are the same, place names represented by different character strings when represented by the same kind of character string such as kanji or alphabet are not treated as place names of the same name.
Further, according to the present invention, it is possible to realize display for notifying the user whether or not a place name with the same name exists in a plurality of areas in various modes based on the place name comparison data. Note that the speech recognition dictionary may have other data associated with the place name comparison data, and the other data may have the number of areas where the place names exist based on the place name comparison data as display information.
And according to this invention, the 1st display information for notifying a user whether the candidate place name exists in a some area with the candidate place name based on a recognition result is realizable with various display modes.

また、本発明は、制御部と、道路地図や施設情報などをデータ内容として有する地図データベースから地図データを読取る読取り機構とを備え、前記認識結果のうちから候補地域が複数存在する候補地名をユーザが選択した場合に、前記制御部が、選択された前記候補地名を含む地名をデータ内容として有する地図データを、前記地図データベースのうちから検索してもよい。ここで、地図データは地名比較データと異なり、地名とともに地名が存在する地域を表示情報として有している。本発明によれば、選択された候補地名が複数の地域に存在していても、同一名称の地名それぞれを特定することが可能である。   In addition, the present invention includes a control unit and a reading mechanism that reads map data from a map database having road maps, facility information, and the like as data contents. May select the map data having the place name including the selected candidate place name as data contents from the map database. Here, unlike the place name comparison data, the map data has a place where the place name exists together with the place name as display information. According to the present invention, even if the selected candidate place names exist in a plurality of areas, it is possible to specify each place name having the same name.

また、本発明は、前記表示情報生成部は、前記制御部が前記地図データベースから検索した地図データに基づいて、地名とともに、該地名が存在する地域名称を表示するための第2の表示情報を生成してもよい。本発明によれば、複数の同一名称の地名をその地名が存在する地域とともにユーザに知らせるための第2の表示情報を、様々な表示態様で実現可能である。これによって、ユーザは所望する目的地がどの地域に存在するものであるかを認識して選択することが可能である。   Further, according to the present invention, the display information generation unit displays second display information for displaying the name of the area where the place name exists together with the place name based on the map data searched from the map database by the control unit. It may be generated. According to the present invention, the second display information for informing the user of a plurality of place names having the same name together with the area where the place names exist can be realized in various display modes. Thus, the user can recognize and select in which region the desired destination exists.

また、本発明は、前記第1の表示情報の地名の表示態様は、前記認識結果のマッチング度合いが高い順のリスト形式であってもよい。本発明によれば、ユーザが認識結果のうちから所望する目的地を探し出して選択することが容易になる。   In the present invention, the display form of the place names of the first display information may be a list format in the order of the matching degree of the recognition result. According to the present invention, it becomes easy for the user to find and select a desired destination from among the recognition results.

また、本発明は、前記第2の表示情報の地名の表示態様は、前記地域名称のアルファベット順のリスト形式であってもよい。本発明によれば、ユーザはその地域名称の頭文字を手掛かりに所望する目的地を容易に探し出して選択することが可能である。   In the present invention, the display mode of the place name of the second display information may be an alphabetical list form of the area name. According to the present invention, the user can easily find and select a desired destination by using the initial of the area name as a clue.

また、本発明は、前記第2の表示情報の地名の表示態様は、車両の現在位置から近い順のリスト形式であることを特徴とする前記音声認識装置を備えた車両用走行誘導装置であってもよい。本発明によれば、車両の現在位置からそれほど離れていない地名を目的地としてユーザが音声で入力していた場合に、ユーザは第2の表示情報に基づく表示のうちから所望する目的地を容易に探し出して選択することが可能である。 Further, the present invention is the vehicle travel guidance device including the voice recognition device, wherein the display mode of the place name of the second display information is a list format in order from the current position of the vehicle. May be. According to the present invention, when a user inputs by voice a place name that is not so far from the current position of the vehicle, the user can easily select a desired destination from the display based on the second display information. It is possible to search and select.

本発明によれば、音声認識辞書が有する比較データの容量を好適に抑制し、同時に音声認識処理時間を短縮するとともに入力音声の認識結果のうちからユーザが所望の目的地を選択する操作の操作性向上を図ることが可能な音声認識装置及びこれを備えた車両用走行誘導装置を提供できる。   According to the present invention, it is possible to suitably suppress the volume of comparison data included in the voice recognition dictionary, simultaneously reduce the voice recognition processing time, and operate the user to select a desired destination from the input voice recognition results. It is possible to provide a voice recognition device capable of improving the performance and a vehicle travel guidance device including the same.

以下、本発明を実施するための最良の形態を図面と共に詳細に説明する。   Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.

本実施例に係る音声認識装置1A及び音声認識装置1Aを備えるナビゲーション装置10Aの構成を、図1を用いて詳細に説明する。図1において、二重線囲みで示す構成が、本実施例に係る音声認識装置1Aの構成である。図1において、読取り機構11は、地図データやその他の案内データを格納したCD(コンパクトディスク)−ROM(Read Only Memory)やDVD(Digital Versatile Disc)−ROM等の記録媒体(地図データベース)を読み込むための構成である。ただし、これに限定されず、たとえばハードディスクドライブなどの記憶装置も適用することができる。   A configuration of a voice recognition device 1A and a navigation device 10A including the voice recognition device 1A according to the present embodiment will be described in detail with reference to FIG. In FIG. 1, the configuration indicated by the double line box is the configuration of the speech recognition apparatus 1 </ b> A according to the present embodiment. In FIG. 1, a reading mechanism 11 reads a recording medium (map database) such as a CD (Compact Disc) -ROM (Read Only Memory) or a DVD (Digital Versatile Disc) -ROM storing map data and other guidance data. It is the structure for. However, the present invention is not limited to this, and a storage device such as a hard disk drive can also be applied.

操作部12は、ユーザが車載用ナビゲーション装置10Aに各種操作・設定を入力するための構成である。これは、リモートコントローラ装置やコントロールパネル等のように個別に構成されていても、後述する表示部16と一体に形成されたタッチパネル式の入力装置として構成されていても良い。更には、音声入力用のマイクロフォン等で構成されてもよい。   The operation unit 12 is configured for a user to input various operations and settings to the in-vehicle navigation device 10A. This may be configured individually such as a remote controller device or a control panel, or may be configured as a touch panel type input device formed integrally with the display unit 16 described later. Furthermore, it may be constituted by a microphone for voice input.

VICS(道路交通情報通信システム)受信部13は、電波ビーコン又は光ビーコンから送信されてくるVICS情報を受信するための構成である。GPS(Global Positioning System)受信部14は、GPS衛星から送信されてくるGPS信号を受信して車両の現在位置の緯度及び経度を検出するための構成である。自立航法センサ15は、車両方位を検出するためのジャイロ等を含む角度センサ15aと、一定の走行距離毎にパルスを発生する距離センサ15bとを有して構成されており、車両の進行方向や速度を検出する。   The VICS (road traffic information communication system) receiving unit 13 is configured to receive VICS information transmitted from a radio wave beacon or an optical beacon. The GPS (Global Positioning System) receiving unit 14 is configured to receive a GPS signal transmitted from a GPS satellite and detect the latitude and longitude of the current position of the vehicle. The self-contained navigation sensor 15 includes an angle sensor 15a including a gyro for detecting the vehicle direction, and a distance sensor 15b that generates a pulse for every predetermined travel distance. Detect speed.

表示部16は、例えば液晶表示方式のディスプレイ装置等で構成され、ナビゲーション装置10Aから入力された、地図や誘導経路や車両の現在位置や建造物その他アイコン等の各種情報を表示するための構成である。スピーカ17は、同じくナビゲーション装置10Aから入力された音声案内情報等を出力するための構成である。尚、スピーカ17はその他、音響装置等から入力された音楽等も出力することができる。   The display unit 16 is configured by, for example, a liquid crystal display type display device or the like, and is configured to display various information such as a map, a guide route, a current position of a vehicle, a building, and other icons input from the navigation device 10A. is there. The speaker 17 is similarly configured to output voice guidance information or the like input from the navigation device 10A. In addition, the speaker 17 can also output music input from an audio device or the like.

また、ナビゲーション装置10Aにおいて、バッファメモリ21は、後述する制御部27からの制御の下に読取り機構11から入力された地図データ等を一時的に格納するための構成である。I/F(インタフェース)22,23,24,25は、それぞれ操作部12,VICS受信部13,GPS受信部14,自立航法センサ15と車載用ナビゲーション装置10Aにおける内部バスとを接続するための構成である。   In the navigation device 10A, the buffer memory 21 is configured to temporarily store map data or the like input from the reading mechanism 11 under the control of the control unit 27 described later. The I / Fs (interfaces) 22, 23, 24, and 25 are configured to connect the operation unit 12, the VICS receiving unit 13, the GPS receiving unit 14, the self-contained navigation sensor 15, and the internal bus in the in-vehicle navigation device 10A, respectively. It is.

制御部27は、例えばマイクロコンピュータやCPU(中央演算処理装置)等の演算処理装置で構成される。この制御部27は、ナビゲーション用のプログラムを内蔵しており、このプログラムに従い、GPS受信部14及び自立航法センサ15から出力される信号に基づいて車両の現在位置を検出したり、表示させたい地図のデータ等を読取り機構11からバッファメモリ21に読み出したり、バッファメモリ21に読み出した地図データから誘導経路を探索したり、設定された探索条件に合う誘導経路をバッファメモリ21に読み出された地図データ等を用いて1つ以上探索する等のナビゲーションに係る種々の処理を実行する。但し、例えば上記のプログラムはCD−ROMやDVD−ROM等に記憶しておくことも可能である。この場合、制御部27は必要に応じてこれを読出し、実行する。   The control unit 27 includes an arithmetic processing device such as a microcomputer or a CPU (Central Processing Unit). The control unit 27 has a built-in navigation program, and a map to be detected or displayed based on signals output from the GPS receiving unit 14 and the autonomous navigation sensor 15 according to the program. And the like are read from the reading mechanism 11 to the buffer memory 21, the guide route is searched from the map data read to the buffer memory 21, and the guide route that matches the set search condition is read to the buffer memory 21. Various processes related to navigation such as searching for one or more using data or the like are executed. However, for example, the above program can be stored in a CD-ROM, a DVD-ROM, or the like. In this case, the control unit 27 reads and executes it as necessary.

地図描画部28は、バッファメモリ21に読み出された地図データを用いて地図イメージの描画処理を行うための構成である。表示情報生成部29は、動作状況に応じて各種メニュー画面(操作画面)やカーソル等の各種マークを生成するための構成であり、また、後述する第1の表示情報と第2の表示情報とを生成するための構成である。誘導経路記憶部30は、出発地及び目的地やその他の探索条件に基づいて制御部27において探索された誘導経路の全てのノードに関するデータ及び探索中に変更された誘導経路のデータ(以下、これらを誘導経路データという)を格納しておくための構成である。誘導経路描画部31は、誘導経路記憶部30から誘導経路データを読み出して誘導経路を他の道路とは異なる表示態様(色や線幅を用いた強調表示等)で描画するための構成である。アイコン描画部32は、地図イメージ上に描画する建造物やスポットや自車または他車などのアイコンの描画処理を行うための構成である。音声出力部33は、例えばDSP(Digital Signal Processor)等を含んで構成され、制御部27からの信号に基づいて音声信号をスピーカ17に出力する。   The map drawing unit 28 is configured to perform a map image drawing process using the map data read to the buffer memory 21. The display information generation unit 29 is configured to generate various menu screens (operation screens) and various marks such as a cursor according to the operation status, and includes first display information and second display information described later. It is the structure for producing | generating. The guide route storage unit 30 stores data on all nodes of the guide route searched for in the control unit 27 based on the starting point, destination and other search conditions, and data of guide routes changed during the search (hereinafter referred to as these Is referred to as guidance route data). The guide route drawing unit 31 is a configuration for reading the guide route data from the guide route storage unit 30 and drawing the guide route in a display mode (highlighted display using colors and line widths) different from other roads. . The icon drawing unit 32 has a configuration for drawing an icon such as a building or a spot to be drawn on a map image, a vehicle, or another vehicle. The audio output unit 33 includes, for example, a DSP (Digital Signal Processor) and the like, and outputs an audio signal to the speaker 17 based on a signal from the control unit 27.

画像合成部34は、地図描画部28で描画された地図イメージに、誘導経路描画部31で描画された誘導経路や、表示情報生成部29で描画された操作画面及び各種マークや、アイコン描画部32で描画された各種アイコンや、制御部27から入力された画像等を適宜重ねて、表示部16に表示させるための構成である。   The image composition unit 34 includes a guide route drawn by the guide route drawing unit 31, an operation screen and various marks drawn by the display information generation unit 29, an icon drawing unit, and a map image drawn by the map drawing unit 28. In this configuration, various icons drawn in 32, images input from the control unit 27, and the like are appropriately overlapped and displayed on the display unit 16.

次に、図1に示す本実施例に係る音声認識装置1Aの構成について詳述する。前述したように、音声認識装置1Aの構成は図1において2重囲みで示す構成である。ナビゲーション装置10Aが音声認識装置1Aを備える場合には、図1に示すように制御部27や表示情報生成部29などの構成はナビゲーション装置10Aと共用可能である。すなわち、制御部27や表示情報生成部29はナビゲーション装置10Aの構成であるとともに音声認識装置1Aの構成でもある。   Next, the configuration of the speech recognition apparatus 1A according to the present embodiment shown in FIG. 1 will be described in detail. As described above, the configuration of the speech recognition apparatus 1A is a configuration indicated by a double box in FIG. When the navigation device 10A includes the voice recognition device 1A, the configuration of the control unit 27, the display information generation unit 29, and the like can be shared with the navigation device 10A as shown in FIG. That is, the control unit 27 and the display information generation unit 29 are the configuration of the navigation device 10A and the configuration of the voice recognition device 1A.

マイクロフォン2は、ユーザが入力した音声を電気信号に変換するための構成である。ただし、ナビゲーション装置10Aの操作部12が音声入力用のマイクロフォンで構成されている場合には、別途マイクロフォン2を備えることなく操作部12を援用することも可能である。音声認識辞書3Aは、入力音声を認識するための比較対象である比較データを格納したCD−ROMやDVD−ROMなどの記録媒体で構成される。ただし、ハードディスクドライブなどの記憶装置を適用することも可能であり、地図データベースが地図データを格納した記憶装置で構成されている場合には、この記憶装置の一部の容量を利用する態様で記憶装置を共用することも可能である。音声認識部4は、電気信号に変換された入力音声をさらにデジタル信号の入力音声データに生成し、比較データと比較することによって入力音声を認識するための構成である。ただし、マイクロフォン2がデジタル信号の入力音声データを生成してもよく、マイクロフォン2と音声認識辞書4との間にA/D変換器を備えてもよい。   The microphone 2 is configured to convert voice input by the user into an electrical signal. However, in the case where the operation unit 12 of the navigation device 10 </ b> A is configured by a voice input microphone, the operation unit 12 can be used without providing the microphone 2 separately. The voice recognition dictionary 3A is composed of a recording medium such as a CD-ROM or DVD-ROM that stores comparison data to be compared for recognizing input voice. However, it is also possible to apply a storage device such as a hard disk drive, and when the map database is composed of a storage device storing map data, it is stored in a mode that uses a part of the capacity of this storage device. It is also possible to share devices. The voice recognition unit 4 has a configuration for recognizing an input voice by further generating an input voice converted into an electric signal into input voice data of a digital signal and comparing it with comparison data. However, the microphone 2 may generate digital signal input voice data, and an A / D converter may be provided between the microphone 2 and the voice recognition dictionary 4.

次に、音声認識辞書3が格納する比較データについて詳述する。比較データのうち地名に関する比較データ(以下、地名比較データという。)は、一般的には地域単位でまとめて構成され、さらに地名比較データ全体は地域単位でまとめて構成されたものの集合体として構成される。このようにして地名比較データ全体が構成されるのは、比較データを作成する対象範囲が例えば日本全国や全米など広範囲に渡るため、まず地域毎にそれぞれ地名比較データを作成するほうが便宜であることによる。   Next, comparison data stored in the speech recognition dictionary 3 will be described in detail. Of the comparison data, comparison data related to place names (hereinafter referred to as place name comparison data) is generally organized in units of regions, and the entire place name comparison data is organized as a collection of items organized in units of regions. Is done. The whole place name comparison data is configured in this way because the target range for creating comparison data covers a wide range, for example, all over Japan and the United States, so it is more convenient to create place name comparison data for each region first. by.

このよう地域単位で地名比較データ全体を構成した場合、同一名称の地名が複数の地域に存在すると、それぞれの地域に対応する同一名称の地名をデータ内容として有する地名比較データが複数存在することになる。ここで、説明の便宜のため、地域単位で構成された地名比較データを有する音声認識辞書3を音声認識辞書3Bとし、この音声認識辞書3Bを備える音声認識装置1を音声認識装置1Bとする。また、音声認識装置1Bを備えるナビゲーション装置10をナビゲーション装置10Bとする。   When the entire place name comparison data is configured in such a region unit, if there are place names with the same name in a plurality of areas, there are a plurality of place name comparison data having place names with the same name corresponding to each area as data contents. Become. Here, for convenience of explanation, the speech recognition dictionary 3 having place name comparison data configured in units of regions is referred to as a speech recognition dictionary 3B, and the speech recognition device 1 including the speech recognition dictionary 3B is referred to as a speech recognition device 1B. In addition, the navigation device 10 including the voice recognition device 1B is referred to as a navigation device 10B.

図2は、地域単位で構成された地名比較データの一部を模式的に示す図である。図2に示すように、地名比較データはより具体的には、入力音声データと比較するための読みデータと、表示部16に地名を文字列によって表示するための文字列データとを有している。すなわち、文字列データが地名を表示情報として有している。ここで、「KIMBERLY(キンバリー)」は全米において複数の州(地域)に存在する市の名称(地名)である。このような場合、地域単位で構成された地名比較データは、図2に示すように「キンバリー」をデータ内容とする読みデータとともに「KIMBERLY,AL」、「KIMBERLY,ID」などの地名とその地名が存在する地域とからなる文字列をデータ内容とする文字列データを有している。なお、「AL」「ID」などは州の略称である。このように互いに他の地域に存在する同一名称の地名をデータ内容とする地名比較データに同一の読みデータを設定するのは、入力音声として地名を複雑に指定する必要性を回避するためである。   FIG. 2 is a diagram schematically showing a part of the place name comparison data configured in units of regions. As shown in FIG. 2, the place name comparison data more specifically includes reading data for comparison with the input voice data and character string data for displaying the place name as a character string on the display unit 16. Yes. That is, the character string data has the place name as display information. Here, “KIMBERLY” is the name (place name) of a city existing in a plurality of states (regions) in the United States. In such a case, the place name comparison data configured in units of area includes place names such as “KIMBERLY, AL”, “KIMBERLY, ID” and the place names together with the reading data having “Kimberley” as the data content as shown in FIG. Has character string data whose data content is a character string composed of the region where the character exists. “AL” and “ID” are abbreviations of states. The reason why the same reading data is set in the place name comparison data having the place names of the same names existing in other areas as the data contents is to avoid the necessity of specifying the place names in a complicated manner as input speech. .

図3は、音声認識装置1Bを備えるナビゲーション装置10Bにおいて、入力音声により目的地を検索する方法を示す図である。図3に示すように、ユーザが音声により目的地を検索する場合には、ナビゲーション装置10Bは表示部16に表示画面41を表示し、ユーザに対して市の名称(地名)を音声入力するよう促す。なお、この表示画面41は目的地を検索するに当たってユーザが音声入力モードを選択したときに表示されるものである。続いてユーザは、マイクロフォン2に「キンバリー」と音声入力する。「キンバリー」という入力音声に対し、ナビゲーション装置10Bは音声認識装置1Bの認識結果の候補地名を表示画面42に示すようなリスト形式で表示する。これに対しユーザは、マイクロフォン2に「リストナンバーフォー」と音声入力する。「リストナンバーフォー」という入力音声に対し、ナビゲーション装置10Bはリストの4番目に挙がっている候補地名「KIMBERLY,MO」の道路地図を目的地として表示画面43に示すような表示態様で表示する。   FIG. 3 is a diagram illustrating a method for searching for a destination by using input speech in the navigation device 10B including the speech recognition device 1B. As shown in FIG. 3, when the user searches for a destination by voice, the navigation device 10B displays the display screen 41 on the display unit 16 and inputs the name of the city (place name) by voice to the user. Prompt. The display screen 41 is displayed when the user selects the voice input mode when searching for the destination. Subsequently, the user inputs a voice “Kimberly” into the microphone 2. In response to the input voice “Kimberley”, the navigation device 10B displays the candidate place names of the recognition result of the voice recognition device 1B in a list format as shown on the display screen 42. On the other hand, the user inputs “list number four” into the microphone 2 by voice. In response to the input voice “list number four”, the navigation device 10B displays the road map of the candidate place name “KIMBERLY, MO” listed fourth in the list as a destination in a display mode as shown on the display screen 43.

図3の表示画面42に示すように、地名比較データが地域単位で構成されている場合には、音声認識部4は入力音声「キンバリー」に対して、「KIMBERLY,AL」「KIMBERLY,ID」などを候補地名として認識する。また、音声認識部4では入力音声データと地名比較データとの比較による同一性の判断はマッチングによって行われるため、所定のマッチング度合いを満たす場合には例えば「KIMBERLINGCITY,MO」「KIMBERTON,PA」なども候補地名として挙げられる。このように、地名比較データが地域単位で構成されていると、異なる地域に存在する同一名称の地名のほか、所定のマッチング度合いを満たす地名も候補地名として挙がる。そのため、ユーザが表示画面42で示されるような認識結果のうちから所望する目的地を探し出し選択するのには時間がかかってしまう。   As shown in the display screen 42 of FIG. 3, when the place name comparison data is configured in units of regions, the speech recognition unit 4 performs “KIMBERLY, AL” “KIMBERLY, ID” for the input speech “Kimberley”. Are recognized as candidate place names. Further, since the voice recognition unit 4 determines the identity by comparing the input voice data and the place name comparison data by matching, when the predetermined matching degree is satisfied, for example, “KIMBERLINGCITY, MO”, “KIMBERTON, PA”, etc. Is also listed as a candidate place name. As described above, when the place name comparison data is configured in units of areas, place names satisfying a predetermined matching degree are listed as candidate place names in addition to place names having the same name existing in different areas. Therefore, it takes time for the user to find and select a desired destination from the recognition results as shown on the display screen 42.

上述した問題に対し、本実施例に係る音声認識辞書3Aは地名でユニークな辞書となるような地名比較データを格納している。図4は、音声認識辞書3Aが格納する地名比較データの一部を模式的に示す図である。図4に示すように、音声認識辞書3Aには、「キンバリー」をデータ内容とする読みデータに対しては、「KIMBERLY」の文字列をデータ内容とする文字列データを有している地名比較データしか存在しない。すなわち、音声認識辞書3Aには、図3で示した音声認識辞書3Bのように「キンバリー」をデータ内容とする読みデータに対して、「KIMBERLY,AL」「KIMBERLY,ID」などの文字列をデータ内容とする文字列データを有する地名比較データが存在しない。さらに、音声認識辞書3Aが格納する地名比較データは、音声認識辞書3Bが格納する地名比較データと異なり、地名が存在する地域数を表示情報とする地域数データを有している。   In response to the above-described problem, the speech recognition dictionary 3A according to the present embodiment stores place name comparison data that makes the place name unique. FIG. 4 is a diagram schematically showing a part of place name comparison data stored in the speech recognition dictionary 3A. As shown in FIG. 4, in the speech recognition dictionary 3A, for the reading data having “Kimberley” as the data content, the place name comparison having the character string data having the character string “KIMBERLY” as the data content There is only data. That is, in the speech recognition dictionary 3A, a character string such as “KIMBERLY, AL” or “KIMBERLY, ID” is added to the read data having “Kimberly” as the data content like the speech recognition dictionary 3B shown in FIG. There is no place name comparison data having character string data as data contents. Furthermore, the place name comparison data stored in the speech recognition dictionary 3A has area number data that uses the number of areas in which the place names exist as display information, unlike the place name comparison data stored in the voice recognition dictionary 3B.

次に、音声認識装置1Aを備えるナビゲーション装置10Aにおいて、入力音声により目的地を検索する方法を図5と図6とを用いて詳述する。図5は、音声認識装置1Aを備えるナビゲーション装置10Aにおいて、入力音声により目的地を検索する方法を示す図である。また、図6は、図5に示す表示画面52、53それぞれを生成するにあたって音声認識辞書3A及び地図データベースが利用される過程を模式的に示す図である。図5に示すように、ユーザが音声により目的地を検索する場合には、ナビゲーション装置10Aは表示部16に表示画面51を表示し、ユーザに対して市の名称(地名)を音声入力するよう促す。これに対しユーザは、マイクロフォン2に「キンバリー」と音声入力する。「キンバリー」という入力音声に対し、ナビゲーション装置10Aは音声認識装置1Aの認識結果の候補地名を表示画面52に示すようなリスト形式で表示する。   Next, a method for searching for a destination using input voice in the navigation apparatus 10A including the voice recognition apparatus 1A will be described in detail with reference to FIGS. FIG. 5 is a diagram illustrating a method for searching for a destination by using input voice in the navigation apparatus 10A including the voice recognition apparatus 1A. FIG. 6 is a diagram schematically showing a process in which the speech recognition dictionary 3A and the map database are used in generating the display screens 52 and 53 shown in FIG. As shown in FIG. 5, when the user searches for a destination by voice, the navigation device 10A displays the display screen 51 on the display unit 16 and inputs the name of the city (place name) by voice to the user. Prompt. On the other hand, the user inputs “Kimberly” into the microphone 2 by voice. In response to the input voice “Kimberley”, the navigation device 10A displays the candidate place names of the recognition result of the voice recognition device 1A in a list format as shown in the display screen 52.

この表示画面52を生成する過程においては、図6に示すように音声認識辞書3Aが利用される。より具体的には音声認識部4が入力音声「KIMBERLY」を入力音声データに変換し、音声認識辞書3Aの有する地名比較データと比較して入力音声「KIMBERLY」を認識する(矢印1)。続いて、音声認識部4は入力音声「KIMBERLY」と所定のマッチング度合いを満たす地名比較データを選出する。ここで、選出された地名比較データがデータ内容として有する地名が、候補地名となる。候補地名を有する地名比較データが選出されると、表示情報生成部29は候補地名とその候補地名に対応する候補地域数を表示するための第1の表示情報を生成する。また、第1の表示情報は、制御部27の指令に基づき選出された候補地名をデータ内容として有する地名比較データが、音声認識辞書3Aから表示情報生成部29に読み出されることによって生成される。第1の表示情報が生成されると、制御部27は第1の表示情報を表示画面52に示すような表示態様で表示部16に表示する(矢印2)。この表示画面52にはカーソル55が当たっている候補地名の存在する地域数を表示する地域数表示52aが設けてある。なお、地域数表示52aに表示される地域数は、カーソルが当たっている候補地名をデータ内容として有する地名比較データに基づいて表示される。すなわち、カーソル55が他の候補地名に移動する度に、制御部27の指令に基づきその候補地名をデータ内容として有する地名比較データから表示情報生成部29に地域数データが読み出され、表示情報生成部29は読み出された地域数データに基づき地域数表示52aを変更する。ただし、表示情報生成部29は候補地名毎に地域数を表示するような表示態様で第1の表示情報を生成しても構わない。表示画面52に示すように、この地域数表示52aによってユーザはカーソル55が当たっている「KIBALL」が全米で15の州に存在していることを知ることができる。   In the process of generating the display screen 52, the speech recognition dictionary 3A is used as shown in FIG. More specifically, the voice recognition unit 4 converts the input voice “KIMBERLY” into input voice data, and recognizes the input voice “KIMBERLY” by comparing with the place name comparison data of the voice recognition dictionary 3A (arrow 1). Subsequently, the voice recognition unit 4 selects place name comparison data that satisfies the input voice “KIMBERLY” and a predetermined matching degree. Here, the place name that the selected place name comparison data has as data contents becomes the candidate place name. When the place name comparison data having a candidate place name is selected, the display information generation unit 29 generates first display information for displaying the candidate place name and the number of candidate areas corresponding to the candidate place name. The first display information is generated by reading place name comparison data having candidate place names selected based on instructions from the control unit 27 as data contents from the speech recognition dictionary 3A to the display information generating unit 29. When the first display information is generated, the control unit 27 displays the first display information on the display unit 16 in a display mode as shown on the display screen 52 (arrow 2). The display screen 52 is provided with a region number display 52a for displaying the number of regions where the candidate place name on which the cursor 55 is placed. The number of areas displayed in the area number display 52a is displayed based on the place name comparison data having the candidate place name where the cursor is placed as the data content. That is, each time the cursor 55 moves to another candidate place name, area number data is read from the place name comparison data having the candidate place name as data content to the display information generating unit 29 based on the command of the control unit 27, and the display information is displayed. The generation unit 29 changes the region number display 52a based on the read region number data. However, the display information generation unit 29 may generate the first display information in a display mode that displays the number of areas for each candidate place name. As shown in the display screen 52, the user can know that “KIBALL” where the cursor 55 is hit exists in 15 states in the United States by this area number display 52 a.

表示画面52に示すように、「キンバリー」という入力音声に対しては、「KIMBERLY」の他「KIMBALL」「KINBRAE」「KINGSDALE」「KINGSTON」「KINNEY」などが候補地名として挙がっている。このように、入力音声が「キンバリー」であっても所定のマッチング度合いを満たせば他の地名も候補地名として挙げられる。ところが、本実施例では音声認識辞書3Aを地名でユニークな辞書として作成しているので、他の地域に存在する同一名称の地名が複数候補地名として挙がることがなく、ユーザは容易に「KIMBERLY」を探し出すことが可能である。   As shown in the display screen 52, “KIMBERLY”, “KIMBALL”, “KINBRAE”, “KINGSDALE”, “KINGSTON”, “KINNEY”, and the like are listed as the candidate place names for the input voice “Kimberly”. As described above, even if the input voice is “Kimberley”, other place names can be listed as candidate place names if the predetermined matching degree is satisfied. However, in this embodiment, since the voice recognition dictionary 3A is created as a unique dictionary with place names, place names with the same name existing in other areas are not listed as a plurality of candidate place names, and the user can easily “KIMBERLY”. It is possible to find out.

また、第1の表示情報は表示画面52に示すような表示態様のほかに次に示すような表示態様で表示することが可能である。前述したように、表示画面52に表示される候補地名を有する地名比較データは、入力音声とのマッチング度合いによって音声認識部4により選出される。従って、入力音声の確からしさを基準として、第1の表示情報の候補地名をマッチング度合いが高い順にリスト形式で表示すれば、ユーザが容易に所望の目的地を探し出せることを期待できる。   The first display information can be displayed in the following display mode in addition to the display mode as shown on the display screen 52. As described above, the place name comparison data having candidate place names displayed on the display screen 52 is selected by the voice recognition unit 4 according to the degree of matching with the input voice. Therefore, if the candidate place names of the first display information are displayed in a list form in descending order of the matching degree based on the accuracy of the input voice, it can be expected that the user can easily find a desired destination.

図5に示すように、表示画面52に対しユーザが「KIMBERLY」を選択するとナビゲーション装置10Aは、表示画面53を表示する。表示画面53には、地名「KIMBERLY」とともにその地名が存在する「AL」「ID」などの地域名称がリスト形式で表示される。この表示画面53を生成する過程においては、図6に示すように地図データベースが利用される。より具体的には、制御部27は、選択された候補地名「KIMBERLY」をデータ内容として有する地名比較データの文字列データを音声認識辞書3Aから取得する。続いて制御部27は、地図データベースから読取り機構11に地図データを読み出し、さらにバッファメモリ21に地図データを読み出す。制御部27は、文字列データに基づいてバッファメモリ21に読み出した地図データのデータ内容に文字列「KIMBERLY」が含まれるかどうかを判定する。判定し終えると、制御部27は再び地図データベースから読取り機構11に他の地図データを読み出し、さらにバッファメモリ21に地図データを読み出す作業を、すべての地図データについて判定し終えるまで実行する(矢印3)。上述のようにして、文字列「KIMBERLY」をデータ内容として含む地図データを地図データベースから検索することが可能である。   As illustrated in FIG. 5, when the user selects “KIMBERLY” on the display screen 52, the navigation device 10 </ b> A displays the display screen 53. On the display screen 53, the place name “KIMBERLY” and area names such as “AL” and “ID” where the place name exists are displayed in a list format. In the process of generating the display screen 53, a map database is used as shown in FIG. More specifically, the control unit 27 acquires character string data of place name comparison data having the selected candidate place name “KIMBERLY” as data contents from the speech recognition dictionary 3A. Subsequently, the control unit 27 reads the map data from the map database to the reading mechanism 11 and further reads the map data to the buffer memory 21. The control unit 27 determines whether or not the character string “KIMBERLY” is included in the data content of the map data read to the buffer memory 21 based on the character string data. When the determination is completed, the control unit 27 again reads other map data from the map database to the reading mechanism 11 and further reads the map data to the buffer memory 21 until all the map data is determined (arrow 3). ). As described above, map data including the character string “KIMBERLY” as data contents can be searched from the map database.

続いて表示情報生成部29は、地図データベースから検索された地図データに基づいて、地名「KIMBERLY」とともに地名が存在する地域名称「AL」「ID」などを表示するための第2の表示情報を生成する。また、第2の表示情報は、制御部27の指令に基づき、バッファメモリ21から表示情報生成部29へ検索された地図データが読み出されることによって生成される。なお、図6に示すように、地図データはデータ内容として地名と地名が存在する地域名称とで構成された表示情報を有している。第2の表示情報が生成されると、制御部27は表示部16に第2の表示情報を表示画面53に示すような表示態様で表示する(矢印4)。このようにして、表示情報生成部29は、複数の同一名称の地名「KIMBERLY」を、「KIMBERLY」が存在する地域「AL」「ID」とともにユーザに知らせる表示画面53に示すような表示態様の第2の表示情報を生成することが可能である。   Subsequently, based on the map data retrieved from the map database, the display information generation unit 29 displays second display information for displaying the place name “KIMBERLY” and the area names “AL”, “ID” and the like where the place names exist. Generate. The second display information is generated by reading the map data retrieved from the buffer memory 21 to the display information generation unit 29 based on a command from the control unit 27. As shown in FIG. 6, the map data has display information composed of place names and area names where place names exist as data contents. When the second display information is generated, the control unit 27 displays the second display information on the display unit 16 in a display mode as shown on the display screen 53 (arrow 4). In this way, the display information generating unit 29 displays a plurality of place names “KIMBERLY” having the same name together with the areas “AL” and “ID” in which “KIMBERLY” is present on the display screen 53 as shown in FIG. Second display information can be generated.

また第2の表示情報は表示画面53に示すような表示態様のほかに以下に示すような表示態様で表示することも可能である。表示画面53では、地名が地域名称のアルファベット順にリスト形式で表示されているが、ユーザが目的地を検索するために音声入力した地名は、車両の現在位置の近くに存在している場合が多い。このような事情を考慮すると、第2の表示情報の地名を車両の現在位置から近い順にリスト形式で表示することがユーザにとって有効である。ここで、第2の表示情報の地名は地図データに基づくものであるので、この地図データから同時に地名の存在位置を把握することが可能である。また、車両の現在位置については、GPS受信部14が受信したGPS信号によって検出することが可能である。これらの情報に基づけば、車両の現在位置から第2の表示情報の地名がどれだけ離れているかを認識することが可能である。これによって、ユーザが第2の表示情報に基づく表示画面から容易に所望の目的地を探し出せることを期待できる。   Further, the second display information can be displayed in the following display mode in addition to the display mode as shown on the display screen 53. On the display screen 53, the place names are displayed in a list format in alphabetical order of the area names. However, the place names inputted by the user for searching for the destinations often exist near the current position of the vehicle. . In consideration of such circumstances, it is effective for the user to display the place names of the second display information in a list format in the order closer to the current position of the vehicle. Here, since the place name of the second display information is based on the map data, it is possible to simultaneously grasp the location of the place name from this map data. Further, the current position of the vehicle can be detected by a GPS signal received by the GPS receiver 14. Based on these pieces of information, it is possible to recognize how far the place name of the second display information is from the current position of the vehicle. Accordingly, it can be expected that the user can easily find a desired destination from the display screen based on the second display information.

ユーザが表示画面53のうちから所望の目的地を探し出して選択すると、ナビゲーション装置10Aは目的地として道路地図を表示画面54のように表示する(矢印5)。これによってユーザは所望の目的地を知ることができる。なお、表示画面52において、ユーザが1つの地域にしか存在しない候補地名を選択した場合には、図5に示すようにただちに表示画面54が表示される。   When the user searches for and selects a desired destination from the display screen 53, the navigation device 10A displays a road map as the destination, like the display screen 54 (arrow 5). As a result, the user can know the desired destination. When the user selects a candidate place name that exists in only one area on the display screen 52, the display screen 54 is immediately displayed as shown in FIG.

なお、第1の表示情報や第2の表示情報や対象の道路地図を表示する態様としては、図5または図6で示した表示態様以外にも以下に示すような表示態様が可能である。例えば、第1の表示情報と第2の表示情報とを同時に1画面で表示したり、対象の道路地図と第1の表示情報または第2の表示情報とを同時に1画面で表示したりすることも可能である。同時に1画面で表示することの利点としては、例えば第1の表示情報に基づく候補地名を指定するカーソル55が移動すると、第2の表示情報に基づく複数の同一名称の地名が同じ画面に表示されるので、直感的にユーザに伝わりやすいなどの利点がある。また、第1の表示情報の表示態様としては、前述したようにアルファベット順に表示したりマッチング度合いが高い順に表示したりすることも可能であるが、これらの表示態様をさらにユーザが選択可能に適用することも可能である。また、本実施例では、全米を対象として音声認識辞書3Aを作成しているが、例えば日本全国を対象とする場合には、第1の表示情報の表示態様として候補地名を50音順に表示することも可能である。また、これら第1の表示情報の表示態様の変形は第2の表示情報の表示態様についても同様に適用可能である。   In addition, as a mode for displaying the first display information, the second display information, and the target road map, the following display modes are possible in addition to the display mode shown in FIG. For example, the first display information and the second display information are simultaneously displayed on one screen, or the target road map and the first display information or the second display information are simultaneously displayed on one screen. Is also possible. As an advantage of displaying on one screen at the same time, for example, when the cursor 55 for designating a candidate place name based on the first display information moves, a plurality of place names with the same name based on the second display information are displayed on the same screen. Therefore, there are advantages such as being easily transmitted to the user intuitively. Moreover, as a display mode of the first display information, it is possible to display in alphabetical order or display in descending order of matching as described above, but these display modes can be further selected by the user. It is also possible to do. In the present embodiment, the speech recognition dictionary 3A is created for the entire United States. For example, when targeting all over Japan, the candidate place names are displayed in the order of 50 tones as the display mode of the first display information. It is also possible. The modification of the display mode of the first display information can be similarly applied to the display mode of the second display information.

また、地名でユニークな音声認識辞書3Aを作成する効果として以下のような具体的効果が挙げられる。全米を対象として音声認識辞書を作成するとき、市の名称(地名)について各州(地域)別に地名比較データを作成して地名比較データ全体を構成した場合には、音声認識辞書には95,967個の地名比較データが存在することになる。これを本実施例に係る音声認識辞書3Aのように市の名称でユニークに作成した場合には、音声認識辞書3Aが有する地名比較データ数は60,350個になる。このように本実施例に係る音声認識辞書3Aでは、データ容量を抑制することが可能である。また、全米で1つの州にしか存在しない地名数は48,641個あり、11,709個の地名は複数の州に存在することになる。さらに、もっとも多くの州に存在する市の名称「FRANKLIN」は35の州に存在する。これらの地名複数が候補地名として図3に示す表示画面41のように表示された場合には、ユーザが所望する目的地を選択するのに多大な時間を要することは容易に想像できる。本実施例に係る音声認識辞書3Aに基づけば、図4に示す表示画面52のように例えば「FRANKLIN」は1つしか表示されないので、ユーザは候補地名のうちから容易に所望する目的地を探し出して選択することが可能である。以上により、音声認識辞書3が有する比較データの容量を好適に抑制し、同時に音声認識処理時間を短縮するとともに入力音声の認識結果のうちからユーザが所望の目的地を選択する操作の操作性向上を図ることが可能な音声認識装置1A及びこれを備えたナビゲーション装置10Aを実現可能である。   Moreover, the following specific effects are mentioned as an effect of creating a speech recognition dictionary 3A that is unique by place name. When creating a speech recognition dictionary for the United States, if the place name comparison data is created for each state (region) for the city name (place name) and the entire place name comparison data is configured, the speech recognition dictionary contains 95,967. There will be place name comparison data. When this is uniquely created with a city name like the speech recognition dictionary 3A according to the present embodiment, the number of place name comparison data possessed by the speech recognition dictionary 3A is 60,350. Thus, in the speech recognition dictionary 3A according to the present embodiment, it is possible to suppress the data capacity. In addition, there are 48,641 place names that exist only in one state in the United States, and 11,709 place names exist in a plurality of states. Furthermore, the city name “FRANKLIN”, which exists in most states, exists in 35 states. When a plurality of these place names are displayed as candidate place names like the display screen 41 shown in FIG. 3, it can be easily imagined that it takes a long time for the user to select a desired destination. Based on the speech recognition dictionary 3A according to the present embodiment, for example, only one “FRANKLIN” is displayed as in the display screen 52 shown in FIG. 4, so the user can easily find a desired destination from the candidate place names. Can be selected. As described above, the volume of the comparison data included in the voice recognition dictionary 3 is suitably suppressed, and at the same time, the voice recognition processing time is shortened and the operability of the user selecting a desired destination from the input voice recognition results is improved. It is possible to realize a voice recognition device 1A capable of achieving the above and a navigation device 10A including the same.

上述した実施例は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The embodiment described above is a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

本実施例に係る音声認識装置1A及び音声認識装置1Aを備えるナビゲーション装置10Aの構成を示す図である。It is a figure which shows the structure of 10 A of navigation apparatuses provided with the speech recognition apparatus 1A and the speech recognition apparatus 1A which concern on a present Example. 地域単位で構成された地名比較データの一部を模式的に示す図である。It is a figure which shows typically a part of place name comparison data comprised by the area unit. 音声認識装置1Bを備えるナビゲーション装置10Bにおいて、入力音声により目的地を検索する方法を示す図である。It is a figure which shows the method of searching a destination with input audio | voice in navigation apparatus 10B provided with the speech recognition apparatus 1B. 音声認識辞書3Aが格納する地名比較データの一部を模式的に示す図である。It is a figure which shows typically a part of place name comparison data which the speech recognition dictionary 3A stores. 音声認識装置1Aを備えるナビゲーション装置10Aにおいて、入力音声により目的地を検索する方法を示す図である。It is a figure which shows the method of searching a destination with input audio | voice in navigation apparatus 10A provided with the speech recognition apparatus 1A. 図5に示す表示画面52、53それぞれを生成するにあたって音声認識辞書3A及び地図データベースが利用される過程を模式的に示す図である。It is a figure which shows typically the process in which the speech recognition dictionary 3A and a map database are utilized in producing | generating each of the display screens 52 and 53 shown in FIG.

符号の説明Explanation of symbols

1 音声認識装置
2 マイクロフォン
3 音声認識辞書
4 音声認識部
10 ナビゲーション装置
11 読取り機構
12 操作部
13 VICS受信部
14 GPS受信部
15 自立航法センサ
15a 角度センサ
15b 距離センサ
16 表示部
17 スピーカ
21 バッファメモリ
22、23、24、25 I/F
27 制御部
28 地図描画部
29 表示情報生成部
30 誘導経路記憶部
31 誘導経路描画部
32 アイコン描画部
33 音声出力部
34 画像合成部
41、42、43 ナビゲーション装置10Bによる表示画面
51、52、53、54 ナビゲーション装置10Aによる表示画面
52a 地域数表示
55 カーソル
DESCRIPTION OF SYMBOLS 1 Voice recognition apparatus 2 Microphone 3 Voice recognition dictionary 4 Voice recognition part 10 Navigation apparatus 11 Reading mechanism 12 Operation part 13 VICS receiving part 14 GPS receiving part 15 Self-contained navigation sensor 15a Angle sensor 15b Distance sensor 16 Display part 17 Speaker 21 Buffer memory 22 , 23, 24, 25 I / F
27 Control unit 28 Map drawing unit 29 Display information generation unit 30 Guide route storage unit 31 Guide route drawing unit 32 Icon drawing unit 33 Audio output unit 34 Image composition unit 41, 42, 43 Display screen 51, 52, 53 by navigation device 10B 54 Display screen by navigation device 10A 52a Number of areas display 55 Cursor

Claims (6)

入力音声を認識するための比較データを格納する音声認識辞書と、前記入力音声に基づき生成される入力音声データと前記比較データとを比較して前記入力音声を認識し、該入力音声の認識結果を出力する音声認識部とを備えた音声認識装置であって、
前記音声認識辞書は、地名を表示情報として有する地名比較データを有し、
前記地名比較データは、地名単位でユニークな構成であり、更に、異なる地域に存在する同一名称の地名の地域数を表示情報とする地域数データを含み、
前記入力音声が地名である場合に、前記入力音声の認識結果と所定のマッチング度合いを満たす前記地名比較データを候補地名として選出し、該候補地名とともに、該候補地名に対応する地域数データである候補地域数を表示するための第1の表示情報を生成する表示情報生成部を備えることを特徴とする音声認識装置。
A speech recognition dictionary for storing comparison data for recognizing input speech, and comparing the input speech data generated based on the input speech with the comparison data to recognize the input speech, and the recognition result of the input speech A voice recognition device including a voice recognition unit for outputting
The voice recognition dictionary has place name comparison data having place names as display information,
The place name comparison data is a unique structure in place names unit further seen including local number of data to be the same name of the place name display information number area existing in the different regions,
When the input voice is a place name, the place name comparison data satisfying a predetermined matching degree with the recognition result of the input voice is selected as a candidate place name, and the area number data corresponding to the candidate place name together with the candidate place name. A speech recognition apparatus comprising: a display information generation unit that generates first display information for displaying the number of candidate areas .
制御部と、道路地図や施設情報などをデータ内容として有する地図データベースから地図データを読取る読取り機構とを備え、
前記認識結果のうちから候補地域が複数存在する候補地名をユーザが選択した場合に、前記制御部が、選択された前記候補地名を含む地名をデータ内容として有する地図データを、前記地図データベースのうちから検索することを特徴とする請求項1記載の音声認識装置。
A control unit, and a reading mechanism for reading map data from a map database having data such as road maps and facility information,
When the user selects a candidate place name having a plurality of candidate areas from among the recognition results, the control unit includes map data having a place name including the selected candidate place name as data content in the map database. The speech recognition apparatus according to claim 1 , wherein search is performed from
前記表示情報生成部は、前記制御部が前記地図データベースから検索した地図データに基づいて、地名とともに、該地名が存在する地域名称を表示するための第2の表示情報を生成することを特徴とする請求項2記載の音声認識装置。 The display information generation unit generates second display information for displaying the name of the area where the place name exists together with the place name, based on the map data searched from the map database by the control unit. The speech recognition apparatus according to claim 2 . 前記第1の表示情報の地名の表示態様は、前記認識結果のマッチング度合いが高い順のリスト形式であることを特徴とする請求項1から3いずれか1項記載の音声認識装置。 The speech recognition apparatus according to any one of claims 1 to 3 , wherein a display form of the place name of the first display information is a list format in descending order of matching degree of the recognition results. 前記第2の表示情報の地名の表示態様は、前記地域名称のアルファベット順のリスト形式であることを特徴とする請求項3または4記載の音声認識装置。 The speech recognition apparatus according to claim 3 or 4 , wherein a display form of the place name of the second display information is a list form of the area name in alphabetical order. 前記第2の表示情報の地名の表示態様は、車両の現在位置から近い順のリスト形式であることを特徴とする請求項3または4記載の前記音声認識装置を備えた車両用走行誘導装置。 5. The travel guidance device for a vehicle provided with the voice recognition device according to claim 3 , wherein a display mode of the place name of the second display information is a list format in an order close to a current position of the vehicle.
JP2005180751A 2005-06-21 2005-06-21 Voice recognition apparatus and vehicular travel guidance apparatus including the same Active JP4869642B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005180751A JP4869642B2 (en) 2005-06-21 2005-06-21 Voice recognition apparatus and vehicular travel guidance apparatus including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005180751A JP4869642B2 (en) 2005-06-21 2005-06-21 Voice recognition apparatus and vehicular travel guidance apparatus including the same

Publications (2)

Publication Number Publication Date
JP2007003602A JP2007003602A (en) 2007-01-11
JP4869642B2 true JP4869642B2 (en) 2012-02-08

Family

ID=37689342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005180751A Active JP4869642B2 (en) 2005-06-21 2005-06-21 Voice recognition apparatus and vehicular travel guidance apparatus including the same

Country Status (1)

Country Link
JP (1) JP4869642B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101063159B1 (en) * 2009-05-25 2011-09-07 미디어젠(주) Address Search using Speech Recognition to Reduce the Number of Commands
JP2014126600A (en) * 2012-12-25 2014-07-07 Panasonic Corp Voice recognition device, voice recognition method and television
JP2016029495A (en) * 2015-10-08 2016-03-03 パナソニックIpマネジメント株式会社 Image display device and image display method
KR102014895B1 (en) * 2016-12-15 2019-10-21 현대자동차주식회사 Method and vehicle device controlling refined program behavior using voice recognizing

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2575788B2 (en) * 1988-03-30 1997-01-29 富士通株式会社 Address input method
JPH06282293A (en) * 1993-03-29 1994-10-07 Sony Corp Voice recognition device
JPH08160988A (en) * 1994-12-07 1996-06-21 Sony Corp Speech recognition device
JPH09231219A (en) * 1996-02-26 1997-09-05 Fujitsu Ltd Proofreading supporting method for notation area name, proofreading support area name dictionary, and proofreading support system
JP3546633B2 (en) * 1997-03-12 2004-07-28 三菱電機株式会社 Voice recognition device
JPH11249689A (en) * 1998-03-04 1999-09-17 Mitsubishi Electric Corp Voice recognition device and map display device
JP3759313B2 (en) * 1998-05-15 2006-03-22 松下電器産業株式会社 Car navigation system
JP3999913B2 (en) * 1999-09-08 2007-10-31 三菱電機株式会社 Speech recognition system and method, and computer-readable recording medium recording speech recognition program
JP3830124B2 (en) * 1999-11-26 2006-10-04 アルパイン株式会社 Voice recognition device
JP2002123290A (en) * 2000-10-16 2002-04-26 Pioneer Electronic Corp Speech recognition device and speech recognition method
JP2004318639A (en) * 2003-04-18 2004-11-11 Hiroshi Kumagai Recording medium and information terminal device storing address book
JP4222904B2 (en) * 2003-07-25 2009-02-12 シャープ株式会社 Information processing apparatus, display layout processing method, display layout processing program, and program recording medium

Also Published As

Publication number Publication date
JP2007003602A (en) 2007-01-11

Similar Documents

Publication Publication Date Title
JP4804052B2 (en) Voice recognition device, navigation device provided with voice recognition device, and voice recognition method of voice recognition device
JP4135110B2 (en) Point search device and search method
JP4551961B2 (en) VOICE INPUT SUPPORT DEVICE, ITS METHOD, ITS PROGRAM, RECORDING MEDIUM RECORDING THE PROGRAM, AND NAVIGATION DEVICE
JP4669331B2 (en) VEHICLE TRAVEL GUIDE DEVICE AND UPDATED MAP DATA GENERATION METHOD FOR VEHICLE TRAVEL GUIDE DEVICE
JP2008134079A (en) Navigation device and method of displaying facility image
JP2001027536A (en) Navigation system
JPWO2008075492A1 (en) Map display device
JP4789827B2 (en) Navigation device and freeway search method
JP2008139082A (en) Map display device
JP2007263751A (en) Navigation apparatus and method
JP2008134308A (en) Facility retrieving device
JP4869642B2 (en) Voice recognition apparatus and vehicular travel guidance apparatus including the same
JP2007241122A (en) Speech recognition device, method, and program, and recording medium
JP2001141481A (en) Automobile navigation system
JP2008082788A (en) Information processor, control method, and control program
JP2001201353A (en) Navigation device
JP4145756B2 (en) NAVIGATION DEVICE, NAVIGATION METHOD, PROGRAM THEREOF, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP5041410B2 (en) Navigation device
JP2005234991A (en) Information retrieval apparatus, information retrieval method, and information retrieval program
JP4786242B2 (en) Navigation device and map distribution device
JP2011242363A (en) Navigation device and destination setting method therefor
JPH11351902A (en) Navigation system for vehicle
JP2006090867A (en) Navigation system
WO2006077967A1 (en) Navigation device, navigation method, and navigation program
JP4339155B2 (en) NAVIGATION DEVICE, NAVIGATION METHOD, PROGRAM THEREOF, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111116

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4869642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3