JPH116743A - Mobile terminal device and voice output system for it - Google Patents
Mobile terminal device and voice output system for itInfo
- Publication number
- JPH116743A JPH116743A JP9332838A JP33283897A JPH116743A JP H116743 A JPH116743 A JP H116743A JP 9332838 A JP9332838 A JP 9332838A JP 33283897 A JP33283897 A JP 33283897A JP H116743 A JPH116743 A JP H116743A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- data
- output
- mobile terminal
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ナビゲーション装
置や電子メールの読み上げなどの音声出力を行う移動端
末装置、その動作プログラムを記録した媒体及びそのた
めのシステムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation device, a mobile terminal device for outputting voice such as reading out of e-mail, a medium recording an operation program thereof, and a system therefor.
【0002】[0002]
【従来の技術】従来より、経路案内用ナビゲーション装
置が知られており、この装置は車両の現在地を検出する
GPS装置等の現在地検出装置と、検出した車両の現在
地を地図上の位置として認識する地図データベースと、
を有している。そして、これらを利用して、ディスプレ
イに地図及び現在地を表示して運転者の走行を案内す
る。また、ナビゲーション装置では、目的地を入力する
ことで、目的地までの最適経路を探索する機能を有して
いる。そして、目的地までの経路を設定した走行におい
ては、右左折する交差点等の案内が必要な交差点(案内
交差点)に接近した場合には、右左折についての案内を
行う。ここで、この案内は、ディスプレイ上に交差点の
拡大図を表示し、この拡大図において進行方向を示すこ
とで行われると共に、音声による案内も行われる。運転
者は、車両走行中は前方を注視しているため、音声によ
る案内の方がわかりやすい。このため、音声による案内
が普及してきている。このように、ナビゲーション装置
などの移動端末において、音声出力が行われている。2. Description of the Related Art Hitherto, a navigation device for route guidance has been known, and this device recognizes a current position detecting device such as a GPS device for detecting the current position of a vehicle and the detected current position of the vehicle as a position on a map. A map database,
have. Using these, the map and the current location are displayed on the display to guide the driver's traveling. Further, the navigation device has a function of searching for an optimal route to a destination by inputting the destination. Then, when the vehicle travels to set a route to the destination, when the vehicle approaches an intersection (guidance intersection) where guidance such as an intersection that turns right and left is required, guidance about right and left turns is provided. Here, this guidance is performed by displaying an enlarged view of the intersection on a display and indicating the traveling direction in the enlarged view, and also providing guidance by voice. Since the driver gazes ahead while the vehicle is running, guidance by voice is easier to understand. For this reason, voice guidance has become widespread. Thus, audio output is performed in a mobile terminal such as a navigation device.
【0003】なお、音声により進行方向についての案内
を行うナビゲーション装置としては、例えば特開平2−
249100号公報に記載されたものがある。[0003] As a navigation device that provides guidance on the traveling direction by voice, for example, Japanese Unexamined Patent Publication No.
There is one described in Japanese Patent Publication No. 249100.
【0004】このようなナビゲーション装置において
は、音声案内をわかりやすく行うために交差点名称等を
読み上げることが好ましい。例えば、案内交差点である
A交差点の500m手前において、「500m先で、A
交差点を左方向です。」等の音声案内が行われる。[0004] In such a navigation device, it is preferable to read out the intersection name and the like in order to make voice guidance easy to understand. For example, 500 m before the intersection A, which is a guidance intersection, "500 m ahead, A
Turn left at the intersection. "And the like.
【0005】この音声読み上げを行うためには、各交差
点に関する音声データが必要となる。通常の地図データ
ベースでは、全国の地図を記憶すると共に、案内に利用
されるような交差点名称は全てテキストデータとして記
憶されている。このため、このテキストデータから音声
合成を行うことにより、交差点名称の音声データを作成
し、音声案内を出力することが行われている。[0005] In order to perform the voice reading, voice data regarding each intersection is required. In an ordinary map database, a map of the whole country is stored, and all intersection names used for guidance are stored as text data. For this reason, by performing voice synthesis from the text data, voice data of an intersection name is created and voice guidance is output.
【0006】しかし、このような音声合成は予め装置内
に持っている50音等の単位音声の組み合わせで読み上
げ用の音声データを作成する。このため、交差点名称を
普通に読み上げた場合と、そのイントネーション、アク
セント、発音等が異なり、聞き取りにくいものとなって
しまう。特に、運転中の運転者に対する案内では、上記
の音声合成による案内では聞き取りやすさという点で十
分でなく、わかりやすい案内音声が望まれる。However, in such speech synthesis, speech data for reading out is created by a combination of unit sounds such as 50 tones which are stored in the apparatus in advance. For this reason, the intersection name, the intonation, the accent, the pronunciation, and the like are different from the case where the intersection name is read aloud normally, making it difficult to hear. In particular, in the guidance to the driver during driving, the guidance based on the above-described voice synthesis is not sufficient in terms of ease of hearing, and a guidance voice that is easy to understand is desired.
【0007】そこで、各交差点名称についての音声デー
タを全て記憶しておくことが行われている。即ち、各交
差点名称等について、実際に読み上げたデータを所定の
符号化処理等を行い音声データとして地図データベース
に記憶しておく。これにより、自然でわかりやすい音声
案内を行うことができる。なお、音声データは、例えば
PCM(パルス・コード・モジュレーション)などの符
号化処理されたデータである。Therefore, it has been practiced to store all the voice data for each intersection name. That is, for each intersection name or the like, data that is actually read out is subjected to a predetermined encoding process or the like, and is stored as audio data in the map database. Thereby, natural and easy-to-understand voice guidance can be performed. Note that the audio data is encoded data such as PCM (pulse code modulation).
【0008】[0008]
【発明が解決しようとする課題】しかしながら、従来の
音声案内ナビゲーション装置には、以下に示す問題点が
ある。全ての音声データを記憶すると、そのデータ量が
膨大なものになり、記憶媒体の容量が大きくなる。通
常、地図データベースには、CD−ROMが利用される
が、通常の地図データの数倍の容量が音声データの記憶
のために必要となる。However, the conventional voice-guided navigation device has the following problems. When all audio data is stored, the amount of data becomes enormous, and the capacity of the storage medium increases. Usually, a CD-ROM is used for the map database, but a capacity several times larger than that of normal map data is required for storing audio data.
【0009】従って、音声の読み上げを自然でわかりや
すく行えると共に、記憶媒体等の記憶容量を小さく抑え
ることができるナビゲーション装置及びそのシステムが
要望されていた。Therefore, there has been a demand for a navigation device and a navigation system that can read out a voice naturally and easily and can reduce the storage capacity of a storage medium and the like.
【0010】また、車載の端末装置により、電子メール
等のやりとりを行ったり、センターから各種のデータの
提供を受けたりするサービスも開始されている。このよ
うなサービスにより得た情報も、音声で読み上げた方が
よい場合も多い。このような場合の読み上げ音声につい
ても自然でわかりやすい音声出力が望まれる。[0010] In addition, services for exchanging e-mail and the like and receiving various data from a center have also been started by using an on-board terminal device. In many cases, information obtained by such a service should be read aloud. In such a case, a natural and easy-to-understand voice output is also desired for the read-aloud voice.
【0011】本発明は上記問題点を解決することを課題
としてなされたものであり、自然でわかりやすい音声出
力が行えると共に、そのための記憶容量を小さく抑える
ことができる移動端末装置などを提供することを目的と
する。SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a mobile terminal device and the like which can output natural and easy-to-understand voice and can reduce the storage capacity for the purpose. Aim.
【0012】[0012]
【課題を解決するための手段】本発明は、音声出力のた
めの音声データを外部データベースからネットワークを
介して取得するデータ取得手段と、前記音声データに対
応する言葉を含めて音声出力を行う音声出力手段と、を
有することを特徴とする。このように、本発明では、外
部から取得した音声データにより、各種音声を出力する
ことができる。従って、移動端末装置において、大容量
の音声データ記憶用のメモリを用意する必要がなくな
る。また、音声合成により音声出力を行うのに比べ、自
然な発声による音声出力が行える。According to the present invention, there is provided a data acquisition means for acquiring voice data for voice output from an external database via a network, and a voice for voice output including a word corresponding to the voice data. And output means. As described above, according to the present invention, various sounds can be output based on sound data acquired from the outside. Therefore, it is not necessary to prepare a large-capacity memory for storing voice data in the mobile terminal device. Also, compared to the case where voice output is performed by voice synthesis, voice output with natural utterance can be performed.
【0013】また、本発明は、音声出力のための処理対
象となる言葉のうち、よく使用される言葉についての音
声データを蓄積した蓄積手段と、テキストデータで表現
された単語について、テキスト合成で音声出力するテキ
スト合成手段と、を有し、蓄積手段からの音声データ
と、テキスト合成手段からの音声データとを合成して音
声出力を行うことを特徴とする。これによれば、よく使
用される単語についての音声データを取得して、この単
語についてはテキスト合成でなく自然な発音で出力で
き、全体としてわかりやすい音声出力ができる。また、
音声データの記憶容量を十分少ないものにできる。Also, the present invention provides a storage means for storing voice data of frequently used words among words to be processed for voice output, and a text synthesizing method for words expressed by text data. And a text synthesizing unit for outputting voice, wherein voice output is performed by synthesizing voice data from the storage unit and voice data from the text synthesizing unit. According to this, voice data of a frequently used word can be acquired, and this word can be output with a natural pronunciation instead of a text synthesis, so that the voice output can be easily understood as a whole. Also,
The storage capacity of audio data can be made sufficiently small.
【0014】また、本発明は、テキスト合成で出力した
単語の使用頻度が所定以上になったときに、前記データ
取得手段により外部からその単語について音声データを
取得することを特徴とする。このようにして、よく使用
する単語についての音声データを移動端末内に補充する
ことができる。Further, the present invention is characterized in that when the frequency of use of a word output in text synthesis becomes equal to or higher than a predetermined value, the data acquisition means acquires voice data for the word from the outside. In this way, voice data for frequently used words can be supplemented in the mobile terminal.
【0015】また、本発明は、取得した音声データのう
ち、使用頻度が低いものについて、データ消去処理を行
うことを特徴とする。このようにして、必要な音声デー
タのみの記憶とすることができ、メモリの記憶容量を有
効に使用することができる。Further, the present invention is characterized in that a data erasing process is performed on the acquired audio data having a low use frequency. In this way, only the necessary audio data can be stored, and the storage capacity of the memory can be used effectively.
【0016】また、本発明は、前記音声出力手段は、表
示用のテキストデータの読み上げ音声を出力することを
特徴とする。表示用のテキストデータを音声出力するこ
とで、観光案内や、電子メールなどの読み上げ出力を聞
き易いものにできる。Further, the present invention is characterized in that the audio output means outputs a reading voice of text data for display. By outputting the text data for display by voice, it is possible to make it easier to hear the read-out output such as a tourist guide or an e-mail.
【0017】また、本発明は、前記音声出力手段は、ナ
ビゲーション装置の案内音声を出力することを特徴とす
る。案内音声には、地名などたくさんの単語があり、こ
れについて外部から提供を受けることによって、移動端
末装置において必要なメモリ容量を減少することができ
る。そして、自然な発音を維持することができる。Further, the present invention is characterized in that the voice output means outputs a guidance voice of a navigation device. The guidance voice includes many words such as place names, and by receiving these words from the outside, the memory capacity required in the mobile terminal device can be reduced. Then, natural pronunciation can be maintained.
【0018】また、本発明は、前記データ取得手段は、
地理的名称に関する音声データを外部から取得し、前記
音声出力手段は、取得した音声データに基づき、前記地
理的名称の読み上げ音声を含む音声案内を行うことを特
徴とする。従って、経路案内において必要な地理的名称
についてのを音声データを予め記憶しておくことが不要
であり、データを記憶する記憶媒体等の容量を必要最小
限に低減することができる。また、車両外部から受信し
た音声データに基づいて音声出力を得るので、読み上げ
音声は自然なものとなる。このため、運転者にとって、
自然で且つわかりやすい音声経路案内を行うことができ
る。Further, in the present invention, the data acquisition means may include:
Voice data relating to a geographical name is obtained from outside, and the voice output means performs voice guidance including a reading voice of the geographical name based on the obtained voice data. Therefore, it is not necessary to previously store voice data for a geographical name required for route guidance, and the capacity of a storage medium or the like for storing data can be reduced to a minimum. Further, since a voice output is obtained based on voice data received from outside the vehicle, the read-out voice becomes natural. Therefore, for the driver,
Natural and easy-to-understand voice route guidance can be performed.
【0019】また、本発明は、前記音声出力手段は、取
得した地理的名称を、音声案内の進行方向案内文に加え
て読み上げることを特徴とする。運転者は、進行方向案
内について、地理的名称を含むメッセージで聞くことが
でき、進行方向を容易に認識することができる。Further, the present invention is characterized in that the voice output means reads out the acquired geographical name in addition to the traveling direction guidance sentence of voice guidance. The driver can hear the traveling direction guidance with a message including the geographical name, and can easily recognize the traveling direction.
【0020】また、本発明は、さらに、目的地に関する
データを車両外部に送信する送信手段を有し、前記デー
タ取得手段は、現在地と前記目的地との間の経路に関す
る情報を音声データを車両外部から取得することを特徴
とする。この場合においては、目的地に関するデータを
車両外部に送信するので、現在地と目的地との間の地理
的名称についての音声データを受信することができる。
従って、受信する音声データについて、無駄な部分をな
くすことができる。Further, the present invention further comprises transmitting means for transmitting data relating to the destination to the outside of the vehicle, wherein the data acquiring means transmits information relating to a route between the current position and the destination to the vehicle by voice data. It is obtained from outside. In this case, since the data on the destination is transmitted to the outside of the vehicle, it is possible to receive voice data on the geographical name between the current location and the destination.
Therefore, it is possible to eliminate unnecessary portions of the received audio data.
【0021】また、本発明は、取得する音声データは現
在地及び進行方向に基づいて決定される所定範囲内にあ
る情報であり、前記所定範囲は変更可能であることを特
徴とする。例えば、送受信される音声データの容量に対
応して前記所定範囲を決定することができる。Further, the present invention is characterized in that the audio data to be acquired is information within a predetermined range determined based on the current position and the traveling direction, and the predetermined range can be changed. For example, the predetermined range can be determined according to the volume of audio data to be transmitted and received.
【0022】また、本発明は、前記音声データを取得す
る範囲である所定範囲は、自車の走行履歴または過去の
交通流を考慮して決められることを特徴とする。これら
の場合には、目的地までの距離だけでなく、過去の交通
状況や過去の自車の走行履歴を考慮して、走行経路を予
測して必要な地理的名称を決定できる。そこで、必要な
音声データを確実に得ることができる。Further, the present invention is characterized in that the predetermined range, which is the range for acquiring the voice data, is determined in consideration of the running history of the own vehicle or the past traffic flow. In these cases, a necessary geographical name can be determined by predicting a traveling route in consideration of not only the distance to the destination but also past traffic conditions and past traveling histories of the own vehicle. Therefore, necessary audio data can be obtained reliably.
【0023】また、本発明は、さらに、外部情報を受信
する外部情報受信手段と、前記受信した外部情報中に含
まれているコード化された音声データをデコードするデ
コード手段と、を有し、前記音声出力手段は、デコード
手段で得られた音声データを用いて音声読み上げするこ
とを特徴とする。このようにして、受信したデータの中
の音声データをデコードしてそのまますぐに音声出力す
ることができる。Further, the present invention further comprises external information receiving means for receiving external information, and decoding means for decoding coded audio data contained in the received external information, The audio output unit reads out the audio using the audio data obtained by the decoding unit. In this manner, the audio data in the received data can be decoded and immediately output as it is.
【0024】また、本発明は、前記音声データ受信手段
と前記音声案内手段とは、携帯端末装置に搭載されてい
ることを特徴とする。このように、携帯端末装置に搭載
されていると、この携帯端末を使用して任意の場所で経
路の設定等が行える。そして、音声データの記憶が不要
であるので、携帯端末装置を小型、軽量化できる。さら
に例えば、センターから地図データをもらう構成にすれ
ば、地図データベース自体が不要になり、装置の小型化
を一層図ることができる。Further, the present invention is characterized in that the voice data receiving means and the voice guidance means are mounted on a portable terminal device. As described above, when the portable terminal device is mounted on the portable terminal device, a route can be set at an arbitrary place using the portable terminal device. Since the storage of voice data is unnecessary, the size and weight of the portable terminal device can be reduced. Further, for example, if a configuration is adopted in which map data is received from the center, the map database itself becomes unnecessary, and the size of the apparatus can be further reduced.
【0025】また、本発明は、外部から取得される音声
データは、サンプリング音声データであることを特徴と
する。人の発声から得たサンプリング音声データを取得
することで、人間の生の発声と同様の自然な音声を再生
できる。Further, the present invention is characterized in that the audio data obtained from the outside is sampling audio data. By acquiring the sampled voice data obtained from a human voice, a natural voice similar to a human voice can be reproduced.
【0026】本発明は、上述のような移動端末装置から
なる情報提供提供システムに関する。さらに、本発明
は、移動体端末の動作を達成するためのプログラムを記
憶した媒体に関する。なお、動作プログラムは、移動端
末装置内のROM、CD−ROMやハードディスクなど
に記憶しておくことが好適である。また、ユーザはCD
−ROMを購入することで、新たなプログラムをナビE
CUにロードすることもできる。さらに、媒体は、CD
−ROMに限らず、DVDやFDなど音声出力プログラ
ムを記憶できるものであればどのような形式のものでも
よく、通信で提供することも好適である。特に、センタ
ーが動作プログラムを移動端末装置に通信で提供するこ
とが好ましい。The present invention relates to an information providing system comprising the above-mentioned mobile terminal device. Furthermore, the present invention relates to a medium storing a program for achieving an operation of a mobile terminal. It is preferable that the operation program is stored in a ROM, a CD-ROM, a hard disk, or the like in the mobile terminal device. In addition, the user
-Navigating a new program by purchasing ROM
It can also be loaded into the CU. Further, the medium is a CD
-Not limited to the ROM, any format may be used as long as it can store the audio output program, such as a DVD or FD, and it is also preferable to provide it by communication. In particular, it is preferable that the center provides the operation program to the mobile terminal device by communication.
【0027】[0027]
【発明の実施の形態】以下、本発明に好適な実施形態に
ついて、図面に基づいて説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.
【0028】「実施形態1」図1は、本発明に係るナビ
ゲーション装置(移動端末)の一実施形態を示すブロッ
ク図である。ナビゲーション装置2においては、ナビゲ
ーションECU(以下、ナビECUという)4に、モデ
ム6、音声信号出力装置8、地図データベース10、G
PS装置12、音声データ記憶部14、操作部16及び
表示部18が接続されている。[Embodiment 1] FIG. 1 is a block diagram showing an embodiment of a navigation device (mobile terminal) according to the present invention. In the navigation device 2, a navigation ECU (hereinafter, referred to as a navigation ECU) 4, a modem 6, an audio signal output device 8, a map database 10, and a G
The PS device 12, the audio data storage unit 14, the operation unit 16, and the display unit 18 are connected.
【0029】モデム6は、自動車電話等の無線通信機2
0に接続されており、車両外部から送られてくる音声デ
ータの受信や車両外部への情報の送信等に必要な変復調
処理を行う。音声信号出力装置8には、スピーカ22が
接続されており、ナビECU4からの信号に従い音声を
スピーカ22から出力して、運転者に対して経路案内を
行う。なお、ナビECU4は、その内部のROMに所定
のプログラムを記憶しており、このプログラムを実行す
ることによって、各種動作を達成する。このROMは、
マスクROMでもよいが、EEPROM等書き替え可能
なものとすることが好ましい。この場合、地図データベ
ース10として利用されるCD−ROMに動作プログラ
ム(音声出力プログラム)を記憶しておき、このプログ
ラムをナビECU4内のEEPROM等にロードするこ
とも好適である。これによって、ユーザはCD−ROM
を購入することで、新たなプログラムをナビECU4に
ロードすることができ、ナビECU4を新しいプログラ
ムに基づいて動作させることができる。なお、媒体は、
CD−ROMに限らず、DVDやFDなど音声出力プロ
グラムを記憶できるものであればどのような形式のもの
でもよい。The modem 6 is a wireless communication device 2 such as a car telephone.
0, and performs modulation and demodulation processing necessary for receiving audio data sent from outside the vehicle, transmitting information to the outside of the vehicle, and the like. A speaker 22 is connected to the audio signal output device 8, and outputs a sound from the speaker 22 according to a signal from the navigation ECU 4 to provide a route guidance to the driver. The navigation ECU 4 stores a predetermined program in an internal ROM, and achieves various operations by executing the program. This ROM is
Although a mask ROM may be used, it is preferable that the memory be rewritable, such as an EEPROM. In this case, it is also preferable to store an operation program (audio output program) in a CD-ROM used as the map database 10 and load this program into an EEPROM or the like in the navigation ECU 4. This allows the user to access the CD-ROM
By purchasing, a new program can be loaded into the navigation ECU 4, and the navigation ECU 4 can be operated based on the new program. The medium is
Not only the CD-ROM, but also any other format capable of storing an audio output program, such as a DVD or FD, may be used.
【0030】GPS装置12は、複数の人工衛星からの
電波を受信することで、現在地(緯度及び経度等)を検
出する。そして、地図データベース10を利用して、G
PS装置12により検出された現在地が地図上の位置と
して認識される。音声データ記憶部14では、車両外部
から送られてくる音声データがナビECU4を介して記
憶される。なお、この音声データ記憶部14としては、
通常RAMが利用されるが、EEPROM等でもよい。
操作部16は、ナビECU4に対して各種データの入力
処理等を行うために使用される。表示部18は、操作部
16による各種データ入力のための表示、地図データベ
ース10及びGPS装置12とによる地図上の現在位置
情報の表示、メッセージの表示等を行う。The GPS device 12 detects the current position (latitude and longitude, etc.) by receiving radio waves from a plurality of artificial satellites. Then, using the map database 10, G
The current location detected by the PS device 12 is recognized as a position on the map. The voice data storage unit 14 stores voice data sent from outside the vehicle via the navigation ECU 4. In addition, as this audio | voice data storage part 14,
Usually, a RAM is used, but an EEPROM or the like may be used.
The operation unit 16 is used to perform various data input processing to the navigation ECU 4 and the like. The display unit 18 performs display for inputting various data by the operation unit 16, display of current position information on a map by the map database 10 and the GPS device 12, display of a message, and the like.
【0031】図2は、このナビゲーション装置2を利用
したナビゲーションシステムを示す模式的概念図であ
る。ナビゲーション装置2より経路データをセンター3
0に送信すると、センター30がこの経路を走行する際
の経路案内に必要な音声データを作成し、ナビゲーショ
ン装置2に提供する。従って、ナビゲーション装置2に
おいて、音声データに基づく経路案内が行える。FIG. 2 is a schematic conceptual diagram showing a navigation system using the navigation device 2. Route data from the navigation device 2 to the center 3
When the transmission is made to 0, the center 30 creates voice data necessary for route guidance when traveling on this route, and provides it to the navigation device 2. Therefore, the navigation device 2 can provide route guidance based on the voice data.
【0032】上記のナビゲーション装置2及びそのシス
テムを使用して、音声データによる経路案内方法を以下
に説明する。図4は、ナビゲーションシステムにおける
動作を示すフローチャートであり、図3は経路案内の一
例を説明するための図である。なお、このような処理
は、ナビECU4がその内部に記憶されているプログラ
ムを実行することによって達成される。A route guidance method using voice data using the above navigation device 2 and its system will be described below. FIG. 4 is a flowchart showing an operation in the navigation system, and FIG. 3 is a diagram for explaining an example of route guidance. Note that such processing is achieved by the navigation ECU 4 executing a program stored therein.
【0033】図3において、最初に車両は位置Xにい
る。この場合、図4のフローチャートで示すように、先
ずGPS装置12により位置Xを絶対位置(緯度及び経
度)として検出すると共に、地域毎に設置されているセ
ンター30のうち、自車位置に最も近いセンター30を
地図データベース10により探索する(S102)。ま
た、地図データベース10により地図上には、自車位置
Xが地図上の位置として認識される。なお、現在地をセ
ンター30に送信し、現在地周辺の地図データを受け取
り、地図上の自車位置Xを認識してもよい。In FIG. 3, the vehicle is initially in position X. In this case, as shown in the flowchart of FIG. 4, the position X is first detected by the GPS device 12 as an absolute position (latitude and longitude), and among the centers 30 installed in each region, the position X is closest to the own vehicle position. The center 30 is searched by the map database 10 (S102). Further, the vehicle position X is recognized on the map by the map database 10 as a position on the map. Note that the current location may be transmitted to the center 30 and map data around the current location may be received to recognize the own vehicle position X on the map.
【0034】次に、操作部16により目的地のデータを
入力する。すると、ナビECU4が地図データベース1
0を利用して、現在地から目的地までの経路を探索し、
経路データが作成される(S104)。そして、現在地
から目的地までの経路上のこれから走行する予定の距離
a(km)分のリンク及びノードからなる経路データを
無線通信機20等を介してセンター30に送信する(S
106)。Next, the data of the destination is input by the operation unit 16. Then, the navigation ECU 4 stores the map database 1
Use 0 to search for a route from your current location to your destination,
Route data is created (S104). Then, route data including links and nodes for a distance a (km) to be traveled on the route from the current position to the destination is transmitted to the center 30 via the wireless communication device 20 or the like (S
106).
【0035】なお、リンクとは、交差点毎に区切られた
道路の1単位をいい、これらのリンク間の区切りである
交差点をノードという。また、距離a(km)は、セン
ター30側の処理速度、音声データ記憶部14の容量、
受信する音声データの容量等を考慮して決定される。例
えば、10km等の固定距離でもよいが条件に応じて変
更することが好適である。A link refers to one unit of a road divided for each intersection, and an intersection serving as a break between these links is called a node. The distance a (km) is the processing speed of the center 30, the capacity of the audio data storage unit 14,
It is determined in consideration of the volume of received audio data and the like. For example, a fixed distance such as 10 km may be used, but it is preferable to change the distance according to conditions.
【0036】続いて、センター30において、経路上の
走行予定距離a(km)分のリンク及びノードからなる
経路データを受信すると、この経路データに対応する交
差点名称群を探索し、車両へ送信する(S108)。Subsequently, when the center 30 receives the route data composed of links and nodes for the planned traveling distance a (km) on the route, it searches for an intersection name group corresponding to the route data and transmits it to the vehicle. (S108).
【0037】この交差点名称群の探索について以下に詳
細に説明する。交差点名称群D(U)はこの先、走行予
定距離a(km)にあるリンク及びノードについての経
路データUにより定められる抽出関数f(U)により決
定される。図5(a),(b)は、それぞれ、各ノード
に対して抽出関数f(U)により決められた交差点名称
を抽出する範囲を示す図である。例えば、図5(a)に
示すように経路52上の各ノード50から半径b(k
m)以内の範囲にある交差点54を全て抽出して、これ
らの交差点名称の集合を交差点名称群D(U)とする。
また、他の例として、図5(b)に示すように、経路5
6上の各ノード50から距離b(km)以内の交差点5
4を全て抽出して、これらの交差点名称を交差点名称群
D(U)とすることもできる。なお、上記距離b(k
m)は、センター30側の処理速度、音声データ記憶部
14の容量、受信する音声データの容量等により変更可
能である。The search for the intersection name group will be described in detail below. The intersection name group D (U) is determined by the extraction function f (U) defined by the route data U for the link and the node at the planned traveling distance a (km). FIGS. 5A and 5B are diagrams each showing a range of extracting an intersection name determined by an extraction function f (U) for each node. For example, as shown in FIG. 5A, a radius b (k
m), all intersections 54 within the range within m) are extracted, and a set of these intersection names is set as an intersection name group D (U).
As another example, as shown in FIG.
Intersection 5 within a distance b (km) from each node 50 on 6
4 can be extracted and these intersection names can be used as an intersection name group D (U). Note that the distance b (k
m) can be changed according to the processing speed of the center 30, the capacity of the audio data storage unit 14, the capacity of audio data to be received, and the like.
【0038】このように経路上の交差点名称だけでな
く、ある範囲の交差点を取得することで、経路はずれの
際の案内や方面案内等が可能になる。As described above, by obtaining not only the names of the intersections on the route but also the intersections within a certain range, it is possible to provide guidance when the route deviates, direction guidance, and the like.
【0039】そして、センター30は、交差点名称の探
索後、これらの交差点名称群D(U)をセンター30か
ら音声データとしてナビゲーション装置2へ送信する。After searching for the intersection name, the center 30 transmits the intersection name group D (U) from the center 30 to the navigation device 2 as voice data.
【0040】このように、音声データを受信した場合に
は、車両の音声データ記憶部14において、受信した交
差点名称群D(U)の音声データを記憶する(S11
0)。その後、経路案内が開始される(S112)。こ
こで、図3に示すように、車両は現在地Xから経路案内
に基づき、走行を行う。そして、A交差点に接近したと
き、例えば、「300m先、A交差点を左方向です。」
等の音声が読み上げられて、経路案内が行われる。そし
て、B交差点に接近したときは、「300m先、B交差
点を右方向です。」等の音声が読み上げられる。As described above, when the voice data is received, the received voice data of the intersection name group D (U) is stored in the voice data storage unit 14 of the vehicle (S11).
0). Thereafter, route guidance is started (S112). Here, as shown in FIG. 3, the vehicle travels from the current location X based on route guidance. Then, when approaching the intersection A, for example, "300 meters ahead, turn left at the intersection A."
Is read aloud to provide route guidance. When approaching the intersection B, a voice such as "300 meters ahead, the intersection B is to the right" is read.
【0041】ここで、車両が距離a(km)だけ走行す
る間の案内に必要な交差点名称などの音声データは、車
両において、センター30から受信している。そこで、
上述のような案内における交差点名A、Bの音声データ
が、音声データ記憶部14に記憶されている。そこで、
案内における交差点名称を自然な発音で出力することが
できる。なお、その他の定型の案内音声は、地図データ
ベース10に、音声データが記憶されており、これを読
み出して使用する。Here, voice data such as an intersection name necessary for guidance while the vehicle travels a distance a (km) is received from the center 30 in the vehicle. Therefore,
The voice data of the intersection names A and B in the guidance as described above is stored in the voice data storage unit 14. Therefore,
Intersection names in guidance can be output with natural pronunciation. As for other standard guidance voices, voice data is stored in the map database 10 and is read and used.
【0042】そして、所定設定距離の走行毎に、自車が
距離a(km)から1km手前の地点に達したか否かを
ステップS114にて判断する。ステップS114にて
自車位置が所定距離a−1(km)の地点に達しない場
合には、ステップS112に戻り、音声案内を継続す
る。なお、この1kmについては、この距離に限定せ
ず、センター30側の処理速度等により変更可能であ
る。そして、距離a(km)から1km手前の地点に達
した場合は、ステップS116にて、自車位置から目的
地まで、1km以内であるか否かを判定する。このステ
ップS116にて、自車位置が目的地まで1km以内に
達していない場合には、ステップS102に戻り、上述
の工程を繰り返し、現在地から目的地までの経路データ
を送信し、必要な音声データを受信して経路案内を行
う。一方、目的地まで1km以内である場合には、音声
経路案内は終了し、車両はそのまま目的地まで走行す
る。Each time the vehicle travels a predetermined distance, it is determined in step S114 whether the vehicle has reached a point 1 km before the distance a (km). If the own vehicle position does not reach the point of the predetermined distance a-1 (km) in step S114, the process returns to step S112 and continues voice guidance. This 1 km is not limited to this distance, but can be changed according to the processing speed on the center 30 side. If the vehicle has reached a point 1 km before the distance a (km), it is determined in step S116 whether the distance from the vehicle position to the destination is within 1 km. If it is determined in step S116 that the position of the vehicle has not reached the destination within 1 km, the process returns to step S102, repeats the above steps, transmits route data from the current location to the destination, and outputs necessary voice data. To receive route guidance. On the other hand, if the vehicle is within 1 km of the destination, the voice route guidance ends, and the vehicle travels to the destination as it is.
【0043】なお、センター30から取得する音声デー
タは、交差点名称の代わりに例えば、F市12番地等の
地理的名称や施設名称でもよく、この地理的名称と交差
点名称とを合わせて音声データとしてもよい。更に、音
声データは各自車状況を考慮して、経路案内に必要でな
い交差点名称群を含んでもよい。The voice data obtained from the center 30 may be, for example, a geographical name or a facility name such as 12 at F city instead of the intersection name, and the geographical name and the intersection name are combined as voice data. Is also good. Furthermore, the voice data may include an intersection name group that is not necessary for route guidance in consideration of the situation of each vehicle.
【0044】このように、本実施の形態においては、交
差点名称等に関する音声データをセンター30から取得
することができる。このため、音声データを予め記憶し
ておくことが不要である。そして、走行中の経路案内に
必要な分に関する音声データだけを音声データ記憶部1
4に記憶する。このため、音声データ記憶部14の容量
は小さなものでよい。また、センター30から受信音声
データを読み上げるので、音声データは自然なものとな
る。このため、運転者にとって、自然で且つわかりやす
い音声経路案内を行うことができる。As described above, in the present embodiment, audio data relating to an intersection name and the like can be obtained from the center 30. For this reason, it is not necessary to store the audio data in advance. Then, the voice data storage unit 1 stores only voice data related to the amount necessary for route guidance during traveling.
4 is stored. For this reason, the capacity of the audio data storage unit 14 may be small. In addition, since the received voice data is read out from the center 30, the voice data becomes natural. For this reason, it is possible to provide a voice route guidance that is natural and easy for the driver to understand.
【0045】なお、本実施の形態においては、目的地の
設定とこの目的地に関する経路の探索を車両側のナビゲ
ーション装置2で行っていたが、本実施の形態において
は、これに限定されない。即ち、車両側で、目的地を設
定した後、この目的地に関するデータをセンター30に
送信し、センター30側で現在地から目的地までの経路
を探索して経路データを作成し、この経路データに基づ
いて交差点名称等の音声データを用意しても良い。In the present embodiment, the setting of the destination and the search for the route related to the destination are performed by the navigation device 2 on the vehicle side. However, the present invention is not limited to this. That is, after the destination is set on the vehicle side, data relating to the destination is transmitted to the center 30, and the center 30 searches for a route from the current location to the destination to create route data, and the route data is generated. Voice data such as an intersection name may be prepared based on the intersection name.
【0046】また、センター30側が有する過去の交通
状況データベースを使用して、経路案内に必要な交差点
名称等を決定することもできる。通常、走行曜日、走行
時間、天気等に応じて、道路上を走行する車両数は変化
する。このため、これらの走行時間等による車両数の情
報を経路毎に交通状況データベースに保存しておく。そ
して、走行時間等の過去の交通状況データベースに基づ
いて、例えば経路案内時での走行時間において経路とし
て選択する車両が多いと判定される経路についても、交
差点名称等の音声データを用意する。過去の交通状況を
考慮した経路の例を図6に示す。この図に示すように、
経路XXは最初に決定された経路であるが、この経路上
のノードG,H等だけでなく、上記の過去の交通量等を
考慮して考えられる経路YY上の交差点M,N等に関す
る交差点名称群等の音声データもセンター30が送信対
象とする。このため、走行状況に応じて、経路YYを選
択して走行した場合、この経路に関する音声案内を行う
ことも可能である。Further, it is also possible to determine an intersection name and the like necessary for route guidance using the past traffic situation database of the center 30 side. Usually, the number of vehicles traveling on the road changes according to the traveling day, the traveling time, the weather, and the like. For this reason, information on the number of vehicles based on the travel time and the like is stored in the traffic situation database for each route. Based on the past traffic situation database such as the travel time, voice data such as an intersection name is prepared for a route that is determined to have many vehicles to be selected as a route during the travel time during route guidance. FIG. 6 shows an example of a route in consideration of past traffic conditions. As shown in this figure,
The route XX is the route determined first, but not only the nodes G, H, etc. on this route, but also the intersections about the intersections M, N, etc. on the route YY which can be considered in consideration of the past traffic volume and the like. The center 30 also transmits audio data such as name groups. For this reason, when the route YY is selected and traveled according to the traveling situation, it is also possible to perform voice guidance on this route.
【0047】さらに、自車の走行履歴、例えば、所定区
間における異なる経路毎の自車の走行回数等を走行履歴
データベースに記憶しておき、この走行履歴データベー
スに基づいて、対象とする交差点名称を決定することも
可能である。この場合においては、車両側で、目的地ま
での経路を設定した後、過去の走行履歴を参考にして、
走行頻度の高い経路も経路データに加える。従って、こ
れらの複数の経路に基づく交差点名称についての音声デ
ータを得ることができる。Further, the traveling history of the own vehicle, for example, the number of times of traveling of the own vehicle for each of different routes in a predetermined section is stored in the traveling history database, and based on the traveling history database, a target intersection name is entered. It is also possible to decide. In this case, after setting the route to the destination on the vehicle side, referring to the past driving history,
Routes with a high traveling frequency are also added to the route data. Therefore, it is possible to obtain voice data for an intersection name based on these plural routes.
【0048】このようにして、過去の交通状況や過去の
自車の走行履歴を考慮して音声データを入手すること
で、走行経路の変更に対応して、音声案内を行うことが
できる。As described above, by obtaining the voice data in consideration of the past traffic conditions and the past running history of the own vehicle, voice guidance can be performed in response to a change in the running route.
【0049】また、ナビゲーション装置2を、携帯端末
装置に搭載することも好適である。この場合、携帯端末
装置を利用して経路の設定を行い、上述の場合と同様
に、携帯電話やPHSなどの電話を利用して経路及び最
小限の音声データを得ておく。そして、走行中は、適宜
詳細なデータをもらい、これを利用して、経路案内を行
うことができる。図7は携帯端末装置を利用した音声案
内を示す模式図である。車両の走行前に、例えば自宅に
おいて、目的地を入力する。そして、現在地をGPS装
置12により検出し、目的地及び現在地をセンター30
へ送信する。すると、センター30では、送信された現
在地及び目的地に基づき、最適経路の探索を行い、最適
経路データ並びにこの経路上のノード及びリンクに対応
する交差点名称群等の音声データ及び地図データを携帯
情報端末に送信する。この際の音声データは最小限のも
のにしておくとよい。なお、現在地(走行開始位置)を
入力するようにすれば、GPS装置はなくても良い。ま
た、上述の操作は、車両走行開始時に行ってもよい。特
に、経路中に都市部等のDSRC、PHS等のアンテナ
が整備されている地域がある場合、この地域のデータは
最小限に抑えるとよい。なお、DSRC(Dedicated Sh
ort Range Communication)では、光ビーコン等を利用
する場合が多い。It is also preferable to mount the navigation device 2 on a portable terminal device. In this case, a route is set using a mobile terminal device, and a route and a minimum amount of audio data are obtained using a telephone such as a mobile phone or a PHS as in the above-described case. During traveling, detailed data is appropriately obtained, and route guidance can be performed using the data. FIG. 7 is a schematic diagram showing voice guidance using a mobile terminal device. Before traveling of the vehicle, a destination is input, for example, at home. Then, the current location is detected by the GPS device 12, and the destination and the current location are determined by the center 30.
Send to Then, the center 30 searches for the optimum route based on the transmitted current location and destination, and transmits the optimum route data and the voice data and map data such as the intersection name group corresponding to the nodes and links on this route to the portable information. Send to terminal. At this time, the audio data should be minimized. Note that the GPS device may not be provided if the current location (running start position) is input. Further, the above-described operation may be performed at the time of starting traveling of the vehicle. In particular, when there is an area such as an urban area where antennas such as DSRC and PHS are provided in the route, the data in this area should be minimized. Note that DSRC (Dedicated Sh
ort Range Communication) often uses an optical beacon or the like.
【0050】そして、経路設定の終わった携帯端末装置
を車両へ持ち込み、この携帯端末装置からの経路案内を
受けながら、目的地に向けての走行が行われる。図7に
示すように、都市部等のDSRC、PHS等のアンテナ
が整備されている地域を走行する場合には、ノード50
に接近する毎に、適時PHS等によりセンター30に電
話をして、交差点から所定範囲内(例えば、円70の範
囲内)の交差点名称群D(U)を受信して、音声による
経路案内を行う。なお、センター30に電話をして、同
時に詳細な地図データを随時もらうことで、予め記憶し
ておくデータ量を非常に少なくして、所望の経路案内を
行うことができる。また、地図データを随時もらえるの
で、携帯端末装置に予め必要な地図データ量はさらに少
なくてもよい。Then, the portable terminal device for which the route has been set is carried into the vehicle, and travels to the destination while receiving route guidance from the portable terminal device. As shown in FIG. 7, when traveling in an area where an antenna such as DSRC or PHS is provided, such as an urban area, the node 50 is used.
Each time the vehicle approaches the center, the center 30 is telephoned by PHS or the like in a timely manner, receives an intersection name group D (U) within a predetermined range (for example, within the range of a circle 70) from the intersection, and provides voice route guidance. Do. In addition, by calling the center 30 and receiving detailed map data at any time, the amount of data stored in advance can be extremely reduced, and desired route guidance can be performed. Further, since the map data can be obtained at any time, the amount of map data required in advance for the portable terminal device may be further reduced.
【0051】このように、音声データを記憶する必要が
なく、センター30から地図データをもらう構成にすれ
ば、地図データベース自体が不要になる。従って、装置
の小型化を図ることができ、携帯端末装置をまとめるこ
とが容易である。さらに、携帯端末装置を利用すれば、
任意の場所において、経路設定が行えるため、友人など
とドライブの計画を話しながら、経路の設定などを行う
こともできる。As described above, if it is not necessary to store the voice data and the map data is obtained from the center 30, the map database itself becomes unnecessary. Therefore, the size of the device can be reduced, and the portable terminal device can be easily assembled. Furthermore, if a mobile terminal device is used,
Since a route can be set at an arbitrary place, a route can be set while talking about a drive plan with a friend or the like.
【0052】さらに、携帯端末装置と車載のナビゲーシ
ョン装置を組み合わせることも好適である。特に、車載
のナビゲーション装置において、道路側のビーコンとの
通信機器を設けておけば、走行中において必要なデータ
をこの通信機器により入手することもできる。Further, it is also preferable to combine a portable terminal device and a navigation device mounted on a vehicle. In particular, if a communication device with a roadside beacon is provided in a vehicle-mounted navigation device, necessary data during traveling can be obtained with the communication device.
【0053】「実施形態2」図8に実施形態2の構成を
示す。この実施形態では、音声合成装置40を有してい
る。この音声合成装置40は、ナビECU4から供給さ
れるテキストデータから音声合成し、スピーカ22から
合成音声を出力させる。従って、ナビECU4は、音声
データを出力する場合には、これに基づき音声信号出力
装置8を介し、スピーカ22から音声出力し、テキスト
データを出力する場合には、音声合成装置40を介し、
スピーカ22から音声出力する。また、固定メモリ42
は、音声データ記憶部14に代えて設けられたものであ
り、EEPROM等で構成されよく使用する単語(主要
キーワード)についての音声データの供給を受け、これ
を固定的に記憶する。すなわち、通常の単語は音声合成
によって出力するが、よく使う単語については、その音
声データの提供を受けこれを固定メモリ42に記憶して
おく。従って、音声出力の際によく使われる単語につい
ては、供給を受けた音声データを利用して音声出力が行
われるため、全体として理解しやすい音声出力が行え
る。なお、従来の地図データベース10と同様に、経路
案内において、通常使用する単語について、その音声デ
ータが記憶しておくことも好適である。これによって、
これら単語については取得の必要がなくなる。Second Embodiment FIG. 8 shows the configuration of the second embodiment. In this embodiment, a speech synthesizer 40 is provided. The voice synthesizing device 40 synthesizes voice from text data supplied from the navigation ECU 4 and outputs a synthesized voice from the speaker 22. Therefore, the navigation ECU 4 outputs voice data from the speaker 22 via the voice signal output device 8 based on the voice data when outputting the voice data, and outputs voice data via the voice synthesizing device 40 when outputting text data.
Voice is output from the speaker 22. The fixed memory 42
Is provided in place of the voice data storage unit 14, receives voice data of frequently used words (main keywords), such as an EEPROM, and stores the voice data in a fixed manner. That is, a normal word is output by speech synthesis, and a frequently used word is provided with its voice data and stored in the fixed memory 42. Therefore, for words that are frequently used in voice output, voice output is performed using the supplied voice data, so that voice output that is easy to understand as a whole can be performed. Note that, similarly to the conventional map database 10, it is also preferable to store voice data of words that are usually used in route guidance. by this,
There is no need to acquire these words.
【0054】このように、本実施形態においては、よく
使用する単語やフレーズについて音声データを取得し、
これを固定メモリ42に記憶する。この動作について、
図9に基づいて説明する。As described above, in this embodiment, voice data is acquired for frequently used words and phrases,
This is stored in the fixed memory 42. About this behavior,
This will be described with reference to FIG.
【0055】まず、テキストデータを受信したら、その
テキストデータの読み上げ処理を実行する(S20
2)。すなわち、受信したテキストデータについて、音
声データ記憶部14に記憶されている単語については、
ここから読み出した音声データにより音声を出力し、音
声データ記憶部14に記憶されていない単語について
は、音声合成装置40により音声合成を行う。次に、固
定メモリ42に記憶されていなかった単語があるかを判
定する(S204)。この判定において、YES、すな
わち記憶されていない単語があった場合には、該当する
単語をテキストデータで記憶する(S206)。ここ
で、当該単語が、すでに記憶されていた場合には、その
単語についてのカウント値を1インクリメントする。ま
た、初めての単語については、カウント値1とともに、
その単語を記憶する。なお、このデータは、ナビECU
4内のRAMに記憶すればよい。First, when text data is received, a reading process of the text data is executed (S20).
2). That is, for the received text data, for the words stored in the voice data storage unit 14,
A voice is output based on the voice data read out from here, and voice synthesis is performed by the voice synthesizer 40 for words that are not stored in the voice data storage unit 14. Next, it is determined whether there is a word that has not been stored in the fixed memory 42 (S204). In this determination, if YES, that is, if there is a word that is not stored, the corresponding word is stored as text data (S206). Here, if the word has already been stored, the count value for that word is incremented by one. For the first word, along with the count value 1,
Remember that word. This data is stored in the navigation ECU
4 may be stored in the RAM.
【0056】次に、記憶された単語について、そのカウ
ント値が所定値(例えば、5回)を超えたものがあるか
を判定する(S208)。そして、該当する単語につい
ては、センター30に音声データの提供を要求し(S2
10)、センター30から音声データの提供を受け、こ
れを固定メモリ42に記憶する(S212)。次に、固
定メモリ42の中で、過去所定期間(例えば、1年間)
使用していない単語があるかを判定する(S214)。
これは、単語毎に適当なタイムスタンプ(例えば、年、
月を示すデータ)を記憶しておき、これをチェックする
ことで達成できる。そして、この判定でYESの場合に
は、当該単語を固定メモリ42から削除することをアド
バイスする(S216)。S216の処理を終了した場
合、及びS204、S208、S214でNOであった
場合には、処理を終了する。Next, it is determined whether any of the stored words has a count value exceeding a predetermined value (for example, five times) (S208). For the corresponding word, the center 30 is requested to provide audio data (S2).
10) The audio data is provided from the center 30 and stored in the fixed memory 42 (S212). Next, in the fixed memory 42, a past predetermined period (for example, one year)
It is determined whether there is an unused word (S214).
This means that the appropriate timestamp for each word (eg, year,
This can be achieved by storing data indicating the month) and checking this. Then, in the case of YES in this determination, it is advised that the word is deleted from the fixed memory 42 (S216). When the process of S216 is completed, and when S204, S208, and S214 are NO, the process is completed.
【0057】なお、S214の単語削除のアドバイスの
際には、「単語○○は、1年間使用されていません。削
除をしますか」という表示を表示部18に行い、「は
い」または「いいえ」の入力を待ち、削除を行うか否か
を決定するなどの方法が採用される。また、S210の
音声データの要求の際にも、「単語○○について音声デ
ータを要求しますか」等という問い合わせをすることも
好適である。At the time of the advice of word deletion in S214, a message "Word OO has not been used for one year. Would you like to delete it?" Is displayed on the display unit 18, and "YES" or "YES" is displayed. A method of waiting for the input of "No" and deciding whether to delete or not is adopted. Also, when requesting voice data in S210, it is also preferable to make an inquiry such as "Do you want voice data for word XX?"
【0058】このようにして、テキストデータを記憶す
ることで、使用頻度を検出し、使用頻度の高い単語につ
いて、自動的に固定メモリ42に音声データを記憶し、
使用頻度の低い単語については音声データを削除するこ
とができる。そこで、不要な音声データにより、固定メ
モリ42が占められてしまうことを防止することができ
る。By storing the text data in this manner, the frequency of use is detected, and the voice data is automatically stored in the fixed memory 42 for the frequently used words.
Voice data can be deleted for words that are not frequently used. Therefore, it is possible to prevent the fixed memory 42 from being occupied by unnecessary audio data.
【0059】なお、実施形態1と同様にして、センター
30から所定の音声データの提供を常に受けておき、使
用頻度の高いものについて、その音声データを固定メモ
リ42に記憶することも好適である。この場合、出力す
る内容によっては、地図データベース10、固定メモリ
42、及び音声データ記憶部14からの音声データと、
音声合成装置40からの出力に基づいて音声出力が行わ
れることになる。In the same manner as in the first embodiment, it is also preferable to always receive predetermined audio data from the center 30 and store the audio data in the fixed memory 42 for frequently used audio data. . In this case, depending on the content to be output, audio data from the map database 10, the fixed memory 42, and the audio data storage unit 14,
Voice output is performed based on the output from the voice synthesizer 40.
【0060】さらに、上述のようなシステムにおいて、
センター30において、ユーザからの各単語についての
音声データ要求回数をカウントしておき、所定回数に達
した場合に、各ユーザに自動配信することもできる。す
なわち、図10に示すように、センター30において情
報を配信する際に、各単語Tiについてユーザからの音
声データ要求が50回に達したかを判定する(S30
2)。そして、この判定において、YESであれば、そ
の単語について、ユーザ端末(移動端末)に自動配信す
る(S304)。このような処理は、所定地域に限定し
て行うことも好適である。すなわち、ある地域に存在す
る移動端末からの要求をカウントして、その地域に存在
する移動端末に当該単語の音声データを自動配信するこ
とができる。Further, in the system as described above,
In the center 30, the number of voice data requests for each word from the user is counted, and when the predetermined number is reached, the data can be automatically distributed to each user. That is, as shown in FIG. 10, when distributing information in the center 30, it is determined whether or not the voice data request from the user has reached 50 times for each word Ti (S30).
2). If the determination is YES, the word is automatically distributed to the user terminal (mobile terminal) (S304). It is also preferable that such processing be performed only in a predetermined area. That is, it is possible to count a request from a mobile terminal located in a certain area and automatically distribute the voice data of the word to a mobile terminal located in the certain area.
【0061】「音声読み上げデータの例」次に、センタ
ー30が交通情報を提供する際に、音声データを添付し
て、車両(移動端末)に付与する例について説明する。
この場合、音声データは、符号化されて添付される。そ
こで、移動端末装置においては、受信した音声データを
デコードすることで、音声出力を得ることができる。[Exemplary Voice-Reading Data] Next, an example will be described in which, when the center 30 provides traffic information, voice data is attached and attached to a vehicle (mobile terminal).
In this case, the audio data is encoded and attached. Thus, in the mobile terminal device, audio output can be obtained by decoding the received audio data.
【0062】所定の地域の道路や設定された経路につい
て渋滞情報を提供する際に、センター30は表1に示す
ようなデータを提供する。すなわち、各リンクに対応し
た渋滞レベルデータに追加して、渋滞情報読み上げデー
タ、道路名称の読み上げデータを移動端末に提供する。
例えば、リンク1〜7について、渋滞情報読み上げデー
タとして、「渋滞はありません」「少し渋滞」「2キロ
渋滞」「かなり渋滞」「車線減少」「工事箇所」「通行
止め」などを提供し、また道路名称の読み上げデータと
して、「国道1号線」「丸山公園通り北行き」「西大津
バイパス堅田方面」「高雄パークウェイ嵐山方面」など
を提供する。The center 30 provides data as shown in Table 1 when providing traffic congestion information on roads in a predetermined area or a set route. That is, in addition to the congestion level data corresponding to each link, congestion information reading data and road name reading data are provided to the mobile terminal.
For example, for the links 1 to 7, "no traffic", "slight traffic", "2 km traffic", "significant traffic", "decrease lane", "construction location", "no traffic", etc. are provided as traffic information reading data. As the name reading data, "National Route 1", "Maruyama Koen-dori northbound", "Nishi-Otsu bypass Katata area", "Kaohsiung Parkway Arashiyama area", etc. are provided.
【0063】[0063]
【表1】 そこで、移動端末は経路に応じて、提供された音声デー
タを利用して案内を行う。例えば、自宅出発時において
経路が定まっており、その経路についての渋滞情報を取
得していた場合、「国道1号線から西大津バイパスを通
るルートです。国道1号線は*少し渋滞*しています。
西大津バイパス堅田方面は*車線減少*箇所があるので
注意して走行して下さい。」、また走行中の交差点手前
では、「500m先、丸山公園前を左方向です。その先
丸山公園通り北行きは*2キロの渋滞*です。」等とい
う音声案内を提供された音声データ(読み上げデータ)
を利用して行うことができる。[Table 1] Therefore, the mobile terminal performs guidance using the provided voice data according to the route. For example, if a route is determined when you leave your home, and you have obtained congestion information for that route, you may say, "This is a route that goes from Route 1 to the Nishi-Otsu Bypass. Route 1 has * a little congestion *.
Please drive with caution in the Nishi-Otsu bypass Katata area as there are * lane reduction * places. In front of the intersection while driving, the voice data provided with voice guidance such as "500 m ahead, left in front of Maruyama Park. The northbound Maruyama Koen Dori is * 2 km congestion *." Reading data)
It can be performed using.
【0064】なお、経路を車両側で計算する場合には、
所定範囲の交通データを移動端末に提供するが、センタ
ー30側で経路を計算する場合には、センター30にお
いて、経路がわかっている。従って、移動端末に提供す
るデータは、案内に必要な最小限のデータにすることが
できる。When the route is calculated on the vehicle side,
Although a predetermined range of traffic data is provided to the mobile terminal, if the center 30 calculates a route, the center 30 knows the route. Therefore, the data provided to the mobile terminal can be the minimum data required for guidance.
【0065】また、駐車場の利用状況についての情報
(満室情報)をセンター30が提供する場合には、表2
に示すような音声データを提供する。In the case where the center 30 provides information (fullness information) on the use status of the parking lot, Table 2
Is provided.
【0066】[0066]
【表2】 このように、駐車場を特定するNo.に対応して、駐車
場名称のテキストデータ、駐車場名称の読み上げデー
タ、満室レベルデータ、満室状況の読み上げデータが送
信される。従って、移動端末装置において、案内を行う
ときに、駐車場名称や、満室レベルを受け取った読み上
げデータを利用して行うことができる。[Table 2] As described above, the parking lot No. is specified. In response to the above, text data of the parking lot name, reading data of the parking lot name, occupancy level data, and occupancy status reading data are transmitted. Therefore, in the mobile terminal device, when performing guidance, the guidance can be performed using the reading data that has received the parking lot name and the fullness level.
【0067】さらに、経路案内においては、特徴的な建
物など目印となるもの(POI:Point of Intent)を
知らせることが好適である。そこで、これらPOIにつ
いての音声データを移動端末装置に提供することが好適
である。表3は、このようなPOI及びその属性データ
の音声読み上げデータの提供例を示すものである。Further, in the route guidance, it is preferable to notify a mark (POI: Point of Intent) such as a characteristic building. Therefore, it is preferable to provide voice data on these POIs to the mobile terminal device. Table 3 shows an example of providing such aloud data of the POI and its attribute data.
【0068】[0068]
【表3】 この例では、例えば、ノードNo.171について、P
OIとして「TV塔」、その音声読み上げデータとして
「テレビトウ」というデータが提供され、またPOIの
属性データとして「赤く、一番高い」というデータと共
に、その音声読み上げデータとして「アカク、イチバン
タカイ」というデータが提供される。[Table 3] In this example, for example, the node No. About 171, P
The "TV tower" is provided as the OI, and "TV toe" is provided as the voice reading data, and the data "Red and the highest" is provided as the POI attribute data, and "Akaku, Ichibantakai" is provided as the voice reading data. Is provided.
【0069】従って、音声案内において、「*赤く一番
高いテレビ塔*前を右折すると、県庁前通りです。」等
という音声案内をすることができる。また、「*いちょ
う並木*に沿って、*茶色い34階建て*の*県庁ビル
*を通り過ぎたら、500mで左方向です。」「左折
後、右前方に*富士山が見え*てきます。」「300m
先、*市営地下駐車場*です。左折で進入できます。」
等という音声案内も行うことができる。Accordingly, in the voice guidance, it is possible to provide voice guidance such as "* Turn right in front of the tallest TV tower in red, and you will be in front of the prefectural office." In addition, "After passing * prefectural office building * of * brown 34 trees * along * row of ginkgo trees *, it is 500m to the left.""After turning left, you can see * Mt.Fuji in the right front." 300m
Ahead is * municipal underground parking lot *. You can enter by turning left. "
Etc. can also be provided.
【0070】また、図11に、移動端末装置を車両に実
際に搭載したイメージを示す。このように、GPS装置
12を構成するGPSアンテナ12aは、車室内のイン
パネの上方に設けられ、ナビゲーションのためのECU
4a(ナビECU4の一部)及び地図データベース10
を構成するCD−ROM10aは、後部トランク内に設
けられている。また、表示部18及び情報制御のための
ECU(ナビECU4の一部)は、一体的に形成され、
ワイドマルチステーション60として、ドライバ席と助
手席に間のスペースに配置されている。そして、このワ
イドマルチステーション60には、ケーブル62を介
し、無線通信機20を構成する移動体電話をハンズフリ
ー電話機として動作させるクレードル80が接続されて
いる。FIG. 11 shows an image in which the mobile terminal device is actually mounted on a vehicle. As described above, the GPS antenna 12a constituting the GPS device 12 is provided above the instrument panel in the vehicle interior, and is provided with an ECU for navigation.
4a (part of the navigation ECU 4) and the map database 10
Is provided in the rear trunk. Also, the display unit 18 and an ECU for information control (a part of the navigation ECU 4) are integrally formed,
The wide multi station 60 is disposed in a space between a driver seat and a passenger seat. A cradle 80 for operating the mobile telephone constituting the wireless communication device 20 as a hands-free telephone is connected to the wide multi-station 60 via a cable 62.
【0071】すなわち、この例では、図12に示すよう
に、移動体電話32を構成する携帯電話機82は、クレ
ードル80に載置される。そして、携帯電話機82のコ
ネクタ接続用ターミナル82aに、クレードル80のコ
ネクタ80aを接続することで、携帯電話機82とクレ
ードル80が接続される。このクレードル80には、ハ
ンズフリーで通話をするためのマイクロフォン、スピー
カ、ワンタッチダイヤルボタンなどの各種の機器が接続
されており、携帯電話機82をこのクレードル80にセ
ットすることによって、携帯電話機82を利用してハン
ズフリー電話機として使用することになる。That is, in this example, as shown in FIG. 12, the portable telephone 82 constituting the mobile telephone 32 is placed on the cradle 80. Then, by connecting the connector 80a of the cradle 80 to the connector connection terminal 82a of the mobile phone 82, the mobile phone 82 and the cradle 80 are connected. Various devices such as a microphone, a speaker, and a one-touch dial button for making a hands-free call are connected to the cradle 80. The mobile phone 82 is used by setting the mobile phone 82 in the cradle 80. It will be used as a hands-free phone.
【0072】また、各種操作は、ワイドマルチステーシ
ョン60の入力操作部を利用して行われる。なお、無線
通信機20は、この構成に限らず、専用の車載電話シス
テムを設けることも好適である。Various operations are performed using the input operation unit of the wide multi station 60. The wireless communication device 20 is not limited to this configuration, and it is preferable to provide a dedicated vehicle-mounted telephone system.
【0073】「その他の構成」無線通信機20におい
て、センター30との間で、電子メールなどのやりとり
も行うことが好適である。この場合取得された電子メー
ルは、通常テキストデータであり、これがナビECU4
内のRAMに記憶される。そして、表示部18に表示さ
れるが、運転中などは音声出力される。すなわち、ナビ
ECU4が、受信した電子メールについてのテキストデ
ータを音声合成装置40に供給し、電子メールの読み上
げ音声がスピーカ22から出力される。この場合におい
ても、必要な言葉やフレーズについて、適宜音声データ
を取得することが好適である。また、流行語なども所定
回数以上の使用に対し、その音声データを取得しておく
ことができる。[Other Configurations] It is preferable that the radio communication device 20 also exchanges electronic mail and the like with the center 30. In this case, the acquired e-mail is usually text data, which is
Is stored in the RAM. Then, it is displayed on the display unit 18, but is output as a voice during driving or the like. That is, the navigation ECU 4 supplies the text data of the received e-mail to the voice synthesizing device 40, and the read-out voice of the e-mail is output from the speaker 22. Also in this case, it is preferable to appropriately acquire audio data for necessary words and phrases. In addition, audio data of a buzzword or the like can be acquired for a predetermined number of uses or more.
【0074】さらに、各種の音声データについて、ID
番号などのコードを予め決定しておき、音声データをこ
のID番号に対応させて移動端末装置に記憶させておけ
ば、通信するデータは、このID番号のみでよくなる。
従って、通信データ量を大幅に削減することができる。Further, for various kinds of audio data, ID
If a code such as a number is determined in advance, and the voice data is stored in the mobile terminal device in association with the ID number, the data to be communicated is only the ID number.
Therefore, the amount of communication data can be significantly reduced.
【0075】さらに、移動端末装置と、センターの間の
通信は、通常の携帯電話回線や、PHS、FM多重放
送、TV多重放送、地上波デジタル通信、光ビーコン、
電波ビーコン等を利用したものが利用可能である。Further, the communication between the mobile terminal device and the center is performed by a normal mobile phone line, PHS, FM multiplex broadcasting, TV multiplex broadcasting, terrestrial digital communication, optical beacon,
A device using a radio beacon or the like is available.
【0076】[0076]
【発明の効果】以上説明したように、本発明によれば、
音声データを記憶するのに必要な記憶媒体等の容量を必
要最小限に低減することができる。また、車両外部から
受信した音声データを読み上げるので、読み上げ音声は
明瞭なものとなる。このため、運転者にとって、自然で
且つわかりやすい音声経路案内などの音声出力を行うこ
とができる。As described above, according to the present invention,
The capacity of a storage medium or the like necessary for storing audio data can be reduced to a necessary minimum. Also, since the voice data received from outside the vehicle is read aloud, the read voice becomes clear. For this reason, a voice output such as a voice route guide that is natural and easy for the driver to understand can be performed.
【図1】 本発明の実施形態1の移動端末装置の構成を
示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a mobile terminal device according to a first embodiment of the present invention.
【図2】 実施の形態1を示す模式的概念図である。FIG. 2 is a schematic conceptual diagram showing the first embodiment.
【図3】 実施形態1における音声案内を示す経路図で
ある。FIG. 3 is a route diagram illustrating voice guidance according to the first embodiment.
【図4】 実施の形態1における音声案内を行うことを
示すフローチャートである。FIG. 4 is a flowchart showing performing voice guidance according to the first embodiment.
【図5】 実施の形態1における経路及びその交差点名
称群の範囲を示す図である。FIG. 5 is a diagram showing a route and a range of intersection name groups according to the first embodiment;
【図6】 交通状況データベースも考慮して、決定され
た経路及びその交差点名称群の範囲を示す図である。FIG. 6 is a diagram showing a route determined in consideration of a traffic situation database and a range of intersection name groups thereof.
【図7】 携帯端末装置を使用した時の音声案内におけ
る経路及びその交差点名称群の範囲を示す図である。FIG. 7 is a diagram showing a route and a range of intersection name groups in voice guidance when the portable terminal device is used.
【図8】 実施形態2における移動端末装置の構成を示
すブロック図である。FIG. 8 is a block diagram illustrating a configuration of a mobile terminal device according to a second embodiment.
【図9】 実施形態2における音声データ取得の動作を
示すフローチャートである。FIG. 9 is a flowchart illustrating an operation of acquiring audio data according to the second embodiment.
【図10】 実施形態2における単語削除の動作を示す
フローチャートである。FIG. 10 is a flowchart illustrating a word deletion operation according to the second embodiment.
【図11】 移動端末装置を車両に実際に搭載したイメ
ージを示す図である。FIG. 11 is a diagram showing an image in which the mobile terminal device is actually mounted on a vehicle.
【図12】 無線通信機の構成を示す図である。FIG. 12 is a diagram illustrating a configuration of a wireless communication device.
2 ナビゲーション装置、4 ナビECU、6 モデ
ム、8 音声信号出力装置、10 地図データベース、
12 GPS装置、14 音声データ記憶部、16 操
作部、18 表示部、20 無線通信機、22 スピー
カー、30 センター、50 ノード、52 経路、5
4 交差点、70 交差点名称抽出範囲。2 navigation device, 4 navigation ECU, 6 modem, 8 audio signal output device, 10 map database,
12 GPS device, 14 voice data storage unit, 16 operation unit, 18 display unit, 20 wireless communication device, 22 speakers, 30 center, 50 nodes, 52 routes, 5
4 Intersection, 70 Intersection name extraction range.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G10L 5/02 G10L 5/02 J ──────────────────────────────────────────────────の Continued on front page (51) Int.Cl. 6 Identification code FI G10L 5/02 G10L 5/02 J
Claims (24)
タベースからネットワークを介して取得するデータ取得
手段と、 前記音声データに対応する言葉を含めて音声出力を行う
音声出力手段と、 を有することを特徴とする移動端末装置。1. A data acquisition means for acquiring voice data for voice output from an external database via a network, and a voice output means for voice output including a word corresponding to the voice data. Characteristic mobile terminal device.
される言葉についての音声データを蓄積した蓄積手段
と、 テキストデータにより表現された単語について、テキス
ト合成で音声出力するテキスト合成手段と、 を有し、蓄積手段からの音声データと、テキスト合成手
段からの音声データとを合成して音声出力を行うことを
特徴とする移動端末装置。2. The apparatus according to claim 1, wherein, among words to be processed for voice output, storage means for storing voice data of frequently used words, and a word represented by text data And a text synthesizing means for outputting voice by text synthesis, and synthesizing voice data from the storage means and voice data from the text synthesizing means to output voice.
て、 このテキスト合成で出力した単語の使用頻度が所定以上
になったときに、前記データ取得手段により外部からそ
の単語について音声データを取得することを特徴とする
移動端末装置。3. The apparatus according to claim 1, wherein when the frequency of use of the word output in the text synthesis becomes equal to or more than a predetermined value, the data acquisition means acquires voice data for the word from outside. A mobile terminal device characterized by the above-mentioned.
置において、 取得した音声データのうち、使用頻度が低いものについ
て、データ消去処理を行うことを特徴とする移動端末装
置。4. The mobile terminal device according to claim 1, wherein a data erasing process is performed on the acquired voice data having a low use frequency.
置において、 前記音声出力手段は、表示用のテキストデータの読み上
げ音声を出力することを特徴とする移動端末装置。5. The mobile terminal device according to claim 1, wherein the voice output unit outputs a voice for reading out text data for display.
置において、 前記音声出力手段は、ナビゲーション装置の案内音声を
出力することを特徴とする移動端末装置。6. The mobile terminal device according to claim 1, wherein the voice output unit outputs a guidance voice of a navigation device.
を外部から取得し、 前記音声出力手段は、取得した音声データに基づき、前
記地理的名称の読み上げ音声を含む音声案内を行うこと
を特徴とする移動端末装置。7. The apparatus according to claim 6, wherein the data acquisition unit acquires audio data relating to the geographic name from outside, and the audio output unit acquires the audio data of the geographic name based on the acquired audio data. A mobile terminal device that performs voice guidance including a reading voice.
の進行方向案内文に加えて読み上げることを特徴とする
移動端末装置。8. The mobile terminal device according to claim 7, wherein the voice output unit reads out the acquired geographical name in addition to a traveling direction guidance sentence of voice guidance.
置において、 さらに、目的地に関するデータを車両外部に送信する送
信手段を有し、前記データ取得手段は、現在地と前記目
的地との間の経路に関する情報を音声データとして車両
外部から取得することを特徴とする移動端末装置。9. The apparatus according to claim 6, further comprising a transmitting unit that transmits data relating to the destination to the outside of the vehicle, wherein the data acquiring unit includes a current position and the destination. A mobile terminal device that acquires information on a route between the vehicle and the vehicle as voice data from outside the vehicle.
装置において、前記取得する音声データは現在地及び進
行方向に基づいて決定される所定範囲内にある情報であ
り、前記所定範囲は変更可能であることを特徴とする移
動端末装置。10. The apparatus according to claim 6, wherein the acquired audio data is information within a predetermined range determined based on a current position and a traveling direction, and the predetermined range is A mobile terminal device which can be changed.
の走行履歴または過去の交通流を考慮して決められるこ
とを特徴とする移動端末装置。11. The mobile terminal according to claim 10, wherein the predetermined range, which is a range in which the voice data is obtained, is determined in consideration of a traveling history of the own vehicle or a past traffic flow. apparatus.
記載の装置において、 さらに、 外部情報を受信する外部情報受信手段と、 前記受信した外部情報中に含まれているコード化された
音声データをデコードし、音声データを得るデコード手
段と、 を有し、 前記音声出力手段は、デコード手段で得られた音声デー
タを用いて音声読み上げすることを特徴とする移動端末
装置。12. The apparatus according to claim 1, further comprising: an external information receiving means for receiving external information; and a coded information included in the received external information. And a decoding means for decoding the audio data obtained to obtain audio data, and wherein the audio output means reads out the audio using the audio data obtained by the decoding means.
の装置において、 前記音声データ受信手段と前記音声案内手段とは、携帯
端末装置に搭載されていることを特徴とする移動端末装
置。13. The mobile terminal device according to claim 7, wherein the voice data receiving unit and the voice guidance unit are mounted on a portable terminal device. .
の装置において、 外部から取得される音声データは、サンプリング音声デ
ータであることを特徴とする移動体端末装置。14. The mobile terminal device according to claim 1, wherein the audio data obtained from the outside is sampling audio data.
音声出力プログラムを記録した媒体であって、 前記音声出力プログラムは、移動端末装置に、 音声出力のための音声データを外部データベースからネ
ットワークを介して取得させ、 取得した音声データに対応する言葉を含めて音声出力を
行わせることを特徴とする音声出力プログラムを記録し
た媒体。15. A medium in which a voice output program for causing a mobile terminal device to output voice is recorded, wherein the voice output program transmits voice data for voice output to a mobile terminal device from an external database through a network. A medium for recording a sound output program characterized by causing a sound output including a word corresponding to the obtained sound data.
ーワードを抜き出させ、抜き出された主要キーワードに
ついて、これに対応する読み上げ音声データをキーワー
ド蓄積手段から読み出させ、 前記音声データ出力手段からの音声データと、前記主要
キーワードについての読み上げ音声データとを合成して
音声出力を行わせることを特徴とする音声出力プログラ
ムを記録した媒体。16. The medium according to claim 15, wherein the audio output program causes the mobile terminal device to extract a main keyword from words to be processed for audio output. For the main keyword, read-out voice data corresponding to the main keyword is read from the keyword storage unit, and the voice data from the voice data output unit is combined with the voice data for the main keyword to output voice. A medium recording an audio output program characterized by the following.
おいて、 前記音声出力プログラムは、移動端末装置に、 処理対象となる言葉のうち、対応する音声データが存在
しない場合には、この言葉についてテキスト合成で音声
出力させ、 このテキスト合成で出力した単語の使用頻度が所定以上
になったときに、外部からその単語について音声データ
を取得させることを特徴とする音声出力プログラムを記
録した媒体。17. The medium according to claim 15, wherein the audio output program outputs a text to the mobile terminal device when the corresponding audio data does not exist among the words to be processed. A medium on which a voice output program is recorded, wherein voice output is performed by synthesis, and when the frequency of use of the word output by the text synthesis becomes equal to or higher than a predetermined value, voice data is externally acquired for the word.
載の媒体において、 前記音声出力プログラムは、移動端末装置に、 ナビゲーション装置の案内音声を出力させることを特徴
とする音声出力プログラムを記録した媒体。18. The medium according to claim 15, wherein the voice output program records a voice output program that causes a mobile terminal device to output a guidance voice of a navigation device. Medium.
げ音声を含む音声案内を行わせることを特徴とする音声
出力プログラムを記録した媒体。19. The medium according to claim 18, wherein the voice output program causes a mobile terminal device to obtain voice data relating to a geographical name from outside, and reads out the geographical name based on the obtained voice data. A medium on which a voice output program characterized by performing voice guidance including voice is provided.
載の媒体において、 目的地に関するデータを車両外部に送信させ、現在地と
前記目的地との間の経路に関する情報を音声データとし
て車両外部から取得させることを特徴とする音声出力プ
ログラムを記録した媒体。20. The medium according to claim 17, wherein data relating to the destination is transmitted to the outside of the vehicle, and information relating to a route between the current position and the destination is output as audio data as voice data. A medium in which an audio output program characterized by being obtained from a computer is recorded.
載の媒体において、 外部からサンプリング音声データを取得することを特徴
とする音声出力プログラムを記録した媒体。21. A medium according to any one of claims 15 to 20, wherein an audio output program is recorded, wherein sampled audio data is obtained from outside.
せるためのシステムであって、 外部のセンターから移動端末装置における音声出力のた
めの音声データを送り、 移動体端末が送られてきた音声データに対応する言葉を
含めて音声出力を行うことを特徴とする音声出力システ
ム。22. A system for outputting voice in a mobile terminal device, wherein voice data for voice output in the mobile terminal device is transmitted from an external center, and the mobile terminal transmits voice data to the transmitted voice data. An audio output system for outputting audio including corresponding words.
地理的名称を読み上げて、音声で経路案内を行う音声出
力システムにおいて、 車両側からセンターへ車両の目的地に関するデータを送
信し、 前記センターは、受信したデータに基づいて前記地理的
名称についての音声データを用意し、これらを車両に送
信し、 前記車両は受信した音声データを利用して音声による経
路案内を行うことを特徴とする音声出力システム。23. When a vehicle approaches a guidance intersection,
In a voice output system that reads a geographical name and performs route guidance by voice, data relating to a destination of the vehicle is transmitted from a vehicle side to a center, and the center transmits a voice regarding the geographical name based on the received data. A voice output system which prepares data, transmits them to a vehicle, and the vehicle performs route guidance by voice using the received voice data.
ムにおいて、 音声データとは、サンプリング音声データであることを
特徴とする音声出力システム。24. The audio output system according to claim 22, wherein the audio data is sampling audio data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33283897A JP3704925B2 (en) | 1997-04-22 | 1997-12-03 | Mobile terminal device and medium recording voice output program thereof |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10485097 | 1997-04-22 | ||
JP9-104850 | 1997-04-22 | ||
JP33283897A JP3704925B2 (en) | 1997-04-22 | 1997-12-03 | Mobile terminal device and medium recording voice output program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH116743A true JPH116743A (en) | 1999-01-12 |
JP3704925B2 JP3704925B2 (en) | 2005-10-12 |
Family
ID=26445226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33283897A Expired - Lifetime JP3704925B2 (en) | 1997-04-22 | 1997-12-03 | Mobile terminal device and medium recording voice output program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3704925B2 (en) |
Cited By (128)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001012962A (en) * | 1999-06-30 | 2001-01-19 | Honda Motor Co Ltd | Map information display system for mobile body |
JP2001153675A (en) * | 1999-11-26 | 2001-06-08 | Honda Motor Co Ltd | Display system for mobile body map information |
DE10061696A1 (en) * | 2000-12-12 | 2002-06-27 | Bernhard Lehmeier | Vehicle navigation system for provision of spoken instructions to a driver has a version selector that allows a dialect of a language to be chosen that most suits the driver, so that driver tiredness is reduced |
JP2002350160A (en) * | 2001-05-23 | 2002-12-04 | Fujitsu Ten Ltd | Communication-type navigation system, navigation center, and navigation terminal |
JP2003075179A (en) * | 2001-09-03 | 2003-03-12 | Pioneer Electronic Corp | Communication navigation system and method and computer program |
JP2003075178A (en) * | 2001-09-03 | 2003-03-12 | Pioneer Electronic Corp | Communication navigation system and method, map- information providing communication center device, communication navigation terminal, and computer program |
JP2005135015A (en) * | 2003-10-28 | 2005-05-26 | Mitsubishi Electric Corp | Voice notification device |
JP2005308457A (en) * | 2004-04-19 | 2005-11-04 | Denso Corp | Voice guide system |
JP2006523867A (en) * | 2003-04-18 | 2006-10-19 | エイ・ティ・アンド・ティ・コーポレーション | System and method for text speech processing in a portable device |
JP2007163166A (en) * | 2005-12-09 | 2007-06-28 | Denso Corp | Information deletion support device, information backup device, and instrument for moving body |
JP2010048959A (en) * | 2008-08-20 | 2010-03-04 | Denso Corp | Speech output system and onboard device |
JP2010203946A (en) * | 2009-03-04 | 2010-09-16 | Zenrin Co Ltd | System, server and method for route guidance |
JP2011153934A (en) * | 2010-01-27 | 2011-08-11 | Navitime Japan Co Ltd | Route guide system, terminal apparatus, route search server, route guidance method, and program |
JP2012501035A (en) * | 2008-09-09 | 2012-01-12 | アップル インコーポレイテッド | Audio user interface |
US8892446B2 (en) | 2010-01-18 | 2014-11-18 | Apple Inc. | Service orchestration for intelligent automated assistant |
US9190062B2 (en) | 2010-02-25 | 2015-11-17 | Apple Inc. | User profiling for voice input processing |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9300784B2 (en) | 2013-06-13 | 2016-03-29 | Apple Inc. | System and method for emergency calls initiated by voice command |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9535906B2 (en) | 2008-07-31 | 2017-01-03 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US9697822B1 (en) | 2013-03-15 | 2017-07-04 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
JP2018040593A (en) * | 2016-09-05 | 2018-03-15 | 株式会社ゼンリンデータコム | Information processing apparatus, information processing system and information processing method |
US9922642B2 (en) | 2013-03-15 | 2018-03-20 | Apple Inc. | Training an at least partial voice command system |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US10082401B2 (en) | 2013-10-25 | 2018-09-25 | Mitsubishi Electric Corporation | Movement support apparatus and movement support method |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10199051B2 (en) | 2013-02-07 | 2019-02-05 | Apple Inc. | Voice trigger for a digital assistant |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10568032B2 (en) | 2007-04-03 | 2020-02-18 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10607140B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US10791216B2 (en) | 2013-08-06 | 2020-09-29 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
JP2021043213A (en) * | 2020-11-18 | 2021-03-18 | 株式会社ゼンリンデータコム | Information processing system, server device and information processing device |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
CN115602171A (en) * | 2022-12-13 | 2023-01-13 | 广州小鹏汽车科技有限公司(Cn) | Voice interaction method, server and computer readable storage medium |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
WO2023073949A1 (en) * | 2021-10-29 | 2023-05-04 | パイオニア株式会社 | Voice output device, server device, voice output method, control method, program, and storage medium |
-
1997
- 1997-12-03 JP JP33283897A patent/JP3704925B2/en not_active Expired - Lifetime
Cited By (177)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001012962A (en) * | 1999-06-30 | 2001-01-19 | Honda Motor Co Ltd | Map information display system for mobile body |
JP2001153675A (en) * | 1999-11-26 | 2001-06-08 | Honda Motor Co Ltd | Display system for mobile body map information |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
DE10061696A1 (en) * | 2000-12-12 | 2002-06-27 | Bernhard Lehmeier | Vehicle navigation system for provision of spoken instructions to a driver has a version selector that allows a dialect of a language to be chosen that most suits the driver, so that driver tiredness is reduced |
JP2002350160A (en) * | 2001-05-23 | 2002-12-04 | Fujitsu Ten Ltd | Communication-type navigation system, navigation center, and navigation terminal |
JP4671535B2 (en) * | 2001-05-23 | 2011-04-20 | 富士通テン株式会社 | Communication type navigation system, navigation center and navigation terminal |
JP2003075178A (en) * | 2001-09-03 | 2003-03-12 | Pioneer Electronic Corp | Communication navigation system and method, map- information providing communication center device, communication navigation terminal, and computer program |
JP2003075179A (en) * | 2001-09-03 | 2003-03-12 | Pioneer Electronic Corp | Communication navigation system and method and computer program |
JP2006523867A (en) * | 2003-04-18 | 2006-10-19 | エイ・ティ・アンド・ティ・コーポレーション | System and method for text speech processing in a portable device |
JP4917884B2 (en) * | 2003-04-18 | 2012-04-18 | エイ・ティ・アンド・ティ・コーポレーション | System and method for text speech processing in a portable device |
JP2005135015A (en) * | 2003-10-28 | 2005-05-26 | Mitsubishi Electric Corp | Voice notification device |
JP2005308457A (en) * | 2004-04-19 | 2005-11-04 | Denso Corp | Voice guide system |
JP4556477B2 (en) * | 2004-04-19 | 2010-10-06 | 株式会社デンソー | Voice guidance system |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
JP4682835B2 (en) * | 2005-12-09 | 2011-05-11 | 株式会社デンソー | Information deletion support device, information backup device, and mobile device |
JP2007163166A (en) * | 2005-12-09 | 2007-06-28 | Denso Corp | Information deletion support device, information backup device, and instrument for moving body |
US8930191B2 (en) | 2006-09-08 | 2015-01-06 | Apple Inc. | Paraphrasing of user requests and results by automated digital assistant |
US9117447B2 (en) | 2006-09-08 | 2015-08-25 | Apple Inc. | Using event alert text as input to an automated assistant |
US8942986B2 (en) | 2006-09-08 | 2015-01-27 | Apple Inc. | Determining user intent based on ontologies of domains |
US10568032B2 (en) | 2007-04-03 | 2020-02-18 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10381016B2 (en) | 2008-01-03 | 2019-08-13 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US10108612B2 (en) | 2008-07-31 | 2018-10-23 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9535906B2 (en) | 2008-07-31 | 2017-01-03 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
JP2010048959A (en) * | 2008-08-20 | 2010-03-04 | Denso Corp | Speech output system and onboard device |
US8898568B2 (en) | 2008-09-09 | 2014-11-25 | Apple Inc. | Audio user interface |
JP2012501035A (en) * | 2008-09-09 | 2012-01-12 | アップル インコーポレイテッド | Audio user interface |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
JP2010203946A (en) * | 2009-03-04 | 2010-09-16 | Zenrin Co Ltd | System, server and method for route guidance |
US10475446B2 (en) | 2009-06-05 | 2019-11-12 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US12087308B2 (en) | 2010-01-18 | 2024-09-10 | Apple Inc. | Intelligent automated assistant |
US8892446B2 (en) | 2010-01-18 | 2014-11-18 | Apple Inc. | Service orchestration for intelligent automated assistant |
US8903716B2 (en) | 2010-01-18 | 2014-12-02 | Apple Inc. | Personalized vocabulary for digital assistant |
US9548050B2 (en) | 2010-01-18 | 2017-01-17 | Apple Inc. | Intelligent automated assistant |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US11410053B2 (en) | 2010-01-25 | 2022-08-09 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10984327B2 (en) | 2010-01-25 | 2021-04-20 | New Valuexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10984326B2 (en) | 2010-01-25 | 2021-04-20 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10607140B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10607141B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
JP2011153934A (en) * | 2010-01-27 | 2011-08-11 | Navitime Japan Co Ltd | Route guide system, terminal apparatus, route search server, route guidance method, and program |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US9190062B2 (en) | 2010-02-25 | 2015-11-17 | Apple Inc. | User profiling for voice input processing |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US11120372B2 (en) | 2011-06-03 | 2021-09-14 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US10978090B2 (en) | 2013-02-07 | 2021-04-13 | Apple Inc. | Voice trigger for a digital assistant |
US10199051B2 (en) | 2013-02-07 | 2019-02-05 | Apple Inc. | Voice trigger for a digital assistant |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US11388291B2 (en) | 2013-03-14 | 2022-07-12 | Apple Inc. | System and method for processing voicemail |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US9922642B2 (en) | 2013-03-15 | 2018-03-20 | Apple Inc. | Training an at least partial voice command system |
US9697822B1 (en) | 2013-03-15 | 2017-07-04 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US10657961B2 (en) | 2013-06-08 | 2020-05-19 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US9300784B2 (en) | 2013-06-13 | 2016-03-29 | Apple Inc. | System and method for emergency calls initiated by voice command |
US10791216B2 (en) | 2013-08-06 | 2020-09-29 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10082401B2 (en) | 2013-10-25 | 2018-09-25 | Mitsubishi Electric Corporation | Movement support apparatus and movement support method |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11257504B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Intelligent assistant for home automation |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10497365B2 (en) | 2014-05-30 | 2019-12-03 | Apple Inc. | Multi-command single utterance input method |
US10083690B2 (en) | 2014-05-30 | 2018-09-25 | Apple Inc. | Better resolution when referencing to concepts |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US10431204B2 (en) | 2014-09-11 | 2019-10-01 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US11556230B2 (en) | 2014-12-02 | 2023-01-17 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10311871B2 (en) | 2015-03-08 | 2019-06-04 | Apple Inc. | Competing devices responding to voice triggers |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US11069347B2 (en) | 2016-06-08 | 2021-07-20 | Apple Inc. | Intelligent automated assistant for media exploration |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
JP2018040593A (en) * | 2016-09-05 | 2018-03-15 | 株式会社ゼンリンデータコム | Information processing apparatus, information processing system and information processing method |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
JP2021043213A (en) * | 2020-11-18 | 2021-03-18 | 株式会社ゼンリンデータコム | Information processing system, server device and information processing device |
WO2023073949A1 (en) * | 2021-10-29 | 2023-05-04 | パイオニア株式会社 | Voice output device, server device, voice output method, control method, program, and storage medium |
CN115602171A (en) * | 2022-12-13 | 2023-01-13 | 广州小鹏汽车科技有限公司(Cn) | Voice interaction method, server and computer readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP3704925B2 (en) | 2005-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3704925B2 (en) | Mobile terminal device and medium recording voice output program thereof | |
US6850842B2 (en) | Navigation system for providing real-time traffic information and traffic information processing method by the same | |
USRE46109E1 (en) | Vehicle navigation system and method | |
US5987381A (en) | Automobile navigation system using remote download of data | |
US8311804B2 (en) | On demand TTS vocabulary for a telematics system | |
CN107850455B (en) | Providing a navigation system with navigable routes | |
EP1488399B1 (en) | Vehicle navigation system and method | |
JP3287281B2 (en) | Message processing device | |
US8027787B2 (en) | Vehicle navigation system and method | |
EP1116934B1 (en) | Route guiding explanation device and route guiding explanation system | |
US20030229444A1 (en) | Server-based navigation system and method of operating same | |
EP2092275A2 (en) | System and method for providing route calculation and information to a vehicle | |
JP2001296882A (en) | Navigation system | |
JP2002168645A (en) | Navigation apparatus, and communication base station and system and method for navigation using them | |
US20100036666A1 (en) | Method and system for providing meta data for a work | |
USRE45287E1 (en) | Location-based vehicle messaging system | |
JPH1054730A (en) | Method and device for guiding vehicle to designation | |
US20030009280A1 (en) | Navigation method and navigation system | |
US6980129B2 (en) | Method for determining and outputting travel instructions | |
JPH11101652A (en) | Electronic mail data receiver, electronic mail host apparatus, medium storing their program, and electronic mail system | |
JP2004348367A (en) | In-vehicle information providing device | |
US8670924B2 (en) | Creation of GIS tools and spatial database for limited access highway entrance points in the US and Canada | |
JPH11296791A (en) | Information providing system | |
JP3721900B2 (en) | Information exchange system, information communication terminal and information management apparatus used therefor | |
JP2004286456A (en) | Navigation device having expected passing time display function, and expected passing time display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050530 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050718 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080805 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090805 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100805 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110805 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110805 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120805 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130805 Year of fee payment: 8 |
|
EXPY | Cancellation because of completion of term |