Nothing Special   »   [go: up one dir, main page]

JP2005148402A - Information notification system and program for information notification method - Google Patents

Information notification system and program for information notification method Download PDF

Info

Publication number
JP2005148402A
JP2005148402A JP2003385667A JP2003385667A JP2005148402A JP 2005148402 A JP2005148402 A JP 2005148402A JP 2003385667 A JP2003385667 A JP 2003385667A JP 2003385667 A JP2003385667 A JP 2003385667A JP 2005148402 A JP2005148402 A JP 2005148402A
Authority
JP
Japan
Prior art keywords
processing
text
time
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2003385667A
Other languages
Japanese (ja)
Inventor
Seiichi Takeda
清一 武田
Kunihiro Yamada
邦博 山田
Teruhiro Nakajima
彰宏 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2003385667A priority Critical patent/JP2005148402A/en
Publication of JP2005148402A publication Critical patent/JP2005148402A/en
Abandoned legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent an operator from having a sense of incompatibility because of occurrence of a voiceless state when character information is voiced and outputted. <P>SOLUTION: A system has an introduction part processing means of performing introduction part processing consisting of language analysis of an introduction part of character information consisting of the introduction part and a body part and the generation of voice data, a reproduction time calculation processing means of calculating the reproduction time needed to reproduce voice data of the introduction part, and a body part processing means of performing body part processing consisting of language analysis by divided sections of the body part and the generation of the voice data. The body part processing is carried out by the sections while made to correspond to the reproduction time of the voice data of the introduction part, so the operator never has the sense of incompatibility due to the occurrence of a voiceless state. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、情報通知システム及び情報通知方法のプログラムに関するものである。   The present invention relates to an information notification system and an information notification method program.

従来、ナビゲーション装置においては、例えば、GPS(グローバルポジショニングシステム)によって車両の現在の位置、すなわち、現在地が検出されるとともに、ジャイロセンサによって検出された車両の回転角速度、すなわち、旋回角に基づいて、車両の方位、すなわち、自車方位が検出され、データ記録部から地図データが読み出され、表示部に地図画面が形成され、該地図画面に、現在地、現在地の周辺の地図及び自車方位が表示されるようになっている。したがって、操作者である運転者は、前記地図画面に表示された現在地、現在地の周辺の地図及び自車方位に従って車両を走行させることができる。   Conventionally, in a navigation device, for example, a current position of a vehicle, that is, a current position, is detected by GPS (Global Positioning System), and a rotation angular velocity of a vehicle detected by a gyro sensor, that is, based on a turning angle, The direction of the vehicle, that is, the vehicle direction is detected, map data is read from the data recording unit, a map screen is formed on the display unit, and the current location, a map around the current location, and the vehicle direction are displayed on the map screen. It is displayed. Therefore, the driver who is an operator can drive the vehicle according to the current location displayed on the map screen, the map around the current location, and the direction of the vehicle.

また、運転者が目的地を入力し、探索条件を設定すると、該探索条件に基づいて現在地で表される出発地から目的地までの経路が探索される。そして、探索された経路、すなわち、探索経路は前記地図画面に現在地及び目的地と共に表示される。したがって、運転者は表示された探索経路に従って車両を走行させることができる。なお、運転者が現在地と異なる出発地を入力した場合、入力された出発地から目的地までの経路が探索される。   Further, when the driver inputs a destination and sets search conditions, a route from the departure point to the destination represented by the current location is searched based on the search conditions. The searched route, that is, the searched route is displayed together with the current location and the destination on the map screen. Therefore, the driver can drive the vehicle according to the displayed search route. When the driver inputs a departure point different from the current location, a route from the input departure point to the destination is searched.

ところで、ナビゲーション装置においては、情報センタから、例えば、ニュースデータを受信し、ナビゲーション装置に配設された音声出力部によってニュースの音声出力を行うことができるようになっている(例えば、特許文献1参照。)。   By the way, in a navigation apparatus, for example, news data can be received from an information center, and news voice output can be performed by a voice output unit provided in the navigation apparatus (for example, Patent Document 1). reference.).

また、ニュース等の文字情報を受信し、音声出力を行うことができるようにしたナビゲーション装置には、音声出力部に音声合成装置及びスピーカが配設され、前記音声合成装置に音声出力制御部、音声合成機能部、サウンドドライバ等が配設される。そして、前記音声出力制御部において、文字情報が分割され、音声合成機能部において、言語解析、音声データの生成等が行われ、サウンドドライバにおいて、音声データの再生がされ、スピーカが作動して文字情報を読み上げるようになっている。   In addition, in a navigation device that can receive character information such as news and perform voice output, a voice synthesizer and a speaker are provided in the voice output unit, and a voice output control unit is provided in the voice synthesizer. A speech synthesis function unit, a sound driver, and the like are provided. Then, the voice output control unit divides the character information, the voice synthesis function unit performs language analysis, generation of voice data, and the like, the sound driver reproduces the voice data, and the speaker operates to operate the character. Read information.

図2は従来の音声出力制御部の動作を説明する図、図3は従来の音声合成機能部及びサウンドドライバの動作を示すタイムチャートである。   FIG. 2 is a diagram for explaining the operation of the conventional speech output control unit, and FIG. 3 is a time chart showing the operations of the conventional speech synthesis function unit and sound driver.

例えば、文字情報が文字ニュースである場合、図2に示されるように、文字ニュースは、見出し及びニュース本文から成る。   For example, when the text information is text news, as shown in FIG. 2, the text news is composed of a headline and a news text.

前記音声合成機能部においては、言語解析、音声データの生成等の処理が行われ、一般に、一度に処理を行うことができる文字数に制限がある。また、文字数に制限がない場合でも、文字ニュースの文字数が多くなるほど、音声データを生成するのに必要な時間が長くなる。   In the speech synthesis function unit, processing such as language analysis and generation of speech data is performed, and generally, the number of characters that can be processed at one time is limited. Even when the number of characters is not limited, the time required to generate the voice data increases as the number of characters in the character news increases.

そこで、前記音声合成機能部に、一度に処理することができる文字数の最大値(以下「一括処理可能最大数」という。)(例えば、128〔文字〕)を設定し、文字ニュースが通信部において受信されると、前記音声出力制御部は、受信された文字ニュースのニュース本文を、一括処理可能最大数より少ない文字数で、かつ、分割しても違和感のない文字数の文字列から成る本文i(1、2、…、N)に分割する。   Therefore, the maximum number of characters that can be processed at one time (hereinafter referred to as “the maximum number that can be collectively processed”) (for example, 128 [characters]) is set in the speech synthesis function unit, and the character news is transmitted in the communication unit. When received, the voice output control unit has a text i (character string consisting of a character string having a number of characters smaller than the maximum number that can be processed at one time and a number of characters that does not feel uncomfortable even if it is divided. 1, 2), N).

そして、見出し及び本文iから成る文字ニュースが音声合成機能部に送信されると、該音声合成機能部は、まず、タイミングt0で見出しについての言語解析を行う。該言語解析において、音声合成機能部は、見出しの文字列を構成する各単語の品詞を特定し、品詞に対応させて各単語の読みを決定するとともに、アクセント記号等が付加された表音文字列を作成する。続いて、前記音声合成機能部は、表音文字列を解析することによって、音声データを生成して前記音声出力制御部に送信し、該音声出力制御部は、音声合成機能部から送信された音声データをサウンドドライバに転送する。そして、該サウンドドライバは、タイミングt1でスピーカを作動させて転送された音声データを再生し、見出しを読み上げる。   When the text news including the headline and the text i is transmitted to the speech synthesis function unit, the speech synthesis function unit first performs language analysis on the headline at timing t0. In the linguistic analysis, the speech synthesis function unit specifies the part of speech of each word constituting the heading character string, determines the reading of each word corresponding to the part of speech, and adds a phonetic character to which an accent symbol or the like is added. Create a column. Subsequently, the voice synthesis function unit generates a voice data by analyzing the phonetic character string and transmits the voice data to the voice output control unit. The voice output control unit is transmitted from the voice synthesis function unit. Transfer audio data to the sound driver. Then, the sound driver operates the speaker at timing t1 to reproduce the transferred audio data and reads the headline.

また、見出しについての音声データの転送が終了すると、音声合成機能部は、前記タイミングt1で本文1についての言語解析を行い、音声データを生成してサウンドドライバに転送し、サウンドドライバは、タイミングt3で転送された音声データを再生し、本文1を読み上げる。さらに、音声合成機能部は、前記タイミングt3で本文2についての言語解析を行い、音声データを生成してサウンドドライバに転送し、サウンドドライバは、転送された音声データを再生し、本文2を読み上げる。   When the transfer of the voice data for the headline is completed, the voice synthesis function unit performs language analysis on the body 1 at the timing t1, generates voice data and transfers the voice data to the sound driver. The audio data transferred in step 1 is reproduced, and the text 1 is read out. Further, the speech synthesis function unit performs language analysis on the text 2 at the timing t3, generates speech data and transfers it to the sound driver, and the sound driver reproduces the transferred speech data and reads the text 2 aloud. .

以降、本文3〜本文Nについても前述された処理を繰り返すことによって、見出し及び本文iについての音声出力を行うことができる。
特開2003−121187号公報
Thereafter, by repeating the above-described processing for the body 3 to the body N, it is possible to perform audio output for the headline and the body i.
JP 2003-121187 A

しかしながら、前記従来のナビゲーション装置においては、言語解析及び音声データの生成に必要な時間は、音声合成機能部の性能に依存するので、見出しについての音声データの再生が終了した後、本文1についての再生が開始されるまでに、かなり長い空白な時間、すなわち、空白時間が形成され、該空白時間に無音状態が形成されてしまい、運転者に違和感を与えてしまう。   However, in the conventional navigation device, the time required for language analysis and voice data generation depends on the performance of the voice synthesis function unit. A considerably long blank time, that is, a blank time is formed before the reproduction is started, and a silent state is formed in the blank time, which makes the driver feel uncomfortable.

一般に、見出しの文字数は少ないので、言語解析を行うのに必要な時間を表す解析時間、音声データを生成するのに必要な時間を表す生成時間、及び音声データを再生するのに必要な時間を表す再生時間はいずれも短く、例えば、生成時間は数十ミリ秒であり、再生時間は2〜3秒であるのに対して、本文iの文字数は多いので、解析時間、生成時間及び再生時間はいずれも長く、例えば、生成時間は5〜10秒であり、再生時間は数十秒である。   In general, since the number of characters in the headline is small, the analysis time indicating the time required for performing the language analysis, the generation time indicating the time required for generating the voice data, and the time required for reproducing the voice data are set. The reproduction time represented is short, for example, the generation time is several tens of milliseconds and the reproduction time is 2 to 3 seconds, whereas the number of characters in the text i is large, so the analysis time, generation time, and reproduction time Are long, for example, the generation time is 5 to 10 seconds and the reproduction time is several tens of seconds.

したがって、タイミングt2で見出しについての音声データの再生が終了した後、タイミングt3で本文1についての音声データの再生が開始されるまでの時間が空白時間τ1になり、該空白時間τ1に無音状態が形成される。しかも、前記空白時間τ1は本体iの文字数が多くなるほど長くなってしまう。   Therefore, after the reproduction of the audio data for the headline is completed at the timing t2, the time until the reproduction of the audio data for the body 1 is started at the timing t3 is the blank time τ1, and the silent state is present at the blank time τ1. It is formed. In addition, the blank time τ1 becomes longer as the number of characters in the main body i increases.

本発明は、前記従来のナビゲーション装置の問題点を解決して、文字情報についての音声出力を行う場合に、無音状態が形成されることによって操作者に違和感を与えることがない情報通知システム及び情報通知方法のプログラムを提供することを目的とする。   The present invention solves the problems of the conventional navigation device and provides an information notification system and information that does not give the operator a sense of incongruity when a silent state is formed when performing voice output of character information. An object is to provide a program of a notification method.

そのために、本発明の情報通知システムにおいては、導入部及び本体部から成る文字情報のうちの導入部についての言語解析及び音声データの生成から成る導入部処理を行う導入部処理手段と、前記導入部についての音声データを再生するのに必要な再生時間を算出する再生時間算出処理手段と、前記再生時間に対応させて設定された処理変量に基づいて、前記本体部についての分割されたセクションごとに言語解析及び音声データの生成から成る本体部処理を行う本体部処理手段とを有する。   For this purpose, in the information notification system of the present invention, the introduction unit processing means for performing the introduction unit processing including language analysis and generation of voice data for the introduction unit of the character information including the introduction unit and the main body unit, and the introduction A playback time calculation processing means for calculating a playback time required for playing back audio data for the unit, and for each section divided for the main body based on a processing variable set corresponding to the playback time. Main body processing means for performing main body processing consisting of language analysis and generation of voice data.

本発明の他の情報通知システムにおいては、さらに、前記処理変量は、本体部の1番目のセクションについての本体部処理を開始するタイミングである。   In another information notification system of the present invention, the processing variable is a timing at which the main body processing for the first section of the main body starts.

本発明の更に他の情報通知システムにおいては、さらに、前記本体部処理を開始するタイミングは、前記再生時間及び本体部処理を行うのに必要な本体部処理時間に基づいて設定される。   In still another information notification system of the present invention, the timing for starting the main body processing is set based on the reproduction time and the main body processing time required for performing the main body processing.

本発明の更に他の情報通知システムにおいては、さらに、前記処理変量は、本体部の1番目のセクションの文字列の文字数である。   In still another information notification system of the present invention, the processing variable is the number of characters in the character string of the first section of the main body.

本発明の更に他の情報通知システムにおいては、さらに、前記1番目のセクションの文字列の文字数は、前記再生時間に対応させて想定される適正な本体部処理時間に基づいて算出される。   In still another information notification system according to the present invention, the number of characters of the character string of the first section is calculated based on an appropriate main body processing time assumed to correspond to the reproduction time.

本発明の情報通知方法のプログラムにおいては、コンピュータを、導入部及び本体部から成る文字情報のうちの導入部についての言語解析及び音声データの生成から成る導入部処理を行う導入部処理手段、前記導入部についての音声データを再生するのに必要な再生時間を算出する再生時間算出処理手段、並びに前記再生時間に対応させて設定された処理変量に基づいて、前記本体部についての分割されたセクションごとに言語解析及び音声データの生成から成る本体部処理を行う本体部処理手段として機能させる。   In the program of the information notification method of the present invention, the computer performs introduction part processing means for performing introduction part processing consisting of language analysis and generation of voice data for the introduction part of the character information comprising the introduction part and the main body part, A reproduction time calculation processing means for calculating a reproduction time required for reproducing the audio data for the introduction unit, and a section divided for the main body unit based on a processing variable set corresponding to the reproduction time. Each of these functions as a main body processing means for performing main body processing consisting of language analysis and generation of voice data.

本発明によれば、導入部についての音声データの再生時間に対応させて設定された処理変量に基づいて、本体部についての分割されたセクションごとに本体部処理が行われるので、無音状態が形成されることによって操作者に違和感を与えることがない。   According to the present invention, since the main body process is performed for each divided section of the main body based on the processing variable set corresponding to the reproduction time of the audio data for the introduction section, a silent state is formed. As a result, the operator does not feel uncomfortable.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の第1の実施の形態におけるナビゲーションシステムを示すブロック図である。   FIG. 1 is a block diagram showing a navigation system according to the first embodiment of the present invention.

図において、14は情報端末、例えば、車両に搭載された車載装置としてのナビゲーション装置であり、該ナビゲーション装置14は、現在地を検出する現在地検出部としてのGPSセンサ15、地図データ、道路データ、探索データ等のナビゲーション装置14の基本的な情報、すなわち、ナビデータのほかに各種の情報が記録された情報記録部としてのデータ記録部16、各種のプログラム、データ等に基づいてコンピュータとして機能し、入力された情報に基づいて、ナビゲーション処理等の各種の演算処理を行うナビゲーション処理部17、自車方位を検出する方位検出部としての方位センサ18、操作者である運転者が操作することによって所定の入力を行うための第1の入力部としての操作部34、図示されない画面に表示された画像によって各種の表示を行い、運転者に通知するための第1の出力部としての表示部35、音声によって所定の入力を行うための第2の入力部としての音声入力部36、音声出力を行うことによって運転者に所定の情報を通知するための第2の出力部としての音声出力部37、通信端末として機能する送受信部としての通信部38を備え、前記ナビゲーション処理部17に、操作部34、表示部35、音声入力部36、音声出力部37及び通信部38が接続される。また、前記ナビゲーション処理部17には、車速検出部としての車速センサ41も接続される。   In the figure, reference numeral 14 denotes an information terminal, for example, a navigation device as an in-vehicle device mounted on a vehicle. The navigation device 14 is a GPS sensor 15 as a current location detection unit for detecting the current location, map data, road data, search. It functions as a computer based on basic information of the navigation device 14 such as data, that is, a data recording unit 16 as an information recording unit in which various information is recorded in addition to navigation data, various programs, data, etc. Based on the input information, a navigation processing unit 17 that performs various arithmetic processing such as navigation processing, a direction sensor 18 as a direction detection unit that detects the direction of the host vehicle, and a predetermined driver's operation by a driver. Is displayed on a screen (not shown) as a first input unit for inputting A display unit 35 serving as a first output unit for performing various displays using images and notifying the driver, a voice input unit 36 serving as a second input unit for performing predetermined inputs using voice, and voice output And a voice output unit 37 as a second output unit for notifying the driver of predetermined information by performing a communication unit 38 as a transmission / reception unit functioning as a communication terminal. The navigation processing unit 17 includes an operation unit 34, the display part 35, the audio | voice input part 36, the audio | voice output part 37, and the communication part 38 are connected. The navigation processor 17 is also connected with a vehicle speed sensor 41 as a vehicle speed detector.

前記GPSセンサ15は、人工衛星によって発生させられた電波を受信することによって地球上における現在地を検出し、併せて時刻を検出する。   The GPS sensor 15 detects the current location on the earth by receiving radio waves generated by an artificial satellite, and also detects the time.

本実施の形態においては、現在地検出部としてGPSセンサ15が使用されるが、該GPSセンサ15に代えて図示されない距離センサ、ステアリングセンサ、高度計等を単独で、又は組み合わせて使用することもできる。なお、前記距離センサは、道路上の所定の地点間の距離を検出するものであり、図示されない車輪の回転速度に基づいて、又は加速度を2回積分して距離を算出する。前記ステアリングセンサは、舵(だ)角を検出するものであり、例えば、図示されないステアリングホイールの回転部に取り付けられた光学的な回転センサ、回転抵抗センサ、車輪に取り付けられた角度センサ等を使用することができる。   In the present embodiment, the GPS sensor 15 is used as the current position detection unit, but a distance sensor, a steering sensor, an altimeter, etc. (not shown) may be used alone or in combination instead of the GPS sensor 15. The distance sensor detects a distance between predetermined points on the road, and calculates a distance based on a rotational speed of a wheel (not shown) or by integrating acceleration twice. The steering sensor detects a rudder angle, and uses, for example, an optical rotation sensor, a rotation resistance sensor, an angle sensor attached to a wheel, or the like attached to a rotating portion of a steering wheel (not shown). can do.

また、前記方位センサ18としてジャイロセンサ、地磁気センサ等を使用することができる。前記ジャイロセンサとしては、例えば、ガスレートジャイロ、振動ジャイロ等が使用され、ジャイロセンサは、旋回角を積分することによって自車方位を検出する。そして、前記地磁気センサは、地磁気を測定することによって自車方位を検出する。   Further, a gyro sensor, a geomagnetic sensor, or the like can be used as the direction sensor 18. As the gyro sensor, for example, a gas rate gyro, a vibration gyro, or the like is used, and the gyro sensor detects the vehicle direction by integrating the turning angle. The geomagnetic sensor detects the direction of the vehicle by measuring the geomagnetism.

前記データ記録部16は、地図データファイル、交差点データファイル、ノードデータファイル、道路データファイル、探索データファイル、施設データファイル等のデータファイルから成るデータベースを備え、前記各データファイルには、ナビゲーション装置14に関するナビデータが記録される。なお、前記データ記録部16には、所定の情報を音声出力部37によって出力するためのデータも記録される。   The data recording unit 16 includes a database including data files such as a map data file, an intersection data file, a node data file, a road data file, a search data file, and a facility data file, and each data file includes a navigation device 14. Navigation data about is recorded. The data recording unit 16 also records data for outputting predetermined information by the audio output unit 37.

例えば、前記地図データファイルには地図を表示するための地図データが、交差点データファイルには各交差点に関する交差点データが、ノードデータファイルにはノード点に関するノードデータが、道路データファイルには道路に関する道路データが、探索データファイルには経路を探索するための探索データが、施設データファイルには各種の施設に関する施設データがそれぞれ記録され、前記交差点データ、ノードデータ、道路データ、探索データ等によって道路状況を表す道路状況データが構成される。   For example, the map data file contains map data for displaying a map, the intersection data file contains intersection data related to each intersection, the node data file contains node data related to node points, and the road data file contains road data related to roads. The search data file includes search data for searching for routes, and the facility data file stores facility data relating to various facilities. The road condition is determined by the intersection data, node data, road data, search data, etc. Road condition data representing is constructed.

前記交差点データには、交差点の名称、交差点の形状、交差点に隣接する主要な施設、交差点の先の主要な地名、交差点に進入する道路を表す進入路、交差点から退出する道路を表す退出路等を表すデータが含まれる。また、前記ノードデータには、実際の道路の分岐点(交差点、T字路等も含む)、ノード点、各ノード点間を連結するノード点間リンク等を表すデータが含まれる。   In the intersection data, the name of the intersection, the shape of the intersection, the main facility adjacent to the intersection, the name of the main place ahead of the intersection, the approach road representing the road entering the intersection, the exit road representing the road exiting from the intersection, etc. Is included. In addition, the node data includes data representing an actual road branch point (including an intersection, a T-junction, and the like), a node point, a link between node points that connect the node points, and the like.

そして、前記道路データには、道路自体について、幅員、勾(こう)配、カント、バンク、路面の状態、道路の車線数、車線数の減少する箇所、幅員の狭くなる箇所等を、コーナについて、曲率半径、交差点、T字路、コーナの入口等を、道路属性について、降坂路、登坂路等が、道路種別について、国道、県道、細街路等の一般道のほか、高速道路、都市高速道路、有料道路等の高速・有料道を表すデータが含まれる。さらに、道路データには、踏切、高速道路の入口及び出口の取付道(ランプウェイ)、高速・有料道の料金所等を表すデータが含まれる。また、前記施設データには、各地域のホテル、ガソリンスタンド、駐車場、観光地、デパート等の施設について、名称、住所、電話番号、施設案内等の施設を表すデータが含まれる。   The road data includes the width, slope, cant, bank, road surface condition, number of road lanes, places where the number of lanes decreases, places where the width becomes narrow, etc. , Radius of curvature, intersections, T-shaped roads, corner entrances, road attributes, downhill roads, uphill roads, etc., road types, national roads, prefectural roads, narrow streets, highways, urban highways Data representing expressways and toll roads such as roads and toll roads are included. Further, the road data includes data indicating level crossings, highway entrance and exit roads (rampways), highway / toll road tollgates, and the like. The facility data includes data representing facilities such as name, address, telephone number, and facility guidance for facilities such as hotels, gas stations, parking lots, sightseeing spots, and department stores in each region.

前記ナビゲーション処理部17は、ナビゲーション装置14の全体の制御を行う演算装置としての、かつ、制御装置としてのCPU31、該CPU31が各種の演算処理を行うに当たってワーキングメモリとして使用される第1の記録媒体としての、DRAM、SRAM、MRAM、FeRAM等のRAM32、制御用のプログラムのほか、目的地までの経路の探索、経路案内等を行うための各種のプログラムが記録された第2の記録媒体としてのROM33、各種のデータ、プログラム等を記録するために使用される第3の記録媒体としての図示されないフラッシュメモリを備える。なお、前記RAM32、ROM33、フラッシュメモリ等の内部記憶装置として半導体メモリ、磁気コア等が使用される。そして、演算装置及び制御装置としてCPU31に代えてMPU等を使用することもできる。   The navigation processing unit 17 is an arithmetic device that controls the entire navigation device 14 and a CPU 31 as a control device, and a first recording medium used as a working memory when the CPU 31 performs various arithmetic processes. As a second recording medium on which various programs for searching for a route to a destination, route guidance, etc. are recorded in addition to a RAM 32 such as DRAM, SRAM, MRAM, FeRAM, etc., and a control program. The ROM 33 includes a flash memory (not shown) as a third recording medium used for recording various data, programs, and the like. A semiconductor memory, a magnetic core or the like is used as an internal storage device such as the RAM 32, ROM 33, flash memory or the like. An MPU or the like can be used instead of the CPU 31 as the arithmetic device and the control device.

また、前記データ記録部16は、前記各種のデータを記録するために、外部記憶装置として配設された第4の記録媒体としてのハードディスク、フレキシブルディスク等の図示されない磁気ディスクを備えるほかに、各種のデータを読み出したり、書き込んだりするための読出・書込ヘッド等の図示されないヘッドを備える。前記データ記録部16には、同様に外部記憶装置として配設された第5の記録媒体としての磁気テープ、磁気ドラム、CD、MD、DVD、光ディスク、MO、ICカード、光カード等を配設することもできる。   The data recording unit 16 includes a magnetic disk (not shown) such as a hard disk or a flexible disk as a fourth recording medium arranged as an external storage device for recording the various data. A head (not shown) such as a read / write head for reading or writing the data is provided. Similarly, the data recording unit 16 includes a magnetic tape, a magnetic drum, a CD, an MD, a DVD, an optical disk, an MO, an IC card, an optical card, and the like as a fifth recording medium disposed as an external storage device. You can also

ところで、前記ROM33に各種のプログラムを記録し、前記データ記録部16に各種のデータを記録することができるが、プログラム、データ等をハードディスク等に記録することもできる。この場合、ハードディスク等から前記プログラム、データ等を読み出してフラッシュメモリに書き込むことができる。したがって、ハードディスク等を交換することによって前記プログラム、データ等を更新することができる。また、車両に搭載された図示されない自動変速機の制御を行うために自動変速機制御装置が搭載されている場合には、自動変速機制御装置の制御用のプログラム、データ等も前記ハードディスク等に記録することができる。さらに、通信部38を介して前記プログラム、データ等を受信し、フラッシュメモリに書き込むこともできる。   By the way, various programs can be recorded in the ROM 33 and various data can be recorded in the data recording unit 16, but the programs, data, and the like can also be recorded on a hard disk or the like. In this case, the program, data, etc. can be read from a hard disk or the like and written to the flash memory. Therefore, the program, data, etc. can be updated by exchanging the hard disk or the like. Further, when an automatic transmission control device is mounted to control an automatic transmission (not shown) mounted on the vehicle, the control program, data, etc. for the automatic transmission control device are also stored in the hard disk or the like. Can be recorded. Further, the program, data, etc. can be received via the communication unit 38 and written to the flash memory.

前記操作部34は、運転者が操作することによって、走行開始時の現在地を修正したり、出発地及び目的地を入力したり、通過点を入力したり、通信部38を作動させたりするためのものであり、表示部35とは独立に配設されたキーボード、マウス、バーコードリーダ、ライトペン、遠隔操作用のリモートコントロール装置、ジョイスティック等を使用することができる。また、前記操作部34として、前記表示部35に形成された画面に画像で表示された各種のキー、スイッチ、ボタン等の画像操作部をタッチ又はクリックすることによって、所定の入力操作を行うことができる。   The operation unit 34 is operated by the driver to correct the current location at the start of traveling, to input a departure point and a destination, to input a passing point, and to activate the communication unit 38. A keyboard, a mouse, a barcode reader, a light pen, a remote control device for remote control, a joystick, etc., which are arranged independently of the display unit 35, can be used. Further, as the operation unit 34, a predetermined input operation is performed by touching or clicking an image operation unit such as various keys, switches, and buttons displayed as images on the screen formed in the display unit 35. Can do.

前記表示部35としては、CRTディスプレイ、液晶ディスプレイ、プラズマディスプレイ等のディスプレイを使用したり、車両のフロントガラスにホログラムを投影するホログラム装置等を使用したりすることができる。そして、表示部35に形成された各種の画面に、現在地を表す自車位置、地図、探索経路、該探索経路に沿った案内情報、交通情報等を表示したり、交差点又は探索経路における特徴的な写真、コマ図等、次の交差点までの距離、次の交差点における進行方向を表示したりすることができるだけでなく、前記画像操作部、操作部34、音声入力部36等の操作案内、操作メニュー、キーの案内を表示したり、FM多重放送の番組等を表示したりすることができる。   As the display unit 35, a display such as a CRT display, a liquid crystal display, or a plasma display can be used, or a hologram device that projects a hologram on a windshield of a vehicle can be used. Then, on the various screens formed on the display unit 35, the vehicle position indicating the current location, a map, a search route, guidance information along the search route, traffic information, etc. are displayed, or a characteristic at the intersection or the search route is displayed. In addition to displaying the distance to the next intersection, the direction of travel at the next intersection, and the like, the operation guide and operation of the image operation unit, operation unit 34, voice input unit 36, etc. Menus, key guidance, FM multiplex broadcast programs, and the like can be displayed.

また、音声入力部36は、図示されないマイクロホン等によって構成され、音声によって必要な情報を入力することができる。   The voice input unit 36 includes a microphone (not shown) and the like, and can input necessary information by voice.

さらに、音声出力部37は、図示されない音声合成装置、及び音声出力機器としてのスピーカを備え、音声出力部37において、ニュース、天気予報等の一般情報、探索経路、案内情報、交通情報等が、音声合成装置によって合成された音声で出力される。なお、前記音声出力機器として、スピーカに代えてイヤホン、ヘッドホン等を使用することもできる。また、音声合成装置によって合成された音声のほかに、各種の音、あらかじめテープ、メモリ等に録音された各種の案内情報等を出力することもできる。   Furthermore, the voice output unit 37 includes a voice synthesizer (not shown) and a speaker as a voice output device. In the voice output unit 37, general information such as news and weather forecasts, search routes, guidance information, traffic information, etc. The voice synthesized by the voice synthesizer is output. Note that earphones, headphones, or the like may be used as the audio output device instead of the speakers. In addition to the voice synthesized by the voice synthesizer, it is also possible to output various sounds, various guidance information recorded in advance on a tape, memory or the like.

前記通信部38は、第1の情報提供者としてのVICS(登録商標::Vehicle Information and Communication System)センタ等の図示されない道路交通情報センタから送信された各種の情報を、道路に沿って配設された電波ビーコン装置、光ビーコン装置等を介して電波ビーコン、光ビーコン等として受信するためのビーコンレシーバ、FM放送局を介してFM多重放送として受信するためのFM受信機等を備える。そして、前記ビーコンレシーバによって、渋滞情報、規制情報、駐車場情報、交通事故情報、サービスエリアの混雑状況情報等の交通情報を受信したり、前記FM受信機によって前記交通情報のほかに、前記一般情報をFM多重情報として受信したりすることができる。なお、前記ビーコンレシーバ及びFM受信機は、ユニット化されてVICSレシーバとして配設されるようになっているが、別々に配設することもできる。   The communication unit 38 arranges various types of information transmitted from a road traffic information center (not shown) such as a VICS (registered trademark: Vehicle Information and Communication System) center as a first information provider along the road. A beacon receiver for receiving as a radio wave beacon, an optical beacon, etc. via a radio beacon device, an optical beacon device, etc., an FM receiver for receiving as an FM multiplex broadcast via an FM broadcast station, and the like. Then, the beacon receiver receives traffic information such as traffic jam information, regulation information, parking lot information, traffic accident information, service area congestion status information, and the FM receiver in addition to the traffic information, the general information Information can be received as FM multiplexed information. The beacon receiver and the FM receiver are unitized and arranged as a VICS receiver, but can be arranged separately.

また、通信部38は、所定の基地局から送信されたGPSセンサ15の検出誤差を検出するためのD−GPS情報等の各種のデータを受信することもできる。さらに、前記通信部38は、電波ビーコン、光ビーコン等によって位置情報を受信し、現在地を検出することもでき、その場合、前記ビーコンレシーバは、現在地検出部として機能する。   The communication unit 38 can also receive various data such as D-GPS information for detecting a detection error of the GPS sensor 15 transmitted from a predetermined base station. Further, the communication unit 38 can receive position information by radio wave beacons, optical beacons, and the like to detect the current location. In this case, the beacon receiver functions as a current location detection unit.

さらに、通信部38は、第2の情報提供者としての情報センタ51から交通情報、一般情報等の各種の情報を受信することもできる。そのために、前記通信部38と情報センタ51とはネットワーク43を介して接続される。   Furthermore, the communication part 38 can also receive various information such as traffic information and general information from the information center 51 as the second information provider. For this purpose, the communication unit 38 and the information center 51 are connected via a network 43.

前記ナビゲーション装置14、道路交通情報センタ、情報センタ51、ネットワーク43等によってナビゲーションシステムが構成され、前記通信部38と情報センタ51の図示されない通信部との間で各種の情報の送受信が行われる。   The navigation device 14, the road traffic information center, the information center 51, the network 43, and the like constitute a navigation system, and various types of information are transmitted and received between the communication unit 38 and a communication unit (not shown) of the information center 51.

本実施の形態においては、前記通信部38を通信端末として機能させるために、通信部38に携帯電話等の通信機器がモジュールとして内蔵されるようになっているが、通信部38とは別に通信機器を接続し、通信機器と通信部38とを接続することもできる。その場合、通信機器として、携帯電話、自動車電話、PHS等の移動電話を使用したり、無線LANカード等を使用したり、パソコン、携帯用コンピュータ、個人用携帯情報端末(PDA)、電子手帳、テレビ電話、ゲーム機等に通信機能を持たせたものを使用したりすることができる。   In the present embodiment, in order for the communication unit 38 to function as a communication terminal, a communication device such as a mobile phone is built in the communication unit 38 as a module. It is also possible to connect devices and connect the communication device and the communication unit 38. In that case, as a communication device, a mobile phone such as a mobile phone, a car phone, and a PHS, a wireless LAN card, etc. are used, a personal computer, a portable computer, a personal digital assistant (PDA), an electronic notebook, It is possible to use a videophone, game machine or the like having a communication function.

また、前記ネットワーク43として、LAN(Local Area Network)、WAN(Wide Area Network)、イントラネット、携帯電話回線網、電話回線網、公衆通信回線網、専用通信回線網、インターネット等の通信回線網等の通信手段を使用することができる。そして、放送衛星によるCS放送、BS放送、地上波ディジタルテレビ放送、FM多重放送等を利用する通信手段を使用することもできる。さらに、高度道路交通システム(ITS)において利用されるノンストップ自動料金支払いシステム(ETC)、狭域通信システム(DSRC)等の通信手段を使用することもできる。   The network 43 includes a LAN (Local Area Network), a WAN (Wide Area Network), an intranet, a mobile phone network, a telephone network, a public communication network, a dedicated communication network, a communication network such as the Internet, etc. Communication means can be used. Communication means using CS broadcasting, BS broadcasting, terrestrial digital television broadcasting, FM multiplex broadcasting, etc. by a broadcasting satellite can also be used. Furthermore, it is possible to use communication means such as a non-stop automatic toll payment system (ETC) and a narrow area communication system (DSRC) used in an intelligent road traffic system (ITS).

なお、前記情報センタ51は、個人、企業、団体、地方自治体、政府関係機関等のいずれが運営していてもよく、前記道路交通情報センタが運営していてもよい。   The information center 51 may be operated by any one of an individual, a company, a group, a local government, a government related organization, or the like, and may be operated by the road traffic information center.

前記情報センタ51は、サーバ53、該サーバ53に接続された情報記録部としてのデータベース(DB)57、前記通信部等を備え、該通信部によって、情報センタ51とナビゲーション装置14との間で双方向の通信が行われ、交通情報、一般情報等の提供が行われる。そのために、前記サーバ53は、演算装置及び制御装置としてのCPU54、RAM55、ROM56等を備え、所定のプログラム、データ等に基づいてコンピュータとして機能する。また、前記データベース57に前記データ記録部16に記録された各種のデータ(ナビデータも含まれる。)と同様のデータを記録することができる。なお、前記ナビゲーション処理部17及びサーバ53のほかに、CPU31、54をコンピュータとして機能させることができる。さらに、前記ナビゲーション処理部17、サーバ53、CPU31、54等の二つ以上を組み合わせてコンピュータとして機能させることもできる。また、CPU54に代えてMPU等を使用することができる。   The information center 51 includes a server 53, a database (DB) 57 serving as an information recording unit connected to the server 53, the communication unit, and the like. Two-way communication is performed, and traffic information, general information, and the like are provided. For this purpose, the server 53 includes a CPU 54, a RAM 55, a ROM 56, and the like as an arithmetic device and a control device, and functions as a computer based on predetermined programs, data, and the like. Further, the same data as various data (including navigation data) recorded in the data recording unit 16 can be recorded in the database 57. In addition to the navigation processing unit 17 and the server 53, the CPUs 31 and 54 can function as a computer. Further, two or more of the navigation processing unit 17, the server 53, and the CPUs 31, 54 can be combined to function as a computer. Further, an MPU or the like can be used instead of the CPU 54.

そして、前記CPU54は、前記道路交通情報センタ等から送信された交通情報、一般情報等を受信し、一次情報としてデータベース57に記録したり、前記一次情報を加工して統計処理を施し、渋滞状況の履歴を表す履歴情報、渋滞状況を予測する渋滞予測情報等を構成する統計データを作成し、該統計データを二次情報としてデータベース57に記録したりする。本実施の形態においては、前記統計データを作成するに当たり、履歴情報に、日時、曜日、天候、各種イベント、季節、施設の情報(デパート、スーパーマーケット等の大型の施設の有無)等の詳細な条件が加えられる。   Then, the CPU 54 receives traffic information, general information, etc. transmitted from the road traffic information center, etc., and records them in the database 57 as primary information, or processes the primary information to perform statistical processing, Statistical data constituting historical information representing the history of traffic, traffic jam prediction information for predicting traffic jam conditions, and the like are created, and the statistical data is recorded in the database 57 as secondary information. In the present embodiment, in creating the statistical data, detailed conditions such as date / time, day of the week, weather, various events, seasons, facility information (presence / absence of large facilities such as department stores and supermarkets) are included in the history information. Is added.

次に、前記構成のナビゲーションシステムの基本動作について説明する。   Next, a basic operation of the navigation system having the above configuration will be described.

まず、運転者によって操作部34が操作され、ナビゲーション装置14が起動されると、CPU31の図示されないナビ初期化処理手段は、ナビ初期化処理を行い、GPSセンサ15によって検出された現在地、及び方位センサ18によって検出された自車方位を読み込むとともに、各種のデータを初期化する。なお、前記CPU31の図示されないマッチング処理手段は、マッチング処理を行い、読み込まれた現在地の軌跡、及び周辺の道路を構成する各道路リンクの形状、配列等に基づいて、現在地がいずれの道路リンク上に位置するかの判定を行うことによって、現在地を特定する。   First, when the operation unit 34 is operated by the driver and the navigation device 14 is activated, a navigation initialization processing unit (not shown) of the CPU 31 performs navigation initialization processing, and the current location and direction detected by the GPS sensor 15. While reading the direction of the vehicle detected by the sensor 18, various data are initialized. Note that the matching processing means (not shown) of the CPU 31 performs matching processing, and the current location is on any road link based on the trajectory of the read current location and the shape and arrangement of each road link constituting the surrounding road. The current location is specified by determining whether the current location is located.

続いて、CPU31の図示されない情報取得処理手段は、情報取得処理を行い、前記ナビデータを、データ記録部16から読み出して取得するか、又は通信部38を介して情報センタ51等から受信して取得する。なお、情報センタ51から取得する場合、前記情報取得処理手段は、受信したナビデータをフラッシュメモリ、ハードディスク等にダウンロードする。また、ナビデータを通信部38を介して取得する際にプログラムを併せて取得することもできる。   Subsequently, an information acquisition processing unit (not shown) of the CPU 31 performs an information acquisition process, and reads and acquires the navigation data from the data recording unit 16 or receives it from the information center 51 or the like via the communication unit 38. get. When acquiring from the information center 51, the information acquisition processing means downloads the received navigation data to a flash memory, a hard disk or the like. In addition, when the navigation data is acquired via the communication unit 38, the program can also be acquired.

そして、前記CPU31の図示されない表示処理手段は、表示処理を行い、前記表示部35に地図画面を形成し、該地図画面に、ナビデータに基づいて前記自車位置、自車位置の周辺の地図及び自車方位を表示する。したがって、運転者は、自車位置、自車位置の周辺の地図及び自車方位に従って車両を走行させることができる。   Then, the display processing means (not shown) of the CPU 31 performs display processing, forms a map screen on the display unit 35, and maps the vehicle position and a map around the vehicle position on the map screen based on navigation data. And the direction of the vehicle is displayed. Therefore, the driver can drive the vehicle according to the vehicle position, the map around the vehicle position, and the vehicle direction.

また、前記CPU31の図示されない文字情報取得処理手段は、文字情報取得処理を行い、情報センタ51から文字情報、例えば、文字列で形成されたニュース、すなわち、文字ニュースを受信し、CPU31の図示されない音声出力処理手段は、音声出力処理を行い、受信された文字ニュースを読み込み、音声出力部37に送信し、文字ニュースについて音声出力部37によって音声出力が行われる。なお、前記文字ニュースは、図2に示されるように、導入部である見出し、及び本体部であるニュース本文から成る。   The character information acquisition processing unit (not shown) of the CPU 31 performs character information acquisition processing, receives character information, for example, news formed of a character string from the information center 51, that is, character news, and is not shown of the CPU 31. The voice output processing means performs voice output processing, reads the received character news, transmits it to the voice output unit 37, and the voice output unit 37 performs voice output on the character news. As shown in FIG. 2, the text news includes a headline as an introduction part and a news text as a main part.

次に、前記音声出力部37について説明する。   Next, the audio output unit 37 will be described.

図4は本発明の第1の実施の形態における音声出力部を説明するブロック図である。   FIG. 4 is a block diagram illustrating an audio output unit according to the first embodiment of the present invention.

図において、31はCPU、32はRAM、37は音声出力部、38は通信部であり、前記音声出力部37に音声合成装置44及びスピーカ45が配設され、前記音声合成装置44は、所定のプログラム、データ等に基づいてコンピュータとして機能する。   In the figure, 31 is a CPU, 32 is a RAM, 37 is a voice output unit, 38 is a communication unit, a voice synthesizer 44 and a speaker 45 are provided in the voice output unit 37, and the voice synthesizer 44 is a predetermined unit. It functions as a computer based on the program, data, etc.

前記音声合成装置44に、音声出力制御処理手段としての音声出力制御部61、音声合成処理手段としての音声合成機能部62、音声出力駆動処理手段としてのサウンドドライバ63等が配設され、前記音声出力制御部61に第1の音声データ記録部としての音声データバッファ64が、サウンドドライバ63に第2の音声データ記録部としてのDMA転送バッファ65がそれぞれ配設される。   The voice synthesizer 44 includes a voice output control unit 61 as a voice output control processing unit, a voice synthesis function unit 62 as a voice synthesis processing unit, a sound driver 63 as a voice output drive processing unit, and the like. The output control unit 61 is provided with an audio data buffer 64 as a first audio data recording unit, and the sound driver 63 is provided with a DMA transfer buffer 65 as a second audio data recording unit.

なお、本実施の形態においては、音声データバッファ64が音声出力制御部61に、DMA転送バッファ65がサウンドドライバ63に配設されるようになっているが、音声データバッファ64を音声出力制御部61と独立させて、DMA転送バッファ65をサウンドドライバ63と独立させて配設することもできる。また、本実施の形態においては、音声出力部37に音声合成装置44が配設されるようになっているが、CPU31に音声合成装置44の機能を持たせることもできる。その場合、CPU31に音声出力制御処理手段、音声合成処理手段及び音声出力駆動処理手段が配設される。   In this embodiment, the audio data buffer 64 is arranged in the audio output control unit 61 and the DMA transfer buffer 65 is arranged in the sound driver 63. However, the audio data buffer 64 is arranged in the audio output control unit. The DMA transfer buffer 65 can be provided independently of the sound driver 63 independently of the sound driver 61. In the present embodiment, the speech synthesizer 44 is arranged in the speech output unit 37, but the CPU 31 can also have the function of the speech synthesizer 44. In this case, the CPU 31 is provided with voice output control processing means, voice synthesis processing means, and voice output drive processing means.

ところで、前記音声合成機能部62においては、言語解析、音声データの生成等の処理が行われ、一般に、一度に処理を行うことができる文字数に制限がある。また、文字数に制限がない場合でも、文字ニュースの文字数が多くなるほど、音声データを生成するのに必要な時間が長くなる。   By the way, in the speech synthesis function unit 62, processing such as language analysis and generation of speech data is performed, and generally, the number of characters that can be processed at one time is limited. Even when the number of characters is not limited, the time required to generate the voice data increases as the number of characters in the character news increases.

そこで、前記音声合成機能部62に一括処理可能最大数(例えば、128〔文字〕)を設定し、音声出力制御部61の図示されない分割処理手段は、分割処理を行い、通信部38において受信された文字ニュースを読み込み、ニュース本文を、一括処理可能最大数より少ない文字数で、かつ、分割しても違和感のない文字数の文字列から成る本文、例えば、本文i(i=1、2、…、N)に分割する。なお、Nは2以上の整数である。   Therefore, the maximum number (for example, 128 [characters]) that can be collectively processed is set in the voice synthesis function unit 62, and the division processing unit (not shown) of the voice output control unit 61 performs division processing and is received by the communication unit 38. The news body is read, and the news body is composed of a character string having a character number that is less than the maximum number of characters that can be batch processed and that does not feel strange even when divided, for example, a body i (i = 1, 2,... N). N is an integer of 2 or more.

この場合、見出し及び各本文iによってそれぞれ文字ニュースのセクションが構成される。続いて、前記音声出力制御部61は、見出し及び本文iから成る文字ニュースを音声合成機能部62に送信する。なお、各本文iは、一つ以上の文によって構成するのが好ましい。   In this case, a section of text news is constituted by the headline and each body i. Subsequently, the voice output control unit 61 transmits the text news including the headline and the text i to the voice synthesis function unit 62. Each body i is preferably composed of one or more sentences.

また、前記音声合成機能部62は、音声合成処理を行い、見出し及び各本文iについて各セクションごとに言語解析を行い、各セクションの文字列を構成する各単語の品詞を特定し、品詞に対応させて各単語の読みを決定するとともに、アクセント記号等が付加された表音文字列を作成する。さらに、前記音声合成機能部62は、表音文字列を解析することによって、音声データを生成して前記音声出力制御部61に送信し、該音声出力制御部61は、音声合成機能部62から送信された音声データをサウンドドライバ63に転送する。   In addition, the speech synthesis function unit 62 performs speech synthesis processing, performs language analysis for each section for the headline and each body i, identifies the part of speech of each word constituting the character string of each section, and supports the part of speech Thus, the phonetic character string with the accent symbol added is created while determining the reading of each word. Further, the speech synthesis function unit 62 generates speech data by analyzing the phonetic character string and transmits the speech data to the speech output control unit 61. The speech output control unit 61 receives the speech synthesis function unit 62 from the speech synthesis function unit 62. The transmitted audio data is transferred to the sound driver 63.

また、サウンドドライバ63は、音声出力駆動処理を行い、転送された音声データを再生し、スピーカ45を作動させ、見出し及び本文iを順次読み上げる。   Further, the sound driver 63 performs an audio output driving process, reproduces the transferred audio data, operates the speaker 45, and sequentially reads out the headline and the text i.

次に、前記ナビゲーションシステムを情報通知システムとして使用したときの動作について説明する。   Next, an operation when the navigation system is used as an information notification system will be described.

図5は本発明の第1の実施の形態におけるナビゲーション装置において文字ニュースを取得する際の動作を示すフローチャート、図6は本発明の第1の実施の形態における情報センタにおいて文字ニュースを送信する際の動作を示すフローチャートである。   FIG. 5 is a flowchart showing an operation when acquiring the character news in the navigation device according to the first embodiment of the present invention. FIG. 6 is a diagram when transmitting the character news in the information center according to the first embodiment of the present invention. It is a flowchart which shows this operation | movement.

まず、ナビゲーション装置14(図1)において、運転者が操作部34を操作して、文字ニュースの取得を要求すると、CPU31の前記文字情報取得処理手段は、文字情報取得処理を行い、情報センタ51に文字ニュースの有無確認要求を送信する。そして、情報センタ51において、CPU54の図示されない文字情報提供処理手段は、文字情報提供処理を行い、文字ニュースの有無確認要求を受信したかどうかを判断し、有無確認要求を受信すると、文字ニュースの有無を前記ナビゲーション装置14に送信する。   First, in the navigation device 14 (FIG. 1), when the driver operates the operation unit 34 to request acquisition of character news, the character information acquisition processing means of the CPU 31 performs character information acquisition processing, and the information center 51 Send a request to confirm the existence of text news. In the information center 51, the character information provision processing means (not shown) of the CPU 54 performs character information provision processing, determines whether or not a character news presence / absence confirmation request has been received, and receives the presence / absence confirmation request. The presence / absence is transmitted to the navigation device 14.

続いて、ナビゲーション装置14において、CPU31の前記文字情報取得処理手段は、情報センタ51から文字ニュースの有無を受信すると、新しい文字ニュースがあるかどうかを判断し、新しい文字ニュースがある場合、情報センタ51に文字ニュース群の受信要求を送る。情報センタ51において、CPU54の前記文字情報提供処理手段は、文字ニュース群の受信要求を受信したかどうかを判断し、文字ニュース群の受信要求を受信すると、文字ニュース群をナビゲーション装置14に送信する。   Subsequently, in the navigation device 14, when the character information acquisition processing means of the CPU 31 receives the presence / absence of character news from the information center 51, it determines whether there is new character news. A reception request for the text news group is sent to 51. In the information center 51, the character information provision processing unit of the CPU 54 determines whether or not a character news group reception request has been received, and transmits the character news group to the navigation device 14 when receiving the character news group reception request. .

そして、ナビゲーション装置14において、CPU31の前記文字情報取得処理手段は、文字ニュース群を受信すると、文字ニュース群をRAM32に記録し、保存する。なお、必要に応じて、CPU31の前記表示処理手段は、表示処理を行い、表示部35に文字ニュース表示画面を形成し、該文字ニュース表示画面に文字ニュース群の各文字ニュースをリスト形式で表示する。   In the navigation device 14, when the character information acquisition processing unit of the CPU 31 receives the character news group, the character news group is recorded in the RAM 32 and stored. If necessary, the display processing means of the CPU 31 performs display processing, forms a text news display screen on the display unit 35, and displays each text news of the text news group in a list format on the text news display screen. To do.

次に、図5のフローチャートについて説明する。
ステップS1 文字ニュースの有無確認要求を送信する。
ステップS2 新しい文字ニュースがあるかどうかを判断する。新しい文字ニュースがある場合はステップS3に進み、ない場合は処理を終了する。
ステップS3 文字ニュース群の受信要求を送信する。
ステップS4 文字ニュース群を受信する。
ステップS5 文字ニュース群を保存し、処理を終了する。
Next, the flowchart of FIG. 5 will be described.
Step S1: A request for confirming presence / absence of text news is transmitted.
Step S2: It is determined whether there is a new text news. If there is new text news, the process proceeds to step S3, and if not, the process ends.
Step S3: A character news group reception request is transmitted.
Step S4: The character news group is received.
Step S5: The character news group is saved and the process is terminated.

次に、図6のフローチャートについて説明する。
ステップS11 文字ニュースの有無確認要求を受信したかどうかを判断する。文字ニュースの有無確認要求を受信した場合はステップS12に進み、受信していない場合は処理を終了する。
ステップS12 文字ニュースの有無を送信する。
ステップS13 文字ニュース群の受信要求を受信したかどうかを判断する。文字ニュース群の受信要求を受信した場合はステップS14に進み、受信していない場合は処理を終了する。
ステップS14 文字ニュース群を送信し、処理を終了する。
Next, the flowchart of FIG. 6 will be described.
Step S11: It is determined whether or not a text news presence / absence confirmation request has been received. If a text news presence / absence confirmation request is received, the process proceeds to step S12. If not received, the process ends.
Step S12: The presence / absence of text news is transmitted.
Step S13: It is determined whether or not a character news group reception request has been received. If a reception request for the text news group has been received, the process proceeds to step S14, and if not received, the process ends.
Step S14: The character news group is transmitted and the process is terminated.

次に、前記音声出力部37の動作について説明する。この場合、前記CPU31の前記音声出力処理手段は、RAM32に記録された文字ニュース群の各文字ニュースを読み出し、音声合成装置44(図4)に送信する。   Next, the operation of the audio output unit 37 will be described. In this case, the voice output processing means of the CPU 31 reads each character news of the character news group recorded in the RAM 32 and transmits it to the voice synthesizer 44 (FIG. 4).

図7は本発明の第1の実施の形態における音声出力部の動作を示す第1のフローチャート、図8は本発明の第1の実施の形態における音声出力部の動作を示す第2のフローチャート、図9は本発明の第1の実施の形態における音声出力部の動作を示す第3のフローチャート、図10は本発明の第1の実施の形態における割込処理手段の動作を示すフローチャート、図11は本発明の第1の実施の形態における音声合成機能部及びサウンドドライバの動作を示す第1のタイムチャート、図12は本発明の第1の実施の形態における音声合成機能部及びサウンドドライバの動作を示す第2のタイムチャートである。   FIG. 7 is a first flowchart showing the operation of the audio output unit in the first embodiment of the present invention. FIG. 8 is a second flowchart showing the operation of the audio output unit in the first embodiment of the present invention. FIG. 9 is a third flowchart showing the operation of the audio output unit in the first embodiment of the present invention, FIG. 10 is a flowchart showing the operation of the interrupt processing means in the first embodiment of the present invention, and FIG. Is a first time chart showing operations of the speech synthesis function unit and the sound driver in the first embodiment of the present invention, and FIG. 12 is an operation of the speech synthesis function unit and the sound driver in the first embodiment of the present invention. It is the 2nd time chart which shows.

まず、CPU31(図4)から文字ニュースを受信すると、音声出力制御部61の前記分割処理手段は、文字ニュースのうちのニュース本文を、前記一括処理可能最大数より少ない文字数で、かつ、分割しても違和感のない文字数の文字列から成る複数の本文iに分割し、見出し及び本文iから成る文字ニュースを音声合成機能部62に送信する。   First, when the character news is received from the CPU 31 (FIG. 4), the division processing means of the voice output control unit 61 divides the news body of the character news with a number of characters smaller than the maximum number that can be collectively processed. However, it is divided into a plurality of body texts i composed of character strings of the number of characters without any sense of incongruity, and character news composed of headings and body text i is transmitted to the speech synthesis function unit 62.

続いて、前記音声合成機能部62の図示されない導入部処理手段は、導入部処理を行い、該導入部処理手段の言語解析処理手段は、読み上げる文字ニュースの見出しを選択し、タイミングt10で言語解析処理を開始し、見出しについての言語解析を行い、タイミングt11で言語解析処理を終了するとともに、導入部処理手段の生成処理手段は、生成処理を開始し、前記言語解析の結果に基づいて、見出しについての音声データを生成して音声出力制御部61に送り、タイミングt12で生成処理を終了する。これに伴って、音声出力制御部61の図示されない記録処理手段は、記録処理を行い、見出しについての音声データを音声データバッファ64に記録する。   Subsequently, an introduction unit processing unit (not shown) of the speech synthesis function unit 62 performs an introduction unit process, and a language analysis processing unit of the introduction unit processing unit selects a headline of the text news to be read out, and performs language analysis at timing t10. The processing is started, the language analysis is performed on the headline, the language analysis process is terminated at timing t11, and the generation processing unit of the introduction unit processing unit starts the generation process, and based on the result of the language analysis, Is generated and sent to the audio output control unit 61, and the generation process ends at timing t12. Along with this, a recording processing unit (not shown) of the audio output control unit 61 performs a recording process and records audio data about the heading in the audio data buffer 64.

ところで、音声データバッファ64に記録された音声データを読み出してサウンドドライバ63に転送し、該サウンドドライバ63において音声データの再生を開始するタイミングで、前記音声合成機能部62の本体部処理手段としての図示されない本文処理手段が、1番目の本文を表す本文1について、前記言語解析、音声データの生成等と同様の、言語解析、音声データの生成等から成る本体部処理としての本文処理を開始すると、見出しのデータ量が極めて小さいので、わずかな時間で音声データの再生が終了するのに対して、本文1のデータ量が大きいので、本文処理が終了するまでにかなりの時間がかかってしまい、空白時間が長くなってしまう。   By the way, the audio data recorded in the audio data buffer 64 is read out and transferred to the sound driver 63, and at the timing when the sound driver 63 starts reproducing the audio data, When text processing means (not shown) starts text processing as body processing consisting of language analysis, voice data generation, etc., similar to the language analysis, voice data generation, etc., for the text 1 representing the first text. Since the data amount of the headline is very small, the reproduction of the audio data is completed in a short time, whereas the data amount of the main body 1 is large, so it takes a considerable time until the main body processing is completed. The blank time becomes longer.

そこで、本実施の形態においては、空白時間を短くするために、本文処理が開始されるタイミングが調整され、見出しについての音声データの再生が開始される前に本文処理が開始されるようになっている。   Therefore, in this embodiment, in order to shorten the blank time, the timing at which the text processing is started is adjusted, and the text processing is started before the reproduction of the audio data for the heading is started. ing.

そのために、音声合成機能部62の図示されない再生時間算出処理手段は、再生時間算出処理を行い、音声出力の対象となる読み上げる文字ニュースの見出しを選択し、見出しについての音声データを再生するのに必要な時間、すなわち、再生時間T1を算出する。この場合、見出しのデータサイズをW0とし、1サンプルのバイト数(通常は2〔byte〕)をDsmとし、サンプリング周波数をfsm(本実施の形態においては、22000〔Hz〕)とすると、再生時間T1は、
T1=(W0/Dsm)/fsm
になる。
For this purpose, a reproduction time calculation processing unit (not shown) of the speech synthesis function unit 62 performs a reproduction time calculation process, selects a text news headline to be read out, and reproduces voice data about the headline. A necessary time, that is, a reproduction time T1 is calculated. In this case, if the header data size is W0, the number of bytes of one sample (usually 2 [bytes]) is Dsm, and the sampling frequency is fsm (22000 [Hz] in this embodiment), the playback time T1 is
T1 = (W0 / Dsm) / fsm
become.

続いて、音声合成機能部62は、読み上げる文字ニュースの本文1を選択し、前記音声合成機能部62の図示されない本文処理時間算出処理手段は、本文処理時間算出処理を行い、本文1についての本文処理を行うのに必要な本体部処理時間、すなわち、本文処理時間T2を算出する。   Subsequently, the speech synthesis function unit 62 selects the text 1 of the text news to be read out, and the text processing time calculation processing means (not shown) of the speech synthesis function unit 62 performs text processing time calculation processing, and the text for the text 1 A main body processing time required for processing, that is, a text processing time T2 is calculated.

そして、前記音声合成機能部62の図示されない本文処理開始時刻設定処理手段は、本文処理開始時刻設定処理を行い、音声出力制御部61からサウンドドライバ63への見出しについての音声データの転送を開始するタイミングtxを基準として、前記再生時間T1に対応させて、見出しについての音声データの転送より本文処理を先行して開始するための先行時間τを算出し、該先行時間τに基づいて、本文処理を開始するタイミングt13を算出し、処理変量として設定する。   Then, a text processing start time setting processing unit (not shown) of the voice synthesis function unit 62 performs a text processing start time setting process, and starts transferring voice data for the heading from the voice output control unit 61 to the sound driver 63. Based on the timing tx, a preceding time τ for starting the text processing ahead of the transfer of the audio data for the heading is calculated in correspondence with the reproduction time T1, and the text processing is performed based on the preceding time τ. Is calculated as a processing variable.

この場合、前記先行時間τは、見出しについての音声データの再生が終了した後、本文1についての音声データの再生が開始されるまでに形成される無音状態が運転者に違和感を与えることがないように設定される。すなわち、見出しについての音声データを転送するのに必要な時間、すなわち、転送時間をT3とし、無音状態が運転者に違和感を与えることがない時間を、空白時間T4として設定したとき、前記先行時間τは、
τ=T2−(T1+T3+T4)
になる。なお、前記転送時間T3は音声データのデータ量に基づいて算出することができるが、一般に転送時間T3は短いので、一定の値にしたり、零(0)に近似したりすることができる。
In this case, the preceding time τ does not give the driver a sense of incongruity in the silent state that is formed after the reproduction of the audio data for the headline is finished and the reproduction of the audio data for the body 1 is started. Is set as follows. That is, when the time required to transfer the voice data for the headline, that is, the transfer time is T3 and the time when the silent state does not give the driver a sense of incongruity is set as the blank time T4, the preceding time τ is
τ = T2− (T1 + T3 + T4)
become. The transfer time T3 can be calculated based on the amount of audio data. However, since the transfer time T3 is generally short, it can be set to a constant value or approximate to zero (0).

続いて、前記音声出力制御部61の図示されない割込処理手段は、割込処理を行い、所定のタイミングt13で、音声合成装置44に内蔵された割込タイマの計時時間に前記先行時間τをセットし、タイマ割込みを起動し、割込タイマの計時を開始する。   Subsequently, an interrupt processing unit (not shown) of the voice output control unit 61 performs an interrupt process, and at a predetermined timing t13, the preceding time τ is added to the time measured by the interrupt timer built in the voice synthesizer 44. Set, start timer interrupt, and start counting the interrupt timer.

一方、前記本文処理手段は、前記タイミングt13で本文処理を開始する。そして、本文処理手段の言語解析処理手段は、タイミングt13で言語解析処理を開始し、本文1についての言語解析を行い、タイミングt14で言語解析処理を終了するとともに、本文処理手段の生成処理手段は、生成処理を開始し、前記言語解析の結果に基づいて、本文1についての音声データを生成して音声出力制御部61に送り、タイミングt15で生成処理を終了する。これに伴って、音声出力制御部61の前記記録処理手段は、記録処理を行い、本文1についての音声データを音声データバッファ64に記録する。   On the other hand, the text processing means starts text processing at the timing t13. The language analysis processing means of the text processing means starts the language analysis processing at timing t13, performs language analysis on the text 1, ends the language analysis processing at timing t14, and generates the text processing means of the text processing means. Then, the generation process is started, and based on the result of the language analysis, the voice data for the body 1 is generated and sent to the voice output control unit 61, and the generation process is terminated at timing t15. Along with this, the recording processing means of the audio output control unit 61 performs a recording process and records the audio data for the body 1 in the audio data buffer 64.

ところで、前記本文処理が行われている間に先行時間τが経過し、タイミングtxで前記割込タイマの計時が終了すると、前記割込処理手段の転送処理手段は、転送処理を開始し、音声データバッファ64から見出しについての音声データを読み出してサウンドドライバ63に転送し、DMA転送バッファ65に記録する。そして、タイミングtxから前記転送時間T3が経過して、タイミングtyで前記転送処理手段は転送処理を終了し、割込処理手段の再生処理手段は、再生処理を開始し、サウンドドライバ63によってスピーカ45を作動させ、見出しについての音声データを再生する。続いて、タイミングtyから再生時間T1が経過して、タイミングtzで前記再生処理手段は、再生処理を終了する。これに伴って、割込処理手段は割込処理を終了し、タイマ割込を停止させる。   By the way, when the preceding time τ elapses while the text processing is being performed and the time measurement of the interrupt timer ends at the timing tx, the transfer processing means of the interrupt processing means starts the transfer process, Audio data for the headline is read from the data buffer 64, transferred to the sound driver 63, and recorded in the DMA transfer buffer 65. When the transfer time T3 elapses from the timing tx, the transfer processing means ends the transfer processing at the timing ty, and the reproduction processing means of the interrupt processing means starts the reproduction processing. To play the audio data for the headline. Subsequently, the reproduction time T1 has elapsed from the timing ty, and the reproduction processing means ends the reproduction processing at the timing tz. Accordingly, the interrupt processing means ends the interrupt process and stops the timer interrupt.

続いて、前記音声出力制御部61の図示されない転送処理手段は、転送処理を開始し、タイミングt15で音声データバッファ64から本文1についての音声データを読み出してサウンドドライバ63に転送し、DMA転送バッファ65に記録する。そして、タイミングt16で前記転送処理手段が転送処理を終了すると、前記音声出力制御部61の図示されない再生処理手段は、再生処理を開始し、スピーカ45を作動させ、本文1についての音声データを再生する。   Subsequently, transfer processing means (not shown) of the audio output control unit 61 starts transfer processing, reads audio data for the body 1 from the audio data buffer 64 at timing t15, transfers it to the sound driver 63, and DMA transfer buffer. Record in 65. Then, when the transfer processing unit finishes the transfer process at timing t16, the reproduction processing unit (not shown) of the audio output control unit 61 starts the reproduction process, operates the speaker 45, and reproduces the audio data for the text 1. To do.

この場合、タイミングtzで見出しについての再生処理が終了されてから、タイミングt16で本文1についての再生処理が開始されるまでの空白時間T4だけ無音状態になる。   In this case, there is a silent state for the blank time T4 from the end of the reproduction process for the headline at timing tz to the start of the reproduction process for body 1 at timing t16.

続いて、前記本文処理手段は、前記タイミングt16で分割された本文の残りを本文2から順番に選択し、本文m(m=2、3、…、N)についての本文処理を開始する。そして、本文処理手段の前記言語解析処理手段は、本文mについての言語解析を行い、本文処理手段の前記生成処理手段は、本文mについての音声データを生成して音声出力制御部61に送り、これに伴って、前記記録処理手段は、本文mについての音声データを音声データバッファ64に記録する。   Subsequently, the text processing means selects the remainder of the text divided at the timing t16 in order from the text 2, and starts text processing for the text m (m = 2, 3,..., N). The language analysis processing means of the text processing means performs language analysis on the text m, and the generation processing means of the text processing means generates voice data for the text m and sends it to the voice output control unit 61. Along with this, the recording processing means records the audio data for the text m in the audio data buffer 64.

続いて、前記転送処理手段は、再生中の音声データがあるかどうかを判断し、再生中の音声データがない場合、音声データバッファ64から本文mについての音声データを読み出してサウンドドライバ63に転送し、DMA転送バッファ65に記録する。そして、前記再生処理手段は、サウンドドライバ63によってスピーカ45を作動させ、本文mについての音声データを再生する。   Subsequently, the transfer processing unit determines whether there is audio data being reproduced. If there is no audio data being reproduced, the transfer processing unit reads audio data for the body m from the audio data buffer 64 and transfers it to the sound driver 63. And recorded in the DMA transfer buffer 65. Then, the reproduction processing means activates the speaker 45 by the sound driver 63 and reproduces audio data for the text m.

次に、音声出力制御部61は、分割された本文iのすべてについての音声データが再生されたかどうかを判断し、分割された本文iのすべてについての音声データが再生された場合、次の文字ニュースがあるかどうかを判断し、次の文字ニュースがない場合は処理を終了する。   Next, the audio output control unit 61 determines whether or not the audio data for all of the divided text i has been reproduced, and when the audio data for all of the divided text i is reproduced, the next character It is determined whether or not there is news, and if there is no next character news, the process is terminated.

次に、図7〜9のフローチャートについて説明する。
ステップS21 ニュース本文を分割する。
ステップS22 読み上げる文字ニュースの見出しを選択する。
ステップS23 見出しについての言語解析を行う。
ステップS24 見出しについての音声データを作成する。
ステップS25 見出しについての音声データを音声データバッファ64に記録する。
ステップS26 見出しについての再生時間T1を算出する。
ステップS27 読み上げる文字ニュースの本文1を選択する。
ステップS28 本文処理時間算出処理を行う。
ステップS29 本文処理を開始するタイミングt13を算出する。
ステップS30 割込タイマの計時時間に先行時間τをセットする。
ステップS31 タイマ割込みを起動し、割込タイマの計時を開始する。
ステップS32 本文処理を開始する。
ステップS33 本文1についての言語解析を行う。
ステップS34 本文1についての音声データを生成する。
ステップS35 本文1についての音声データを音声データバッファ64に記録する。
ステップS36 タイマ割込を停止させる。
ステップS37 本文1についての音声データを再生する。
ステップS38 分割された本文の残りを本文2から順番に選択する。
ステップS39 本文mについての言語解析を行う。
ステップS40 本文mについての音声データを生成する。
ステップS41 本文mについての音声データを音声データバッファ64に記録する。
ステップS42 再生中の音声データがなくなるのを待機する。
ステップS43 本文mについての音声データを再生する。
ステップS44 分割された本文iのすべてについての音声データが再生されたかどうかを判断する。分割された本文iのすべてについての音声データが再生された場合はステップS45に進み、再生されていない場合はステップS38に戻る。
ステップS45 次の文字ニュースがあるかどうかを判断する。次の文字ニュースがある場合はステップS21に戻り、ない場合は処理を終了する。
Next, the flowcharts of FIGS. 7 to 9 will be described.
Step S21: Divide the news body.
Step S22: Select the headline of the text news to be read out.
Step S23: Perform language analysis on the headline.
Step S24: Create audio data for the headline.
Step S25: Record audio data for the headline in the audio data buffer 64.
Step S26 The reproduction time T1 for the headline is calculated.
Step S27 Select the text 1 of the text news to be read out.
Step S28 A text processing time calculation process is performed.
Step S29: Timing t13 for starting the text processing is calculated.
Step S30 The preceding time τ is set to the time measured by the interrupt timer.
Step S31: Start a timer interrupt and start counting the interrupt timer.
Step S32 The body process is started.
Step S33: Perform language analysis on the main body 1.
Step S34: Generate voice data for the main text 1.
Step S35 The audio data for the body 1 is recorded in the audio data buffer 64.
Step S36: Stop the timer interrupt.
Step S37 The audio data for the body 1 is reproduced.
Step S38: The remainder of the divided text is selected in order from the text 2.
Step S39: Perform language analysis on the body m.
Step S40: Generate voice data for the text m.
Step S41 Audio data for the body m is recorded in the audio data buffer 64.
Step S42 Wait until there is no audio data being reproduced.
Step S43 The audio data for the text m is reproduced.
Step S44: It is determined whether the audio data for all of the divided body i has been reproduced. If the audio data for all the divided text i has been reproduced, the process proceeds to step S45, and if not reproduced, the process returns to step S38.
Step S45: It is determined whether there is a next character news. If there is a next character news, the process returns to step S21, and if not, the process ends.

次に、図10のフローチャートについて説明する。
ステップS51 見出しについての音声データを転送する。
ステップS52 見出しについての音声データを再生し、リターンする。
Next, the flowchart of FIG. 10 will be described.
Step S51: Transfer the voice data for the headline.
Step S52: Audio data for the headline is reproduced and the process returns.

ところで、例えば、再生時間T1が長いか、又は本文処理時間T2が短いかして、前記先行時間τが負の値を採ることがあるが、この場合、図12に示されるように、先行時間τは零にされ、割込処理は行われず、前記本文処理手段は、所定のタイミングt13で本文処理を開始する。そして、本文処理手段の言語解析処理手段は、タイミングt13で言語解析処理を開始し、本文1についての言語解析を行い、タイミングt14で言語解析処理を終了するとともに、本文処理手段の生成処理手段は、生成処理を開始し、前記言語解析の結果に基づいて、本文1についての音声データを生成して音声出力制御部61に送り、タイミングt15で生成処理を終了する。これに伴って、前記記録処理手段は、記録処理を行い、本文1についての音声データを音声データバッファ64に記録し、音声出力制御部61の図示されない待機処理手段は、待機処理を行い、サウンドドライバ63を待機状態に置く。   Incidentally, for example, the preceding time τ may take a negative value because the reproduction time T1 is long or the text processing time T2 is short. In this case, as shown in FIG. τ is set to zero, interrupt processing is not performed, and the text processing means starts text processing at a predetermined timing t13. The language analysis processing means of the text processing means starts the language analysis processing at timing t13, performs language analysis on the text 1, ends the language analysis processing at timing t14, and generates the text processing means of the text processing means. Then, the generation process is started, and based on the result of the language analysis, the voice data for the body 1 is generated and sent to the voice output control unit 61, and the generation process is terminated at timing t15. Along with this, the recording processing means performs recording processing, records the audio data for the body 1 in the audio data buffer 64, and the standby processing means (not shown) of the audio output control unit 61 performs standby processing, The driver 63 is put on standby.

続いて、前記転送処理手段は、タイミングt15から所定の待機時間T5が経過すると、タイミングt16で音声データバッファ64から本文1についての音声データを読み出してサウンドドライバ63に転送し、DMA転送バッファ65に記録する。そして、タイミングt17で前記転送処理手段が転送処理を終了すると、前記再生処理手段は、サウンドドライバ63によってスピーカ45を作動させ、本文1についての音声データを再生する。   Subsequently, when a predetermined waiting time T5 elapses from the timing t15, the transfer processing means reads the audio data for the body 1 from the audio data buffer 64 at the timing t16, transfers it to the sound driver 63, and transfers it to the DMA transfer buffer 65. Record. Then, when the transfer processing means finishes the transfer process at timing t17, the reproduction processing means operates the speaker 45 by the sound driver 63 to reproduce the audio data for the text 1.

一方、前記タイミングt13で前記転送処理手段は、音声データバッファ64から見出しについての音声データを読み出してサウンドドライバ63に転送し、DMA転送バッファ65に記録する。そして、タイミングt13から前記転送時間T3が経過して、タイミングtyで前記転送処理手段は転送処理を終了し、前記再生処理手段は、サウンドドライバ63によってスピーカ45を作動させ、見出しについての音声データを再生する。続いて、タイミングtyから再生時間T1が経過して、タイミングtzで前記再生処理手段は再生処理を終了する。   On the other hand, at the timing t <b> 13, the transfer processing means reads the audio data for the heading from the audio data buffer 64, transfers it to the sound driver 63, and records it in the DMA transfer buffer 65. Then, the transfer time T3 elapses from the timing t13, the transfer processing means ends the transfer processing at the timing ty, the reproduction processing means operates the speaker 45 by the sound driver 63, and the audio data about the headline is obtained. Reproduce. Subsequently, the reproduction time T1 elapses from the timing ty, and the reproduction processing means ends the reproduction processing at the timing tz.

この場合、見出しについての再生処理が終了するタイミングtzより前のタイミングt15で本文1についての生成処理が終了しているので、所定の待機時間T5が経過するまで本文1についての音声データの転送が待機させられる。   In this case, since the generation process for the text 1 is completed at a timing t15 before the timing tz when the reproduction process for the headline is completed, the audio data for the text 1 is transferred until a predetermined waiting time T5 elapses. It is made to wait.

また、見出しについての再生処理が終了するタイミングtzから、本文1についての再生処理が開始されるタイミングt17までの空白時間T4だけ無音状態になる。   Also, the silent state is set for the blank time T4 from the timing tz at which the reproduction processing for the headline ends to the timing t17 at which the reproduction processing for the body 1 is started.

このように、本実施の形態においては、見出しについての再生時間T1、及び本文1についての本文処理時間T2に基づいて、先行時間τが算出され、本文1についての本文処理を開始するタイミングが調整され、見出しについての音声データが転送され、再生される前に、本文1についての本文処理が開始される。したがって、見出しについての再生処理が終了した後、適度な空白時間T4をおいて、本文1についての再生処理が開始されることになるので、無音状態が形成されることによって操作者に違和感を与えることがない。   Thus, in the present embodiment, the preceding time τ is calculated based on the reproduction time T1 for the headline and the text processing time T2 for the text 1, and the timing for starting the text processing for the text 1 is adjusted. Then, before the audio data for the headline is transferred and reproduced, the text processing for the text 1 is started. Therefore, after the reproduction process for the headline is completed, the reproduction process for the main text 1 is started after an appropriate blank time T4, so that the operator feels uncomfortable by forming a silent state. There is nothing.

次に、図7のステップS28における本文処理時間算出処理のサブルーチンについて説明する。   Next, a subroutine for the text processing time calculation process in step S28 in FIG. 7 will be described.

図13は本発明の第1の実施の形態における本文処理時間算出処理のサブルーチンを示す図、図14は本発明の第1の実施の形態における言語解析時間テーブルを示す図、図15は本発明の第1の実施の形態における生成時間テーブルを示す図である。   FIG. 13 is a diagram showing a subroutine for text processing time calculation processing in the first embodiment of the present invention, FIG. 14 is a diagram showing a language analysis time table in the first embodiment of the present invention, and FIG. It is a figure which shows the production | generation time table in 1st Embodiment of this.

まず、前記本文処理時間算出処理手段の言語解析時間算出処理手段は、言語解析時間算出処理を行い、音声合成装置44(図4)に内蔵された図示されないRAMの図14に示される言語解析時間テーブルを参照し、本文1の文字列の文字数に対応する言語解析時間Tanを算出する。この場合、前記言語解析時間テーブルにおいて、言語解析時間Tanは一次関数で表されないので、次のような補間を行うことによって言語解析時間Tanを算出する。   First, the language analysis time calculation processing means of the text processing time calculation processing means performs language analysis time calculation processing, and the language analysis time shown in FIG. 14 of the RAM (not shown) built in the speech synthesizer 44 (FIG. 4). With reference to the table, the language analysis time Tan corresponding to the number of characters in the character string of the body 1 is calculated. In this case, since the language analysis time Tan is not represented by a linear function in the language analysis time table, the language analysis time Tan is calculated by performing the following interpolation.

例えば、本文1の文字列の文字数H1が50〔文字〕である場合、言語解析時間テーブルにおいては、32〔文字〕と64〔文字〕との間に位置するので、32〔文字〕と64〔文字〕との中間の文字数を基準文字数Hbとすると、該基準文字数Hbは、
Hb=(32+64)/2
=48
であり、32〔文字〕に対応する言語解析時間300〔ms〕と64〔文字〕に対応する言語解析時間600〔ms〕との中間の言語解析時間を基準言語解析時間Tansとすると、該基準言語解析時間Tansは、
Tans=(300+600)/2
=450〔ms〕
である。したがって、前記基準文字数Hbに対する前記文字数H1の比に基づいて言語解析時間Tan
Tan=(H1/Hb)・Tans
=(50/48)×450
≒469〔ms〕
を算出することができる。
For example, when the number of characters H1 of the character string of the body 1 is 50 [characters], the language analysis time table is located between 32 [characters] and 64 [characters], so that 32 [characters] and 64 [characters] are located. If the number of characters in the middle of the character] is the reference character number Hb, the reference character number Hb is
Hb = (32 + 64) / 2
= 48
When the language analysis time intermediate between the language analysis time 300 [ms] corresponding to 32 [characters] and the language analysis time 600 [ms] corresponding to 64 [characters] is defined as the reference language analysis time Tans, Language analysis time Tans is
Tans = (300 + 600) / 2
= 450 [ms]
It is. Accordingly, the language analysis time Tan based on the ratio of the number of characters H1 to the reference number of characters Hb.
Tan = (H1 / Hb) · Tans
= (50/48) x 450
≈ 469 [ms]
Can be calculated.

また、言語解析時間テーブルを利用することなく、言語解析時間Tanを算出することができる。その場合、例えば、言語解析時間Tanと文字数とが比例するとして、1〔文字〕当たりの言語解析時間が15〔ms〕である場合、言語解析時間Tanは、
Tan=15×50
=750〔ms〕
になる。
Further, the language analysis time Tan can be calculated without using the language analysis time table. In this case, for example, when the language analysis time Tan is proportional to the number of characters, and the language analysis time per [character] is 15 [ms], the language analysis time Tan is
Tan = 15 × 50
= 750 [ms]
become.

続いて、前記本文処理時間算出処理手段の生成時間算出処理手段は、生成時間算出処理を行い、音声合成装置44に内蔵された前記RAMの図15に示される生成時間テーブルを参照し、本文1の文字列の文字数に対応する生成時間Tdtを算出する。この場合、前記生成時間テーブルにおいて、生成時間Tdtは一次関数で表されないので、次のような補間を行うことによって生成時間Tdtを算出する。   Subsequently, the generation time calculation processing means of the text processing time calculation processing means performs generation time calculation processing, refers to the generation time table shown in FIG. A generation time Tdt corresponding to the number of characters of the character string is calculated. In this case, since the generation time Tdt is not represented by a linear function in the generation time table, the generation time Tdt is calculated by performing the following interpolation.

例えば、本文1の文字列の文字数H1が50〔文字〕である場合、生成時間テーブルにおいては、32〔文字〕と64〔文字〕との間に位置するので、32〔文字〕と64〔文字〕との中間の文字数を基準文字数Hbとすると、該基準文字数Hbは、
Hb=(32+64)/2
=48
であり、32〔文字〕に対応する生成時間700〔ms〕と64〔文字〕に対応する生成時間1400〔ms〕との中間の生成時間を基準生成時間Tdtsとすると、該基準生成時間Tdtsは、
Tdts=(700+1400)/2
=1050〔ms〕
である。したがって、前記基準文字数Hbに対する前記文字数H1の比に基づいて生成時間Tdt
Tdt=(H1/Hb)・Tdts
=(50/48)×1050
≒1094〔ms〕
を算出することができる。
For example, when the number of characters H1 of the character string of the text 1 is 50 [characters], it is located between 32 [characters] and 64 [characters] in the generation time table. ], If the number of characters in between is the reference character number Hb, the reference character number Hb is
Hb = (32 + 64) / 2
= 48
If the intermediate generation time between the generation time 700 [ms] corresponding to 32 [characters] and the generation time 1400 [ms] corresponding to 64 [characters] is the reference generation time Tdts, the reference generation time Tdts is ,
Tdts = (700 + 1400) / 2
= 1050 [ms]
It is. Therefore, the generation time Tdt based on the ratio of the number of characters H1 to the reference number of characters Hb.
Tdt = (H1 / Hb) · Tdts
= (50/48) x 1050
≈ 1094 [ms]
Can be calculated.

また、生成時間テーブルを利用することなく、生成時間Tdtを算出することができる。その場合、例えば、生成時間Tdtと文字数とが比例するとして、1〔文字〕当たりの生成時間が30〔ms〕である場合、生成時間Tdtは、
Tdt=30×50
=1500〔ms〕
になる。
Further, the generation time Tdt can be calculated without using the generation time table. In this case, for example, if the generation time Tdt is proportional to the number of characters, and the generation time per [character] is 30 [ms], the generation time Tdt is
Tdt = 30 × 50
= 1500 [ms]
become.

続いて、前記本文処理時間算出処理手段の転送時間算出処理手段は、転送時間算出処理を行い、音声合成装置44に内蔵された前記RAMの図示されない転送時間テーブルを参照し、本文1の文字列の文字数に対応する転送時間Tfdを算出する。   Subsequently, the transfer time calculation processing means of the text processing time calculation processing means performs a transfer time calculation process, refers to a transfer time table (not shown) of the RAM built in the speech synthesizer 44, and reads the character string of the text 1 The transfer time Tfd corresponding to the number of characters is calculated.

なお、転送時間Tfdは一般に短いので、一定の値にしたり、零に近似したりすることができる。   Since the transfer time Tfd is generally short, it can be set to a constant value or approximate to zero.

次に、前記本文処理時間算出処理手段の合算処理手段は、合算処理を行い、本文処理時間T2
T2=Tan+Tdt+Tfd
を算出する。
Next, the summation processing means of the text processing time calculation processing means performs summation processing, and the text processing time T2
T2 = Tan + Tdt + Tfd
Is calculated.

次に、フローチャートについて説明する。
ステップS28−1 本文1についての言語解析時間Tanを算出する。
ステップS28−2 本文1についての生成時間Tdtを算出する。
ステップS28−3 本文1についての音声データの転送時間Tfdを算出する。
ステップS28−4 本文処理時間T2を算出し、リターンする。
Next, a flowchart will be described.
Step S28-1: The language analysis time Tan for the text 1 is calculated.
Step S28-2: The generation time Tdt for the text 1 is calculated.
Step S28-3: The audio data transfer time Tfd for the body 1 is calculated.
Step S28-4: Calculate the text processing time T2 and return.

次に、本発明の第2の実施の形態について説明する。なお、第1の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略し、同じ構造を有することによる発明の効果については同実施の形態の効果を援用する。   Next, a second embodiment of the present invention will be described. In addition, about the thing which has the same structure as 1st Embodiment, the description is abbreviate | omitted by providing the same code | symbol, and the effect of the same embodiment is used about the effect of the invention by having the same structure. .

図16は本発明の第2の実施の形態における音声出力部の動作を示す第1のフローチャート、図17は本発明の第2の実施の形態における音声出力部の動作を示す第2のフローチャート、図18は本発明の第2の実施の形態における音声合成機能部及びサウンドドライバの動作を示す第1のタイムチャート、図19は本発明の第2の実施の形態における音声合成機能部及びサウンドドライバの動作を示す第2のタイムチャートである。   16 is a first flowchart showing the operation of the audio output unit in the second embodiment of the present invention, and FIG. 17 is a second flowchart showing the operation of the audio output unit in the second embodiment of the present invention. FIG. 18 is a first time chart showing operations of the speech synthesis function unit and sound driver in the second embodiment of the present invention, and FIG. 19 is a speech synthesis function unit and sound driver in the second embodiment of the present invention. It is a 2nd time chart which shows this operation | movement.

まず、演算装置及び制御装置としてのCPU31(図4)から文字ニュースを受信すると、音声出力制御処理手段としての音声出力制御部61は、文字ニュースを音声合成処理手段としての音声合成機能部62に送信する。   First, when the character news is received from the CPU 31 (FIG. 4) as the arithmetic device and the control device, the voice output control unit 61 as the voice output control processing means sends the character news to the voice synthesis function unit 62 as the voice synthesis processing means. Send.

続いて、前記音声合成機能部62の前記導入部処理手段は、導入部処理を行い、該導入部処理手段の言語解析処理手段は、読み上げる文字ニュースの導入部としての見出しを選択し、タイミングt20で言語解析処理を開始し、見出しについての言語解析を行い、タイミングt21で言語解析処理を終了するとともに、導入部処理手段の生成処理手段は、生成処理を開始し、前記言語解析の結果に基づいて、見出しについての音声データを生成して音声出力制御部61に送り、タイミングt22で生成処理を終了する。これに伴って、音声出力制御部61の前記記録処理手段は、記録処理を行い、見出しについての音声データを第1の音声データ記録部としての音声データバッファ64に記録する。   Subsequently, the introduction unit processing unit of the speech synthesis function unit 62 performs introduction unit processing, and the language analysis processing unit of the introduction unit processing unit selects a headline as an introduction unit of the text news to be read, and timing t20 Starts the language analysis process, performs the language analysis on the headline, ends the language analysis process at timing t21, and the generation processing unit of the introduction unit processing unit starts the generation process, based on the result of the language analysis. Then, the audio data for the headline is generated and sent to the audio output control unit 61, and the generation process ends at timing t22. Along with this, the recording processing means of the audio output control unit 61 performs a recording process, and records the audio data about the heading in the audio data buffer 64 as the first audio data recording unit.

次に、音声合成機能部62の前記再生時間算出処理手段は、再生時間算出処理を行い、音声出力の対象となる読み上げる文字ニュースの見出しを選択し、見出しについての再生時間T11を算出する。   Next, the playback time calculation processing means of the speech synthesis function unit 62 performs playback time calculation processing, selects a headline of the text news to be read out as a speech output target, and calculates a playback time T11 for the headline.

そして、前記音声合成機能部62の図示されない分割処理手段は、分割処理を行い、読み上げる文字ニュースの本体部としてのニュース本文を選択し、続いて、前記分割処理手段の先頭分割位置設定処理手段は、先頭分割位置設定処理を行い、前記文字ニュースのニュース本文を複数の本文j(j=1、2、…、m−1、m、m+1、…、M)に分割したときに、前記再生時間T11に対応させて、想定される適正な本体部処理時間としての本文処理時間T12が形成されるように、理想的な先頭分割位置で本文1をニュース本文から分割する。なお、Mは2以上の整数である。   Then, the division processing means (not shown) of the speech synthesis function unit 62 performs division processing, selects the news body as the main body of the text news to be read, and then the head division position setting processing means of the division processing means When the head division position setting process is performed and the news body of the text news is divided into a plurality of body texts j (j = 1, 2,..., M−1, m, m + 1,..., M), the playback time Corresponding to T11, the body 1 is divided from the news body at an ideal head division position so that the body processing time T12 as an appropriate proper main body processing time is formed. M is an integer of 2 or more.

続いて、前記分割処理手段の図示されない後続分割処理手段は、後続分割処理を行い、ニュース本文の残りを適切な箇所で、かつ、適切な数に分割する。このようにして、ニュース本文を複数の本文jに分割することができる。なお、ニュース本文の残りを分割するに当たり、あらかじめ設定された値、例えば、第1の実施の形態において前記音声合成機能部62に設定された一括処理可能最大数(例えば、128〔文字〕)にすることができる。また、先頭分割位置設定処理と同じ手法で、現在の本文mについての再生時間及び次の本文m+1についての本文処理時間に基づいて、分割位置を設定し、本文mをニュース本文の残りから分割することができる。なお、前記見出し及び各本文jによって各セクションが構成される。   Subsequently, a subsequent division processing unit (not shown) of the division processing unit performs a subsequent division process, and divides the remainder of the news body into an appropriate number and an appropriate number. In this way, the news text can be divided into a plurality of texts j. In dividing the remainder of the news body, a predetermined value, for example, the maximum batch processable number (for example, 128 [character]) set in the speech synthesis function unit 62 in the first embodiment is used. can do. Also, by using the same method as the start division position setting process, the division position is set based on the playback time for the current body m and the body processing time for the next body m + 1, and the body m is divided from the rest of the news body. be able to. Each section is constituted by the heading and each body text j.

次に、音声出力制御部61の転送処理手段は、転送処理を開始し、音声データバッファ64から見出しについての音声データを読み出し、音声出力駆動処理手段としてのサウンドドライバ63に転送し、サウンドドライバ63の第2の音声データ記録部としてのDMA転送バッファ65に記録する。そして、タイミングt23で前記転送処理手段は転送処理を終了し、音声出力制御部61の前記再生処理手段は、再生処理を開始し、サウンドドライバ63によってスピーカ45を作動させ、見出しについての音声データを再生する。続いて、タイミングt23から再生時間T11が経過して、タイミングtdで前記再生処理手段は再生処理を終了する。   Next, the transfer processing means of the audio output control unit 61 starts the transfer process, reads the audio data for the heading from the audio data buffer 64, transfers it to the sound driver 63 as the audio output drive processing means, and the sound driver 63. Is recorded in the DMA transfer buffer 65 as the second audio data recording unit. Then, at timing t23, the transfer processing unit ends the transfer process, and the reproduction processing unit of the audio output control unit 61 starts the reproduction process, operates the speaker 45 by the sound driver 63, and outputs the audio data about the heading. Reproduce. Subsequently, the reproduction time T11 elapses from the timing t23, and the reproduction processing means ends the reproduction processing at the timing td.

一方、前記音声合成機能部62の本体部処理手段としての本文処理手段は、本体部処理としての本文処理を行い、本文jを本文1から順番に選択し、本文jについての本文処理を開始する。そして、本文処理手段の言語解析処理手段は、言語解析処理を開始し、本文jについての言語解析を行い、言語解析処理を終了するとともに、本文処理手段の生成処理手段は、生成処理を開始し、前記言語解析の結果に基づいて、本文jについての音声データを生成して音声出力制御部61に送り、生成処理を終了する。これに伴って、音声出力制御部61の前記記録処理手段は、本文jについての音声データを音声データバッファ64に記録する。   On the other hand, the text processing unit as the main body processing unit of the speech synthesis function unit 62 performs the text processing as the main body processing, selects the text j sequentially from the text 1, and starts text processing on the text j. . Then, the language analysis processing means of the text processing means starts language analysis processing, performs language analysis on the text j, ends the language analysis processing, and the generation processing means of the text processing means starts generation processing. Based on the result of the language analysis, voice data for the body text j is generated and sent to the voice output control unit 61, and the generation process is terminated. Along with this, the recording processing means of the audio output control unit 61 records audio data for the text j in the audio data buffer 64.

続いて、前記音声出力制御部61の前記転送処理手段は、音声データバッファ64から本文jについての音声データを読み出してサウンドドライバ63に転送し、DMA転送バッファ65に記録する。そして、前記転送処理手段が転送処理を終了すると、音声出力制御部61の前記再生処理手段は、再生処理を開始し、サウンドドライバ63によってスピーカ45を作動させ、本文jについての音声データを再生する。   Subsequently, the transfer processing means of the audio output control unit 61 reads the audio data for the text j from the audio data buffer 64, transfers it to the sound driver 63, and records it in the DMA transfer buffer 65. When the transfer processing unit finishes the transfer process, the reproduction processing unit of the audio output control unit 61 starts the reproduction process, operates the speaker 45 by the sound driver 63, and reproduces the audio data of the text j. .

次に、音声出力制御部61は、分割された本文jのすべてについての音声データが再生されたかどうかを判断し、分割された本文jのすべてについての音声データが再生された場合、次の文字ニュースがあるかどうかを判断し、次の文字ニュースがない場合、処理を終了する。   Next, the audio output control unit 61 determines whether or not the audio data for all of the divided text j is reproduced, and when the audio data for all of the divided text j is reproduced, the next character It is determined whether or not there is news. If there is no next character news, the process is terminated.

この場合、見出しについての再生処理が終了するタイミングtdから、本文1についての再生処理が開始されるタイミングteまでの空白時間T14だけ無音状態になる。   In this case, there is a silent state for the blank time T14 from the timing td when the reproduction processing for the headline ends to the timing te when the reproduction processing for the body 1 is started.

本実施の形態においては、図19に示されるように、見出しについての再生時間T11が長くなると、それに対応させて本文1の文字列の文字数が多くされ、本文処理時間T12が長くされる。   In the present embodiment, as shown in FIG. 19, when the reproduction time T11 for the headline becomes longer, the number of characters in the character string of the body 1 is increased correspondingly, and the body processing time T12 is extended.

このように、本実施の形態においては、見出しについての再生時間T11が算出され、該再生時間T11に対応させて本文1の文字列の文字数が決定され、本文1がニュース本文から分割されるので、見出しについての再生処理が終了した後、適度な空白時間T14をおいて、本文1についての再生処理が開始されることになるので、無音状態が形成されることによって操作者に違和感を与えることがない。   Thus, in the present embodiment, the playback time T11 for the headline is calculated, the number of characters in the character string of the text 1 is determined in correspondence with the playback time T11, and the text 1 is divided from the news text. After the reproduction process for the headline is finished, the reproduction process for the main text 1 is started after an appropriate blank time T14, which makes the operator feel uncomfortable by forming a silent state. There is no.

次に、図16及び17のフローチャートについて説明する。
ステップS61 読み上げる文字ニュースの見出しを選択する。
ステップS62 見出しについての言語解析を行う。
ステップS63 見出しについての音声データを作成する。
ステップS64 見出しについての音声データを音声データバッファ64に記録する。
ステップS65 見出しについての再生時間T11を算出する。
ステップS66 読み上げる文字ニュースのニュース本文を選択する。
ステップS67 先頭分割位置設定処理を行う。
ステップS68 ニュース本文の残りを適切な箇所で分割する。
ステップS69 見出しについての音声データを再生する。
ステップS70 本文jを本文1から順番に選択する。
ステップS71 本文jについての文章解析を行う。
ステップS72 本文jについての音声データを作成する。
ステップS73 本文jについての音声データを音声データバッファ64に記録する。
ステップS74 再生中の本文がなくなるのを待機する。
ステップS75 本文jについての音声データを再生する。
ステップS76 分割された本文jのすべてについての音声データを再生したかどうかを判断する。分割された本文jのすべてについての音声データを再生した場合はステップS77に進み、再生していない場合はステップS70に戻る。
ステップS77 次の文字ニュースがあるかどうかを判断する。次の文字ニュースがある場合はステップS61に戻り、ない場合は処理を終了する。
Next, the flowcharts of FIGS. 16 and 17 will be described.
Step S61: Select the headline of the text news to be read out.
Step S62: Perform language analysis on the headline.
Step S63 Create voice data for the headline.
Step S64: Record audio data for the headline in the audio data buffer 64.
Step S65 The reproduction time T11 for the headline is calculated.
Step S66: Select the news text of the text news to be read out.
Step S67 A head division position setting process is performed.
Step S68: The remainder of the news text is divided at an appropriate location.
Step S69 The audio data for the headline is reproduced.
Step S70: Select the text j from the text 1 in order.
Step S71: Text analysis is performed on the text j.
Step S72: Create voice data for the text j.
Step S73: Record audio data for the body text j in the audio data buffer 64.
Step S74 Wait for the text being reproduced to disappear.
Step S75 The audio data for the text j is reproduced.
Step S76: It is determined whether the audio data for all of the divided body text j has been reproduced. If the audio data for all of the divided text j has been reproduced, the process proceeds to step S77, and if not reproduced, the process returns to step S70.
Step S77: It is determined whether there is a next character news. If there is a next character news, the process returns to step S61, and if not, the process ends.

次に、図16のステップS67における分割先頭位置設定処理のサブルーチンについて説明する。   Next, a subroutine for the division head position setting process in step S67 of FIG. 16 will be described.

図20は本発明の第2の実施の形態における先頭分割位置設定処理のサブルーチンを示す図、図21は本発明の第2の実施の形態における第1の文字数算出テーブルを示す図、図22は本発明の第2の実施の形態における第2の文字数算出テーブルを示す図である。   FIG. 20 is a diagram showing a subroutine for starting division position setting processing in the second embodiment of the present invention, FIG. 21 is a diagram showing a first character number calculation table in the second embodiment of the present invention, and FIG. It is a figure which shows the 2nd character number calculation table in the 2nd Embodiment of this invention.

この場合、前記先頭分割位置設定処理手段の最適処理時間算出処理手段は、最適処理時間算出処理を行い、再生時間T11を読み込み、該再生時間T11に基づいて、本文1についての最適な本文処理時間T12を算出する。この場合、見出しについての音声データを再生している間に、本文1についての本文処理を行った場合に、運転者に違和感を与えることがない最適な空間時間T14を設定し、本文処理時間T12
T12=T11+T14
を算出する。
In this case, the optimum processing time calculation processing means of the head division position setting processing means performs optimum processing time calculation processing, reads the reproduction time T11, and based on the reproduction time T11, the optimum body text processing time for the body 1 T12 is calculated. In this case, an optimal space time T14 that does not give the driver a sense of incongruity is set when the text processing for the text 1 is performed while the audio data for the headline is being reproduced, and the text processing time T12 is set.
T12 = T11 + T14
Is calculated.

続いて、前記先頭分割位置設定処理手段の文字数算出処理手段は、文字数算出処理を行い、音声合成装置44(図4)に内蔵された前記RAMの図21に示される第1の文字数算出テーブル、及び図22に示される第2の文字数算出テーブルを参照し、前記本文処理時間T12で本文処理を行うのに適した文字数を処理変量として算出する。なお、前記第1、第2の文字数算出テーブルは、第1の実施の形態における言語解析時間テーブル及び生成時間テーブルと実質的に同じであるので、言語解析時間テーブル及び生成時間テーブルを使用することができる。   Subsequently, the character number calculation processing means of the head division position setting processing means performs a character number calculation process, and a first character number calculation table shown in FIG. 21 of the RAM built in the speech synthesizer 44 (FIG. 4), Then, referring to the second character count calculation table shown in FIG. 22, the number of characters suitable for text processing at the text processing time T12 is calculated as a processing variable. The first and second character count calculation tables are substantially the same as the language analysis time table and the generation time table in the first embodiment, and therefore the language analysis time table and the generation time table are used. Can do.

ここで、本文処理時間T12が5〔s〕であり、空間時間T14が1〔s〕である場合に、本文1についての言語解析時間Tanが600〜1500〔ms〕の間の値を採り、生成時間Tdtが1400〜2750〔ms〕の間の値を採るように本文1をニュース本文から分割しようとする場合、第1の文字数算出テーブルにおいて、600〔ms〕と1500〔ms〕との中間の言語解析時間を表す基準言語解析時間Tansは、
Tans=(600+1500)/2
=1050〔ms〕 であり、該基準言語解析時間Tansに対応する基準文字数Hbは、
Hb=(64+128)/2
=96〔文字〕
になる。
Here, when the text processing time T12 is 5 [s] and the space time T14 is 1 [s], the language analysis time Tan for the text 1 takes a value between 600 and 1500 [ms], When the main text 1 is to be divided from the news text so that the generation time Tdt takes a value between 1400 and 2750 [ms], in the first character count calculation table, an intermediate value between 600 [ms] and 1500 [ms]. The reference language analysis time Tans representing the language analysis time of
Tans = (600 + 1500) / 2
= 1050 [ms] and the reference character number Hb corresponding to the reference language analysis time Tans is
Hb = (64 + 128) / 2
= 96 [characters]
become.

したがって、本文1の文字数をH1〔文字〕としたとき、前記基準文字数Hbに対する前記文字数H1の比に基づいて、言語解析時間Tanは、
Tan=(H1/Hb)・Tans
=(H1/96)×1050 ……(1)
になる。
Therefore, when the number of characters of the body 1 is H1 [character], the language analysis time Tan is based on the ratio of the number of characters H1 to the reference number of characters Hb.
Tan = (H1 / Hb) · Tans
= (H1 / 96) x 1050 (1)
become.

また、本文1の文字列の文字数がH1〔文字〕である場合、第2の文字数算出テーブルにおいて、1400〔ms〕と2750〔ms〕との中間の生成時間を表す基準生成時間Tdtsは、
Tdts=(1400+2750)/2
=2075〔ms〕
であり、該基準生成時間Tdtsに対応する基準文字数Hbは、
Hb=(64+128)/2
=96〔文字〕
になる。
Further, when the number of characters of the character string of body 1 is H1 [characters], in the second character number calculation table, the reference generation time Tdts representing the generation time intermediate between 1400 [ms] and 2750 [ms] is
Tdts = (1400 + 2750) / 2
= 2075 [ms]
The reference character number Hb corresponding to the reference generation time Tdts is
Hb = (64 + 128) / 2
= 96 [characters]
become.

したがって、本文1の文字数をH1〔文字〕としたとき、前記基準文字数Hbに対する前記文字数H1の比に基づいて、生成時間Tdtは、
Tdt=(H1/Hb)・Tdts
=(H1/96)×2075 ……(2)
になる。
Therefore, when the number of characters of the body 1 is H1 [character], the generation time Tdt is based on the ratio of the number of characters H1 to the reference number of characters Hb.
Tdt = (H1 / Hb) · Tdts
= (H1 / 96) x 2075 (2)
become.

また、本文処理時間T12は、
T12=T11+T14
であるので、再生時間T11は、
T11=T12−T14
=5−1
=4〔s〕
になる。そして、再生時間T11は、近似的に
T11=Tan+Tdt
であるので、
Tan+Tdt=4〔s〕 ……(3)
になり、式(1)〜(3)から言語解析時間Tanは、
Tan=0.81〔s〕
になり、生成時間Tdtは、
Tdt=3.19〔s〕
になる。そして、文字数H1は、
H1≒74〔文字〕
になる。
The text processing time T12 is
T12 = T11 + T14
Therefore, the playback time T11 is
T11 = T12-T14
= 5-1
= 4 [s]
become. The reproduction time T11 is approximately T11 = Tan + Tdt
So
Tan + Tdt = 4 [s] (3)
From the expressions (1) to (3), the language analysis time Tan is
Tan = 0.81 [s]
And the generation time Tdt is
Tdt = 3.19 [s]
become. And the number of characters H1 is
H1 ≒ 74 [characters]
become.

なお、この場合、再生時間T11を、近似的に言語解析時間Tan及び生成時間Tdtの和で表し、転送時間Tfdを近似的に零にしているが、言語解析時間Tan、生成時間Tdt及び転送時間Tfdの和で表すこともできる。その場合、前記転送時間Tfdを文字列の文字数に対する変数で表したり、一定値で表したりすることができる。   In this case, the reproduction time T11 is approximately represented by the sum of the language analysis time Tan and the generation time Tdt, and the transfer time Tfd is approximately zero, but the language analysis time Tan, the generation time Tdt, and the transfer time. It can also be expressed as the sum of Tfd. In this case, the transfer time Tfd can be expressed as a variable with respect to the number of characters in the character string or as a constant value.

続いて、前記先頭分割位置設定処理手段の言語解析処理手段は、言語解析処理を行い、ニュース本文についての言語解析を行い、ニュース本文から本文1を分割する。   Subsequently, the language analysis processing means of the head division position setting processing means performs language analysis processing, performs language analysis on the news text, and divides the text 1 from the news text.

次に、フローチャートについて説明する。
ステップS67−1 本文1についての最適な本文処理時間T12を算出する。
ステップS67−2 本文処理を行うのに適した文字数を処理変量として算出する。
ステップS67−3 ニュース本文についての言語解析を行う。
ステップS67−4 ニュース本文から本文1を分割し、リターンする。
Next, a flowchart will be described.
Step S67-1: The optimum text processing time T12 for the text 1 is calculated.
Step S67-2: The number of characters suitable for text processing is calculated as a processing variable.
Step S67-3: Perform language analysis on the news text.
Step S67-4: Divide the body 1 from the news body and return.

各実施の形態においては、ナビゲーション装置14において、スピーカ45を使用して音声出力を行う例について説明したが、他の実施の形態においては、携帯電話、PHS等の移動電話、又は携帯用コンピュータ、個人用携帯情報端末、電子手帳等の携帯端末装置において、イヤホン、ヘッドホン等を使用して音声出力を行うこともできる。   In each embodiment, an example in which the navigation device 14 performs audio output using the speaker 45 has been described. However, in other embodiments, a mobile phone such as a mobile phone, a PHS, or a portable computer, In portable terminal devices such as personal portable information terminals and electronic notebooks, it is possible to output sound using earphones, headphones, or the like.

なお、本発明は前記実施の形態に限定されるものではなく、本発明の趣旨に基づいて種々変形させることが可能であり、それらを本発明の範囲から排除するものではない。   In addition, this invention is not limited to the said embodiment, It can change variously based on the meaning of this invention, and does not exclude them from the scope of the present invention.

本発明の第1の実施の形態におけるナビゲーションシステムを示すブロック図である。It is a block diagram which shows the navigation system in the 1st Embodiment of this invention. 従来の音声出力制御部の動作を説明する図である。It is a figure explaining operation | movement of the conventional audio | voice output control part. 従来の音声合成機能部及びサウンドドライバの動作を示すタイムチャートである。It is a time chart which shows the operation | movement of the conventional speech synthesis function part and a sound driver. 本発明の第1の実施の形態における音声出力部を説明するブロック図である。It is a block diagram explaining the audio | voice output part in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるナビゲーション装置において文字ニュースを取得する際の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of acquiring a character news in the navigation apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における情報センタにおいて文字ニュースを送信する際の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of transmitting a text news in the information center in the 1st Embodiment of this invention. 本発明の第1の実施の形態における音声出力部の動作を示す第1のフローチャートである。It is a 1st flowchart which shows operation | movement of the audio | voice output part in the 1st Embodiment of this invention. 本発明の第1の実施の形態における音声出力部の動作を示す第2のフローチャートである。It is a 2nd flowchart which shows operation | movement of the audio | voice output part in the 1st Embodiment of this invention. 本発明の第1の実施の形態における音声出力部の動作を示す第3のフローチャートである。It is a 3rd flowchart which shows the operation | movement of the audio | voice output part in the 1st Embodiment of this invention. 本発明の第1の実施の形態における割込処理手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the interruption process means in the 1st Embodiment of this invention. 本発明の第1の実施の形態における音声合成機能部及びサウンドドライバの動作を示す第1のタイムチャートである。It is a 1st time chart which shows the operation | movement of the speech synthesis function part and sound driver in the 1st Embodiment of this invention. 本発明の第1の実施の形態における音声合成機能部及びサウンドドライバの動作を示す第2のタイムチャートである。It is a 2nd time chart which shows the operation | movement of the speech synthesis function part and sound driver in the 1st Embodiment of this invention. 本発明の第1の実施の形態における本文処理時間算出処理のサブルーチンを示す図である。It is a figure which shows the subroutine of the text processing time calculation process in the 1st Embodiment of this invention. 本発明の第1の実施の形態における言語解析時間テーブルを示す図である。It is a figure which shows the language analysis time table in the 1st Embodiment of this invention. 本発明の第1の実施の形態における生成時間テーブルを示す図である。It is a figure which shows the production | generation time table in the 1st Embodiment of this invention. 本発明の第2の実施の形態における音声出力部の動作を示す第1のフローチャートである。It is a 1st flowchart which shows operation | movement of the audio | voice output part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における音声出力部の動作を示す第2のフローチャートである。It is a 2nd flowchart which shows operation | movement of the audio | voice output part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における音声合成機能部及びサウンドドライバの動作を示す第1のタイムチャートである。It is a 1st time chart which shows the operation | movement of the speech synthesis function part and sound driver in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における音声合成機能部及びサウンドドライバの動作を示す第2のタイムチャートである。It is a 2nd time chart which shows the operation | movement of the speech synthesis function part and sound driver in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における先頭分割位置設定処理のサブルーチンを示す図である。It is a figure which shows the subroutine of the head division | segmentation position setting process in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における第1の文字数算出テーブルを示す図である。It is a figure which shows the 1st character number calculation table in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における第2の文字数算出テーブルを示す図である。It is a figure which shows the 2nd character number calculation table in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

14 ナビゲーション装置
17 ナビゲーション処理部
43 ネットワーク
44 音声合成装置
51 情報センタ
62 音声合成機能部
14 navigation device 17 navigation processing unit 43 network 44 speech synthesis device 51 information center 62 speech synthesis function unit

Claims (6)

導入部及び本体部から成る文字情報のうちの導入部についての言語解析及び音声データの生成から成る導入部処理を行う導入部処理手段と、前記導入部についての音声データを再生するのに必要な再生時間を算出する再生時間算出処理手段と、前記再生時間に対応させて設定された処理変量に基づいて、前記本体部についての分割されたセクションごとに言語解析及び音声データの生成から成る本体部処理を行う本体部処理手段とを有することを特徴とする情報通知システム。   Of the character information consisting of the introduction part and the main part, introduction part processing means for performing introduction part processing consisting of linguistic analysis and generation of voice data for the introduction part, and necessary for reproducing the voice data for the introduction part A main part comprising: a reproduction time calculation processing means for calculating a reproduction time; and language analysis and generation of audio data for each divided section of the main part based on a processing variable set corresponding to the reproduction time An information notification system comprising main body processing means for performing processing. 前記処理変量は、本体部の1番目のセクションについての本体部処理を開始するタイミングである請求項1に記載の情報通知システム。   The information notification system according to claim 1, wherein the processing variable is a timing at which a main body process is started for a first section of the main body. 前記本体部処理を開始するタイミングは、前記再生時間及び本体部処理を行うのに必要な本体部処理時間に基づいて設定される請求項2に記載の情報通知システム。   The information notification system according to claim 2, wherein the timing of starting the main body processing is set based on the reproduction time and the main body processing time required for performing the main body processing. 前記処理変量は、本体部の1番目のセクションの文字列の文字数である請求項1に記載の情報通知システム。   The information notification system according to claim 1, wherein the processing variable is the number of characters in the character string of the first section of the main body. 前記1番目のセクションの文字列の文字数は、前記再生時間に対応させて想定される適正な本体部処理時間に基づいて算出される請求項4に記載の情報通知システム。   The information notification system according to claim 4, wherein the number of characters of the character string of the first section is calculated based on an appropriate main body processing time assumed to correspond to the reproduction time. コンピュータを、導入部及び本体部から成る文字情報のうちの導入部についての言語解析及び音声データの生成から成る導入部処理を行う導入部処理手段、前記導入部についての音声データを再生するのに必要な再生時間を算出する再生時間算出処理手段、並びに前記再生時間に対応させて設定された処理変量に基づいて、前記本体部についての分割されたセクションごとに言語解析及び音声データの生成から成る本体部処理を行う本体部処理手段として機能させることを特徴とする情報通知方法のプログラム。
An introductory processing means for performing an introductory part process comprising linguistic analysis and speech data generation for the introductory part of the character information comprising the introductory part and the main body part, to reproduce the speech data for the introductory part Based on a playback time calculation processing means for calculating a required playback time, and a processing variable set corresponding to the playback time, language analysis and generation of audio data are performed for each divided section of the main body. A program for an information notification method, characterized in that it functions as a body part processing means for performing body part processing.
JP2003385667A 2003-11-14 2003-11-14 Information notification system and program for information notification method Abandoned JP2005148402A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003385667A JP2005148402A (en) 2003-11-14 2003-11-14 Information notification system and program for information notification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003385667A JP2005148402A (en) 2003-11-14 2003-11-14 Information notification system and program for information notification method

Publications (1)

Publication Number Publication Date
JP2005148402A true JP2005148402A (en) 2005-06-09

Family

ID=34693653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003385667A Abandoned JP2005148402A (en) 2003-11-14 2003-11-14 Information notification system and program for information notification method

Country Status (1)

Country Link
JP (1) JP2005148402A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003562A (en) * 2006-05-23 2008-01-10 Alpine Electronics Inc Voice output apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003562A (en) * 2006-05-23 2008-01-10 Alpine Electronics Inc Voice output apparatus

Similar Documents

Publication Publication Date Title
US6298305B1 (en) Methods and apparatus for providing voice guidance in a vehicle navigation system
CN1685201B (en) Navigation system with acoustic route information
JPWO2006080492A1 (en) Program recording apparatus, program recording method, program recording program, and computer-readable recording medium
JP3969356B2 (en) Navigation system and point search method program
JP4078923B2 (en) Navigation system and program
JP2009085697A (en) On-vehicle device
JP2005148402A (en) Information notification system and program for information notification method
JP4114523B2 (en) Navigation system and route guidance method program
WO2006093047A1 (en) Route search device, route search method, route search program, and recording medium
JP4403736B2 (en) Navigation system and program
JP2007086087A (en) Information display system
JP4111127B2 (en) Route guidance system and route guidance method program
JP2005283890A (en) Point retrieval system and program of point retrieval method
JP4241214B2 (en) Navigation system and program
JP4228790B2 (en) Navigation system and program
JP3982427B2 (en) Data collection / reproduction system and data collection / reproduction method program
JP4442279B2 (en) Direction guidance system and program
JP2003303287A (en) Contents distribution system for vehicle and program for vehicle contents distribution method for vehicle
JP4292887B2 (en) Navigation system and program
JP2002107167A (en) Navigator
JP2005283275A (en) Navigation system, and program for navigation method
JP4023259B2 (en) NAVIGATION SYSTEM AND MAP DISPLAY METHOD PROGRAM
JP3941497B2 (en) Navigation system and data update method
JP4182737B2 (en) Navigation system and program
JP4453419B2 (en) Route guidance system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060915

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20090218