Nothing Special   »   [go: up one dir, main page]

WO2012063360A1 - 情報出力装置、情報出力方法、情報出力プログラム及び情報システム - Google Patents

情報出力装置、情報出力方法、情報出力プログラム及び情報システム Download PDF

Info

Publication number
WO2012063360A1
WO2012063360A1 PCT/JP2010/070205 JP2010070205W WO2012063360A1 WO 2012063360 A1 WO2012063360 A1 WO 2012063360A1 JP 2010070205 W JP2010070205 W JP 2010070205W WO 2012063360 A1 WO2012063360 A1 WO 2012063360A1
Authority
WO
WIPO (PCT)
Prior art keywords
candidate
statistical
speech recognition
candidates
voice
Prior art date
Application number
PCT/JP2010/070205
Other languages
English (en)
French (fr)
Inventor
吉田 実
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2011518099A priority Critical patent/JP4876198B1/ja
Priority to PCT/JP2010/070205 priority patent/WO2012063360A1/ja
Publication of WO2012063360A1 publication Critical patent/WO2012063360A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications

Definitions

  • the present invention relates to a technique for outputting information including a voice recognition result in response to voice input.
  • a general voice recognition function notifies only one candidate with a voice and a screen as an acoustic voice recognition result in response to voice input by a user.
  • misrecognition occurs or when recognition is impossible, the user needs to input the voice again for redoing, so it takes time and the user often feels bothered.
  • Patent Document 1 predicts user behavior and dynamically changes the speech recognition dictionary to improve recognition performance. Specifically, Patent Document 1 changes the speech recognition dictionary based on the user's past homepage browsing history.
  • An object of the present invention is to improve the convenience of voice input by a user by outputting a plurality of information including a voice recognition result in response to the voice input of the user.
  • the invention according to claim 1 is an information output device, wherein an input unit that inputs voice, a voice recognition unit that recognizes the input voice and outputs a voice recognition candidate, and the voice is input Corresponding to the usage status of the user at the time, a statistical candidate determination means for determining a statistical candidate that is a frequently used candidate, a display control means for displaying the voice recognition candidate and the statistical candidate on a display unit, And the display control means determines the ratio of the number of displayed speech recognition candidates and the statistical candidates according to the likelihood of the speech recognition candidates obtained by the speech recognition.
  • the invention according to claim 11 is an information output method executed in an information output device having a display unit, and includes an input step of inputting speech, and speech recognition of the input speech to output a speech recognition candidate.
  • a speech recognition step, a statistical candidate determination step for determining a statistical candidate that is a frequently used candidate corresponding to a usage situation of a user when the speech is input, the speech recognition candidate, and the statistical candidate A display control step of displaying on the display unit, the display control step according to the likelihood of the speech recognition candidates obtained by the speech recognition, The ratio is determined.
  • the invention according to claim 12 is an information output program executed in an information output apparatus having a computer, and includes input means for inputting speech, speech recognition for recognizing input speech and outputting speech recognition candidates. Means for estimating a statistical candidate that is a frequently used candidate corresponding to the usage status of the user when the voice is input, and displaying the voice recognition candidate and the statistical candidate on a display unit
  • the computer is caused to function as a display control unit, and the display control unit determines a ratio of the number of display cases of the speech recognition candidate and the statistical candidate according to the likelihood of the speech recognition candidate obtained by the speech recognition. It is characterized by that.
  • the example of a display of the candidate with respect to a speech input is shown. It is a graph which shows the usage frequency of a specific command.
  • the example of the display of the candidate in 1st Example and the example of a statistics database are shown.
  • the example of a display of the candidate in 2nd Example is shown.
  • the example of a display of the candidate in 2nd Example is shown.
  • It is a flowchart of the information output process by 2nd Example is a block diagram which shows the other structural example of an information system.
  • the information output device includes: an input unit that inputs a voice; a voice recognition unit that recognizes the input voice and outputs a voice recognition candidate; and Statistical candidate determination means for determining statistical candidates that are frequently used according to the usage status of the user, and display control means for displaying the speech recognition candidates and the statistical candidates on a display unit
  • the display control means determines the ratio of the number of displayed speech recognition candidates and the statistical candidates according to the likelihood of the speech recognition candidates obtained by the speech recognition.
  • the information output device described above is mounted on a device having a voice input function, and executes voice recognition processing on a user's voice input to output a voice recognition candidate.
  • the voice input is performed by the user inputting a predetermined command
  • the voice recognition candidate is a command candidate corresponding to the voice input by the user.
  • the likelihood indicating the certainty is calculated for each speech recognition candidate.
  • statistical candidates that are frequently used candidates are determined in accordance with the usage status of the user at the time of voice input.
  • the usage status of the user includes, for example, the date and time when the user uses the device on which the information output device is mounted.
  • the display control means determines the ratio of the number of displayed speech recognition candidates and statistical candidates according to the likelihood of the speech recognition candidates obtained by the speech recognition process, and displays the ratio on the display unit. By changing the ratio of the speech recognition candidate and the statistical candidate displayed according to the probability of the speech recognition result, it is possible to present a useful candidate to the user.
  • the display control unit may recognize a speech recognition candidate when there is a speech recognition candidate having a likelihood higher than a predetermined threshold with respect to another speech recognition candidate as a result of the speech recognition. Reduce the ratio of the number of displayed items. In this case, since there is a high possibility that a speech recognition candidate having a high likelihood is the correct answer, the ratio of displaying the speech recognition candidates is lowered so that a larger number of statistical candidates can be displayed.
  • the statistical candidate is a candidate whose use frequency by the user himself or another user is higher than the use frequency of other candidates.
  • Candidates that are useful to the user can be presented by setting candidates that are frequently used as statistical candidates.
  • the statistical candidate determining means determines a candidate whose usage frequency at the date and time when the voice is input is higher than the usage frequency of other candidates as a statistical candidate. Thereby, regardless of the voice recognition result, a command frequently used at the date and time is presented to the user.
  • the display control unit may replace the voice recognition candidate and the statistical candidate with the next highest likelihood voice instead of one of the candidates.
  • the recognition candidate or the next most frequently used statistical candidate is displayed.
  • the display control means displays a statistical candidate different from the statistical candidate displayed last time when the same voice is input a plurality of times within a predetermined time.
  • the limited display space can be effectively used by changing the displayed candidates instead of repeatedly displaying the same candidates. Also, by presenting a large number of candidates to the user, the user can be given an opportunity to learn commands.
  • the display control means uses the next statistical candidate instead of the statistical candidate to be displayed when the state indicated by the statistical candidate to be displayed matches the state at that time. Display frequent statistics candidates. When the result of processing by the command corresponding to the candidate to be displayed matches the current situation, there are few merits to display the candidate, so other candidates are displayed.
  • the voice recognition means transmits the input voice to an external voice recognition device, and acquires a voice recognition candidate from the external voice recognition device.
  • the statistical candidate determination unit transmits information indicating a usage status of the user when the voice is input to the server, and receives statistical candidates corresponding to the usage status from the server. .
  • an information system includes the information output device described above, a server that collects operation history information from the plurality of information output devices, and generates statistical information based on the collected operation history information;
  • the statistical candidate determination means determines statistical candidates using statistical information distributed from the server.
  • the server since the server collects operation history information from a large number of information output devices and generates statistical information, it is possible to determine statistical candidates based on the history of a large number of users.
  • Another preferred embodiment of the present invention is an information output method that is executed in an information output apparatus having a display unit, and includes an input step of inputting speech, and speech recognition candidates by speech recognition of the input speech.
  • a speech recognition step to output; a statistical candidate determination step to determine a statistical candidate that is a frequently used candidate corresponding to a usage situation of a user when the speech is input; and the speech recognition candidate and the statistics
  • Another preferred embodiment of the present invention is an information output program executed in an information output apparatus having a computer, and includes an input means for inputting speech, and speech recognition candidates are output to recognize speech recognition candidates.
  • Voice recognition means estimation means for estimating a statistical candidate that is a frequently used candidate corresponding to the usage status of the user when the voice is input, the voice recognition candidate and the statistical candidate on the display unit
  • the computer functions as a display control means for displaying, and the display control means sets a ratio of the number of displayed speech recognition candidates to the statistical candidates according to the likelihood of the speech recognition candidates obtained by the speech recognition. decide.
  • FIG. 1 shows a schematic configuration of an information system according to an embodiment of the present invention.
  • the information system roughly includes a server 10 and a navigation device 20.
  • the server 10 and the navigation device 20 can transmit and receive information by wireless communication or the like.
  • the server 10 includes a server device 12 and a statistical database (hereinafter, the database is referred to as “DB”) 14.
  • the server device 12 includes a CPU, a memory, and the like, and executes various processes.
  • the server device 12 has a wireless communication function with the navigation device 20.
  • the statistics DB 14 stores statistical information related to the frequency of use of commands used for voice input of the navigation device 20. This statistical information will be described in detail later.
  • the navigation device 20 includes a date and time acquisition unit 21, a communication unit 22, an input unit 23, a microphone 24, a voice recognition unit 25, a dictionary DB 26, an output control unit 27, a speaker 28, a display device 29, A control unit 30 and a history DB 31 are provided.
  • the date and time acquisition unit 21 acquires the current date and time.
  • the term “date and time” includes day of the week and time.
  • the date and time acquisition unit 21 may calculate the date and time using a clock in the control unit 30, or may acquire date and time information included in data received from a GPS hygiene by a GPS receiver (not shown).
  • the communication unit 22 can have a communication function using a mobile phone, for example, and performs wireless communication with the server 10.
  • the input unit 23 is used for a user to input necessary instructions and selections, and can be a touch panel provided on the screen of the display device 29, a remote controller, an input button provided on the navigation device 20 body, or the like. .
  • the user When a user performs voice input, the user speaks a predetermined command.
  • the microphone 24 collects the voice uttered by the user and supplies it to the voice recognition unit 25 as voice data.
  • the microphone 24 is installed around the driver's seat in the navigation device 20.
  • the voice recognition unit 25 recognizes the voice uttered by the user using the voice recognition dictionary stored in the dictionary DB 26. Specifically, the voice recognition unit 25 calculates an acoustic feature amount from the voice data input from the microphone 24, detects a voice section in the voice data, and extracts only the speech section. Next, the speech recognition unit 25 uses a technique such as Hidden Markov Model (HMM), for example, and refers to the speech recognition dictionary in the dictionary DB 26 to find a command candidate that matches the input speech data. The likelihood indicating the degree of coincidence with (hereinafter referred to as “voice recognition candidate”) is calculated. In this way, the speech recognition unit 25 determines a plurality of speech recognition candidates with high likelihood among speech recognition candidates corresponding to speech uttered by the user.
  • HMM Hidden Markov Model
  • the output control unit 27 controls the speaker 28 to output a voice such as a guidance voice, and controls the display device 29 to display an image. Specifically, the output control unit 27 displays map data in the vicinity of the current position of the vehicle on which the navigation device 20 is normally mounted on the display device 29. Further, during route guidance, the output control unit 27 displays a guidance route or the like on the display device 29 and outputs voice guidance from the speaker 28 at the guidance point. Further, although details will be described later, the output control unit 27 displays a candidate for the input on the display device 29 when a voice input is made by the user.
  • the control unit 30 is configured by a CPU or the like, and controls each component in the navigation device 20 by executing a program prepared in advance, and performs map display processing, route guidance processing, information output processing for voice input, and the like. Execute.
  • the history DB 31 stores a command corresponding to the voice uttered by the user of the navigation device 20, more precisely the history of voice recognition candidates.
  • the history stored in the history DB 31 is periodically uploaded to the server 10 as the history of commands used by the user and reflected in the statistical information stored in the statistical DB 14.
  • FIG. 2 shows an example of a screen displayed on the display device 29 in response to a user's voice input.
  • the navigation device 20 is executing route guidance, and the guidance route is displayed in the highway mode on the left side of the screen 40.
  • output information for the user's voice input is displayed.
  • the user when the user performs voice input by speaking one command, three commands are displayed as candidates on the candidate display unit 42.
  • the intended command is included in the three candidates, the user can determine the voice input instruction by selecting the candidate.
  • candidates selected by the user are indicated by a frame 44.
  • the user may operate the input unit 23 such as a touch panel or a remote controller, and may utter a command corresponding to the candidate again.
  • a plurality of (three in the above example) candidates are determined and displayed in response to the user's voice input, and the plurality of candidates include voice recognition candidates obtained by the voice recognition process.
  • the plurality of candidates include voice recognition candidates obtained by the voice recognition process.
  • it is characterized in that command candidates based on statistical information (hereinafter referred to as “statistical candidates”) are included. That is, the navigation device 20 displays, on the display device 29, voice recognition candidates obtained by voice recognition processing and statistical candidates that are recognized to be frequently used based on statistical information in response to voice input by the user. And present it to the user.
  • FIG. 3 shows an example of statistical information.
  • This example shows the usage ratio of the command “return to home” for each day of the week and time period. That is, the command “return home” indicates which day of the week and which time zone is frequently used. As shown in FIG. 3, in this example, the command “return to home” is frequently used in a time zone from about 16:00 in the evening to about 2 o'clock in the evening on almost any day of the week.
  • the usage frequency of a specific command is statistically correlated with the date and time (ie day of the week and time).
  • the command “watch TV” is frequently used in the morning and evening regardless of the day of the week, and the command “search for a destination” is frequently used on Saturday and Sunday. Therefore, regardless of the voice recognition result for voice input, if a command that is frequently used at that date and time is presented to the user as a statistical candidate based on the date and time when the voice input was made, it will be useful information for the user. .
  • the navigation device 20 presents a plurality of candidates including a speech recognition candidate based on speech recognition and a statistical candidate based on statistical information in response to speech input by a user.
  • any number of candidates may be output as long as the number is two or more.
  • the number of candidates to be output depends on the size of the display area that can be secured in the display device 29.
  • rank indicates the order of use frequency.
  • Rank (navigation) indicates a rank when limited to commands related to the operation of the navigation device 20
  • “rank (AV)” indicates a rank when limited to commands related to the operation of the AV function of the vehicle.
  • Order (overall)” indicates the order when all commands are targeted.
  • the “operation category” indicates a device to be operated.
  • the navigation device 20 When a voice input is made by the user, the navigation device 20 first performs a voice recognition process, and extracts a plurality of voice recognition candidates having a high likelihood. Then, the content to be displayed as a candidate is determined according to the likelihood difference between the speech recognition candidate having the first likelihood by the speech recognition process and the speech recognition candidate having the second likelihood.
  • the speech recognition candidate having the nth likelihood is expressed as “speech recognition candidate nth”.
  • the navigation device 20 is ranked first in the speech recognition candidate and second in the speech recognition candidate.
  • the likelihood difference ⁇ P (t) is calculated as follows.
  • ⁇ P (t) P1 (t) ⁇ P2 (t) Equation (1)
  • the navigation device has a threshold value ⁇ determined in advance through experiments or the like.
  • ⁇ P (t) ⁇ ⁇ Formula (2) When it is, it is judged that the likelihood difference is large, ⁇ P (t) ⁇ Formula (3) When it is, it is determined that the likelihood difference is small.
  • the navigation device 20 determines that the speech recognition candidate first place is likely to be correct, and determines to display more statistical candidates than to display the second speech recognition candidate place. . That is, the navigation device 20 increases the ratio of the statistical candidates in the plurality of displayed candidates, and displays one speech recognition candidate and two statistical candidates. As a result, as shown in FIG. 4A, the voice recognition candidate first place, the command “search by name” which is the first statistical candidate, and the command “return to home” which is the second statistical candidate are displayed as candidates. Displayed on the unit 42.
  • the navigation device 20 determines that the first candidate for speech recognition is unlikely to be correct or that there is a high possibility that a plurality of similar commands exist, and increases the number of speech recognition candidates. Decide to display. That is, the navigation device 20 increases the ratio of the speech recognition candidates among the plurality of candidates to be displayed, and displays two speech recognition candidates and one statistical candidate. As a result, as shown in FIG. 4B, the command “search by name” which is the first speech recognition candidate, the second speech recognition candidate, and the first statistical candidate is displayed on the candidate display unit 42.
  • the speech recognition candidate among the plurality of displayed candidates depending on the possibility that the speech recognition candidate is correct, specifically, the likelihood difference between the first and second speech recognition candidates. And change the ratio of statistical candidates.
  • useful candidates can be presented to the user by effectively using the limited display area.
  • FIG. 5 is a flowchart of the information output process according to the first embodiment.
  • This processing is realized by the CPU of the navigation device 20 executing a program prepared in advance and operating as each component such as the control unit 30 and the voice recognition unit 25.
  • the user of the navigation device 20 arbitrarily determines whether or not to display statistical candidates based on statistical information in response to voice input. That is, it is assumed that the user selects in advance either a mode using statistical information or a mode not using statistical information and sets the mode in the navigation device 20.
  • the microphone 24 collects the voice and supplies it as voice data to the voice recognition unit 25, and the voice recognition unit 25 performs a voice recognition process (step S10).
  • the speech recognition unit 25 determines a plurality of speech recognition candidates with high likelihood, for example, speech recognition candidates 1 to 5 by speech recognition processing.
  • control unit 30 determines whether or not a mode for using statistical information is selected by the user (step S11).
  • the control unit 30 is a candidate to display the first to third speech recognition candidates (hereinafter referred to as “display candidates”). Determine (step S13) and proceed to step S17.
  • step S11 when the mode using the statistical information is selected (step S11; Yes), the control unit 30 transmits the date and time when the voice input is performed to the server 10, and the rank corresponding to the date and time is higher. A plurality of statistical candidates are acquired (step S12).
  • step S14 determines whether or not the likelihood difference between the first speech recognition candidate and the second speech recognition candidate is large based on the above-described equations (1) to (3) (step S14).
  • step S14 determines the likelihood difference is large (step S14; Yes)
  • step S14 determines the first speech recognition candidate and the first and second statistical candidates as display candidates as illustrated in FIG. 4A.
  • step S14 sets the first and second speech recognition candidates and the first statistical candidate as display candidates as illustrated in FIG. 4B. Determine (step S16).
  • control part 30 displays the display candidate determined in step S13, S15, or S16 on the display apparatus 29 (step S17).
  • the information display process ends.
  • control unit 30 displays the command corresponding to the selected candidate. Execute the process.
  • the navigation device 20 presents a plurality of candidates including a speech recognition candidate and a statistical candidate in response to a user's voice input. Thereby, even if acoustic misrecognition occurs in the speech recognition processing, a command corresponding to the user's behavior tendency based on the statistical information is presented as a statistical candidate, so that the recognition rate on the user's sensation increases. . Further, at that time, the navigation device 20 controls the ratio of the number of displayed speech recognition candidates and statistical candidates according to the likelihood of the speech recognition candidates, so that candidates useful for the user within the limited number of displays can be selected. It is possible to display.
  • the navigation apparatus 20 displays the first and second statistical candidates in addition to the first speech recognition candidate when the likelihood difference is large. It is also possible to display the first statistical candidate with a different category such as genre. For example, in the case where the likelihood is high, the navigation device 20 adds “search by name” which is the first statistical candidate for the category “Navi” and statistical candidates for the category “AV” in addition to the first speech recognition candidate. You may display "to TV” which is the 1st place (refer to Drawing 4 (c)).
  • the navigation device 20 displays the first and second speech recognition candidates when the likelihood difference is small. Instead, classification such as category and genre is performed. It is good also as displaying a different speech recognition candidate first place.
  • the navigation device 20 has a first candidate for speech recognition regardless of classification, and a candidate for a classification different from the first candidate for speech recognition candidate (for example, the first candidate for speech recognition is category “ If the command is “AV”, the voice recognition candidate of the category “Navi” may be displayed at the top).
  • the second embodiment basically assumes the method of the first embodiment. However, when the candidates displayed on the candidate display unit 42 overlap or when the same candidate is repeatedly displayed for a plurality of voice inputs, the display candidate is changed and the candidate display unit 42 is effectively used. It is characterized by that.
  • the ranking of statistical candidates is not limited to the example shown in FIG.
  • Case 1 is a case where overlapping candidates are included in the three candidates displayed simultaneously. Specifically, in the display example 50 of FIG. 6A, the first and second speech recognition candidates and the first statistical candidate are displayed, but both the first speech recognition candidate and the first statistical candidate are displayed with the command “ "Search by name” and both are duplicated. In this case, the control unit 30 changes either the first speech recognition candidate or the first statistical candidate. For example, as shown in a display example 51 in FIG. 6A, instead of the first statistical candidate, the command “return to home” of the second statistical candidate is displayed. In addition, when new duplication arises after changing in this way, the control part 30 should just change to a further lower statistics candidate.
  • the third speech recognition candidate may be displayed instead of the second speech recognition candidate.
  • the unit 30 displays the first speech recognition candidate as it is. Further, as shown in FIG. 6B, the control unit 30 may display the first and second overall statistical candidates as shown in FIG. 6B, or the first and second statistical candidates in different groups. Or statistics candidate 1st for AV and statistics candidate 1st and 2nd for navigation may be displayed.
  • the speech recognition candidate first place may be correct. Since it is low, the control unit 30 displays the first statistical candidate. As shown in FIG. 6C, the control unit 30 may display the first and second overall speech recognition candidates as two speech recognition candidates, and the first speech recognition candidate and the navigation for AV. The first speech recognition candidate may be displayed, or the first speech recognition candidate of a different genre may be displayed.
  • Case 2 is a case where the command indicated by the statistical candidate matches the current usage state of the navigation device 20. Specifically, in the display example 52 in FIG. 7A, the control unit 30 determines that the statistical candidate No. 1 is the command “radio”, but it is assumed that the radio is currently used in the navigation device 20. In this case, since it is unlikely that the user's voice input is the command “radio”, the control unit 30 places the second statistical candidate (command “ Call me "). Thereby, the candidate display part 42 can be utilized effectively.
  • Case 3 is a case where the same voice input is made a plurality of times in the same time zone. If multiple voice inputs are made at short time intervals, the statistical candidates have the same rank, so the same candidates are displayed. Therefore, when the same voice input is made a plurality of times in the same time zone, the statistical candidates are changed and displayed according to the rank.
  • the same time zone refers to a predetermined time, and is set, for example, from several minutes to several tens of minutes.
  • the control unit 30 when the same voice input is performed three times within a predetermined time, the control unit 30 does not change the voice recognition candidate and selects the statistical candidate to be displayed as the statistical candidate. Change to first place, statistics candidate second place, statistics candidate third place. This avoids displaying the same statistical candidate every time. Also, by presenting different statistical candidates in this way, the user can be given an opportunity to learn commands. Note that if the same voice input is made within a predetermined time many times than the number of statistical candidates prepared for voice input, it is only necessary to return to the first statistical candidate and continue to display.
  • FIG. 8 is a flowchart of the information output process according to the second embodiment. This processing is realized by the CPU of the navigation device 20 executing a program prepared in advance and operating as each component such as the control unit 30 and the voice recognition unit 25. As in the first embodiment, the user determines whether or not to display statistical candidates based on statistical information in response to voice input, and selects either the mode using statistical information or the mode not using it in advance. Set it.
  • steps S20 to S26 are the same as the steps S10 to S16 of the information output process of the second embodiment shown in FIG.
  • step S27 determines whether or not the same voice input has occurred in the same time zone. That is, when a certain voice input is made, the control unit 30 determines whether or not the same voice input is made within the past predetermined time. This is a determination as to whether or not the currently determined display candidate corresponds to Case 3 described above.
  • step S27 Yes
  • the process proceeds to step S29.
  • step S27; No determines whether or not the current usage state of the navigation device 20 matches the statistical candidate (step S28). This is a determination as to whether or not the currently determined display candidate corresponds to Case 2 described above. If the current usage state matches the statistical candidate (step S28; Yes), the process proceeds to step S29. If the current usage state does not match the statistical candidate (step S28; No), the process proceeds to step S30.
  • step S29 the control unit 30 changes the currently determined statistical candidate to a lower statistical candidate.
  • the control unit 30 determines whether or not there are overlapping candidates among the currently determined three display candidates (step S30). This is a determination as to whether or not the currently determined display candidate corresponds to Case 1 described above. If there is no overlapping candidate (step S30; No), the process proceeds to step S32. On the other hand, when there are overlapping candidates (step S30; Yes), the control unit 30 changes one of the overlapping candidates to a lower candidate (step S31). Then, the control unit 30 displays the three display candidates at that time on the display device 29 (step S32). Thus, the information output process ends.
  • control unit 30 executes a command corresponding to the selected candidate. To do.
  • the display candidates include overlapping candidates
  • the statistical candidates match the current usage state of the navigation device 20, or when the same voice input is made multiple times in the same time zone. If there is, change the candidate and display it.
  • the possibility of re-inputting voice input can be reduced as much as possible, and the user can learn an utterance command by viewing the displayed candidates.
  • the voice recognition process is executed by the navigation device 20, and the process of determining the statistical candidates based on the statistical information is executed by the server 10.
  • the present invention is not limited to this example.
  • both the process for determining the statistical candidate and the voice recognition process may be executed by the server 10.
  • the configuration of the information system in that case is shown in FIG.
  • the server 10 includes a dictionary DB 15 in addition to the server device 12 and the statistics DB 14.
  • the navigation device 20 transmits voice data of a command spoken by the user to the server 10.
  • the server device 12 of the server 10 performs a speech recognition process with reference to the dictionary DB 15 to determine a speech recognition candidate and transmits it to the navigation device 20. Even in this configuration, the navigation device 20 can acquire a speech recognition candidate and a statistical candidate.
  • the navigation device 20 may execute a process for determining statistical candidates, and the server 10 may execute a voice recognition process.
  • the configuration of the information system in that case is shown in FIG. Similarly to the example of FIG. 9, the server 10 performs a speech recognition process on the speech data transmitted from the navigation device 20 and transmits speech recognition candidates to the navigation device 20. Further, the navigation device 20 periodically accesses the server 10, downloads statistical information stored in the statistical DB 14 from the server 10, and saves it in the statistical DB 32. And the navigation apparatus 20 will determine a statistics candidate with reference to statistics DB32, if a user performs voice input.
  • the navigation device 20 may execute both the process of determining statistical candidates and the voice recognition process.
  • FIG. 11 shows the configuration of the information system in that case.
  • the navigation device 20 uses the dictionary DB 26 to execute voice recognition processing.
  • the navigation device 20 periodically downloads statistical information from the server 10 and stores it in the statistical DB 32.
  • the navigation apparatus 20 will determine a statistics candidate with reference to statistics DB32, if a user performs voice input.
  • the statistical information is statistically processed by paying attention to the date and time of use of each command.
  • the application of the present invention is not limited to this.
  • the frequency of use of each command is defined as a user, a group composed of a plurality of users, a specific area, a user with similar behavior, the same vehicle type, a friend on the SNS (Social Networking Service) site, the same purpose
  • Statistical information may be generated by performing statistical processing while paying attention to a group such as a user who sets the location, and statistical candidates may be determined using the statistical information.
  • the present invention can be used for devices that can be controlled by voice input.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

 情報出力装置は、音声入力機能を有する装置に搭載され、利用者の音声入力に対して音声認識処理を実行して尤度を計算し、音声認識候補を出力する。一方、音声入力がなされた際の利用者の利用状況、例えば利用者が利用する日時に対応して、使用頻度の高い候補である統計候補が決定される。表示制御手段は、音声認識処理により得られた音声認識候補の尤度に応じて、音声認識候補と統計候補の表示件数の比率を決定し、表示部に表示する。音声認識結果の確からしさに応じて表示される音声認識候補と統計候補の比率を変えることにより、利用者に対して有益な候補を提示することが可能となる。

Description

情報出力装置、情報出力方法、情報出力プログラム及び情報システム
 本発明は、音声入力に対して、音声認識結果を含む情報を出力する手法に関する。
 音声認識エンジンを搭載し、音声入力が可能なカーナビゲーション装置が知られている。一般的な音声認識機能は、利用者による音声入力に対して、音響的な音声認識結果として1候補のみを音声と画面とで知らせる。誤認識が発生した場合、又は、認識不能であった場合、利用者はやり直しのために再度音声入力を行う必要があるため、時間を要するとともに、利用者が煩わしさを感じることが多い。
 このような不具合を解消するため、特許文献1に記載の音声認識装置は、利用者の行動を予測して動的に音声認識辞書を変更し、認識性能を改善している。具体的には、特許文献1は、ユーザの過去のホームページ閲覧履歴に基づいて音声認識辞書を変更している。
 しかし、音声認識辞書を変更した場合でも、認識結果として利用者に提示される結果は1つのみであり、それが誤りである場合には、再度の音声入力が必要となる。また、利用者の行動の予測が外れた場合には、却って認識性能が低下する可能性もある。
特開2002-341892号公報
 本発明が解決しようとする課題としては、上記のものが例として挙げられる。本発明は、利用者の音声入力に対して、音声認識結果を含む複数の情報を出力することにより、利用者による音声入力の利便性を向上させることを目的とする。
 請求項1に記載の発明は、情報出力装置であって、音声を入力する入力手段と、入力された音声を音声認識して音声認識候補を出力する音声認識手段と、前記音声が入力された際の利用者の利用状況に対応して、使用頻度の高い候補である統計候補を決定する統計候補決定手段と、前記音声認識候補と前記統計候補とを表示部に表示する表示制御手段と、を備え、前記表示制御手段は、前記音声認識により得られた音声認識候補の尤度に応じて、前記音声認識候補と前記統計候補の表示件数の比率を決定することを特徴とする。
 請求項11に記載の発明は、表示部を有する情報出力装置において実行される情報出力方法であって、音声を入力する入力工程と、入力された音声を音声認識して音声認識候補を出力する音声認識工程と、前記音声が入力された際の利用者の利用状況に対応して、使用頻度の高い候補である統計候補を決定する統計候補決定工程と、前記音声認識候補と前記統計候補とを前記表示部に表示する表示制御工程と、を備え、前記表示制御工程は、前記音声認識により得られた音声認識候補の尤度に応じて、前記音声認識候補と前記統計候補の表示件数の比率を決定することを特徴とする。
 請求項12に記載の発明は、コンピュータを有する情報出力装置において実行される情報出力プログラムであって、音声を入力する入力手段、入力された音声を音声認識して音声認識候補を出力する音声認識手段、前記音声が入力された際の利用者の利用状況に対応して、使用頻度の高い候補である統計候補を推定する推定手段、前記音声認識候補と前記統計候補とを表示部に表示する表示制御手段、として前記コンピュータを機能させ、前記表示制御手段は、前記音声認識により得られた音声認識候補の尤度に応じて、前記音声認識候補と前記統計候補の表示件数の比率を決定することを特徴とする。
実施例による情報システムの概略構成を示すブロック図である。 音声入力に対する候補の表示例を示す。 特定のコマンドの使用頻度を示すグラフである。 第1実施例における候補の表示例及び統計データベースの例を示す。 第1実施例による情報出力処理のフローチャートである。 第2実施例における候補の表示例を示す。 第2実施例における候補の表示例を示す。 第2実施例による情報出力処理のフローチャートである。 情報システムの他の構成例を示すブロック図である。 情報システムのさらに他の構成例を示すブロック図である。 情報システムのさらに他の構成例を示すブロック図である。
 本発明の好適な実施形態では、情報出力装置は、音声を入力する入力手段と、入力された音声を音声認識して音声認識候補を出力する音声認識手段と、前記音声が入力された際の利用者の利用状況に対応して、使用頻度の高い候補である統計候補を決定する統計候補決定手段と、前記音声認識候補と前記統計候補とを表示部に表示する表示制御手段と、を備え、前記表示制御手段は、前記音声認識により得られた音声認識候補の尤度に応じて、前記音声認識候補と前記統計候補の表示件数の比率を決定する。
 上記の情報出力装置は、音声入力機能を有する装置に搭載され、利用者の音声入力に対して音声認識処理を実行して音声認識候補を出力する。音声入力は、利用者が予め決められたコマンドを入力することにより行われ、音声認識候補とは利用者が入力した音声に対応するコマンドの候補である。また、音声認識処理では、音声認識候補毎に、その確からしさを示す尤度が算出される。一方、音声入力がなされた際の利用者の利用状況に対応して、使用頻度の高い候補である統計候補が決定される。利用者の利用状況は、例えば情報出力装置が搭載された装置を利用者が利用する日時を含む。表示制御手段は、音声認識処理により得られた音声認識候補の尤度に応じて、音声認識候補と統計候補の表示件数の比率を決定し、表示部に表示する。音声認識結果の確からしさに応じて表示される音声認識候補と統計候補の比率を変えることにより、利用者に対して有益な候補を提示することが可能となる。
 上記の情報出力装置の一態様では、前記表示制御手段は、前記音声認識の結果、他の音声認識候補に対して所定の閾値以上に尤度の高い音声認識候補が存在する場合、音声認識候補の表示件数の比率を下げる。この場合、尤度の高い音声認識候補が正解である可能性が高いので、音声認識候補を表示する比率を下げ、より多数の統計候補を表示できるようにする。
 好適な例では、前記統計候補は、利用者自身又は他の利用者による使用頻度が、他の候補の使用頻度よりも高い候補とする。使用頻度が高い候補を統計候補とすることにより、利用者にとって有益な候補を提示することができる。
 他の好適な例では、前記統計候補決定手段は、前記音声が入力された日時における使用頻度が、他の候補の使用頻度よりも高い候補を統計候補として決定する。これにより、音声認識結果にかかわらず、その日時に頻繁に使用されるコマンドが利用者に提示される。
 上記の情報出力装置の他の一態様では、前記表示制御手段は、前記音声認識候補と前記統計候補とで重複する候補が存在する場合、いずれか一方に代えて、次に尤度の高い音声認識候補又は次に使用頻度の高い統計候補を表示する。重複する候補を排除することにより、限られた表示スペースを有効に利用して、利用者により多数の候補を提示することができる。
 上記の情報出力装置の他の一態様では、前記表示制御手段は、所定時間内に同一の音声が複数回入力された場合、前回表示した統計候補とは異なる統計候補を表示する。短い時間に同じ音声入力が繰り返し行われた場合には、同じ候補を繰り返し表示するのではなく、表示される候補を変更することにより、限られた表示スペースを有効に利用することができる。また、多数の候補を利用者に提示することにより、利用者にコマンドを学習する機会を与えることができる。
 上記の情報出力装置の他の一態様では、前記表示制御手段は、表示すべき統計候補が示す状態が、その時点における状態と一致する場合、当該表示すべき統計候補に代えて、次に使用頻度の高い統計候補を表示する。表示すべき候補に対応するコマンドによる処理の結果が現在の状況と一致するような場合には、その候補を表示するメリットは少ないので、他の候補を表示する。
 上記の情報出力装置の好適な例では、前記音声認識手段は、入力された音声を外部の音声認識装置へ送信し、当該外部の音声認識装置から音声認識候補を取得する。他の好適な例では、前記統計候補決定手段は、前記音声が入力された際の利用者の利用状況を示す情報をサーバへ送信し、当該利用状況に対応する統計候補を前記サーバから受信する。
 本発明の他の観点では、情報システムは、上記の情報出力装置と、複数の前記情報出力装置から操作履歴情報を収集するとともに、収集した操作履歴情報に基づいて統計情報を生成するサーバと、を備え、前記統計候補決定手段は、前記サーバから配信された統計情報を用いて統計候補を決定する。この情報システムでは、サーバは多数の情報出力装置から操作履歴情報を収集して統計情報を生成するため、多数の利用者の履歴に基づいて統計候補を決定することが可能となる。
 本発明の他の好適な実施形態は、表示部を有する情報出力装置において実行される情報出力方法であって、音声を入力する入力工程と、入力された音声を音声認識して音声認識候補を出力する音声認識工程と、前記音声が入力された際の利用者の利用状況に対応して、使用頻度の高い候補である統計候補を決定する統計候補決定工程と、前記音声認識候補と前記統計候補とを前記表示部に表示する表示制御工程と、を備え、前記表示制御工程は、前記音声認識により得られた音声認識候補の尤度に応じて、前記音声認識候補と前記統計候補の表示件数の比率を決定する。この方法によっても、音声認識結果の確からしさに応じて表示される音声認識候補と統計候補の比率を変えることにより、利用者に対して有益な候補を提示することが可能となる。
 本発明の他の好適な実施形態は、コンピュータを有する情報出力装置において実行される情報出力プログラムであって、音声を入力する入力手段、入力された音声を音声認識して音声認識候補を出力する音声認識手段、前記音声が入力された際の利用者の利用状況に対応して、使用頻度の高い候補である統計候補を推定する推定手段、前記音声認識候補と前記統計候補とを表示部に表示する表示制御手段、として前記コンピュータを機能させ、前記表示制御手段は、前記音声認識により得られた音声認識候補の尤度に応じて、前記音声認識候補と前記統計候補の表示件数の比率を決定する。このプログラムをコンピュータにより実行することにより、上記の情報出力装置を実現することができる。なお、この情報出力プログラムは記憶媒体に記憶した状態で取り扱うことができる。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [システム構成]
 図1に、本発明の実施例に係る情報システムの概略構成を示す。図示のように、情報システムは、大別してサーバ10と、ナビゲーション装置20とを有する。サーバ10とナビゲーション装置20とは、無線通信などにより情報の送受信が可能である。
 サーバ10は、サーバ装置12と、統計データベース(以下、データベースを「DB」と記す。)14とを備える。サーバ装置12は、CPU、メモリなどを有し、各種の処理を実行する。また、サーバ装置12は、ナビゲーション装置20との無線通信機能を備える。
 統計DB14は、ナビゲーション装置20の音声入力において使用されるコマンドの使用頻度に関する統計情報を記憶している。この統計情報については後に詳しく説明する。
 ナビゲーション装置20は、日時取得部21と、通信部22と、入力部23と、マイク24と、音声認識部25と、辞書DB26と、出力制御部27と、スピーカ28と、表示装置29と、制御部30と、履歴DB31とを備える。
 日時取得部21は、現在の日時を取得する。なお、「日時」の語は、曜日と時間とを含むものとする。例えば、日時取得部21は、制御部30内のクロックを利用して日時を算出してもよく、図示しないGPS受信機がGPS衛生から受信するデータに含まれる日時情報を取得してもよい。
 通信部22は、例えば携帯電話などを利用した通信機能とすることができ、サーバ10と無線通信を行う。入力部23は、利用者が必要な指示、選択を入力するために使用され、表示装置29の画面に設けられたタッチパネル、リモコン、ナビゲーション装置20本体に設けられた入力ボタンなどとすることができる。
 利用者は、音声入力を行う場合、予め決められたコマンドを発話する。マイク24は、利用者が発話した音声を集音し、音声データとして音声認識部25へ供給する。通常、マイク24は、ナビゲーション装置20は運転席の周辺などに設置される。
 音声認識部25は、利用者が発話した音声を、辞書DB26に記憶された音声認識辞書を利用して認識する。具体的には、音声認識部25は、マイク24から入力された音声データから音響特徴量を算出し、当該音声データ中の音声区間を検出して発話区間のみを抽出する。次に、音声認識部25は、例えば隠れマルコフモデル(HMM:Hidend Markov Model)などの手法を利用し、辞書DB26内の音声認識辞書を参照して、入力された音声データと一致するコマンドの候補(以下、「音声認識候補」と呼ぶ。)との一致度を示す尤度を計算する。こうして、音声認識部25は、利用者が発話した音声に対応する音声認識候補のうち、尤度が高い複数の音声認識候補を決定する。
 出力制御部27は、スピーカ28を制御して案内音声などの音声を出力するとともに、表示装置29を制御して画像を表示する。具体的に、出力制御部27は、通常はナビゲーション装置20を搭載した車両の現在位置付近の地図データを表示装置29に表示する。また、ルート案内中には、出力制御部27は、案内ルートなどを表示装置29に表示し、案内地点においてスピーカ28から音声案内を出力する。さらに、詳細は後述するが、出力制御部27は、利用者による音声入力がなされた場合には、それに対する候補を表示装置29に表示する。
 制御部30は、CPUなどにより構成され、予め用意されたプログラムを実行することにより、ナビゲーション装置20内の各構成要素を制御し、地図表示処理、ルート案内処理、音声入力に対する情報出力処理などを実行する。
 履歴DB31は、ナビゲーション装置20の利用者が発話した音声に対応するコマンド、正確には音声認識候補の履歴を保存する。履歴DB31に保存された履歴は、当該利用者が使用したコマンドの履歴として、定期的にサーバ10へアップロードされ、統計DB14に記憶されている統計情報に反映される。
 [第1実施例]
 次に、第1実施例における、音声入力に対する情報出力方法について説明する。図2は、利用者の音声入力に対して表示装置29に表示される画面の例を示す。本例では、ナビゲーション装置20はルート案内の実行中であり、画面40の左側にはハイウェイモードで案内ルートが表示されている。一方、画面40の右側には、利用者の音声入力に対する出力情報が表示されている。
 具体的に、本例では、利用者が1つのコマンドを発話することにより音声入力を行うと、候補表示部42には、3つのコマンドが候補として表示される。利用者は、3つの候補のうちに意図したコマンドが含まれる場合、その候補を選択することにより、音声入力の指示を確定させることができる。図2の例では、利用者が選択した候補が枠44により示されている。なお、3つの候補から1つの候補を選択する手法としては、利用者は、タッチパネルやリモコンなどの入力部23を操作してもよく、その候補に対応するコマンドを再度発話してもよい。
 次に、本実施例における情報出力方法の特徴について説明する。本実施例では、利用者の音声入力に対して複数(上記の例では3つ)の候補を決定して表示するが、その複数の候補には、音声認識処理により得られた音声認識候補に加えて、統計情報に基づくコマンドの候補(以下、「統計候補」と呼ぶ。)を含める点に特徴を有する。即ち、ナビゲーション装置20は、利用者による音声入力に対して、音声認識処理により得られた音声認識候補と、統計情報に基づいて使用頻度が高いと認められる統計候補とを表示装置29に表示して利用者に提示する。
 ここで、統計候補について詳しく説明する。図3に、統計情報の例を示す。この例は、コマンド「自宅に帰る」の曜日及び時間帯毎の使用割合を示している。即ち、コマンド「自宅に帰る」が、どの曜日のどの時間帯に頻繁に使用されているかを示している。図3に示すように、この例では、コマンド「自宅に帰る」は、ほぼどの曜日においても、夕方16時頃から深夜2時頃までの時間帯に頻繁に使用されている。
 このように、特定のコマンドは、その使用頻度が統計的に日時(即ち、曜日及び時間)と相関関係を有する。上記の例以外に、例えばコマンド「TVを見る」は曜日を問わず朝と夕方に使用頻度が高く、コマンド「行き先を探索する」は土曜日、日曜日に使用頻度が高い。よって、音声入力に対する音声認識結果にかかわらず、音声入力がなされた日時に基づいて、その日時に使用頻度が高いコマンドを統計候補として利用者に提示すれば、利用者にとっては有益な情報となる。例えば、ある日の夕方に利用者により音声入力がなされた場合、統計的観点からは、その日時にはコマンド「自宅に帰る」が使用される確率が高いことがわかっている。よって、音声入力に応答して、音声認識候補とともに統計情報に基づく統計候補「自宅に帰る」を利用者に提示すれば、利用者の体感上の認識率を向上させることができる。
 このように本実施例では、利用者による音声入力に対して、ナビゲーション装置20は、音声認識に基づく音声認識候補と、統計情報に基づく統計候補とを含む複数の候補を提示する。この場合、出力される候補の数は、2つ以上であればいくつでもかまわない。実際には、出力される候補数は、表示装置29において確保できる表示エリアの大きさに依存する。
 以下、表示装置29に表示される候補は3つであるとし、表示される候補の例について説明する。いま、統計DB14に記憶されている統計情報のうち、月曜日の朝6~7時において頻繁に使用されるコマンドの統計情報(使用頻度ランキング)が図4(c)に示すようであると仮定する。なお、図4(c)において、「順位」は使用頻度が高い順を示す。「順位(ナビ)」はナビゲーション装置20の操作に関連するコマンドに限定した場合の順位を示し、「順位(AV)」は車両のAV機能の操作に関連するコマンドに限定した場合の順位を示す。「順位(総合)」は、全てのコマンドを対象とした場合の順位を示す。「操作カテゴリ」は、操作の対象となる機器を示す。
 利用者により音声入力がなされた場合、ナビゲーション装置20は、まず音声認識処理を行い、尤度が高い音声認識候補を複数抽出する。そして、音声認識処理による尤度が1位である音声認識候補と、尤度が2位である音声認識候補との尤度差の大小に応じて、候補として表示する内容を決定する。以下、尤度がn位である音声認識候補を「音声認識候補n位」と表現する。ここで、音声入力がなされた時間をtとし、尤度がn位である音声認識候補の対数尤度をPn(t)とすると、ナビゲーション装置20は音声認識候補1位と音声認識候補2位との尤度差ΔP(t)を以下のように算出する。
  ΔP(t)=P1(t)-P2(t)           式(1)
 そして、ナビゲーション装置は、予め実験などにより決定した閾値αに対して、
  ΔP(t)≧α                     式(2)
であるときに尤度差が大きいと判断し、
  ΔP(t)<α                     式(3)
であるときに尤度差が小さいと判断する。
 尤度差が大きい場合、ナビゲーション装置20は、音声認識候補1位が正解である可能性が高いと判断し、音声認識候補2位を表示するよりも、統計候補を多く表示することを決定する。即ち、ナビゲーション装置20は、表示される複数の候補における統計候補の比率を大きくし、1つの音声認識候補と、2つの統計候補とを表示する。その結果、図4(a)に示すように、音声認識候補1位と、統計候補1位であるコマンド「名称で探す」と、統計候補2位であるコマンド「自宅に帰る」とが候補表示部42に表示される。
 一方、尤度差が小さい場合、ナビゲーション装置20は、音声認識候補1位が正解である可能性が低い、又は、類似するコマンドが複数存在する可能性が高いと判断し、音声認識候補を多く表示することを決定する。即ち、ナビゲーション装置20は、表示される複数の候補における音声認識候補の比率を大きくし、2つの音声認識候補と、1つの統計候補とを表示する。その結果、図4(b)に示すように、音声認識候補1位と、音声認識候補2位と、統計候補1位であるコマンド「名称で探す」とが候補表示部42に表示される。
 このように、本実施例では、音声認識候補が正解である可能性、具体的には音声認識候補1位と2位の尤度差に応じて、表示される複数の候補のうち音声認識候補と統計候補の比率を変化させる。これにより、限られた表示領域を有効に利用して利用者に有益な候補を提示することができる。
 次に、上記の情報出力処理について説明する。図5は第1実施例による情報出力処理のフローチャートである。この処理は、ナビゲーション装置20のCPUが予め用意されたプログラムを実行し、制御部30、音声認識部25などの各構成要素として動作することにより実現される。なお、音声入力に対して統計情報に基づく統計候補を表示するか否かはナビゲーション装置20の利用者が任意に決定する。即ち、利用者は、統計情報を使用するモードと使用しないモードのいずれかを予め選択してナビゲーション装置20に設定しておくものとする。
 まず、利用者により音声入力がなされると、マイク24はその音声を集音して音声データとして音声認識部25へ供給し、音声認識部25は音声認識処理を行う(ステップS10)。具体的には、音声認識部25は、音声認識処理により、尤度の高い複数の音声認識候補、例えば音声認識候補1位~5位を決定する。
 次に、制御部30は、利用者により統計情報を使用するモードが選択されているか否かを判定する(ステップS11)。統計情報を使用するモードが選択されていない場合(ステップS11;No)、制御部30は、音声認識候補1位~3位を表示すべき候補(「以下、「表示候補」と呼ぶ。)と決定し(ステップS13)、ステップS17へ進む。
 一方、統計情報を使用するモードが選択されている場合(ステップS11;Yes)、制御部30は、音声入力が行われた日時をサーバ10へ送信し、その日時に対応する、順位が上位の複数の統計候補を取得する(ステップS12)。
 次に、制御部30は前述の式(1)~(3)に基づいて、音声認識候補1位と音声認識候補2位との尤度差が大きいか否かを判定する(ステップS14)。尤度差が大きい場合(ステップS14;Yes)、制御部30は、図4(a)に例示するように音声認識候補1位と、統計候補1位及び2位を表示候補として決定する。一方、尤度差が大きくない場合(ステップS14;No)、制御部30は、図4(b)に例示するように音声認識候補1位及び2位と、統計候補1位とを表示候補として決定する(ステップS16)。
 そして、制御部30は、ステップS13、S15又はS16において決定された表示候補を表示装置29に表示する(ステップS17)。こうして情報表示処理は終了する。
 なお、その後に利用者が入力部23を操作して表示装置29に表示された3つの候補のうちのいずれかを選択した場合には、制御部30は、選択された候補に対応するコマンドの処理を実行する。
 以上のように、第1実施例では、ナビゲーション装置20は、利用者の音声入力に対して、音声認識候補と統計候補を含む複数の候補を提示する。これにより、音声認識処理において音響的な誤認識が生じたとしても、統計情報に基づく利用者の行動傾向に応じたコマンドが統計候補として提示されるので、利用者の体感上の認識率が高まる。また、その際、ナビゲーション装置20は、音声認識候補の尤度に応じて、音声認識候補と統計候補の表示件数の比率を制御するので、限られた表示件数内で利用者に有益な候補を表示することが可能となる。
 なお、図4(a)の例では、ナビゲーション装置20は尤度差が大きい場合に、音声認識候補1位に加えて統計候補1位及び2位を表示しているが、その代わりに、カテゴリ、ジャンルなどの分類が異なる統計候補1位を表示することとしてもよい。例えば、ナビゲーション装置20は、尤度が大きい場合に、音声認識候補1位に加えて、カテゴリ「ナビ」についての統計候補1位である「名称で探す」と、カテゴリ「AV」についての統計候補1位である「TVにする」を表示してもよい(図4(c)参照)。
 また、図4(b)の例では、ナビゲーション装置20は、尤度差が小さい場合に、音声認識候補1位及び2位を表示しているが、その代わりに、カテゴリ、ジャンルなどの分類が異なる音声認識候補1位を表示することとしてもよい。例えば、ナビゲーション装置20は、分類を問わない音声認識候補1位と、音声認識候補2位以下の候補であって音声認識候補1位と異なる分類の候補(例えば、音声認識候補1位がカテゴリ「AV」のコマンドであれば、カテゴリ「ナビ」の音声認識候補のうち最上位のもの)を表示することとしてもよい。
 [第2実施例]
 次に、第2実施例について説明する。第2実施例は、基本的に第1実施例の手法を前提とする。但し、候補表示部42に表示される候補が重複する場合や複数回の音声入力に対して同じ候補が繰り返し表示される場合などに、表示候補を変更して候補表示部42を有効に利用することを特徴とする。以下、ケース毎に説明する。なお、以下の例では、統計候補の順位は図4(c)に示す例とは限らないものとする。
 (ケース1)
 ケース1は、同時に表示される3つの候補に重複する候補が含まれる場合である。具体的に、図6(a)の表示例50では、音声認識候補1位及び2位と、統計候補1位が表示されているが、音声認識候補1位と統計候補1位はともにコマンド「名称で探す」であり、両者は重複している。この場合、制御部30は、音声認識候補1位と統計候補1位のいずれか一方を変更する。例えば、図6(a)の表示例51に示すように、統計候補1位の代わりに、統計候補2位のコマンド「自宅に帰る」を表示する。なお、このように変更した後に新たな重複が生じた場合には、制御部30はさらに下位の統計候補に変更すればよい。
 このように、同時に表示される複数の候補に重複する候補が含まれる場合には、音声認識候補を優先しつつ、重複しないように統計候補を変更すればよい。これにより、同時に表示される候補の重複が排除され、候補表示部42が有効に利用される。
 なお、上記の例のように、音声認識候補1位と統計候補1位とが重複した場合には、音声認識候補1位を変更せず、統計候補1位を変更するのが望ましいが、音声認識候補2位と統計候補1位とが重複した場合には、音声認識候補2位の代わりに音声認識候補3位を表示してもよい。
 同時に表示される3つの候補に重複する候補が含まれ、かつ、音声認識候補1位と2位との尤度差が大きい場合、音声認識候補1位が正解である可能性が高いので、制御部30は音声認識候補1位をそのまま表示する。また、制御部30は、2つの統計候補については、図6(b)に示すように、総合の統計候補1位と2位を表示してもよいし、異なるグループの統計候補1位と2位、又は、AVについての統計候補1位とナビについての統計候補1位と2位を表示してもよい。
 また、同時に表示される3つの候補に重複する候補が含まれ、かつ、音声認識候補1位と2位との尤度差が小さい場合には、音声認識候補1位が正解である可能性が低いので、制御部30は、統計候補1位を表示する。制御部30は、2つの音声認識候補として、図6(c)に示すように、総合の音声認識候補1位と2位を表示してもよく、AVについての音声認識候補1位とナビについての音声認識候補1位を表示してもよく、異なるジャンルの音声認識候補1位を表示してもよい。
 (ケース2)
 ケース2は、統計候補が示すコマンドが、現在のナビゲーション装置20の使用状態と一致する場合である。具体的に、図7(a)の表示例52では、制御部30は統計候補1位をコマンド「ラジオにする」に決定したが、ナビゲーション装置20では現在ラジオが使用されていると仮定する。この場合、利用者の音声入力がコマンド「ラジオにする」であることは考えにくいので、制御部30は、表示例53に示すように、統計候補1位の代わりに統計候補2位(コマンド「電話をかける」)を表示する。これにより、候補表示部42を有効に活用することができる。
 (ケース3)
 ケース3は、同一時間帯に同じ音声入力が複数回あった場合である。複数回の音声入力が短い時間間隔で行われた場合、統計候補の順位は同一であるので、同一の候補が表示されることになる。そこで、同一時間帯に同じ音声入力が複数回あった場合は、統計候補を順位に従って変更して表示する。なお、同一時間帯とは、所定時間内を指し、例えば数分から数十分に設定される。
 例えば、図7(b)に示すように、同一の音声入力が所定時間内に3回行われた場合、制御部30は、音声認識候補を変更せず、表示すべき統計候補を、統計候補1位、統計候補2位、統計候補3位というように変更する。これにより、毎回同じ統計候補が表示されることが回避される。また、このように異なる統計候補を提示することにより、利用者にコマンドを学習する機会を与えることができる。なお、音声入力に対して用意した統計候補の数よりも多数回にわたり同一の音声入力が所定時間内になされた場合には、再度統計候補1位へ戻って表示を続ければよい。
 (情報出力処理)
 次に、第2実施例による情報出力処理について説明する。図8は第2実施例による情報出力処理のフローチャートである。この処理は、ナビゲーション装置20のCPUが予め用意されたプログラムを実行し、制御部30、音声認識部25などの各構成要素として動作することにより実現される。なお、第1実施例と同様に、利用者は、音声入力に対して統計情報に基づく統計候補を表示するか否かを決定し、統計情報を使用するモードと使用しないモードのいずれかを予め設定しておく。
 図8に示す情報出力処理において、ステップS20~S26の処理は、図5に示す第2実施例の情報出力処理のステップS10~S16と同様であるので、説明を省略する。
 ステップS25又はS26において表示候補が決定されると、制御部30は、同一時間帯に同一の音声入力があったか否かを判定する(ステップS27)。即ち、制御部30は、ある音声入力がなされたときに、過去の所定時間以内に同一の音声入力がなされているか否かを判定する。これは、現在決定されている表示候補が、先に述べたケース3に該当するか否かの判定である。同一時間帯に同一の音声入力があった場合(ステップS27;Yes)、処理はステップS29へ進む。
 一方、同一時間帯に同一の音声入力がない場合(ステップS27;No)、制御部30は、ナビゲーション装置20の現在の使用状態が統計候補と一致するか否かを判定する(ステップS28)。これは、現在決定されている表示候補が、先に述べたケース2に該当するか否かの判定である。現在の使用状態が統計候補と一致する場合(ステップS28;Yes)、処理はステップS29へ進み、現在の使用状態が統計候補と一致しない場合(ステップS28;No)、処理はステップS30へ進む。
 ステップS29では、制御部30は、現在決定されている統計候補を、下位の統計候補に変更する。次に、制御部30は、現在決定されている3つの表示候補に重複する候補があるか否かを判定する(ステップS30)。これは、現在決定されている表示候補が、先に述べたケース1に該当するか否かの判定である。重複する候補がない場合(ステップS30;No)、処理はステップS32へ進む。一方、重複する候補がある場合(ステップS30;Yes)、制御部30は、重複する候補の一方を下位の候補に変更する(ステップS31)。そして、制御部30は、その時点における3つの表示候補を表示装置29に表示する(ステップS32)。こうして情報出力処理は終了する。
 なお、その後利用者が入力部23を操作して表示装置29に表示された3つの候補のうちのいずれかを選択した場合には、制御部30は、選択された候補に対応するコマンドを実行する。
 以上のように、第2実施例では、表示候補が重複する候補を含む場合、統計候補が現在のナビゲーション装置20の使用状態と一致する場合、又は、同一時間帯に同一の音声入力が複数回あった場合に、候補を変更して表示する。これにより、表示数が限定されている候補表示部42を有効に活用し、利用者に有益な候補を提示することが可能となる。また、音声入力のやり直しの可能性を少しでも減らすことができ、利用者は表示された候補を見ることにより発話コマンドを学習することができる。
 [変形例1]
 上記の実施例では、音声認識処理がナビゲーション装置20により実行され、統計情報に基づいて統計候補を決定する処理がサーバ10により実行されている。しかし、本発明はこの例に限定されるものではない。
 例えば、統計候補を決定する処理と音声認識処理の両方をサーバ10で実行することとしてもよい。その場合の情報システムの構成を図9に示す。サーバ10は、サーバ装置12、統計DB14に加え、辞書DB15を備える。ナビゲーション装置20は、利用者が発話したコマンドの音声データをサーバ10へ送信する。サーバ10のサーバ装置12は、辞書DB15を参照して音声認識処理を実行して音声認識候補を決定し、ナビゲーション装置20へ送信する。この構成でも、ナビゲーション装置20は、音声認識候補と統計候補を取得することができる。
 また、統計候補を決定する処理をナビゲーション装置20が実行し、音声認識処理をサーバ10が実行することとしてもよい。その場合の情報システムの構成を図10に示す。図9の例と同様に、サーバ10はナビゲーション装置20から送信された音声データについて音声認識処理を実行し、音声認識候補をナビゲーション装置20へ送信する。また、ナビゲーション装置20は、定期的にサーバ10へアクセスし、統計DB14に記憶されている統計情報をサーバ10からダウンロードして統計DB32へ保存しておく。そして、ナビゲーション装置20は、利用者が音声入力を行うと、統計DB32を参照して統計候補を決定する。
 さらには、統計候補を決定する処理と音声認識処理の両方をナビゲーション装置20が実行することとしてもよい。その場合の情報システムの構成を図11に示す。第1及び第2実施例と同様に、ナビゲーション装置20は、辞書DB26を利用して、音声認識処理を実行する。また、図10の例と同様に、ナビゲーション装置20は定期的にサーバ10から統計情報をダウンロードし、統計DB32へ保存しておく。そして、ナビゲーション装置20は、利用者が音声入力を行うと、統計DB32を参照して統計候補を決定する。
 [変形例2]
 上記の実施例では、統計情報は、各コマンドの使用頻度を日時に着目して統計処理したものであったが、本発明の適用はこれには限定されない。例えば、各コマンドの使用頻度を、利用者、複数の利用者により構成されるグループ、特定のエリア、行動が類似する利用者、同一車種、SNS(Social Networking Service)サイト上の友人、同一の目的地を設定している利用者などのグループに着目して統計処理することにより統計情報を生成し、その統計情報を用いて統計候補を決定することとしてもよい。
 本発明は、音声入力により制御可能な機器に利用することができる。
 10 サーバ
 12 サーバ装置
 14 統計DB
 20 ナビゲーション装置
 25 音声認識部
 26 辞書DB
 27 出力制御部
 29 表示装置
 30 制御部

Claims (13)

  1.  音声を入力する入力手段と、
     入力された音声を音声認識して音声認識候補を出力する音声認識手段と、
     前記音声が入力された際の利用者の利用状況に対応して、使用頻度の高い候補である統計候補を決定する統計候補決定手段と、
     前記音声認識候補と前記統計候補とを表示部に表示する表示制御手段と、を備え、
     前記表示制御手段は、前記音声認識により得られた音声認識候補の尤度に応じて、前記音声認識候補と前記統計候補の表示件数の比率を決定することを特徴とする情報出力装置。
  2.  前記表示制御手段は、前記音声認識の結果、他の音声認識候補に対して所定の閾値以上に尤度の高い音声認識候補が存在する場合、音声認識候補の表示件数の比率を下げることを特徴とする請求項1に記載の情報出力装置。
  3.  前記統計候補は、利用者自身又は他の利用者による使用頻度が、他の候補の使用頻度よりも高い候補であることを特徴とする請求項1又は2に記載の情報出力装置。
  4.  前記統計候補決定手段は、前記音声が入力された日時における使用頻度が、他の候補の使用頻度よりも高い候補を統計候補として決定することを特徴とする請求項1乃至3のいずれか一項に記載の情報出力装置。
  5.  前記表示制御手段は、前記音声認識候補と前記統計候補とで重複する候補が存在する場合、いずれか一方に代えて、次に尤度の高い音声認識候補又は次に使用頻度の高い統計候補を表示することを特徴とする請求項1乃至4のいずれか一項に記載の情報出力装置。
  6.  前記表示制御手段は、所定時間内に同一の音声が複数回入力された場合、前回表示した統計候補とは異なる統計候補を表示することを特徴とする請求項1乃至4のいずれか一項に記載の情報出力装置。
  7.  前記表示制御手段は、表示すべき統計候補が示す状態が、その時点における状態と一致する場合、当該表示すべき統計候補に代えて、次に使用頻度の高い統計候補を表示することを特徴とする請求項1乃至4のいずれか一項に記載の情報出力装置。
  8.  前記音声認識手段は、入力された音声を外部の音声認識装置へ送信し、当該外部の音声認識装置から音声認識候補を取得することを特徴とする請求項1乃至7のいずれか一項に記載の情報出力装置。
  9.  前記統計候補決定手段は、前記音声が入力された際の利用者の利用状況を示す情報をサーバへ送信し、当該利用状況に対応する統計候補を前記サーバから受信することを特徴とする請求項1乃至8のいずれか一項に記載の情報出力装置。
  10.  請求項1乃至7のいずれか一項に記載の情報出力装置と、
     複数の前記情報出力装置から操作履歴情報を収集するとともに、収集した操作履歴情報に基づいて統計情報を生成するサーバと、を備え、
     前記統計候補決定手段は、前記サーバから配信された統計情報を用いて統計候補を決定することを特徴とする情報システム。
  11.  表示部を有する情報出力装置において実行される情報出力方法であって、
     音声を入力する入力工程と、
     入力された音声を音声認識して音声認識候補を出力する音声認識工程と、
     前記音声が入力された際の利用者の利用状況に対応して、使用頻度の高い候補である統計候補を決定する統計候補決定工程と、
     前記音声認識候補と前記統計候補とを前記表示部に表示する表示制御工程と、を備え、
     前記表示制御工程は、前記音声認識により得られた音声認識候補の尤度に応じて、前記音声認識候補と前記統計候補の表示件数の比率を決定することを特徴とする情報出力方法。
  12.  コンピュータを有する情報出力装置において実行される情報出力プログラムであって、
     音声を入力する入力手段、
     入力された音声を音声認識して音声認識候補を出力する音声認識手段、
     前記音声が入力された際の利用者の利用状況に対応して、使用頻度の高い候補である統計候補を推定する推定手段、
     前記音声認識候補と前記統計候補とを表示部に表示する表示制御手段、として前記コンピュータを機能させ、
     前記表示制御手段は、前記音声認識により得られた音声認識候補の尤度に応じて、前記音声認識候補と前記統計候補の表示件数の比率を決定することを特徴とする情報出力プログラム。
  13.  請求項12に記載の情報出力プログラムを記憶した記憶媒体。
PCT/JP2010/070205 2010-11-12 2010-11-12 情報出力装置、情報出力方法、情報出力プログラム及び情報システム WO2012063360A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011518099A JP4876198B1 (ja) 2010-11-12 2010-11-12 情報出力装置、情報出力方法、情報出力プログラム及び情報システム
PCT/JP2010/070205 WO2012063360A1 (ja) 2010-11-12 2010-11-12 情報出力装置、情報出力方法、情報出力プログラム及び情報システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/070205 WO2012063360A1 (ja) 2010-11-12 2010-11-12 情報出力装置、情報出力方法、情報出力プログラム及び情報システム

Publications (1)

Publication Number Publication Date
WO2012063360A1 true WO2012063360A1 (ja) 2012-05-18

Family

ID=45781978

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/070205 WO2012063360A1 (ja) 2010-11-12 2010-11-12 情報出力装置、情報出力方法、情報出力プログラム及び情報システム

Country Status (2)

Country Link
JP (1) JP4876198B1 (ja)
WO (1) WO2012063360A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2683175A1 (en) * 2012-07-03 2014-01-08 Samsung Electronics Co., Ltd Display apparatus, interactive server, and response information providing method
US9489944B2 (en) 2013-12-13 2016-11-08 Kabushiki Kaisha Toshiba Information processing device, method and computer program product for processing voice recognition data
US11011174B2 (en) * 2018-12-18 2021-05-18 Yandex Europe Ag Method and system for determining speaker-user of voice-controllable device
CN113470638A (zh) * 2021-05-28 2021-10-01 荣耀终端有限公司 槽位填充的方法、芯片、电子设备和可读存储介质
US11505898B2 (en) 2018-06-20 2022-11-22 First Quality Tissue Se, Llc Laminated paper machine clothing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388006B2 (ja) * 2019-06-03 2023-11-29 コニカミノルタ株式会社 画像処理装置及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0836548A (ja) * 1994-07-21 1996-02-06 Sharp Corp システム状況情報管理装置
JPH09274497A (ja) * 1996-04-05 1997-10-21 Nissan Motor Co Ltd 音声認識装置
JPH09292896A (ja) * 1996-04-24 1997-11-11 Denso Corp 車両用ナビゲーション装置
JP2001312297A (ja) * 2000-04-28 2001-11-09 Nippon Seiki Co Ltd 音声認識装置
JP2003167600A (ja) * 2001-12-04 2003-06-13 Canon Inc 音声認識装置及び方法、ページ記述言語表示装置及びその制御方法、並びにコンピュータ・プログラム
JP2005229311A (ja) * 2004-02-12 2005-08-25 Ntt Docomo Inc 通信端末機
JP2007206886A (ja) * 2006-01-31 2007-08-16 Canon Inc 情報処理装置および方法
JP2010072507A (ja) * 2008-09-22 2010-04-02 Toshiba Corp 音声認識検索装置及び音声認識検索方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6249430A (ja) * 1985-08-28 1987-03-04 Toshiba Corp 計算機システム
JP2007226388A (ja) * 2006-02-22 2007-09-06 Konica Minolta Medical & Graphic Inc コマンド入力装置及びプログラム
JP2008164809A (ja) * 2006-12-27 2008-07-17 Denso Corp 音声認識装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0836548A (ja) * 1994-07-21 1996-02-06 Sharp Corp システム状況情報管理装置
JPH09274497A (ja) * 1996-04-05 1997-10-21 Nissan Motor Co Ltd 音声認識装置
JPH09292896A (ja) * 1996-04-24 1997-11-11 Denso Corp 車両用ナビゲーション装置
JP2001312297A (ja) * 2000-04-28 2001-11-09 Nippon Seiki Co Ltd 音声認識装置
JP2003167600A (ja) * 2001-12-04 2003-06-13 Canon Inc 音声認識装置及び方法、ページ記述言語表示装置及びその制御方法、並びにコンピュータ・プログラム
JP2005229311A (ja) * 2004-02-12 2005-08-25 Ntt Docomo Inc 通信端末機
JP2007206886A (ja) * 2006-01-31 2007-08-16 Canon Inc 情報処理装置および方法
JP2010072507A (ja) * 2008-09-22 2010-04-02 Toshiba Corp 音声認識検索装置及び音声認識検索方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2683175A1 (en) * 2012-07-03 2014-01-08 Samsung Electronics Co., Ltd Display apparatus, interactive server, and response information providing method
RU2583445C1 (ru) * 2012-07-03 2016-05-10 Самсунг Электроникс Ко., Лтд. Устройство отображения, интерактивная система и способ обеспечения ответной информации
US9412368B2 (en) 2012-07-03 2016-08-09 Samsung Electronics Co., Ltd. Display apparatus, interactive system, and response information providing method
US9489944B2 (en) 2013-12-13 2016-11-08 Kabushiki Kaisha Toshiba Information processing device, method and computer program product for processing voice recognition data
US11505898B2 (en) 2018-06-20 2022-11-22 First Quality Tissue Se, Llc Laminated paper machine clothing
US11011174B2 (en) * 2018-12-18 2021-05-18 Yandex Europe Ag Method and system for determining speaker-user of voice-controllable device
US20210272572A1 (en) * 2018-12-18 2021-09-02 Yandex Europe Ag Method and system for determining speaker-user of voice-controllable device
US11514920B2 (en) 2018-12-18 2022-11-29 Yandex Europe Ag Method and system for determining speaker-user of voice-controllable device
CN113470638A (zh) * 2021-05-28 2021-10-01 荣耀终端有限公司 槽位填充的方法、芯片、电子设备和可读存储介质
CN113470638B (zh) * 2021-05-28 2022-08-26 荣耀终端有限公司 槽位填充的方法、芯片、电子设备和可读存储介质

Also Published As

Publication number Publication date
JPWO2012063360A1 (ja) 2014-05-12
JP4876198B1 (ja) 2012-02-15

Similar Documents

Publication Publication Date Title
US12052633B2 (en) Time-delimited action suggestion system
US11133008B2 (en) Reducing the need for manual start/end-pointing and trigger phrases
US10845871B2 (en) Interaction and management of devices using gaze detection
US9809185B2 (en) Method and apparatus for subjective command control of vehicle systems
JP4876198B1 (ja) 情報出力装置、情報出力方法、情報出力プログラム及び情報システム
US20140244259A1 (en) Speech recognition utilizing a dynamic set of grammar elements
EP3201914B1 (en) Speaker identification and unsupervised speaker adaptation techniques
JP6348831B2 (ja) 音声入力補助装置、音声入力補助システムおよび音声入力方法
US9715877B2 (en) Systems and methods for a navigation system utilizing dictation and partial match search
EP2518447A1 (en) System and method for fixing user input mistakes in an in-vehicle electronic device
CN110286745B (zh) 对话处理系统、具有对话处理系统的车辆及对话处理方法
US11131556B2 (en) System and method for selecting a point of interest based on wait time
US20140074473A1 (en) Navigation apparatus
CN111746435B (zh) 信息提供装置、信息提供方法及存储介质
KR102371513B1 (ko) 대화 시스템 및 대화 처리 방법
CN110015309A (zh) 车辆驾驶辅助系统和方法
CN116821511A (zh) 一种信息推荐方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2011518099

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10859468

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10859468

Country of ref document: EP

Kind code of ref document: A1