Nothing Special   »   [go: up one dir, main page]

WO2018061956A1 - 会話アシスト装置および会話アシスト方法 - Google Patents

会話アシスト装置および会話アシスト方法 Download PDF

Info

Publication number
WO2018061956A1
WO2018061956A1 PCT/JP2017/034010 JP2017034010W WO2018061956A1 WO 2018061956 A1 WO2018061956 A1 WO 2018061956A1 JP 2017034010 W JP2017034010 W JP 2017034010W WO 2018061956 A1 WO2018061956 A1 WO 2018061956A1
Authority
WO
WIPO (PCT)
Prior art keywords
speaker
signal
sound
seat
howling
Prior art date
Application number
PCT/JP2017/034010
Other languages
English (en)
French (fr)
Inventor
克也 平野
威 岡見
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016192952A external-priority patent/JP6753252B2/ja
Priority claimed from JP2016231609A external-priority patent/JP6862797B2/ja
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to CN201780057957.1A priority Critical patent/CN109983782B/zh
Publication of WO2018061956A1 publication Critical patent/WO2018061956A1/ja
Priority to US16/367,930 priority patent/US10812901B2/en
Priority to US16/895,551 priority patent/US10932042B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/02Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers

Definitions

  • the present invention relates to a technology for assisting conversation.
  • Patent Document 1 describes an in-car conversation assist device that assists in-car conversation.
  • this in-car conversation assistance device a microphone and a speaker are provided corresponding to each of the four seats arranged in a rectangle.
  • the output level of the conversation voice from each speaker is adjusted so that the voice of the speaker can be heard from around the speaker's seat.
  • the present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a technique capable of suppressing the occurrence of a situation in which it is difficult to hear a sound emitted from a speaker.
  • One aspect of the conversation assist device is a speaker in which sound signals generated based on output signals of microphones arranged for each of the four seats arranged in a rectangle are arranged for each of the seats.
  • positioned is included.
  • the four seats arranged in a rectangle are based on the output signals of the microphones arranged for the respective seats.
  • a supply unit that switches a supply destination of the generated sound signal to a speaker that is different from a speaker that is a current supply destination of the sound signal among speakers arranged for each seat.
  • the conversation assist method when a howling occurrence signal indicating occurrence of howling is received, four seats arranged in a rectangle are generated based on output signals of microphones arranged for the respective seats.
  • the supply destination of the sound signal is switched to a speaker different from the speaker that is the current supply destination of the sound signal among the speakers arranged for each seat.
  • FIG. 4 is a diagram illustrating an example of a supply unit 4. It is the figure which showed 100A of conversation assistance apparatuses which concern on 2nd Embodiment of this invention. It is the figure which showed an example of 4 A of supply parts. It is a flowchart for demonstrating operation
  • FIG. 4 is a diagram illustrating an example of a supply unit 4. It is the figure which showed 100A of conversation assistance apparatuses which concern on 2nd Embodiment of this invention. It is the figure which showed an example of 4 A of supply parts. It is a flowchart for demonstrating operation
  • FIG 4 is a diagram illustrating an example of a supply unit 4. It is the figure which showed an example of noise related information. It is a flowchart for demonstrating operation
  • FIG. 1 is a diagram showing a conversation assist device 100 according to the first embodiment of the present invention.
  • the conversation assist device 100 is used in a vehicle.
  • four seats 51 to 54 arranged in a rectangle, a ceiling 6, a front right door 71, a front left door 72, and a rear right door 73.
  • a rear left door 74, microphones 11 to 14, and speakers 21 to 24 are arranged.
  • the seat 51 is a driver seat.
  • the seat 52 is a passenger seat.
  • the seat 53 is a rear right seat.
  • the seat 54 is a rear left seat.
  • Each of the seats 51 to 54 is formed of a member made of cloth or leather. For this reason, the seats 51 to 54 have sound absorbing properties.
  • the seats 51 to 54 face the common direction.
  • the conversation assist device 100 includes signal processing units 31 to 34 and a supply unit 4.
  • Each of the microphones 11 to 14 outputs an output signal corresponding to the collected sound.
  • the microphone 11 is arranged with respect to the seat 51. In the example illustrated in FIG. 1, the microphone 11 is disposed in a region 61 of the ceiling 6 that faces the seating surface of the seat 51.
  • the microphone 12 is disposed with respect to the seat 52. In the example illustrated in FIG. 1, the microphone 12 is disposed in a region 62 of the ceiling 6 that faces the seating surface of the seat 52.
  • the microphone 13 is arranged with respect to the seat 53. In the example illustrated in FIG. 1, the microphone 13 is disposed in a region 63 of the ceiling 6 that faces the seating surface of the seat 53.
  • the microphone 14 is arranged with respect to the seat 54. In the example illustrated in FIG. 1, the microphone 14 is disposed in a region 64 of the ceiling 6 that faces the seating surface of the seat 54.
  • the speaker 21 is arranged with respect to the seat 51.
  • the speaker 21 is disposed on the front light door 71 located beside the seat 51.
  • the speaker 22 is arranged with respect to the seat 52.
  • the speaker 22 is disposed on a front left door 72 located beside the seat 52.
  • the speaker 23 is arranged for the seat 53.
  • the speaker 23 is disposed on a rear light door 73 located beside the seat 53.
  • the speaker 24 is arranged with respect to the seat 54.
  • the speaker 24 is disposed on a rear left door 74 located beside the seat 54.
  • the signal processing unit 31 generates a sound signal A1 based on the output signal M1 of the microphone 11. For example, the signal processing unit 31 adds a delay to the output signal M1, and amplifies the output signal M1 to which the delay is added, thereby generating the sound signal A1.
  • the signal processing unit 32 generates a sound signal A2 based on the output signal M2 of the microphone 12. For example, the signal processing unit 32 adds a delay to the output signal M2, and amplifies the output signal M2 to which the delay is added, thereby generating the sound signal A2.
  • the signal processing unit 33 generates a sound signal A3 based on the output signal M3 of the microphone 13.
  • the signal processing unit 33 adds a delay to the output signal M3, and amplifies the output signal M3 to which the delay is added, thereby generating the sound signal A3.
  • the signal processing unit 34 generates a sound signal A4 based on the output signal M4 of the microphone 14. For example, the signal processing unit 34 adds a delay to the output signal M4, and amplifies the output signal M4 to which the delay is added, thereby generating the sound signal A4.
  • the supply unit 4 supplies the sound signal A ⁇ b> 1 to the speaker 24 arranged for a seat (diagonal seat) 54 that is located diagonally to the seat 51 where the microphone 11 is arranged.
  • the supply unit 4 supplies the sound signal A ⁇ b> 2 to the speaker 23 arranged with respect to the seat (diagonal seat) 53 that is located diagonally to the seat 52 where the microphone 12 is arranged.
  • the supply unit 4 supplies the sound signal A3 to the speaker 22 arranged for a seat (diagonal seat) 52 that is located diagonally to the seat 53 where the microphone 13 is arranged.
  • the supply unit 4 supplies the sound signal A4 to the speaker 21 arranged with respect to the seat (diagonal seat) 51 located diagonally to the seat 54 where the microphone 14 is arranged.
  • the conversation assist device 100 allows the occupant's conversation so that the occupant can easily hear the conversational sound of other occupants by emitting the conversational sound collected by the microphone from the speaker away from the microphone. Assist.
  • FIG. 2 is a diagram illustrating an example of the supply unit 4.
  • the supply unit 4 illustrated in FIG. 2 includes a wiring 41 that electrically connects the signal processing unit 31 and the speaker 24, a wiring 42 that electrically connects the signal processing unit 32 and the speaker 23, and a signal processing unit 33. And a wiring 43 that electrically connects the speaker 22 and a wiring 44 that electrically connects the signal processing unit 34 and the speaker 21.
  • the sound signal A1 is supplied to the speaker 24 through the wiring 41.
  • the speaker 24 outputs a sound corresponding to the sound signal A1 (a sound corresponding to the output signal M1 of the microphone 11).
  • the sound signal A2 is supplied to the speaker 23 through the wiring 42.
  • the speaker 23 outputs a sound corresponding to the sound signal A2 (a sound corresponding to the output signal M2 of the microphone 12).
  • the sound signal A3 is supplied to the speaker 22 through the wiring 43.
  • the speaker 22 outputs a sound corresponding to the sound signal A3 (a sound corresponding to the output signal M3 of the microphone 13).
  • the sound signal A4 is supplied to the speaker 21 through the wiring 44.
  • the speaker 21 outputs a sound corresponding to the sound signal A4 (a sound corresponding to the output signal M4 of the microphone 14).
  • the speaker to which the sound signal is supplied is the speaker having the longest distance from the microphone that emits the output signal that is the source of the sound signal, among the speakers 21 to 24 arranged for each seat. It becomes possible. Howling is likely to occur when the output of the amplifier is positively fed back to the input of the amplifier in a situation where the microphone collects the sound emitted from the speaker.
  • the speaker with the longest distance from the microphone outputs sound, the sound output from the speaker attenuates more than the sound output from other speakers and reaches the microphone. For this reason, it is possible to reduce the possibility of howling occurring during conversation. Therefore, it becomes easy to hear the sound emitted from the speaker.
  • the seat (particularly the back of the seat) is located between the microphone that outputs the output signal and the speaker to which the sound signal is supplied, the sound emitted from the speaker is easily absorbed by the seat. As a result, it is possible to reduce the possibility of howling occurring.
  • a person's story becomes difficult to understand when the time interval between syllables increases. Therefore, when reverberation is added to the sound emitted by the speaker, the time interval between the syllables becomes small, and the sound emitted by the speaker becomes easy for the listener to hear. Since each of the seats 51 to 54 has a sound absorbing property, the reverberation of the sound produced by the speaker is smaller than when the seats 51 to 54 are not present. Therefore, the sound produced by the speaker may be difficult for the listener to hear because the time interval between the syllables becomes larger than when the seats 51 to 54 are not present.
  • a sound signal is generated by adding a delay to the output signals of the microphones 11 to 14.
  • the sound emitted by each of the speakers 21 to 24 in response to the sound signal functions as the reverberation of the sound spoken by the speaker. For this reason, the time interval between syllables can be reduced compared to the case where no delay is added to the output signals of the microphones 11 to 14, and the possibility that it becomes difficult for the listener to hear the sound can be reduced.
  • the speaker since the speaker can hear from the speaker a voice in which the voice produced by the speaker is delayed, the speaker's own voice can be monitored. However, it is possible to add no delay (set the delay time to 0) by setting.
  • the supply destination of each of the sound signals A1 to A4 is fixed.
  • the supply destination of each of the sound signals A1 to A4 is changed.
  • FIG. 3 is a diagram showing a conversation assist device 100A according to the second embodiment.
  • the same components as those shown in FIG. Hereinafter, the present embodiment will be described focusing on differences from the first embodiment.
  • the conversation assist device 100A is different from the conversation assist device 100 shown in FIG. 1 in that the conversation assist device 100A includes detection units 81 to 84 and uses the supply unit 4A instead of the supply unit 4.
  • the detection unit 81 detects howling based on the output signal M ⁇ b> 1 of the microphone 11. For example, the detection unit 81 compares the frequency component of the output signal M1 with a predetermined level threshold value for each different frequency band, and the frequency component of the output signal M1 has a threshold value in any frequency band. If it exceeds, howling is detected. When detecting howling, the detecting unit 81 outputs a howling generation signal D1 indicating the occurrence of howling. The detector 82 detects howling based on the output signal M2 of the microphone 12. The howling detection method in the detection unit 82 is based on the howling detection method in the detection unit 81. When detecting howling, the detecting unit 82 outputs a howling generation signal D2.
  • the detection unit 83 detects howling based on the output signal M3 of the microphone 13.
  • the howling detection method in the detection unit 83 is based on the howling detection method in the detection unit 81.
  • the detecting unit 83 outputs a howling generation signal D3.
  • the detector 84 detects howling based on the output signal M4 of the microphone 14.
  • the howling detection method in the detection unit 84 is based on the howling detection method in the detection unit 81.
  • the detecting unit 84 outputs a howling generation signal D4.
  • the supply unit 4A When the supply unit 4A receives one of the howling generation signals D1 to D4, the supply unit 4A changes the supply destination of the sound signals A1 to A4.
  • FIG. 4 is a diagram illustrating an example of the supply unit 4A.
  • the supply unit 4A illustrated in FIG. 4 includes multiplexers 4A1 to 4A4, a control unit 4A51, and a storage unit 4A52.
  • the multiplexer 4A1 supplies one of the sound signals A1 to A4 to the speaker 24 based on the control signal C1 from the control unit 4A51.
  • the multiplexer 4A2 supplies one of the sound signals A1 to A4 to the speaker 23 based on the control signal C2 from the control unit 4A51.
  • the multiplexer 4A3 supplies one of the sound signals A1 to A4 to the speaker 22 based on the control signal C3 from the control unit 4A51.
  • the multiplexer 4A4 supplies any of the sound signals A1 to A4 to the speaker 21 based on the control signal C4 from the control unit 4A51.
  • the multiplexer 4A1 supplies the sound signal A2 to the speaker 24, the multiplexer 4A2 supplies the sound signal A1 to the speaker 23, the multiplexer 4A3 supplies the sound signal A4 to the speaker 22, and the multiplexer 4A4 The signal A3 is supplied to the speaker 21.
  • the case where the multiplexers 4A1 to 4A4 are in the default state is referred to as “default state”.
  • the control unit 4A51 is, for example, a CPU (Central Processing Unit).
  • the control unit 4A51 operates by reading and executing a program stored in the storage unit 4A52.
  • the storage unit 4A52 is an example of a computer-readable recording medium.
  • the storage unit 4A52 is a non-transitory recording medium.
  • the storage unit 4A52 is, for example, a known arbitrary type recording medium such as a semiconductor recording medium, a magnetic recording medium, or an optical recording medium, or a recording medium in which these recording media are combined.
  • “non-transient” recording media are all computer-readable except for recording media such as transmission lines that temporarily store transitory propagating signals. However, this does not exclude volatile recording media.
  • the control unit 4A51 controls the multiplexer 4A1 using the control signal C1, controls the multiplexer 4A2 using the control signal C2, controls the multiplexer 4A3 using the control signal C3, and uses the control signal C4. Controls the multiplexer 4A4.
  • FIG. 5 is a flowchart for explaining the operation of the conversation assist device 100A.
  • the supply unit 4A repeatedly executes the operation shown in FIG.
  • control unit 4A51 receives any of the howling generation signals D1 to D4. Upon receiving any of the howling generation signals D1 to D4, the control unit 4A51 determines whether or not the multiplexers 4A1 to 4A4 are in the default state (step S2).
  • step S2 When the multiplexers 4A1 to 4A4 are in the default state (step S2: YES), the control unit 4A51 controls the multiplexer 4A1 with the control signal C1 to change the sound signal supplied to the speaker 24 from the sound signal A2. Switching to the signal A1 (step S3).
  • control unit 4A51 controls the multiplexer 4A2 with the control signal C2, and switches the sound signal supplied to the speaker 23 from the sound signal A1 to the sound signal A2 (step S4).
  • control unit 4A51 controls the multiplexer 4A3 with the control signal C3, and switches the sound signal supplied to the speaker 22 from the sound signal A4 to the sound signal A3 (step S5).
  • control unit 4A51 controls the multiplexer 4A4 with the control signal C4 to switch the sound signal supplied to the speaker 21 from the sound signal A3 to the sound signal A4 (step S6).
  • control unit 4A51 preferably executes steps S3 to S6 simultaneously.
  • the state of the multiplexers 4A1 to 4A4 when step S6 is completed is referred to as a “specific state”.
  • the occurrence condition of howling may change depending on the arrangement state of the luggage in the vehicle, for example, the situation of the luggage placed on the seat. For this reason, when the control unit 4A51 receives any of the howling generation signals D1 to D4 in a situation where the multiplexers 4A1 to 4A4 are in a specific state, the control unit 4A51 may execute the first process or the second process described below. Good.
  • the control unit 4A51 controls the multiplexer 4A1 using the control signal C1 to switch the sound signal supplied to the speaker 24 from the sound signal A1 to the sound signal A3.
  • the control unit 4A51 controls the multiplexer 4A2 using the control signal C2 to switch the sound signal supplied to the speaker 23 from the sound signal A2 to the sound signal A4.
  • the control unit 4A51 controls the multiplexer 4A3 using the control signal C3 to switch the sound signal supplied to the speaker 22 from the sound signal A3 to the sound signal A1.
  • the control unit 4A51 controls the multiplexer 4A4 using the control signal C4 to switch the sound signal supplied to the speaker 21 from the sound signal A4 to the sound signal A2.
  • the state of the multiplexers 4A1 to 4A4 when the first process is completed is referred to as a “first state”.
  • the control unit 4A51 controls the multiplexer 4A1 using the control signal C1 to switch the sound signal supplied to the speaker 24 from the sound signal A1 to the sound signal A4.
  • the control unit 4A51 controls the multiplexer 4A2 using the control signal C2 to switch the sound signal supplied to the speaker 23 from the sound signal A2 to the sound signal A3.
  • the control unit 4A51 controls the multiplexer 4A3 using the control signal C3 to switch the sound signal supplied to the speaker 22 from the sound signal A3 to the sound signal A2.
  • the control unit 4A51 controls the multiplexer 4A4 using the control signal C4 to switch the sound signal supplied to the speaker 21 from the sound signal A4 to the sound signal A1.
  • the state of the multiplexers 4A1 to 4A4 when the second process is completed is referred to as a “second state”.
  • control unit 4A51 When the control unit 4A51 receives any of the howling generation signals D1 to D4 in the situation where the multiplexers 4A1 to 4A4 are in the first state, the control unit 4A51 changes the state of the multiplexers 4A1 to 4A4 from the first state to the default state, You may perform the 3rd process changed to a specific state or a 2nd state.
  • control unit 4A51 changes the state of the multiplexers 4A1 to 4A4 from the second state to the default state. You may perform the 4th process changed to a specific state or a 1st state.
  • the control unit 4A51 changes the state of the multiplexers 4A1 to 4A4 from the default state to the first state. Or you may perform the 5th process changed to a 2nd state.
  • a howling generation signal is automatically output.
  • a howling generation signal is output in response to a switch operation.
  • FIG. 6 is a diagram showing a conversation assist device 100B according to the third embodiment.
  • the present embodiment will be described focusing on differences from the first embodiment.
  • the conversation assist device 100B includes an operation switch 91 and an output unit 92 that outputs a howling generation signal D5 in response to an operation of the operation switch 91 by a user, and uses a supply unit 4B instead of the supply unit 4 1 differs from the conversation assist device 100 shown in FIG.
  • Supply unit 4B includes multiplexers 4A1 to 4A4, control unit 4A61, and storage unit 4A62.
  • the control unit 4A61 is, for example, a CPU.
  • the control unit 4A61 operates by reading and executing a program stored in the storage unit 4A62.
  • the storage unit 4A62 is an example of a computer-readable recording medium. Furthermore, the storage unit 4A62 is a non-transitory recording medium.
  • the storage unit 4A62 is, for example, a known arbitrary type recording medium such as a semiconductor recording medium, a magnetic recording medium, an optical recording medium, or a recording medium in which these recording media are combined.
  • the control unit 4A61 controls the multiplexer 4A1 using the control signal C1, controls the multiplexer 4A2 using the control signal C2, controls the multiplexer 4A3 using the control signal C3, and uses the control signal C4. Controls the multiplexer 4A4.
  • FIG. 7 is a flowchart for explaining the operation of the conversation assist device 100B.
  • the supply unit 4B repeatedly executes the operation shown in FIG.
  • control unit 4A61 When the operation switch 91 is operated by the user (step S11: YES), the output unit 92 outputs a howling generation signal D5.
  • control unit 4A61 receives howling occurrence signal D5, control unit 4A61 executes the processes in and after step S2. Note that the control unit 4A61 preferably executes steps S3 to S6 simultaneously.
  • howling occurs may change depending on the arrangement state of the luggage in the vehicle, for example, the situation of the luggage placed on the seat. Therefore, when the control unit 4A61 receives the howling occurrence signal D5 in a situation where the multiplexers 4A1 to 4A4 are in the specific state, the control unit 4A61 may execute the first process or the second process described above. . In this case, the subject that executes the processing is not the control unit 4A51 but the control unit 4A61.
  • the control unit 4A61 may execute the third process when receiving the howling generation signal D5 in the situation where the multiplexers 4A1 to 4A4 are in the first state.
  • the control unit 4A61 may execute the fourth process when receiving the howling generation signal D5 in a situation where the multiplexers 4A1 to 4A4 are in the second state. Note that the control unit 4A61 may execute the fifth process when any of the howling generation signals D1 to D4 is received in a situation where the multiplexers 4A1 to 4A4 are in the default state.
  • the signal processing unit 31 may execute only the process of amplifying the output signal M1 without executing the signal process for adding a delay to the output signal M1.
  • the signal processing units 32 to 34 may also perform signal processing according to the signal processing unit 31.
  • the signal processing unit 31 adds a delay to the output signal M1, and amplifies the output signal M1 to which the delay is added.
  • the process of adding a delay to the output signal M1 may be executed somewhere between the input end of the signal processing unit 31 and the output end of the supply unit 4, 4A, or 4B.
  • the process of adding a delay to the output signal M2 may be executed somewhere between the input end of the signal processing unit 32 and the output end of the supply unit 4, 4A, or 4B.
  • the process of adding a delay to the output signal M3 may be executed somewhere between the input end of the signal processing unit 33 and the output end of the supply unit 4, 4A, or 4B.
  • the process of adding a delay to the output signal M4 may be executed somewhere between the input end of the signal processing unit 34 and the output end of the supply unit 4, 4A, or 4B.
  • the processing for adding the delay is, for example, storing a digital signal corresponding to the output signal of the microphone in a memory included in each of the signal processing units 31 to 34, and reading the digital signal from the memory when the delay time has elapsed from that point. Is output.
  • a memory having a capacity corresponding to the digital signal corresponding to the output signal of the microphone may be used.
  • One or more seats may be arranged between the seat 51 and the seat 53.
  • One or more seats may be arranged between the seat 52 and the seat 54. Further, the seat 53 and the seat 54 may be integrally formed.
  • One or more seats may be disposed between the seat 53 and the seat 54. In this case, the seat between the seat 53 and the seat 54, the seat 53, and the seat 54 may be integrally formed.
  • ⁇ Fourth embodiment> If the delay time added to the output signal of the microphone is constant, it may be difficult to hear the sound from the speaker according to the volume of the noise sound.
  • Japanese Unexamined Patent Application Publication No. 2008-42390 describes an in-car conversation support system that collects sound emitted by a speaker with a microphone and outputs the sound from a speaker with a delay of a certain time (5 to 20 ms). Yes.
  • the delay time added to the output signal of the microphone is constant, it may be difficult to hear the sound from the speaker according to the volume of the noise sound.
  • the loud noise noise is long enough to overlap in time with both the sound emitted by the speaker and the sound from the speaker (sound corresponding to the sound emitted by the speaker), May be difficult to hear both the sound produced by the speaker and the sound from the speaker.
  • the listener will hear the sound from the speaker considerably later than the sound emitted by the speaker.
  • the sound from the speaker may be uncomfortable and it may be difficult to hear the sound from the speaker.
  • the fourth embodiment of the present invention controls the delay time added to the output signal of the microphone.
  • FIG. 8 is a diagram showing a conversation assist system 1 including a conversation assist device 100C according to the fourth embodiment of the present invention.
  • the conversation assist system 1 is used in the vehicle C.
  • seats 51 to 54, a ceiling 6, a front right door 71, a front left door 72, a rear right door 73, and a rear left door 74 are arranged. ing.
  • the conversation assist system 1 includes microphones 11 to 14 and 181, speakers 21 to 24, and a conversation assist device 100C.
  • the microphone 181 collects sound in the passenger compartment R and outputs an output signal M8 corresponding to the collected sound.
  • the output signal M8 is used to specify the noise volume in the passenger compartment R.
  • Noise refers to engine sound, tire noise, wind noise, vehicle interior air conditioner sound, environmental sound from outside the vehicle, and the like when the vehicle is running.
  • the conversation assist device 100C includes signal processing units 31 to 34, a supply unit 4, a storage unit 182 and a control unit 183.
  • Each of the signal processing units 31 to 34 is an example of a sound processing unit.
  • the signal processing unit 31 adds a delay to the output signal M1 of the microphone 11 to generate the sound signal A1.
  • the process of adding a delay to the output signal M1 is performed, for example, by storing a digital signal corresponding to the output signal M1 in an internal memory of the signal processing unit 31, and from the memory when the delay time has elapsed from the storage time. This is a process of reading out and outputting the digital signal.
  • FIG. 9 is a diagram illustrating an example of the supply unit 4.
  • the storage unit 182 is, for example, a known arbitrary type recording medium such as a semiconductor recording medium, a magnetic recording medium, or an optical recording medium, or a recording medium in which these recording media are combined.
  • the storage unit 182 stores a program that defines the operation of the control unit 183 and noise relationship information that indicates the correspondence between the noise volume and the delay time.
  • the noise related information may be a table in which the noise volume and the delay time are associated with each other, or may be a mathematical expression having the noise volume as an independent variable and the delay time as a dependent variable.
  • FIG. 10 is a diagram illustrating an example of a correspondence relationship between the noise volume and the delay time indicated by the noise relationship information. In the noise-related information shown in FIG. 10, the delay time becomes longer as the noise volume increases.
  • An upper limit value Tref (for example, 50 ms) is set for the delay time. When the delay time becomes long and the sound from the speaker overlaps with the next mora of the speaker's live voice, it becomes impossible to distinguish the front and rear mora, making listening difficult.
  • the upper limit value Tref is set to a time shorter than the delay time that makes speech recognition difficult in consideration of this point.
  • the upper limit value Tref is not limited to 50 ms and can be changed as appropriate.
  • the control unit 183 is a computer such as a CPU.
  • the control unit 183 operates as follows by reading and executing the program stored in the storage unit 182.
  • the control unit 183 controls the delay time added to the output signals M1 to M4 according to the state of the vehicle C (for example, the noise volume in the passenger compartment R).
  • the control unit 183 specifies the noise volume in the passenger compartment R using the output signal M8 of the microphone 181.
  • the noise volume in the passenger compartment R is the volume of sound other than the conversation in the passenger compartment R (for example, the traveling sound and environmental sound of the vehicle C).
  • the control unit 183 uses the noise related information stored in the storage unit 182 to determine a delay time corresponding to the noise volume in the passenger compartment R.
  • the control unit 183 sets the delay time added by the signal processing units 31 to 34 to the delay time determined using the noise related information.
  • FIG. 11 is a flowchart for explaining the operation of the conversation assist device 100C.
  • the control unit 183 specifies the noise volume in the passenger compartment R (step S101).
  • the control unit 183 extracts a sound signal indicating noise in the passenger compartment R by subtracting the output signals M1 to M4 from the output signal M8.
  • the control unit 183 specifies the noise volume based on the sound signal.
  • the control unit 183 receives the output signal M1 from the signal processing unit 31.
  • the control unit 183 receives the output signal M2 from the signal processing unit 32.
  • the control unit 183 receives the output signal M3 from the sound processing unit 33.
  • the control unit 183 receives the output signal M4 from the signal processing unit 34.
  • step S102 controls the delay time added to the output signals M1 to M4 according to the noise volume in the passenger compartment R (step S102).
  • step S ⁇ b> 102 the control unit 183 determines the delay time corresponding to the noise volume in the passenger compartment R using the noise related information stored in the storage unit 182. In the noise related information, the delay time becomes longer as the noise volume increases. For this reason, the control part 183 lengthens delay time, so that the noise volume in the vehicle interior R is large.
  • the control unit 183 outputs delay time information indicating the determined delay time to the signal processing units 31 to 34.
  • the signal processing unit 31 adds the delay time indicated in the delay time information to the output signal M1 to generate the sound signal A1.
  • the signal processor 32 adds the delay time to the output signal M2 to generate the sound signal A2.
  • the signal processing unit 33 adds the delay time to the output signal M3 to generate the sound signal A3.
  • the signal processing unit 34 adds the delay time to the output signal M4 to generate the sound signal A4.
  • the supply unit 4 supplies the sound signal A1 to the speaker 24, supplies the sound signal A2 to the speaker 23, supplies the sound signal A3 to the speaker 22, and supplies the sound signal A4 to the speaker 21.
  • the speaker 24 outputs a sound corresponding to the sound signal A1.
  • the speaker 23 outputs a sound corresponding to the sound signal A2.
  • the speaker 22 outputs a sound corresponding to the sound signal A3.
  • the speaker 21 outputs a sound corresponding to the sound signal A4 (step S103).
  • the delay time of the output signal of the microphone is controlled according to the noise volume in the passenger compartment R.
  • the delay time is controlled according to the noise volume in the passenger compartment R so that the listener can easily hear the speaker's speech and the listener or the speaker does not feel uncomfortable with the sound from the speaker. It becomes possible. For example, if the delay time is increased as the noise volume in the passenger compartment R increases, both the sound produced by the speaker and the sound output from the speaker are less likely to overlap in time with the sudden loud noise. , It becomes easier for the listener to hear the speech of the speaker.
  • the smaller the noise volume in the passenger compartment R the shorter the time difference between the sound produced by the speaker and the sound from the speaker, making it difficult for the listener or speaker to feel uncomfortable about the sound from the speaker.
  • the volume of noise in the passenger compartment R has a strong correlation with the speed of the vehicle C.
  • the noise volume in the passenger compartment R tends to increase as the speed of the vehicle C increases. Therefore, in the fifth embodiment of the present invention, the delay time for the output signal of the microphone is controlled according to the speed of the vehicle C.
  • FIG. 12 is a diagram showing a conversation assist device 100D of the fifth embodiment.
  • the storage unit 182 stores speed relationship information indicating a correspondence relationship between the speed and the delay time instead of the noise relationship information, and includes a control unit 183a instead of the control unit 183.
  • the control unit 183a The point which receives the speed information which shows the speed of the vehicle C from the vehicle control apparatus 9 is different from the conversation assistance apparatus 100C of 4th Embodiment. Further, the microphone 181 that was present in the passenger compartment R in the fourth embodiment is omitted in the fifth embodiment.
  • the conversation assist device 100D will be described focusing on the above-described differences.
  • the vehicle control device 9 controls the state of the vehicle C (for example, the speed of the vehicle C).
  • the vehicle control device 9 outputs speed information to the control unit 183a.
  • the storage unit 182 stores speed-related information as illustrated in FIG.
  • the speed relationship information may be a table in which the speed and the delay time are associated with each other, or may be a mathematical expression having the speed as an independent variable and the delay time as a dependent variable. In the speed-related information shown in FIG. 13, the higher the speed, the longer the delay time.
  • the above-described upper limit value Tref (for example, 50 ms) is set for the delay time.
  • the control unit 183a controls the delay time added to the output signals M1 to M4 according to the speed of the vehicle C.
  • the control unit 183a determines the delay time corresponding to the speed indicated by the speed information, using the speed relation information in the storage unit 182. In the speed-related information in the storage unit 182, the delay time becomes longer as the speed is higher. Therefore, the control unit 183 a increases the delay time as the speed of the vehicle C is higher. Subsequently, the control unit 183a outputs delay time information indicating the determined delay time to the signal processing units 31 to 34.
  • the delay time of the output signal of the microphone is controlled according to the speed of the vehicle C that has a strong correlation with the noise volume in the passenger compartment R. For this reason, it is possible to control the delay time according to the speed of the vehicle C so that the listener can easily hear the speaker's speech and the listener or the speaker does not feel uncomfortable with the sound from the speaker. become.
  • the delay time is increased as the speed of the vehicle C increases (that is, the noise volume in the passenger compartment R increases)
  • both the sound emitted by the speaker and the sound output from the speaker are suddenly increased. It becomes difficult to overlap with the noise sound of the volume in time, and it becomes easier for the listener to hear the speaker's speech.
  • the slower the speed of the vehicle C that is, the smaller the noise volume in the passenger compartment R
  • the speaker becomes difficult to remember.
  • ⁇ Modification B1> An amplification unit that amplifies the sound signal A1, an amplification unit that amplifies the sound signal A2, an amplification unit that amplifies the sound signal A3, and an amplification unit that amplifies the sound signal A4 may be added. Without adding these amplifying units, the signal processing unit 31 amplifies the sound signal A1, the signal processing unit 32 amplifies the sound signal A2, and the signal processing unit 33 amplifies the sound signal A3.
  • the unit 34 may amplify the sound signal A4.
  • the noise related information can be changed as appropriate.
  • noise relationship information representing the relationship between the noise volume and the delay time as shown in FIG. 14 or 15 may be used.
  • the delay time becomes longer as the noise volume is larger.
  • the delay time increases stepwise as the noise volume increases.
  • the speed related information can be changed as appropriate.
  • speed relationship information indicating the relationship between the speed and the delay time as shown in FIG. 16 or FIG. 17 may be used. In the speed-related information shown in FIG. 16, when the speed is included in the predetermined range Vr, the higher the speed, the longer the delay time.
  • the delay time increases stepwise as the speed increases.
  • the predetermined ranges Nr and Vr may be set for each vehicle C.
  • noise-related information and speed-related information can be set according to the sound transmission characteristics of the vehicle C.
  • FIGS. 15 and 17 when the delay time changes stepwise according to the noise volume or speed, the delay is longer than when the delay time changes linearly according to the noise volume or speed. The frequency of processing for changing the time can be reduced, and the processing can be simplified.
  • the supply unit 4 may appropriately change the supply destination (speaker) of each of the sound signals A1 to A4.
  • the supply unit 4 may supply a plurality of sound signals to one speaker.
  • One or more seats may be arranged between the seat 51 and the seat 53.
  • One or more seats may be arranged between the seat 52 and the seat 54. Further, the seat 53 and the seat 54 may be integrally formed.
  • One or more seats may be disposed between the seat 53 and the seat 54. In this case, the seat between the seat 53 and the seat 54, the seat 53, and the seat 54 may be integrally formed.
  • At least one of the control units 183 and 183a receives the output signal M1 from the microphone 11, receives the output signal M2 from the microphone 12, and receives the output signal M3 from the microphone 13 without passing through the signal processing units 31 to 34. May receive the output signal M4.
  • At least one of the control units 183 and 183a may change the delay time for each speaker.
  • An operation unit for example, an operation switch for setting ON / OFF of the delay time control is provided, and when the user operates the operation unit to set the delay time control to ON, the control units 183 and 183a May perform delay time control.
  • the noise volume in the passenger compartment R is specified by subtracting the output signals M1 to M4 from the output signal M8. Instead, the output signal M8 is passed through a filter and has a frequency corresponding to the noise. Only the signal may be extracted, and the noise volume in the passenger compartment R may be specified based on the signal of the frequency.
  • the volume of noise in the passenger compartment R is considered to have a strong correlation with the rotational speed of the engine of the vehicle C and the rotational speed of the fan of the air conditioner of the vehicle C.
  • the noise volume in the passenger compartment R tends to increase as the rotational speed of the engine of the vehicle C or the rotational speed of the fan of the air conditioner of the vehicle C increases. Therefore, in the fifth embodiment, as the state of the vehicle C, the rotational speed of the engine of the vehicle C or the rotational speed of the fan of the air conditioner of the vehicle C may be used instead of the speed of the vehicle C.
  • the control unit 183a receives information on the rotational speed of the engine of the vehicle C or information on the rotational speed of the fan of the air conditioner of the vehicle C from the vehicle control device 9, and the higher the rotational speed of the engine of the vehicle C, or The delay time is lengthened as the rotational speed of the fan of the air conditioner of the vehicle C increases. At this time, the control unit 183a indicates that the delay time is longer as the engine speed of the vehicle C is larger, or the delay time is longer as the fan speed of the air conditioner of the vehicle C is larger.
  • the delay time may be determined using fan rotation speed relationship information indicating that
  • One aspect (first aspect) of the conversation assist device is a method in which a sound signal generated based on an output signal of a microphone arranged for each of the four seats arranged in a rectangle is used as the seat. And a supply unit that supplies the speaker arranged for the diagonal seat located diagonally to the seat where the microphone is arranged among the speakers arranged for each.
  • the speaker to which the sound signal is supplied it is possible to use the speaker having the longest distance from the microphone that emits the output signal that is the source of the sound signal among the speakers arranged for each seat. Become.
  • the seat is located between the microphone that outputs the output signal and the speaker to which the sound signal is supplied. For this reason, the sound (sound wave) which reached the seat among the sounds output from the speaker is easily absorbed by the seat. Therefore, it is possible to reduce howling.
  • Another aspect (second aspect) of the above-described conversation assist device is a signal processing unit that generates a sound signal by adding a delay to the output signal of the microphone in the conversation assist device according to the first aspect. It is desirable to further include. It is known that human stories are difficult to understand when the time interval between syllables increases. Therefore, when reverberation is added to the sound emitted by the speaker, the time interval between the syllables becomes small, and the sound emitted by the speaker becomes easy for the listener to hear. However, since the seat has a sound absorbing property, the reverberation of the sound produced by the speaker is smaller than when the seat is not present.
  • the sound produced by the speaker may be difficult to hear for the listener because the time interval between the syllables becomes larger than when there is no seat.
  • a sound signal is generated by adding at least a delay to the output signal of the microphone, the sound emitted from the speaker functions as the reverberation of the sound spoken by the speaker.
  • the time interval between syllables and syllables can be reduced compared to when no delay is added to the output signal of the microphone, and the time interval between syllables and syllables is increased so that the listener can hear the sound. It becomes possible to suppress the difficulty.
  • Another aspect (third aspect) of the conversation assistance device described above is the conversation assistance device according to the second aspect, in which the microphone, the speaker, and the seat are arranged in a vehicle interior and has the vehicle interior. It is desirable to include a control unit for controlling the delay time according to the state. According to this aspect, the delay time can be controlled in accordance with the state of the vehicle so that the receiver can easily hear the speaker's speech. For this reason, compared with the case where delay time is constant regardless of the state of the vehicle, the listener can easily hear the speaker's speech.
  • both the sound emitted by the speaker and the sound from the speaker are difficult to overlap with the loud noise sound in time, It becomes easier for the listener to hear the speech of the speaker.
  • the delay time is shortened when the noise volume is small depending on the vehicle state, the time difference between the sound produced by the speaker and the sound from the speaker is shortened, and the speaker or speaker Is difficult to remember.
  • the conversation assist device when a howling occurrence signal indicating occurrence of howling is received, outputs of microphones arranged for each of the four seats arranged in a rectangle are received.
  • the supply destination of the sound signal generated based on the signal is the speaker that is the current supply destination of the sound signal from the speaker that is the current supply destination of the sound signal among the speakers arranged for each seat; Comprises a supply for switching to a different speaker. According to this aspect, for example, when howling occurs, it becomes possible to eliminate the howling.
  • Another aspect (fifth aspect) of the above-described conversation assist device further includes a detection unit that outputs the howling occurrence signal when detecting the howling in the conversation assist device according to the fourth aspect, and the supply unit Preferably receives the howling generation signal from the detection unit. According to this aspect, when howling occurs, it is possible to automatically eliminate the howling.
  • Another aspect (sixth aspect) of the above-described conversation assist device includes an operation switch and an output unit that outputs the howling occurrence signal in response to an operation of the operation switch in the conversation assist device according to the fourth aspect. It is preferable that the supply unit receives the howling generation signal from the output unit. According to this aspect, when howling occurs, it is possible to eliminate the howling according to the operation of the operation switch by the user.
  • one aspect (seventh aspect) of the conversation assist method receives a howling occurrence signal indicating occurrence of howling, an output signal of a microphone arranged for each of the four seats arranged in a rectangle. Is switched to a speaker different from the speaker that is the current supply destination of the sound signal, among the speakers arranged for each seat.
  • the state of the vehicle is a noise volume in the vehicle interior.
  • the vehicle state is preferably the speed of the vehicle.
  • Another aspect (tenth aspect) of the above-described conversation assist device is that in the conversation assist device according to the third aspect, it is desirable that the state of the vehicle is the rotational speed of the engine of the vehicle.
  • the state of the vehicle is a rotation speed of a fan of an air conditioner of the vehicle.
  • Another aspect (a twelfth aspect) of the conversation assist device described above is the conversation assist device according to the first aspect, wherein the supply unit is a speaker in which the sound signal is arranged for a seat different from the diagonal seat.
  • the supply unit is a speaker in which the sound signal is arranged for a seat different from the diagonal seat.
  • the supply unit supplies the sound signal to a speaker arranged for the diagonal seat.
  • a howling occurrence signal indicating occurrence of howling is received in a situation where the sound signal is received
  • the sound signal is switched from a speaker arranged for the diagonal seat to a speaker arranged for a seat different from the diagonal seat. It is desirable. Howling occurrence conditions may change depending on, for example, the status of the luggage placed on the seat. According to this aspect, for example, even if howling occurs in a situation where the howling occurrence condition changes and the sound signal supply destination is a speaker arranged for a diagonal seat, the sound signal supply destination is switched. Howling can be eliminated.
  • One aspect (fourteenth aspect) of the conversation assist device includes: a sound processing unit that delays sound collected by a microphone in a vehicle interior and emits the sound from a speaker in the vehicle interior; and the vehicle interior. And a control unit that controls the delay time according to the state of the vehicle.
  • the delay time can be controlled in accordance with the state of the vehicle so that the receiver can easily hear the speaker's speech. For this reason, compared with the case where delay time is constant regardless of the state of the vehicle, the listener can easily hear the speaker's speech.
  • both the sound emitted by the speaker and the sound from the speaker are difficult to overlap with the loud noise sound in time, It becomes easier for the listener to hear the speech of the speaker.
  • the delay time is shortened when the noise volume is small depending on the vehicle state, the time difference between the sound produced by the speaker and the sound from the speaker is shortened, and the speaker or speaker Is difficult to remember.
  • the state of the vehicle is a noise volume in the vehicle interior.
  • the delay time can be controlled according to the noise volume in the passenger compartment so that the listener can easily hear the speaker's speech.
  • Another aspect (sixteenth aspect) of the above-described conversation assist device is that in the conversation assist device according to the fifteenth aspect, it is desirable that the control unit lengthens the delay time when the noise volume increases. According to this aspect, both the sound produced by the speaker and the sound output from the speaker are unlikely to overlap with the sudden loud noise in time, and the listener can easily hear the speaker's speech. Also, when the noise volume in the passenger compartment is low, the time difference between the sound produced by the speaker and the sound from the speaker is shortened, and it becomes difficult for the listener or the speaker to feel uncomfortable about the sound from the speaker.
  • the state of the vehicle is preferably the speed of the vehicle. It is known that the speed of the vehicle C has a strong correlation with the noise volume in the passenger compartment R. According to this aspect, the delay time can be controlled in accordance with the noise volume in the vehicle interior, that is, in accordance with the noise volume in the vehicle interior, so that the listener can easily hear the speaker.
  • the control unit lengthens the delay time as the speed of the vehicle increases. .
  • the noise volume in the passenger compartment tends to increase.
  • both the sound emitted by the speaker and the sound output from the speaker are less likely to overlap in time with the sudden loud noise. This makes it easier for the listener to hear the speaker's comments.
  • the speed of the vehicle C is low, the time difference between the sound produced by the speaker and the sound from the speaker is shortened, and it becomes difficult for the receiver or the speaker to feel uncomfortable about the sound from the speaker.
  • the conversation assist device is any one of the fourteenth aspect to the eighteenth aspect, in which the microphone is any one of four seats arranged in a rectangle. There are a plurality of speakers, and among the four seats, a plurality of seats including a diagonal seat that is diagonally positioned with respect to a seat where the microphone is disposed. It is preferable that the apparatus further includes a supply unit that supplies a sound collected by the microphone to a speaker arranged with respect to the seat at the diagonal position. According to this aspect, the sound collected by the microphone is emitted from the speaker of the seat having the longest distance from the seat where the microphone is arranged. For this reason, it becomes possible to reduce howling during a conversation. Furthermore, according to this aspect, the seat is located between the microphone and the speaker. For this reason, the sound (sound wave) which reached the seat among the sounds output from the speaker is easily absorbed by the seat. Therefore, it is possible to reduce howling.
  • Another aspect (twentieth aspect) of the conversation assist device is a signal processing unit that generates a sound signal based on an output signal of a microphone arranged for each of the four seats arranged in a rectangle. And supplying the sound signal generated by the signal processing unit to a speaker arranged for a diagonal seat that is diagonal to the seat where the microphone is arranged among the speakers arranged for each seat. Part.
  • Another aspect (a twenty-first aspect) of the conversation assist device is a signal processing unit that generates a sound signal based on an output signal of a microphone arranged for each of the four seats arranged in a rectangle.
  • the supply destination of the sound signal generated by the signal processing unit is the speaker that is the current supply destination of the sound signal among the speakers arranged for each seat. To a speaker for switching to a speaker different from the speaker to which the sound signal is currently supplied.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

会話アシスト装置は、矩形に配置された4つの座席について座席ごとに配置されたマイクの出力信号に基づいて生成された音信号を、前記座席ごとに配置されたスピーカのうち、当該マイクが配置された座席と対角の位置にある対角座席について配置されたスピーカに供給する供給部を含む。

Description

会話アシスト装置および会話アシスト方法
 本発明は、会話をアシストする技術に関する。
 特許文献1には、車内での会話を補助する車内会話補助装置が記載されている。この車内会話補助装置では、矩形に配置された4つの座席の各々に対応してマイクとスピーカが設けられている。この車内会話補助装置では、発話者の席の辺りから発話者の音声が聞こえるように、各スピーカからの会話音声の出力レベルが調整される。
特開2002-51392号公報
 特許文献1に記載の車内会話補助装置では、スピーカから発せられた音が聞こえ難くなる状況が発生しうる。
 本発明は上述した事情に鑑みてなされたものであり、スピーカから発せられた音が聞こえ難くなる状況の発生を抑制可能な技術を提供することを解決課題とする。
 本発明に係る会話アシスト装置の一態様は、矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて生成された音信号を、前記座席ごとに配置されたスピーカのうち、当該マイクが配置された座席と対角の位置にある対角座席について配置されたスピーカに供給する供給部を含む。
 また、本発明に係る会話アシスト装置の他の態様は、ハウリングの発生を示すハウリング発生信号を受け取ると、矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて生成された音信号の供給先を、前記座席ごとに配置されたスピーカのうち、前記音信号の現在の供給先であるスピーカとは異なるスピーカに切り換える供給部を備える。
 本発明に係る会話アシスト方法の一態様は、ハウリングの発生を示すハウリング発生信号を受け取ると、矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて生成された音信号の供給先を、前記座席ごとに配置されたスピーカのうち、前記音信号の現在の供給先であるスピーカとは異なるスピーカに切り換える。
本発明の第1実施形態に係る会話アシスト装置100を示した図である。 供給部4の一例を示した図である。 本発明の第2実施形態に係る会話アシスト装置100Aを示した図である。 供給部4Aの一例を示した図である。 会話アシスト装置100Aの動作を説明するためのフローチャートである。 本発明の第3実施形態に係る会話アシスト装置100Bを示した図である。 供給部4Bの動作を説明するためのフローチャートである。 本発明の第4実施形態に係る会話アシスト装置100Cを示した図である。 供給部4の一例を示した図である。 ノイズ関係情報の一例を示した図である。 会話アシスト装置100Cの動作を説明するためのフローチャートである。 本発明の第5実施形態に係る会話アシスト装置100Dを示した図である。 速度関係情報の一例を示した図である。 ノイズ関係情報の他の例を示した図である。 ノイズ関係情報のさらに他の例を示した図である。 速度関係情報の他の例を示した図である。 速度関係情報のさらに他の例を示した図である。
 以下、図面を参照しながら本発明に係る実施の形態を説明する。なお、図面において各部の寸法および縮尺は実際のものと適宜異なる。また、以下に記載する実施の形態は、本発明の好適な具体例である。このため、本実施形態には、技術的に好ましい種々の限定が付されている。しかしながら、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。
<第1実施形態>
 図1は、本発明の第1実施形態に係る会話アシスト装置100を示した図である。図1に示した例では、会話アシスト装置100は車内で使用される。
 車内としての一つの空間には、会話アシスト装置100の他に、矩形に配置された4つの座席51~54と、天井6と、フロントライトドア71と、フロントレフトドア72と、リアライトドア73と、リアレフトドア74と、マイク11~14と、スピーカ21~24が配置されている。座席51は運転席である。座席52は助手席である。座席53は、後部右座席である。座席54は、後部左座席である。座席51~54の各々は、布または革を素材とする部材によって形成されている。このため、座席51~54は吸音性を有する。座席51~54は、共通の方向を向いている。
 会話アシスト装置100は、信号処理部31~34と、供給部4とを含んで構成されている。
 マイク11~14の各々は、集音した音に応じた出力信号を出力する。
 マイク11は、座席51について配置されている。図1に示した例では、マイク11は、天井6のうち、座席51の座面と対向する領域61に配置されている。
 マイク12は、座席52について配置されている。図1に示した例では、マイク12は、天井6のうち、座席52の座面と対向する領域62に配置されている。
 マイク13は、座席53について配置されている。図1に示した例では、マイク13は、天井6のうち、座席53の座面と対向する領域63に配置されている。
 マイク14は、座席54について配置されている。図1に示した例では、マイク14は、天井6のうち、座席54の座面と対向する領域64に配置されている。
 スピーカ21は、座席51について配置されている。図1に示した例では、スピーカ21は、座席51の横に位置するフロントライトドア71に配置されている。
 スピーカ22は、座席52について配置されている。図1に示した例では、スピーカ22は、座席52横に位置するフロントレフトドア72に配置されている。
 スピーカ23は、座席53について配置されている。図1に示した例では、スピーカ23は、座席53の横に位置するリアライトドア73に配置されている。
 スピーカ24は、座席54について配置されている。図1に示した例では、スピーカ24は、座席54の横に位置するリアレフトドア74に配置されている。
 信号処理部31は、マイク11の出力信号M1に基づいて音信号A1を生成する。信号処理部31は、例えば、出力信号M1に遅延を付加し、遅延が付加された出力信号M1を増幅することによって、音信号A1を生成する。
 信号処理部32は、マイク12の出力信号M2に基づいて音信号A2を生成する。信号処理部32は、例えば、出力信号M2に遅延を付加し、遅延が付加された出力信号M2を増幅することによって、音信号A2を生成する。
 信号処理部33は、マイク13の出力信号M3に基づいて音信号A3を生成する。信号処理部33は、例えば、出力信号M3に遅延を付加し、遅延が付加された出力信号M3を増幅することによって、音信号A3を生成する。
 信号処理部34は、マイク14の出力信号M4に基づいて音信号A4を生成する。信号処理部34は、例えば、出力信号M4に遅延を付加し、遅延が付加された出力信号M4を増幅することによって、音信号A4を生成する。
 供給部4は、音信号A1を、マイク11が配置された座席51と対角の位置にある座席(対角座席)54について配置されたスピーカ24に供給する。
 供給部4は、音信号A2を、マイク12が配置された座席52と対角の位置にある座席(対角座席)53について配置されたスピーカ23に供給する。
 供給部4は、音信号A3を、マイク13が配置された座席53と対角の位置にある座席(対角座席)52について配置されたスピーカ22に供給する。
 供給部4は、音信号A4を、マイク14が配置された座席54と対角の位置にある座席(対角座席)51について配置されたスピーカ21に供給する。
 このように、本会話アシスト装置100は、マイクが集音した会話音声を、そのマイクから離れたスピーカが放音することで、乗員が他の乗員の会話音声を聞きやすくなるように乗員の会話をアシストする。
 図2は、供給部4の一例を示した図である。図2に示した供給部4は、信号処理部31とスピーカ24とを電気的に接続する配線41と、信号処理部32とスピーカ23とを電気的に接続する配線42と、信号処理部33とスピーカ22とを電気的に接続する配線43と、信号処理部34とスピーカ21とを電気的に接続する配線44と、を含む。
 音信号A1は、配線41を通ってスピーカ24に供給される。スピーカ24は、音信号A1に応じた音(マイク11の出力信号M1に応じた音)を出力する。
 音信号A2は、配線42を通ってスピーカ23に供給される。スピーカ23は、音信号A2に応じた音(マイク12の出力信号M2に応じた音)を出力する。
 音信号A3は、配線43を通ってスピーカ22に供給される。スピーカ22は、音信号A3に応じた音(マイク13の出力信号M3に応じた音)を出力する。
 音信号A4は、配線44を通ってスピーカ21に供給される。スピーカ21は、音信号A4に応じた音(マイク14の出力信号M4に応じた音)を出力する。
 本実施形態によれば、音信号が供給されるスピーカとして、座席ごとに配置されたスピーカ21~24の中で、音信号の元になる出力信号を発するマイクからの距離が最も長いスピーカを用いることが可能になる。
 ハウリングは、スピーカから放音される音をマイクが集音する状況において、アンプの入力にアンプの出力が正帰還されると生じやすくなる。マイクからの距離が最も長いスピーカが音を出力すると、当該スピーカから出力される音は、他のスピーカから出力される音よりも減衰して当該マイクに到達する。このため、会話中においてハウリングが発生する可能性を低減することが可能になる。よって、スピーカから発せられた音が聞こえやすくなる。
 さらに、出力信号を出力するマイクと、音信号が供給されるスピーカとの間に、座席(特に座席の背もたれ)が位置するため、スピーカから発せられた音が座席によって吸収されやすくなる。その結果、ハウリングが発生する可能性を低減することが可能になる。
 また、人の話は、音節と音節との間の時間間隔が大きくなると分かり難くなることが知られている。そこで、話し手が発した音に残響が付与されると、音節と音節との間の時間間隔が小さくなり、話し手が発した音は、聞き手にとって聞き取りやすくなる。
 座席51~54の各々は吸音性を有しているため、話し手が発した音の残響は、座席51~54が存在しない場合に比べて小さくなる。よって、話し手が発した音は、座席51~54が存在しない場合に比べて、音節と音節との間の時間間隔が大きくなり、聞き手にとって聞き取り難くなるおそれがある。
 本実施形態では、マイク11~14の各々の出力信号に対して遅延を付加して音信号が生成される。よって、スピーカ21~24の各々が音信号に応じて発した音は、話し手の話した音の残響として機能する。このため、マイク11~14の出力信号に対して遅延を付加しない場合に比べて、音節と音節との間の時間間隔を小さくでき、聞き手が音を聞き取り難くなる可能性を低減可能になる。また、話し手は、話し手が発した声が遅延された声をスピーカから聞くことができるため、話し手自身の声をモニタリングすることが可能になる。ただし、設定により遅延を付加しない(遅延時間を0にする)ことも可能である。
<第2実施形態>
 第1実施形態では、音信号A1~A4の各々の供給先が固定されていた。これに対して、本発明の第2実施形態では、音信号A1~A4の各々の供給先が変更される。
 図3は、第2実施形態に係る会話アシスト装置100Aを示した図である。図3において、図1に示した構成と同一構成のものには同一符号を付してある。以下、本実施形態について、第1実施形態と異なる点を中心に説明する。
 会話アシスト装置100Aは、検出部81~84を有する点と、供給部4の代わりに供給部4Aを用いる点において、図1に示した会話アシスト装置100と異なる。
 検出部81は、マイク11の出力信号M1に基づいてハウリングの発生を検出する。例えば、検出部81は、互いに異なる周波数帯域ごとに、出力信号M1の周波数成分と所定レベルのしきい値とを比較して、いずれかの周波数帯域で出力信号M1の周波数成分がしきい値を上回るとハウリングを検出する。検出部81は、ハウリングを検出すると、ハウリングの発生を示すハウリング発生信号D1を出力する。
 検出部82は、マイク12の出力信号M2に基づいてハウリングを検出する。検出部82でのハウリング検出手法は、検出部81でのハウリング検出手法に準じる。検出部82は、ハウリングを検出すると、ハウリング発生信号D2を出力する。
 検出部83は、マイク13の出力信号M3に基づいてハウリングを検出する。検出部83でのハウリング検出手法は、検出部81でのハウリング検出手法に準じる。検出部83は、ハウリングを検出すると、ハウリング発生信号D3を出力する。
 検出部84は、マイク14の出力信号M4に基づいてハウリングを検出する。検出部84でのハウリング検出手法は、検出部81でのハウリング検出手法に準じる。検出部84は、ハウリングを検出すると、ハウリング発生信号D4を出力する。
 供給部4Aは、ハウリング発生信号D1~D4のいずれかを受け取ると、音信号A1~A4の供給先を変更する。
 図4は、供給部4Aの一例を示した図である。図4に示した供給部4Aは、マルチプレクサー4A1~4A4と、制御部4A51と、記憶部4A52とを含む。
 マルチプレクサー4A1は、制御部4A51からの制御信号C1に基づいて、音信号A1~A4のいずれかをスピーカ24に供給する。
 マルチプレクサー4A2は、制御部4A51からの制御信号C2に基づいて、音信号A1~A4のいずれかをスピーカ23に供給する。
 マルチプレクサー4A3は、制御部4A51からの制御信号C3に基づいて、音信号A1~A4のいずれかをスピーカ22に供給する。
 マルチプレクサー4A4は、制御部4A51からの制御信号C4に基づいて、音信号A1~A4のいずれかをスピーカ21に供給する。
 デフォルトでは、マルチプレクサー4A1は音信号A2をスピーカ24に供給し、マルチプレクサー4A2は音信号A1をスピーカ23に供給し、マルチプレクサー4A3は音信号A4をスピーカ22に供給し、マルチプレクサー4A4は音信号A3をスピーカ21に供給する。
 以下、マルチプレクサー4A1~4A4がデフォルトの状態である場合を「デフォルト状態」と称する。
 制御部4A51は、例えばCPU(Central Processing Unit)である。制御部4A51は、記憶部4A52に記憶されたプログラムを読み取り実行することによって動作する。なお、記憶部4A52は、コンピュータにて読み取り可能な記録媒体の一例である。さらに言えば、記憶部4A52は、非一過性(non-transitory)の記録媒体である。記憶部4A52は、例えば、半導体記録媒体、磁気式記録媒体または光学式記録媒体等の公知の任意の形式の記録媒体、または、これらの記録媒体が組み合わされた記録媒体である。なお、本明細書中において、「非一過性」の記録媒体は、一過性の伝搬信号(transitory, propagating signal)を一時的に記憶する伝送線等の記録媒体を除く全てのコンピュータ読み取り可能な記録媒体を含み、揮発性の記録媒体を除外するものではない。
 制御部4A51は、制御信号C1を用いてマルチプレクサー4A1を制御し、制御信号C2を用いてマルチプレクサー4A2を制御し、制御信号C3を用いてマルチプレクサー4A3を制御し、制御信号C4を用いてマルチプレクサー4A4を制御する。
 図5は、会話アシスト装置100Aの動作を説明するためのフローチャートである。なお、供給部4Aは、図5に示した動作を繰り返し実行する。
 検出部81~84のいずれかがハウリングを検出すると(ステップS1:YES)、制御部4A51は、ハウリング発生信号D1~D4のいずれかを受け取る。制御部4A51は、ハウリング発生信号D1~D4のいずれかを受け取ると、マルチプレクサー4A1~4A4がデフォルト状態であるか否かを判断する(ステップS2)。
 マルチプレクサー4A1~4A4がデフォルト状態であると(ステップS2:YES)、制御部4A51は、制御信号C1でマルチプレクサー4A1を制御して、スピーカ24に供給される音信号を、音信号A2から音信号A1に切り換える(ステップS3)。
 続いて、制御部4A51は、制御信号C2でマルチプレクサー4A2を制御して、スピーカ23に供給される音信号を、音信号A1から音信号A2に切り換える(ステップS4)。
 続いて、制御部4A51は、制御信号C3でマルチプレクサー4A3を制御して、スピーカ22に供給される音信号を、音信号A4から音信号A3に切り換える(ステップS5)。
 続いて、制御部4A51は、制御信号C4でマルチプレクサー4A4を制御して、スピーカ21に供給される音信号を、音信号A3から音信号A4に切り換える(ステップS6)。
 なお、制御部4A51は、ステップS3~S6を同時に実行することが望ましい。
 以下、ステップS6が完了したときのマルチプレクサー4A1~4A4の状態を「特定状態」と称する。
 ハウリングの発生条件は、車内での荷物の配置状況、例えば、座席に置かれた荷物の状況に応じて変化する可能性がある。
 このため、制御部4A51は、マルチプレクサー4A1~4A4が特定状態である状況で、ハウリング発生信号D1~D4のいずれかを受け取った場合、以下に示す第1処理または第2処理を実行してもよい。
<第1処理>
 制御部4A51は、制御信号C1を用いてマルチプレクサー4A1を制御してスピーカ24に供給される音信号を音信号A1から音信号A3に切り換える。制御部4A51は、制御信号C2を用いてマルチプレクサー4A2を制御してスピーカ23に供給される音信号を音信号A2から音信号A4に切り換える。制御部4A51は、制御信号C3を用いてマルチプレクサー4A3を制御してスピーカ22に供給される音信号を音信号A3から音信号A1に切り換える。制御部4A51は、制御信号C4を用いてマルチプレクサー4A4を制御してスピーカ21に供給される音信号を音信号A4から音信号A2に切り換える。
 以下、第1処理が完了したときのマルチプレクサー4A1~4A4の状態を「第1状態」と称する。
<第2処理>
 制御部4A51は、制御信号C1を用いてマルチプレクサー4A1を制御してスピーカ24に供給される音信号を音信号A1から音信号A4に切り換える。制御部4A51は、制御信号C2を用いてマルチプレクサー4A2を制御してスピーカ23に供給される音信号を音信号A2から音信号A3に切り換える。制御部4A51は、制御信号C3を用いてマルチプレクサー4A3を制御してスピーカ22に供給される音信号を音信号A3から音信号A2に切り換える。制御部4A51は、制御信号C4を用いてマルチプレクサー4A4を制御してスピーカ21に供給される音信号を音信号A4から音信号A1に切り換える。
 以下、第2処理が完了したときのマルチプレクサー4A1~4A4の状態を「第2状態」と称する。
 制御部4A51は、マルチプレクサー4A1~4A4が第1状態である状況で、ハウリング発生信号D1~D4のいずれかを受け取った場合、マルチプレクサー4A1~4A4の状態を、第1状態から、デフォルト状態、特定状態または第2状態に変更する第3処理を実行してもよい。
 制御部4A51は、マルチプレクサー4A1~4A4が第2状態である状況で、ハウリング発生信号D1~D4のいずれかを受け取った場合、マルチプレクサー4A1~4A4の状態を、第2状態から、デフォルト状態、特定状態または第1状態に変更する第4処理を実行してもよい。
 本実施形態によれば、ハウリングが発生したときに、そのハウリングを自動的に解消することが可能になる。
 なお、デフォルト状態は、特定状態でなければ、適宜変更可能である。
 また、制御部4A51は、マルチプレクサー4A1~4A4がデフォルト状態である状況で、ハウリング発生信号D1~D4のいずれかを受け取った場合、マルチプレクサー4A1~4A4の状態を、デフォルト状態から、第1状態または第2状態に変更する第5処理を実行してもよい。
<第3実施形態>
 第2実施形態では、ハウリング発生信号が自動的に出力された。これに対して、本発明の第3実施形態では、スイッチ操作に応じてハウリング発生信号が出力される。
 図6は、第3実施形態に係る会話アシスト装置100Bを示した図である。図6において、図1に示した構成と同一構成のものには同一符号を付してある。以下、本実施形態について、第1実施形態と異なる点を中心に説明する。
 会話アシスト装置100Bは、操作スイッチ91と、使用者による操作スイッチ91の操作に応じてハウリング発生信号D5を出力する出力部92とを有する点と、供給部4の代わりに供給部4Bを用いる点において、図1に示した会話アシスト装置100と異なる。
 供給部4Bは、マルチプレクサー4A1~4A4と制御部4A61と記憶部4A62とを含む。
 制御部4A61は、例えばCPUである。制御部4A61は、記憶部4A62に記憶されたプログラムを読み取り実行することによって動作する。なお、記憶部4A62は、コンピュータにて読み取り可能な記録媒体の一例である。さらに言えば、記憶部4A62は、非一過性の記録媒体である。記憶部4A62は、例えば、半導体記録媒体、磁気式記録媒体または光学式記録媒体等の公知の任意の形式の記録媒体、または、これらの記録媒体が組み合わされた記録媒体である。
 制御部4A61は、制御信号C1を用いてマルチプレクサー4A1を制御し、制御信号C2を用いてマルチプレクサー4A2を制御し、制御信号C3を用いてマルチプレクサー4A3を制御し、制御信号C4を用いてマルチプレクサー4A4を制御する。
 図7は、会話アシスト装置100Bの動作を説明するためのフローチャートである。図7において、図5に示した処理と同一処理については同一符号を付してある。以下、図7に示した処理のうち、図5に示した処理と異なる処理を中心に説明する。なお、供給部4Bは、図7に示した動作を繰り返し実行する。
 操作スイッチ91が使用者によって操作されると(ステップS11:YES)、出力部92は、ハウリング発生信号D5を出力する。制御部4A61は、ハウリング発生信号D5を受け取ると、ステップS2以降の処理を実行する。なお、制御部4A61は、ステップS3~S6を同時に実行することが望ましい。
 上述したように、ハウリングの発生状況は、車内での荷物の配置状況、例えば、座席に置かれた荷物の状況に応じて変化する可能性がある。
 このため、マルチプレクサー4A1~4A4が特定状態である状況で、制御部4A61が、ハウリング発生信号D5を受け取った場合、制御部4A61は、上述した第1処理または第2処理を実行してもよい。この場合、処理を実行する主体は、制御部4A51ではなく制御部4A61となる。
 制御部4A61は、マルチプレクサー4A1~4A4が第1状態である状況で、ハウリング発生信号D5を受け取った場合、第3処理を実行してもよい。
 制御部4A61は、マルチプレクサー4A1~4A4が第2状態である状況で、ハウリング発生信号D5を受け取った場合、第4処理を実行してもよい。
 なお、制御部4A61は、マルチプレクサー4A1~4A4がデフォルト状態である状況で、ハウリング発生信号D1~D4のいずれかを受け取った場合、第5処理を実行してもよい。
 本実施形態によれば、ハウリングが発生したときに、使用者による操作スイッチの操作に応じて、ハウリングを解消することが可能になる。
<変形例>
 以上の各実施態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は相矛盾しない限り適宜に併合され得る。
<変形例A1>
 信号処理部31は、出力信号M1に遅延を付加する信号処理を実行せずに出力信号M1を増幅する処理だけを実行してもよい。信号処理部32~34も、信号処理部31に準じた信号処理を実行してもよい。
<変形例A2>
 各実施形態では、信号処理部31が、出力信号M1に遅延を付加し、遅延が付加された出力信号M1を増幅した。しかしながら、出力信号M1に遅延を付加する処理は、信号処理部31の入力端から供給部4、4Aまたは4Bの出力端までの間のどこかで実行されればよい。
 また、出力信号M2に遅延を付加する処理も、信号処理部32の入力端から供給部4、4Aまたは4Bの出力端までの間のどこかで実行されればよい。また、出力信号M3に遅延を付加する処理も、信号処理部33の入力端から供給部4、4Aまたは4Bの出力端までの間のどこかで実行されればよい。また、出力信号M4に遅延を付加する処理も、信号処理部34の入力端から供給部4、4Aまたは4Bの出力端までの間のどこかで実行されればよい。
 遅延を付加する処理は、例えば、マイクの出力信号に応じたデジタル信号を信号処理部31~34の各々に内在するメモリに記憶し、その時点から遅延時間が経過したらメモリからそのデジタル信号を読み出して出力する処理である。この場合、マイクの出力信号に応じたデジタル信号に応じた容量のメモリが用いられればよい。
<変形例A3>
 座席51と座席53との間に1以上の座席が配置されてもよい。また、座席52と座席54との間に1以上の座席が配置されてもよい。また、座席53と座席54とが一体に形成されてもよい。
 また、座席53と座席54との間に1以上の座席が配置されてもよい。この場合、座席53と座席54との間の座席と、座席53と、座席54とが、一体に形成されてもよい。
<変形例A4>
 図5および図7に示したステップS3~S6を実行する順番は適宜変更可能である。
<第4実施形態>
 マイクの出力信号に付加される遅延時間が一定である場合、ノイズ音の音量に応じてスピーカからの音が聞き取り難くなるおそれがある。例えば、特開2008-42390号公報には、発話者が発した音をマイクで集音し、その音を一定時間(5~20ms)遅延させてスピーカから出力する車内会話支援システムが記載されている。ところが、マイクの出力信号に付加される遅延時間が一定である場合、ノイズ音の音量に応じてスピーカからの音が聞き取り難くなるおそれがある。例えば、大音量のノイズ音が、発話者の発した音とスピーカからの音(発話者の発した音に応じた音)との両方と時間的に重なる程度の長さであると、受話者は発話者の発した音とスピーカからの音とのいずれも聞き取り難くなるおそれがある。この問題に対処するために、一定の遅延時間を長くすると、車両の状態に応じてノイズ音の音量が小さくなる場合、受話者は、発話者の発した音よりもかなり遅れてスピーカからの音を聞くことになり、スピーカからの音に違和感を覚えスピーカからの音を聞き難くなるおそれが生じる。また、発話者も、声を発した時点よりもかなり遅れてスピーカからの自分の音を聞くため、スピーカからの音に違和感を覚えスピーカからの音を聞き難くなるおそれがある。
 そこで、本発明の第4実施形態は、マイクの出力信号に付加する遅延時間を制御する。
 図8は、本発明の第4実施形態に係る会話アシスト装置100Cを含む会話アシストシステム1を示した図である。会話アシストシステム1は車両Cで使用される。
 車両Cの車室Rには、会話アシスト装置100Cの他に、座席51~54と、天井6と、フロントライトドア71と、フロントレフトドア72と、リアライトドア73と、リアレフトドア74が配置されている。
 会話アシストシステム1は、マイク11~14および181と、スピーカ21~24と、会話アシスト装置100Cとを含んで構成されている。
 マイク181は、車室Rで音を集音し、集音した音に応じた出力信号M8を出力する。出力信号M8は、車室R内のノイズ音量を特定するために使用される。ノイズとは、車の走行時におけるエンジン音やタイヤノイズ、風切り音、車室内の空調機の音、あるいは、車外からの環境音などである。
 会話アシスト装置100Cは、信号処理部31~34と、供給部4と、記憶部182と、制御部183とを含んで構成されている。信号処理部31~34の各々は、音処理部の一例である。
 信号処理部31は、上述したようにマイク11の出力信号M1に遅延を付加して音信号A1を生成する。本実施形態では、出力信号M1に遅延を付加する処理は、例えば、出力信号M1に応じたデジタル信号を信号処理部31の内在するメモリに記憶し、その記憶時点から遅延時間が経過したらメモリからそのデジタル信号を読み出して出力する処理である。この場合、出力信号M1に応じたデジタル信号のデータ量以上の容量を有するメモリが用いられればよい。信号処理部32~34において出力信号に遅延を付加する処理は、信号処理部31が出力信号に遅延を付加する処理に準じた処理である。出力信号M1~M4に付加される遅延の時間は、車両Cの状態(例えば、車室R内のノイズ音量)に応じて制御される。
 図9は、供給部4の一例を示した図である。
 記憶部182は、例えば、半導体記録媒体、磁気式記録媒体または光学式記録媒体等の公知の任意の形式の記録媒体、または、これらの記録媒体が組み合わされた記録媒体である。記憶部182は、制御部183の動作を規定するプログラムと、ノイズ音量と遅延時間との対応関係を示すノイズ関係情報と、を記憶する。ノイズ関係情報は、ノイズ音量と遅延時間とが互いに関連づけられているテーブルでもよいし、ノイズ音量を独立変数とし遅延時間を従属変数とする数式でもよい。
 図10は、ノイズ関係情報が示すノイズ音量と遅延時間との対応関係の一例を示した図である。図10に示したノイズ関係情報では、ノイズ音量が大きいほど遅延時間が長くなる。遅延時間には上限値Tref(例えば50ms)が設定されている。遅延時間が長くなり、スピーカからの音が発話者の生声の次のモーラ(mora)と重なると、前後のモーラの区別ができなくなり、聴き取りが困難になる。上限値Trefは、その点を考慮して音声の認識が困難になる遅延時間よりも短い時間に設定する。なお、上限値Trefは、50msに限らず適宜変更可能である。
 制御部183は、CPU等のコンピュータである。制御部183は、記憶部182に記憶されたプログラムを読み取り実行することによって例えば以下のように動作する。
 制御部183は、出力信号M1~M4に付加される遅延の時間を、車両Cの状態(例えば、車室R内のノイズ音量)に応じて制御する。例えば、制御部183は、マイク181の出力信号M8を用いて車室R内のノイズ音量を特定する。車室R内のノイズ音量は、車室R内での会話以外の音(例えば、車両Cの走行音および環境音)の音量である。制御部183は、記憶部182に記憶されたノイズ関係情報を用いて、車室R内のノイズ音量に対応する遅延時間を決定する。制御部183は、信号処理部31~34で付加される遅延の時間を、ノイズ関係情報を用いて決定した遅延時間に設定する。
 次に、動作を説明する。図11は、会話アシスト装置100Cの動作を説明するためのフローチャートである。
 制御部183は、まず、車室R内のノイズ音量を特定する(ステップS101)。ステップS101では、制御部183は、出力信号M8から出力信号M1~M4を差し引くことで、車室R内のノイズを示す音信号を抽出する。制御部183は、その音信号に基づいてノイズ音量を特定する。制御部183は、例えば、出力信号M1を信号処理部31から受け取る。制御部183は、出力信号M2を信号処理部32から受け取る。制御部183は、出力信号M3を音処理部33から受け取る。制御部183は、出力信号M4を信号処理部34から受け取る。
 続いて、制御部183は、出力信号M1~M4に付加される遅延の時間を、車室R内のノイズ音量に応じて制御する(ステップS102)。ステップS102では、制御部183は、記憶部182に記憶されたノイズ関係情報を用いて、車室R内のノイズ音量に対応する遅延時間を決定する。ノイズ関係情報では、ノイズ音量が大きいほど遅延時間が長くなる。このため、制御部183は、車室R内のノイズ音量が大きいほど遅延時間を長くする。続いて、制御部183は、決定した遅延時間を示す遅延時間情報を信号処理部31~34に出力する。信号処理部31は、遅延時間情報に示された遅延時間を出力信号M1に付加して音信号A1を生成する。信号処理部32は、該遅延時間を出力信号M2に付加して音信号A2を生成する。信号処理部33は、該遅延時間を出力信号M3に付加して音信号A3を生成する。信号処理部34は、該遅延時間を出力信号M4に付加して音信号A4を生成する。
 続いて、供給部4は、音信号A1をスピーカ24に供給し、音信号A2をスピーカ23に供給し、音信号A3をスピーカ22に供給し、音信号A4をスピーカ21に供給する。スピーカ24は音信号A1に応じた音を出力する。スピーカ23は音信号A2に応じた音を出力する。スピーカ22は音信号A3に応じた音を出力する。スピーカ21は音信号A4に応じた音を出力する(ステップS103)。
 本実施形態によれば、車室R内のノイズ音量に応じてマイクの出力信号の遅延時間が制御される。このため、受話者が発話者の発言を聞き取りやすく、かつ、受話者または発話者がスピーカからの音に違和感を覚え難くなるように、車室R内のノイズ音量に応じて遅延時間を制御することが可能になる。
 例えば、車室Rでのノイズ音量が大きいほど遅延時間を長くすれば、発話者が発した音とスピーカが出力した音との両方が突発的な大音量のノイズ音と時間的に重なり難くなり、受話者が発話者の発言を聞き取りやすくなる。また、車室Rでのノイズ音量が小さいほど、発話者が発した音とスピーカからの音との時間差が短くなり、スピーカからの音について受話者もしくは発話者が違和感を覚え難くなる。
<第5実施形態>
 車室Rでのノイズの音量は、車両Cの速度と強い相関があると考えられる。例えば、車両Cの速度が速くなるほど、車室Rでのノイズ音量が大きくなる傾向がある。そこで、本発明の第5実施形態は、車両Cの速度に応じて、マイクの出力信号についての遅延時間を制御する。
 図12は、第5実施形態の会話アシスト装置100Dを示した図である。会話アシスト装置100Dは、記憶部182がノイズ関係情報の代わりに速度と遅延時間との対応関係を示す速度関係情報を記憶し、制御部183の代わりに制御部183aを有し、制御部183aが車両制御装置9から車両Cの速度を示す速度情報を受け取る点において、第4実施形態の会話アシスト装置100Cと相違する。また、第4実施形態で車室Rに存在していたマイク181が、第5実施形態では省略されている。以下、上述した相違点を中心に会話アシスト装置100Dについて説明する。
 車両制御装置9は、車両Cの状態(例えば、車両Cの速度)を制御する。車両制御装置9は、速度情報を制御部183aに出力する。
 記憶部182は、図13に示したような速度関係情報を記憶する。速度関係情報は、速度と遅延時間とが互いに関連づけられているテーブルでもよいし、速度を独立変数とし遅延時間を従属変数とする数式でもよい。図13に示した速度関係情報では、速度が速いほど遅延時間が長くなる。遅延時間には上述した上限値Tref(例えば50ms)が設定されている。
 制御部183aは、出力信号M1~M4に付加される遅延の時間を、車両Cの速度に応じて制御する。具体的には、制御部183aは、記憶部182の速度関係情報を用いて、速度情報が示す速度に対応する遅延時間を決定する。記憶部182の速度関係情報では、速度が速いほど遅延時間が長くなるため、制御部183aは、車両Cの速度が速いほど遅延時間を長くする。続いて、制御部183aは、決定した遅延時間を示す遅延時間情報を信号処理部31~34に出力する。
 本実施形態によれば、車室R内のノイズ音量との相関が強い車両Cの速度に応じてマイクの出力信号の遅延時間が制御される。このため、受話者が発話者の発言を聞き取りやすく、かつ、受話者または発話者がスピーカからの音に違和感を覚え難くなるように、車両Cの速度に応じて遅延時間を制御することが可能になる。
 例えば、車両Cの速度が速いほど(つまり、車室Rでのノイズ音量が大きいほど)遅延時間を長くすれば、発話者が発した音とスピーカが出力した音との両方が突発的な大音量のノイズ音と時間的に重なり難くなり、受話者が発話者の発言を聞き取りやすくなる。また、車両Cの速度が遅いほど(つまり、車室Rでのノイズ音量が小さいほど)、発話者が発した音とスピーカからの音との時間差が短くなり、スピーカからの音について受話者もしくは発話者が違和感を覚え難くなる。
<変形例>
 以上の第4および第5実施態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は相矛盾しない限り適宜に併合され得る。
<変形例B1>
 音信号A1を増幅する増幅部と、音信号A2を増幅する増幅部と、音信号A3を増幅する増幅部と、音信号A4を増幅する増幅部が追加されてもよい。なお、これらの増幅部を追加せずに、信号処理部31が音信号A1を増幅し、信号処理部32が音信号A2を増幅し、信号処理部33が音信号A3を増幅し、信号処理部34が音信号A4を増幅してもよい。
<変形例B2>
 ノイズ関係情報は適宜変更可能である。例えば、図14または図15に示すようなノイズ音量と遅延時間との関係を表すノイズ関係情報が用いられてもよい。図14に示すノイズ関係情報では、ノイズ音量が所定範囲Nrに含まれる場合、ノイズ音量が大きいほど遅延時間が長くなる。図15に示すノイズ関係情報では、ノイズ音量が大きくなるほど遅延時間が段階的に長くなる。
 また、速度関係情報も適宜変更可能である。例えば、図16または図17に示すような速度と遅延時間との関係を表す速度関係情報が用いられてもよい。図16に示す速度関係情報では、速度が所定範囲Vrに含まれる場合、速度が速いほど遅延時間が長くなる。図17に示す速度関係情報では、速度が速くなるほど遅延時間が段階的に長くなる。
 ここで、所定範囲NrおよびVrは車両Cごとに設定されてもよい。この場合、車両Cの音の伝達特性に応じてノイズ関係情報および速度関係情報を設定することができる。
 また、図15および図17に示したように、ノイズ音量または速度に応じて遅延時間が段階的に変化する場合、ノイズ音量または速度に応じて遅延時間がリニアに変化する場合に比べて、遅延時間を変更する処理の頻度を少なくでき、処理の簡略化を図ることができる。
<変形例B3>
 供給部4は、音信号A1~A4の各々の供給先(スピーカ)を適宜変更してもよい。例えば、供給部4は、1つのスピーカに複数の音信号を供給してもよい。
<変形例B4>
 座席51と座席53との間に1以上の座席が配置されてもよい。また、座席52と座席54との間に1以上の座席が配置されてもよい。また、座席53と座席54とが一体に形成されてもよい。また、座席53と座席54との間に1以上の座席が配置されてもよい。この場合、座席53と座席54との間の座席と、座席53と、座席54とが、一体に形成されてもよい。
<変形例B5>
 制御部183および183aの少なくとも一方は、信号処理部31~34を介さずに、マイク11から出力信号M1を受け取り、マイク12から出力信号M2を受け取り、マイク13から出力信号M3を受け取り、マイク14から出力信号M4を受け取ってもよい。
<変形例B6>
 制御部183および183aの少なくとも一方は、スピーカごとに遅延時間を変更してもよい。
<変形例B7>
 遅延時間の制御のオンオフを設定するための操作部(例えば、操作スイッチ)が設けられ、使用者がその操作部を操作して遅延時間の制御をオンに設定した場合に、制御部183および183aは遅延時間の制御を実行してもよい。
<変形例B8>
 第4実施形態では、出力信号M8から出力信号M1~M4を差し引くことで、車室R内のノイズ音量が特定されたが、それに代わり、出力信号M8をフィルターに通してノイズに相当する周波数の信号のみを取り出し、その周波数の信号に基づいて車室R内のノイズ音量が特定されてもよい。
<変形例B9>
 車室Rでのノイズの音量は、車両Cのエンジンの回転数および車両Cの空調機のファンの回転数と強い相関があると考えられる。例えば、車両Cのエンジンの回転数または車両Cの空調機のファンの回転数が大きくなるほど、車室Rでのノイズ音量が大きくなる傾向がある。そこで第5実施形態において、車両Cの状態として、車両Cの速度の代わりに、車両Cのエンジンの回転数または車両Cの空調機のファンの回転数が用いられてもよい。この場合、制御部183aは、車両制御装置9から車両Cのエンジンの回転数の情報または車両Cの空調機のファンの回転数の情報を受け取り、車両Cのエンジンの回転数が大きいほど、または車両Cの空調機のファンの回転数が大きいほど、遅延時間を長くする。この際、制御部183aは、車両Cのエンジンの回転数が大きいほど遅延時間が長くなることを示すエンジン回転数関係情報または、車両Cの空調機のファンの回転数が大きいほど遅延時間が長くなることを示すファン回転数関係情報を用いて、遅延時間を決定してもよい。
 上述した各実施形態および各変形例の少なくとも1つから以下の態様が把握される。
 本発明に係る会話アシスト装置の一態様(第1の態様)は、矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて生成された音信号を、前記座席ごとに配置されたスピーカのうち、当該マイクが配置された座席と対角の位置にある対角座席について配置されたスピーカに供給する供給部と、を含む。
 この態様によれば、音信号が供給されるスピーカとして、座席ごとに配置されたスピーカのなかで、音信号の元になる出力信号を発するマイクからの距離が最も長いスピーカを用いることが可能になる。このため、会話中におけるハウリングの発生を低減することが可能になり、スピーカからの音が聞き取りやすくなる。
 さらに、この態様によれば、出力信号を出力するマイクと、音信号が供給されるスピーカとの間に、座席が位置する。このため、スピーカが出力する音のうち、座席に到達した音(音波)は座席によって吸収されやすくなる。よって、ハウリングの発生を低減することが可能になる。
 上述した会話アシスト装置の他の態様(第2の態様)は、第1の態様に係る会話アシスト装置において、前記マイクの出力信号に対して遅延を付加して前記音信号を生成する信号処理部をさらに含むことが望ましい。
 人の話は、音節と音節との間の時間間隔が大きくなると分かり難くなることが知られている。
 そこで、話し手が発した音に残響が付与されると、音節と音節との間の時間間隔が小さくなり、話し手が発した音は、聞き手にとって聞き取りやすくなる。
 しかしながら、座席は吸音性を有しているため、話し手が発した音の残響は、座席が存在しない場合に比べて小さくなる。よって、話し手が発した音は、座席が存在しない場合に比べて、音節と音節との間の時間間隔が大きくなり、聞き手にとって聞き取り難くなるおそれがある。
 この態様によれば、マイクの出力信号に対して少なくとも遅延を付加して音信号を生成するため、スピーカが発した音は、話し手の話した音の残響として機能する。このため、マイクの出力信号に対して遅延を付加しない場合に比べて、音節と音節との間の時間間隔を小さくでき、音節と音節との間の時間間隔が大きくなって聞き手が音を聞き取り難くなることを抑制可能になる。
 上述した会話アシスト装置の他の態様(第3の態様)は、第2の態様に係る会話アシスト装置において、前記マイク、前記スピーカおよび前記座席は、車室内に配置され、前記車室を有する車両の状態に応じて、前記遅延の時間を制御する制御部を含むことが望ましい。
 この態様によれば、受話者が発話者の発言を聞き取りやすくなるように、車両の状態に応じて遅延時間を制御することが可能になる。このため、車両の状態に関わらず遅延時間が一定である場合に比べて、受話者が発話者の発言を聞き取りやすくできる。
 例えば、車両の状態に応じてノイズ音量が大きくなる場合に遅延時間を長くすれば、発話者が発した音とスピーカからの音との両方が大音量のノイズ音と時間的に重なり難くなり、受話者が発話者の発言を聞き取りやすくなる。また、車両の状態に応じてノイズ音量が小さくなる場合に遅延時間を短くすれば、発話者が発した音とスピーカからの音との時間差が短くなり、スピーカからの音について受話者もしくは発話者が違和感を覚え難くなる。
 本発明に係る会話アシスト装置の他の態様(第4の態様)は、ハウリングの発生を示すハウリング発生信号を受け取ると、矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて生成された音信号の供給先を、前記座席ごとに配置されたスピーカのうち、前記音信号の現在の供給先であるスピーカから、前記音信号の現在の供給先であるスピーカとは異なるスピーカに切り換える供給部を備える。
 この態様によれば、例えばハウリングが発生したときに、そのハウリングを解消することが可能になる。
 上述した会話アシスト装置の他の態様(第5の態様)は、第4の態様に係る会話アシスト装置において、前記ハウリングを検出すると、前記ハウリング発生信号を出力する検出部をさらに含み、前記供給部は、前記検出部から前記ハウリング発生信号を受け取ることが望ましい。
 この態様によれば、ハウリングが発生したときに、そのハウリングを自動的に解消することが可能になる。
 上述した会話アシスト装置の他の態様(第6の態様)は、第4の態様に係る会話アシスト装置において、操作スイッチと、前記操作スイッチの操作に応じて前記ハウリング発生信号を出力する出力部と、をさらに含み、前記供給部は、前記出力部から前記ハウリング発生信号を受け取ることが望ましい。
 この態様によれば、ハウリングが発生したときに、使用者の操作スイッチの操作に応じて、そのハウリングを解消することが可能になる。
 本発明に係る会話アシスト方法の一態様(第7の態様)は、ハウリングの発生を示すハウリング発生信号を受け取ると、矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて生成された音信号の供給先を、前記座席ごとに配置されたスピーカのうち、前記音信号の現在の供給先であるスピーカとは異なるスピーカに切り換える。
 上述した会話アシスト装置の他の態様(第8の態様)は、第3の態様に係る会話アシスト装置において、前記車両の状態は、前記車室内のノイズ音量であることが望ましい。
 上述した会話アシスト装置の他の態様(第9の態様)は、第3の態様に係る会話アシスト装置において、前記車両の状態は、前記車両の速度であることが望ましい。
 上述した会話アシスト装置の他の態様(第10の態様)は、第3の態様に係る会話アシスト装置において、前記車両の状態は、前記車両のエンジンの回転数であることが望ましい。
 上述した会話アシスト装置の他の態様(第11の態様)は、第3の態様に係る会話アシスト装置において、前記車両の状態は、前記車両の空調機のファンの回転数であることが望ましい。
 上述した会話アシスト装置の他の態様(第12の態様)は、第1の態様に係る会話アシスト装置において、前記供給部は、前記音信号を前記対角座席とは異なる座席について配置されたスピーカに供給している状況で、ハウリングの発生を示すハウリング発生信号を受け取ると、前記音信号の供給先を、前記対角座席とは異なる座席について配置されたスピーカから、前記対角座席について配置されたスピーカに切り換えることが望ましい。
 この態様によれば、例えばハウリングが発生したときに、そのハウリングを解消することが可能になる。
 上述した会話アシスト装置の他の態様(第13の態様)として、第1の態様に係る会話アシスト装置において、前記供給部は、前記音信号を前記対角座席について配置されたスピーカに供給している状況で、ハウリングの発生を示すハウリング発生信号を受け取ると、前記音信号の供給先を、前記対角座席について配置されたスピーカから、前記対角座席とは異なる座席について配置されたスピーカに切り換えることが望ましい。
 ハウリングの発生条件は、例えば、座席に置かれた荷物の状況に応じて変化する可能性がある。
 この態様によれば、例えばハウリングの発生条件が変化して、音信号の供給先が対角座席について配置されたスピーカである状況においてハウリングが発生しても、音信号の供給先を切り換えるので、ハウリングを解消することが可能になる。
 本発明に係る会話アシスト装置の一態様(第14の態様)は、車室内のマイクが集音した音を遅延させて前記車室内のスピーカにて放音させる音処理部と、前記車室を有する車両の状態に応じて、前記遅延の時間を制御する制御部と、を含む。
 この態様によれば、受話者が発話者の発言を聞き取りやすくなるように、車両の状態に応じて遅延時間を制御することが可能になる。このため、車両の状態に関わらず遅延時間が一定である場合に比べて、受話者が発話者の発言を聞き取りやすくできる。
 例えば、車両の状態に応じてノイズ音量が大きくなる場合に遅延時間を長くすれば、発話者が発した音とスピーカからの音との両方が大音量のノイズ音と時間的に重なり難くなり、受話者が発話者の発言を聞き取りやすくなる。また、車両の状態に応じてノイズ音量が小さくなる場合に遅延時間を短くすれば、発話者が発した音とスピーカからの音との時間差が短くなり、スピーカからの音について受話者もしくは発話者が違和感を覚え難くなる。
 上述した会話アシスト装置の他の態様(第15の態様)は、第14の態様に係る会話アシスト装置において、前記車両の状態は、前記車室内のノイズ音量であることが望ましい。この態様によれば、受話者が発話者の発言を聞き取りやすくなるように、車室内のノイズ音量に応じて遅延時間を制御することが可能になる。
 上述した会話アシスト装置の他の態様(第16の態様)は、第15の態様に係る会話アシスト装置において、前記制御部は、前記ノイズ音量が上がると前記遅延の時間を長くすることが望ましい。この態様によれば、発話者が発した音とスピーカが出力した音との両方が突発的な大音量のノイズ音と時間的に重なり難くなり、受話者が発話者の発言を聞き取りやすくなる。また、車室でのノイズ音量が小さいとき、発話者が発した音とスピーカからの音との時間差が短くなり、スピーカからの音について受話者もしくは発話者が違和感を覚え難くなる。
 上述した会話アシスト装置の他の態様(第17の態様)は、第14の態様に係る会話アシスト装置において、前記車両の状態は、前記車両の速度であることが望ましい。車両Cの速度は、車室R内のノイズ音量と強い相関を持つことが知られている。この態様によれば、受話者が発話者の発言を聞き取りやすくなるように、車室内のノイズ音量に応じて、つまり車室内のノイズ音量に応じて、遅延時間を制御することが可能になる。
 上述した会話アシスト装置の他の態様(第18の態様)は、第17の態様に係る会話アシスト装置において、前記制御部は、前記車両の速度が速くなると前記遅延の時間を長くすることが望ましい。車両の速度が速くなるほど、車室でのノイズ音量が大きくなる傾向がある。この態様によれば、車両の速度が速くなると遅延の時間が長くなるので、発話者が発した音とスピーカが出力した音との両方が突発的な大音量のノイズ音と時間的に重なり難くなり、受話者が発話者の発言を聞き取りやすくなる。また、車両Cの速度が遅いときは、発話者が発した音とスピーカからの音との時間差が短くなり、スピーカからの音について受話者もしくは発話者が違和感を覚え難くなる。
 上述した会話アシスト装置の他の態様(第19の態様)は、第14の態様から第18の態様のいずれかに係る会話アシスト装置において、前記マイクは、矩形に配置された4つの座席のいずれかに対して配置されており、前記スピーカは複数あり、前記4つの座席のうち前記マイクが配置された座席と対角の位置にある対角座席を含む複数の座席に対して配置されており、前記マイクが集音した音を前記対角位置の座席に対して配置されているスピーカに供給する供給部をさらに含むことが望ましい。この態様によれば、マイクの集音した音が、該マイクの配置された座席からの距離が最も長い座席のスピーカから放音される。このため、会話中におけるハウリングの発生を低減することが可能になる。さらに、この態様によれば、マイクとスピーカとの間に座席が位置する。このため、スピーカが出力する音のうち、座席に到達した音(音波)は座席によって吸収されやすくなる。よって、ハウリングの発生を低減することが可能になる。
 本発明に係る会話アシスト装置の他の態様(第20の態様)は、矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて音信号を生成する信号処理部と、前記信号処理部が生成した音信号を、前記座席ごとに配置されたスピーカのうち、当該マイクが配置された座席と対角の位置にある対角座席について配置されたスピーカに供給する供給部とを含む。
 本発明に係る会話アシスト装置の他の態様(第21の態様)は、矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて音信号を生成する信号処理部と、ハウリングの発生を示すハウリング発生信号を受け取ると、前記信号処理部が生成した音信号の供給先を、前記座席ごとに配置されたスピーカのうち、前記音信号の現在の供給先であるスピーカから、前記音信号の現在の供給先であるスピーカとは異なるスピーカに切り換える供給部を備える。
 100…会話アシスト装置、11~14…マイク、21~24…スピーカ、31~34…信号処理部、4…供給部。

Claims (7)

  1.  矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて生成された音信号を、前記座席ごとに配置されたスピーカのうち、当該マイクが配置された座席と対角の位置にある対角座席について配置されたスピーカに供給する供給部を含む会話アシスト装置。
  2.  前記マイクの出力信号に対して遅延を付加して前記音信号を生成する信号処理部をさらに含む、請求項1に記載の会話アシスト装置。
  3.  前記マイク、前記スピーカおよび前記座席は、車室内に配置され、
     前記車室を有する車両の状態に応じて、前記遅延の時間を制御する制御部を含む、請求項2に記載の会話アシスト装置。
  4.  ハウリングの発生を示すハウリング発生信号を受け取ると、矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて生成された音信号の供給先を、前記座席ごとに配置されたスピーカのうち、前記音信号の現在の供給先であるスピーカから、前記音信号の現在の供給先であるスピーカとは異なるスピーカに切り換える供給部を備える会話アシスト装置。
  5.  前記ハウリングを検出すると、前記ハウリング発生信号を出力する検出部をさらに含み、
     前記供給部は、前記検出部から前記ハウリング発生信号を受け取る、請求項4に記載の会話アシスト装置。
  6.  操作スイッチと、
     前記操作スイッチの操作に応じて前記ハウリング発生信号を出力する出力部と、をさらに含み、
     前記供給部は、前記出力部から前記ハウリング発生信号を受け取る、請求項4に記載の会話アシスト装置。
  7.  ハウリングの発生を示すハウリング発生信号を受け取ると、矩形に配置された4つの座席について前記座席ごとに配置されたマイクの出力信号に基づいて生成された音信号の供給先を、前記座席ごとに配置されたスピーカのうち、前記音信号の現在の供給先であるスピーカとは異なるスピーカに切り換える会話アシスト方法。
PCT/JP2017/034010 2016-09-30 2017-09-21 会話アシスト装置および会話アシスト方法 WO2018061956A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780057957.1A CN109983782B (zh) 2016-09-30 2017-09-21 会话辅助装置及会话辅助方法
US16/367,930 US10812901B2 (en) 2016-09-30 2019-03-28 Conversation assist apparatus and conversation assist method
US16/895,551 US10932042B2 (en) 2016-09-30 2020-06-08 Conversation assist apparatus and conversation assist method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016192952A JP6753252B2 (ja) 2016-09-30 2016-09-30 会話アシスト装置
JP2016-192952 2016-09-30
JP2016-231609 2016-11-29
JP2016231609A JP6862797B2 (ja) 2016-11-29 2016-11-29 会話アシスト装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/367,930 Continuation US10812901B2 (en) 2016-09-30 2019-03-28 Conversation assist apparatus and conversation assist method

Publications (1)

Publication Number Publication Date
WO2018061956A1 true WO2018061956A1 (ja) 2018-04-05

Family

ID=61759665

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/034010 WO2018061956A1 (ja) 2016-09-30 2017-09-21 会話アシスト装置および会話アシスト方法

Country Status (3)

Country Link
US (2) US10812901B2 (ja)
CN (1) CN109983782B (ja)
WO (1) WO2018061956A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7383942B2 (ja) * 2019-09-06 2023-11-21 ヤマハ株式会社 車載音響システムおよび車両
CN110675887B (zh) * 2019-09-12 2021-12-21 厦门亿联网络技术股份有限公司 一种用于会议系统的多麦克风切换方法和系统
JP7338489B2 (ja) * 2020-01-23 2023-09-05 トヨタ自動車株式会社 音声信号制御装置、音声信号制御システム及び音声信号制御プログラム
CN113783988B (zh) * 2021-08-26 2024-04-02 东风汽车集团股份有限公司 一种车内通话音量控制方法及装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58114554A (ja) * 1981-12-28 1983-07-07 Nec Corp ハウリング防止装置
JPS61108288A (ja) * 1984-10-31 1986-05-26 Sony Corp ハウリング防止回路
JPS6185995U (ja) * 1984-11-12 1986-06-05
JPH11342799A (ja) * 1998-06-03 1999-12-14 Mazda Motor Corp 車両用会話支援装置
JP2002051392A (ja) * 2000-08-01 2002-02-15 Alpine Electronics Inc 車内会話補助装置
JP2003125068A (ja) * 2001-10-16 2003-04-25 Nissan Motor Co Ltd 車両通話装置
JP2005161873A (ja) * 2003-11-28 2005-06-23 Denso Corp 車室内音場制御システム
JP2010124435A (ja) * 2008-11-21 2010-06-03 Panasonic Corp 車内会話補助装置
JP2011253129A (ja) * 2010-06-03 2011-12-15 Yamaha Corp 音場支援装置
JP2015071320A (ja) * 2013-10-01 2015-04-16 アルパイン株式会社 会話支援装置、会話支援方法及び会話支援プログラム
JP2016063439A (ja) * 2014-09-19 2016-04-25 日産自動車株式会社 車室内会話装置
JP2016072797A (ja) * 2014-09-30 2016-05-09 ブラザー工業株式会社 楽曲再生装置、および楽曲再生装置のプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3073368B2 (ja) 1993-07-06 2000-08-07 株式会社ケンウッド 車載用音響装置
CN2540335Y (zh) * 2002-05-27 2003-03-19 林欧煌 一种防止产生啸叫与回音的一体化送受话装置
WO2007072757A1 (ja) * 2005-12-19 2007-06-28 Yamaha Corporation 放収音装置
DE602006007322D1 (de) * 2006-04-25 2009-07-30 Harman Becker Automotive Sys Fahrzeugkommunikationssystem
JP2008042390A (ja) 2006-08-03 2008-02-21 National Univ Corp Shizuoka Univ 車内会話支援システム
US9437179B2 (en) * 2012-01-30 2016-09-06 Mitsubishi Electric Corporation Reverberation suppression device
JP6185995B2 (ja) * 2012-08-27 2017-08-23 インヴェンサス・コーポレイション 共通サポートシステム及び超小型電子アセンブリ
US9800983B2 (en) * 2014-07-24 2017-10-24 Magna Electronics Inc. Vehicle in cabin sound processing system
JP2018170534A (ja) * 2015-08-28 2018-11-01 旭化成株式会社 伝達装置、伝達システム、伝達方法、およびプログラム
CN105516856B (zh) * 2015-12-29 2018-12-14 歌尔股份有限公司 车辆警告声音生成装置和车辆
EP3441965A4 (en) * 2016-04-05 2019-05-22 Sony Corporation SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD, AND PROGRAM

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58114554A (ja) * 1981-12-28 1983-07-07 Nec Corp ハウリング防止装置
JPS61108288A (ja) * 1984-10-31 1986-05-26 Sony Corp ハウリング防止回路
JPS6185995U (ja) * 1984-11-12 1986-06-05
JPH11342799A (ja) * 1998-06-03 1999-12-14 Mazda Motor Corp 車両用会話支援装置
JP2002051392A (ja) * 2000-08-01 2002-02-15 Alpine Electronics Inc 車内会話補助装置
JP2003125068A (ja) * 2001-10-16 2003-04-25 Nissan Motor Co Ltd 車両通話装置
JP2005161873A (ja) * 2003-11-28 2005-06-23 Denso Corp 車室内音場制御システム
JP2010124435A (ja) * 2008-11-21 2010-06-03 Panasonic Corp 車内会話補助装置
JP2011253129A (ja) * 2010-06-03 2011-12-15 Yamaha Corp 音場支援装置
JP2015071320A (ja) * 2013-10-01 2015-04-16 アルパイン株式会社 会話支援装置、会話支援方法及び会話支援プログラム
JP2016063439A (ja) * 2014-09-19 2016-04-25 日産自動車株式会社 車室内会話装置
JP2016072797A (ja) * 2014-09-30 2016-05-09 ブラザー工業株式会社 楽曲再生装置、および楽曲再生装置のプログラム

Also Published As

Publication number Publication date
US20190230437A1 (en) 2019-07-25
CN109983782B (zh) 2021-06-01
US20200304909A1 (en) 2020-09-24
CN109983782A (zh) 2019-07-05
US10932042B2 (en) 2021-02-23
US10812901B2 (en) 2020-10-20

Similar Documents

Publication Publication Date Title
US10257613B2 (en) Managing telephony and entertainment audio in a vehicle audio platform
US10932042B2 (en) Conversation assist apparatus and conversation assist method
EP2850611B1 (en) Noise dependent signal processing for in-car communication systems with multiple acoustic zones
JP2019133156A (ja) 車両環境のためのマルチチャネル音声認識
US10255912B2 (en) Isolation and enhancement of short duration speech prompts in an automotive system
JP2009255735A (ja) 騒音キャンセル装置
JP7049803B2 (ja) 車載装置および音声出力方法
JP2007208828A (ja) 車両用音声入出力制御装置
US20180302736A1 (en) Audible Prompts in a Vehicle Navigation System
CN115550810A (zh) 用于控制收听环境中的输出声音的系统和方法
JP4363276B2 (ja) 音場制御装置
JP2010141468A (ja) 車載音響装置
JP6753252B2 (ja) 会話アシスト装置
JP6775897B2 (ja) 車内会話支援装置
JP6862797B2 (ja) 会話アシスト装置
JP2018125753A (ja) 車載用音処理装置
JP6995254B2 (ja) 音場制御装置及び音場制御方法
Goose et al. Paz: In-vehicle personalized audio zones
JP2020198617A (ja) 会話アシスト装置
JP6880893B2 (ja) 音信号処理装置
JP7474548B2 (ja) オーディオデータの再生の制御
JP5116440B2 (ja) 音制御装置
JP2018088571A (ja) 出力制御装置および出力制御方法
JP2005202054A (ja) 音響システム
JP5201392B2 (ja) 車両のオーディオ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17855911

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17855911

Country of ref document: EP

Kind code of ref document: A1