JP2002314637A - Device for reducing noise - Google Patents
Device for reducing noiseInfo
- Publication number
- JP2002314637A JP2002314637A JP2001110070A JP2001110070A JP2002314637A JP 2002314637 A JP2002314637 A JP 2002314637A JP 2001110070 A JP2001110070 A JP 2001110070A JP 2001110070 A JP2001110070 A JP 2001110070A JP 2002314637 A JP2002314637 A JP 2002314637A
- Authority
- JP
- Japan
- Prior art keywords
- noise
- spectrum
- data
- estimated
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Telephone Function (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Noise Elimination (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、スペクトルサブト
ラクションを用いた雑音低減装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a noise reduction apparatus using spectral subtraction.
【0002】[0002]
【従来の技術】近年、携帯通信端末の飛躍的な普及に伴
い、携帯通信端末を自動車等の車両内で利用する人が増
加している。そのため車両内で利用する場合には、従来
のハンドセット使用時のような片手操作(運転)になる
ことを回避するために、ハンズフリー装置等を用いるこ
とが法規制により義務づけらた。このハンズフリー装置
では、例えば、送話用マイクロホンがサンバイザ部に設
置され、送受信用オン/オフスイッチがステアリングホ
イール部に設置されている。また、音声の出力は、専用
スピーカあるいは車載オーディオのスピーカが兼用され
るように構成されている。したがって、運転者はハンド
ルから手を離すことなく通話できる。2. Description of the Related Art With the rapid spread of portable communication terminals in recent years, the number of people who use portable communication terminals in vehicles such as automobiles is increasing. For this reason, when used in a vehicle, laws and regulations have made it mandatory to use a hands-free device or the like in order to avoid one-handed operation (driving) as when using a conventional handset. In this hands-free device, for example, a microphone for transmission is installed in a sun visor unit, and an on / off switch for transmission and reception is installed in a steering wheel unit. The audio output is configured such that a dedicated speaker or a speaker for vehicle-mounted audio is also used. Therefore, the driver can talk without releasing the hand from the steering wheel.
【0003】また、自動車等の車両に搭載される運転支
援システムの高度化に伴い、音声入力による各種機器の
制御を行なう音声認識装置の普及も目覚しく、車室内に
設けた音声入力用マイクロホンを用いて音声認識を行な
い各種機器を制御している。この音声認識装置において
も、例えば、音声入力用マイクロホンがサンバイザ部に
設置され、音声認識オン/オフスイッチ(音声入力−ス
イッチ)がステアリングホイール部に設置された構成で
ある。したがって、運転者はハンドルから手を離すこと
なく音声認識装置を利用し各種機器を制御できる。Further, with the advancement of a driving support system mounted on a vehicle such as an automobile, a voice recognition device for controlling various devices by voice input has been remarkably spread, and a voice input microphone provided in a vehicle compartment has been used. It performs voice recognition and controls various devices. This voice recognition device also has a configuration in which, for example, a voice input microphone is provided in a sun visor unit, and a voice recognition on / off switch (voice input-switch) is provided in a steering wheel unit. Therefore, the driver can control various devices using the voice recognition device without releasing the hand from the steering wheel.
【0004】このような音声による通信・制御の技術に
不可欠となるのは、雑音の低減である。従来 自動車等
の車両内でハンズフリー装置等を用いて携帯通信端末を
利用する場合、車両内の各種背景雑音(風きり音、エン
ジン音、エアコンモーター音、吹き出し音、ロードノイ
ズ、オーディオ音、排気音など)がマイクから通話音声
と同時に入力されてしまい、送話音声の品質が著しく低
下する問題があった。また、音声認識装置においても同
様に、車両内の各種背景雑音が入力音声に混入すること
により、音声の認識率が低下する問題があった。[0004] The reduction of noise is indispensable for such voice communication and control techniques. Conventionally, when a portable communication terminal is used in a vehicle such as an automobile using a hands-free device or the like, various background noises in the vehicle (wind noise, engine sound, air conditioner motor sound, blowing sound, road noise, audio sound, exhaust sound, etc.). Sound, etc.) is input from the microphone at the same time as the call voice, and there is a problem that the quality of the transmitted voice is significantly reduced. Similarly, in the speech recognition device, there is a problem in that various background noises in the vehicle are mixed into the input speech, thereby reducing the speech recognition rate.
【0005】このような雑音を低減させる手法の一つ
に、マイクロホンから入力された音声の雑音成分を除去
するノイズキャンセル方式があり、無声状態の信号から
雑音スペクトルを求め、発声中の音声スペクトルから一
定の割合で雑音のスペクトルを差し引く技術が知られて
いる。これは、スペクトルサブトラクションと呼ばれ、
例えばSTEVEN F BOLL、”Suppression of Acoustic Noi
se in Speech Using Spectral Subtruction”、IEEE Tr
ansactions on Acoustics, Speech and Signal process
ing、Vol.Assp-27、No.2、April 1979、pp.113-120をは
じめとして多くの研究成果が発表されている。[0005] One of the techniques for reducing such noise is a noise canceling method for removing a noise component of speech input from a microphone. A noise spectrum is obtained from a signal in an unvoiced state, and a noise spectrum is obtained from a speech spectrum during speech. A technique for subtracting a noise spectrum at a constant rate is known. This is called spectral subtraction,
For example, STEVEN F BOLL, “Suppression of Acoustic Noi
se in Speech Using Spectral Subtruction ”, IEEE Tr
ansactions on Acoustics, Speech and Signal process
Many research results have been published, including ing, Vol. Assp-27, No. 2, April 1979, pp. 113-120.
【0006】ここで、差し引く倍率や、スペクトル形状
は実験的にあらかじめ定められた値に固定する方法が一
般的であるが、雑音のパワーや形状に応じて変化させる
ことも提案されている。従来、このようなスペクトルサ
ブトラクションを用いた技術として、以下〜に示す
ような方法が提案されている。Here, a method of fixing the magnification to be subtracted and the spectrum shape to experimentally predetermined values is generally used, but it has also been proposed to change the magnification or the spectrum shape in accordance with the power or shape of the noise. Conventionally, the following methods have been proposed as techniques using such spectral subtraction.
【0007】特開昭57−122498号公報に示さ
れるように、音声用と雑音用の2本のマイクロホンを設
け、音声用マイクロホンと雑音用マイクロホンの入力ゲ
インを制御し、音声認識部への入力中の雑音レベルを一
定に保つ方法 特開平11−231897号公報に示されるように、
雑音信号を含む音声信号から低域周波数雑音を除去した
音声区間を検出し、この音声信号がスペクトルに変換さ
れた信号から音声区間の直前の雑音信号スペクトルを音
声区間全域から差し引き、雑音除去した音声区間のスペ
クトルを得る方法 特開平10−177394号公報に示されるように、
雑音スペクトルおよびパワーに基づいて入力音声パタン
から差し引く雑音パタンの倍率を変化させる方法As shown in Japanese Patent Application Laid-Open No. 57-122498, two microphones for voice and noise are provided, input gains of the voice microphone and the noise microphone are controlled, and input to a voice recognition unit is performed. A method for keeping the noise level in the medium constant As shown in Japanese Patent Application Laid-Open No. 11-231897,
A voice section in which low-frequency noise is removed from a voice signal containing a noise signal is detected, and a noise signal spectrum immediately before the voice section is subtracted from the entire voice section from the signal obtained by converting the voice signal into a spectrum, and the voice from which the noise is removed is obtained. As shown in Japanese Patent Application Laid-Open No. H10-177394,
Method for changing the magnification of a noise pattern to be subtracted from an input speech pattern based on noise spectrum and power
【0008】[0008]
【発明が解決しようとする課題】しかしながら、上述し
た公報に記載の技術には、それぞれ次に示すような問題
がある。これを上記〜に対応させて示す。 に示す方法の問題点:この場合、突発的な雑音(例え
ば、道路の継ぎ目や段差)に対してもゲイン制御してし
まう。そして、このような突発的な雑音に対するゲイン
制御は適切なものにならないことが多く、この場合の雑
音低減処理により、聴感上の違和感が生じたり、誤認識
が発生したりする。However, the techniques described in the above publications have the following problems, respectively. This is shown corresponding to the above. Problem: In this case, gain control is performed even for sudden noise (for example, road joints or steps). In many cases, the gain control for such sudden noise is not appropriate. In this case, the noise reduction processing may cause a sense of incongruity in the auditory sense or erroneous recognition.
【0009】具体的に言えば、雑音低減のための処理で
は、雑音を打ち消すための制御量を時々刻々算出する。
しかし、突発的な雑音に関して言えば、制御量を算出し
た時点で、既にその雑音成分は大きく変化してしまって
いることが多い。つまり、制御量算出処理の時間的な遅
れが、突発的な雑音の低減には逆効果になるのである。
このような時間的な遅れによって生じる不適切な雑音低
減処理によって、例えば上述したハンズフリー装置を介
して届いた音声が、相手に違和感を与えることがあるの
である。同様の理由で、音声認識装置でも誤認識が発生
する。More specifically, in the process for reducing noise, a control amount for canceling noise is calculated every moment.
However, with respect to sudden noise, the noise component often changes greatly at the time when the control amount is calculated. That is, the time delay of the control amount calculation processing has an adverse effect on the reduction of sudden noise.
Due to the improper noise reduction processing caused by such a time delay, for example, the voice arriving via the above-described hands-free device may give a sense of incompatibility to the other party. For the same reason, erroneous recognition also occurs in the speech recognition device.
【0010】に示す方法の問題点 この場合、音声区間直前に推定した雑音パタンによって
雑音を演算除去するため、音声区間中に雑音が変化した
り、雑音推定したタイミングが偶然突発的な雑音であっ
たりすると、聴感上の違和感が生じたり、誤認識が発生
したりする。In this case, the noise is calculated and removed by the noise pattern estimated immediately before the voice section, so that the noise changes during the voice section or the timing at which the noise is estimated is accidental noise. If so, a sense of incongruity may occur in the sense of hearing, or erroneous recognition may occur.
【0011】に示す方法の問題点 この場合、入力音声スペクトルと音声区間前の数フレー
ムの雑音区間を用いて雑音の平均スペクトルを算出し、
入力音声スペクトルから雑音スペクトルを差し引く。そ
のため、雑音パタンの推定過程において雑音スペクトル
や雑音パワーによる雑音パタンの推定に精度向上はあっ
ても、上述のの方法と同様の問題が発生する。特にこ
こでは、有声・無声判定が正しく行われなければ、雑音
スペクトルを抽出することができない。In this case, the average spectrum of noise is calculated using the input speech spectrum and the noise section of several frames before the speech section,
Subtract the noise spectrum from the input speech spectrum. Therefore, in the process of estimating the noise pattern, the same problem as in the above-described method occurs even though the accuracy of the noise pattern estimation based on the noise spectrum and noise power is improved. In particular, here, the noise spectrum cannot be extracted unless the voiced / unvoiced determination is correctly performed.
【0012】本発明は、このような従来の問題点に鑑み
てなされたものであり、移動体に発生する種々の雑音を
適切に処理し、入力音声の明瞭化を図ることを目的とす
る。SUMMARY OF THE INVENTION The present invention has been made in view of such conventional problems, and has as its object to appropriately process various noises generated in a moving body to clarify an input voice.
【0013】[0013]
【課題を解決するための手段及び発明の効果】本発明の
雑音低減装置は、移動体に搭載されて用いられる。移動
体には、汽車、電車、自動車などのいわゆる旅客・貨物
を輸送するための車はもちろん、レーシングカーやバイ
クも含まれる。また、車に限らず、船舶や航空機も含ま
れるものとする。移動に伴う雑音の低減を目的としてい
るからである。Means for Solving the Problems and Effects of the Invention The noise reduction apparatus of the present invention is used by being mounted on a moving body. The moving objects include not only cars for transporting so-called passengers and cargo such as trains, trains and cars, but also racing cars and motorcycles. In addition, not only cars but also ships and aircraft are included. This is because the purpose is to reduce noise due to movement.
【0014】この雑音低減に対して本発明では、記憶手
段に、移動体における発生音に対し、その発生が推定可
能な雑音の雑音データを、予め定められる要因情報に対
応させて記憶しておく。要因情報は、雑音発生の要因と
なる情報である。そして、この要因情報を取得する要因
情報取得手段を備える構成とし、取得された要因情報に
基づき、選択手段が、記憶手段に記憶された雑音データ
の中から、対応する雑音データを選択する。In order to reduce the noise, according to the present invention, the noise data of the noise that can be estimated to be generated for the sound generated in the moving object is stored in the storage means in association with predetermined factor information. . The factor information is information that causes noise generation. Then, a configuration is provided with factor information acquiring means for acquiring the factor information, and based on the acquired factor information, the selecting means selects corresponding noise data from the noise data stored in the storage means.
【0015】さらに、雑音算出手段が、選択された雑音
データに基づき、推定される雑音の周波数スペクトルで
ある推定雑音スペクトルを含む推定雑音データを算出す
る。一方で、変換手段が、マイクロホンから入力される
音響信号を取得し、ディジタル変換を施し、スペクトル
算出手段が、変換された音響信号の周波数スペクトルを
算出する。Further, the noise calculating means calculates estimated noise data including an estimated noise spectrum which is a frequency spectrum of the estimated noise based on the selected noise data. On the other hand, the conversion unit acquires the audio signal input from the microphone, performs digital conversion, and the spectrum calculation unit calculates the frequency spectrum of the converted audio signal.
【0016】演算手段は、スペクトル算出手段にて算出
された周波数スペクトルから、上述した雑音算出手段に
て算出された推定雑音スペクトルを差し引く。周波数ス
ペクトルから推定雑音スペクトルを差し引くとは、周波
数スペクトル及び推定雑音スペクトルの振幅成分である
振幅スペクトルの減算処理であることが考えられる。ま
た、振幅スペクトルを二乗したパワースペクトルの減算
処理であってもよい。The calculating means subtracts the estimated noise spectrum calculated by the noise calculating means from the frequency spectrum calculated by the spectrum calculating means. Subtracting the estimated noise spectrum from the frequency spectrum may be a subtraction process of an amplitude spectrum that is an amplitude component of the frequency spectrum and the estimated noise spectrum. Further, a subtraction process of a power spectrum obtained by squaring the amplitude spectrum may be performed.
【0017】従来の問題をここで簡単に繰り返せば、移
動体で発生する全ての雑音に対してその雑音の低減処理
を行っていることにあった。つまり、実際にマイクロホ
ンなどで雑音を拾い、これらの雑音に対して一律に処理
を行うことが問題となっていたのである。If the conventional problem is simply repeated here, noise reduction processing is performed on all noises generated in the moving object. That is, there has been a problem that noise is actually picked up by a microphone or the like, and the noise is uniformly processed.
【0018】本発明は、雑音によっては処理対象としな
い方が却って入力音声を明瞭化できることがあるという
こと、また、移動体を限定した場合、移動体において発
生が推定される雑音は、限られたものとなってくること
に着目したものである。例えば自動車における雑音とし
ては、ロードノイズ、エンジン音、エアコンの送風音、
カーオーディオ音などが典型的な雑音として挙げられ
る。According to the present invention, there is a case that the input speech may be clarified if it is not processed depending on the noise, and the noise which is estimated to be generated in the moving object when the moving object is limited is limited. It is a thing that paid attention to becoming something. For example, noises in automobiles include road noise, engine noise, air-conditioner ventilation noise,
A typical example is a car audio sound.
【0019】つまり、雑音発生の要因となる要因情報を
取得し、この要因情報に対応させて予め記憶した雑音デ
ータに基づいて推定雑音スペクトルを算出し、この推定
雑音スペクトルを用いた雑音低減を行う。これによっ
て、典型的な雑音のみを処理対象とでき、予期しない突
発的な雑音を処理対象から敢えて外すことにより、適切
な雑音低減処理を実現できる。すなわち、移動体に発生
する種々の雑音を適切に処理でき、入力音声の明瞭化が
図られる。That is, information on factors that cause noise generation is obtained, an estimated noise spectrum is calculated based on noise data stored in advance corresponding to this factor information, and noise reduction is performed using the estimated noise spectrum. . As a result, only typical noise can be set as a processing target, and appropriate noise reduction processing can be realized by intentionally removing unexpected unexpected noise from the processing target. That is, various noises generated in the moving object can be appropriately processed, and the input voice can be clarified.
【0020】ところで、ロードノイズなどは特に、車両
の走行路面によって変わってくる。したがって、請求項
2に示すように、要因情報に、移動体の位置情報を含め
ることが考えられる。この位置情報は、地図上のエリア
の情報として設定することができる。このようにすれ
ば、エリアに応じた雑音データが選択されることにな
り、エリア毎の適切な雑音処理が可能になる。この場
合、要因情報取得手段は、GPS受信機を含む構成とし
て実現することが考えられる。また、このような位置特
定機能を有するナビゲーションシステムを含む構成とし
てもよい。さらに、自らが位置情報を算出せず、外部の
ナビゲーションシステムなどから位置情報を取得するよ
うにしてもよい。また、外部から位置情報を取得する場
合、例えば通信端末や無線装置を用いて、移動体外部で
特定される位置情報を取得する構成にすることも考えら
れる。Incidentally, road noise and the like depend on the road surface of the vehicle. Therefore, as described in claim 2, it is conceivable to include the position information of the moving body in the factor information. This position information can be set as information on the area on the map. In this way, noise data according to the area is selected, and appropriate noise processing for each area can be performed. In this case, it is conceivable that the factor information obtaining means is realized as a configuration including a GPS receiver. Further, a configuration including a navigation system having such a position specifying function may be adopted. Further, the position information may be obtained from an external navigation system or the like without calculating the position information. In addition, when position information is acquired from the outside, a configuration in which position information specified outside the moving object is acquired using, for example, a communication terminal or a wireless device may be considered.
【0021】このように要因情報に位置情報を含める場
合、請求項3に示すように、さらに、移動体の進行方向
を取得する進行方向取得手段を備える構成とし、選択手
段が、進行方向取得手段にて取得された進行方向を考慮
して、記憶手段から雑音データを選択するようにすると
よい。このようにすれば、次に走行するエリアに対応す
る雑音データを前もって選択することができ、リアルタ
イム性を有する雑音処理に有利である。例えば、路面の
段差などで生じる雑音に関する雑音データをエリアに対
応させて記憶しておき、前もってその雑音データを選択
することで、突発的な雑音を突発的でないものとして処
理することもできる。When the positional information is included in the factor information as described above, the present invention further comprises a traveling direction acquiring means for acquiring the traveling direction of the moving body, wherein the selecting means comprises a traveling direction acquiring means. The noise data may be selected from the storage means in consideration of the traveling direction acquired in the step (1). In this way, noise data corresponding to the next traveling area can be selected in advance, which is advantageous for real-time noise processing. For example, by storing noise data relating to noise generated due to a step on a road surface in association with an area, and selecting the noise data in advance, it is possible to process sudden noise as non-sudden noise.
【0022】その他、請求項4に示すように、要因情報
には、移動体の状態・状況を示す内部情報や、外部から
取得される外部情報を含めることが考えられる。内部情
報としては、上述したエンジン音に係るエンジンの情
報、エアコンの送風音に係るエアコンの情報、カーオー
ディオ音に係るオーディオ情報などが考えられる。さら
に挙げれば、ウィンドウの開閉状態、乗員数、走行条件
などが挙げられる。したがって、要因情報に内部情報を
含める場合、要因情報取得手段は、エンジン回転を検出
するセンサ、エンジンの出力トルクを検出するトルクセ
ンサ、エアコンの送風量および送風方向を検出する送風
量センサおよび送風方向センサ、車載オーディオのメデ
ィア情報とメディアソース情報を検出するメディア情報
センサとメディアソース情報センサ、ウィンド開閉状態
を検出するウィンドウ開閉センサ、乗員数と乗員位置を
検出する乗員感知センサ、車両周囲の降雨を検出する雨
滴センサ、車両周囲の降雨によりワイパ可動を検出する
ワイパセンサ、又は車両周囲の降雨による視界確保のた
めのフォグランプの点灯を検出するフォグランプセンサ
の少なくともいずれか一つを用いて構成することが考え
られる。In addition, as described in claim 4, it is conceivable that the factor information includes internal information indicating the state and situation of the moving object, and external information obtained from the outside. As the internal information, the information of the engine related to the engine sound, the information of the air conditioner related to the blow sound of the air conditioner, the audio information related to the car audio sound, and the like are considered. Further, the open / closed state of the window, the number of occupants, the running conditions, and the like can be mentioned. Therefore, when internal information is included in the factor information, the factor information obtaining means includes a sensor for detecting engine rotation, a torque sensor for detecting output torque of the engine, an air volume sensor for detecting the air volume and the air direction of the air conditioner, and a ventilation direction. Sensors, media information sensors and media source information sensors that detect media information and media source information of in-vehicle audio, window opening and closing sensors that detect window open / closed status, occupant sensing sensors that detect the number of occupants and occupant positions, and rainfall around the vehicle It is conceivable to use at least one of a raindrop sensor for detecting, a wiper sensor for detecting the movement of the wiper based on rainfall around the vehicle, and a fog lamp sensor for detecting lighting of a fog lamp for securing visibility by rainfall around the vehicle. Can be
【0023】一方、外部情報としては、周囲の交通量や
風が強いといった天候関連の情報が挙げられる。したが
って、要因情報に外部情報を含める場合、要因情報取得
手段は、移動体に搭載されて無線による通信が可能な通
信端末又は無線機の少なくともいずれか一方を備える構
成とすることが考えられ、例えばサービスセンタなどか
ら送信される情報を取得する構成にすることが考えられ
る。On the other hand, examples of the external information include weather-related information such as a surrounding traffic volume and a strong wind. Therefore, when external information is included in the factor information, the factor information obtaining means may be configured to include at least one of a communication terminal or a wireless device that is mounted on a mobile body and can perform wireless communication. A configuration for acquiring information transmitted from a service center or the like may be considered.
【0024】本発明では、要因情報に対応させて雑音デ
ータを記憶しておくことを特徴としている。しかし、雑
音データにも、既知のものと、ある程度のレベルで予測
可能なものが存在する。例えば、上述したエンジン音、
エアコンの送風音、カーオーディオ音などが前者に相当
し、一方、ロードノイズなどが後者に相当する。The present invention is characterized in that noise data is stored in association with factor information. However, there are known noise data and noise data that can be predicted at a certain level. For example, the engine sound described above,
The air-conditioner blowing sound, car audio sound, and the like correspond to the former, while road noise and the like correspond to the latter.
【0025】そのため、記憶手段に予め記憶した雑音デ
ータが実際のものと大きく異なる可能性もある。また、
自動車内などで発生する雑音は有限ではあるが、例えば
位置情報を要因情報に含める場合は特に、全ての要因情
報に対して予め雑音データを用意するのも大変な作業と
なる。For this reason, there is a possibility that the noise data stored in advance in the storage means may be significantly different from the actual noise data. Also,
Although noise generated in an automobile or the like is finite, it is also a difficult task to prepare noise data in advance for all the factor information, especially when position information is included in the factor information.
【0026】そこで、請求項5に示す構成を採用するこ
とが望ましい。この場合、雑音推定手段が、変換手段か
らの音響信号に含まれる雑音成分の周波数スペクトルで
ある入力雑音スペクトルを含む入力雑音データを推定す
る。そして、比較手段が、推定された入力雑音データ
と、上述した雑音算出手段にて算出された推定雑音デー
タとを比較する。この比較結果に基づき、指示手段が更
新指示を行うと、更新手段によって、入力雑音データに
基づく雑音データが記憶手段へ記憶される。Therefore, it is desirable to adopt the configuration described in claim 5. In this case, the noise estimation unit estimates input noise data including an input noise spectrum which is a frequency spectrum of a noise component included in the acoustic signal from the conversion unit. Then, the comparing unit compares the estimated input noise data with the estimated noise data calculated by the above-described noise calculating unit. When the instruction unit issues an update instruction based on the comparison result, the update unit stores noise data based on the input noise data in the storage unit.
【0027】すなわち、音響信号から推定される入力雑
音と、記憶手段に記憶された雑音データに基づく推定雑
音とを比較し、両者が大きく異なる場合など、入力雑音
に基づく雑音データによって、記憶手段の雑音データを
更新するのである。これによって、予め定められる要因
情報と雑音データとの対応関係が適切なものになり、種
々の雑音を適切に処理でき入力音声の明瞭化が図られる
という本発明の効果が際だつ。That is, the input noise estimated from the acoustic signal is compared with the estimated noise based on the noise data stored in the storage means. The noise data is updated. As a result, the correspondence between the predetermined factor information and the noise data becomes appropriate, and the effect of the present invention that various noises can be appropriately processed and the input voice can be clarified is remarkable.
【0028】このような雑音データの更新機能を備える
構成において、請求項6に示すように、上述した指示手
段は、更新指示を行うと共に、演算手段へ、推定雑音ス
ペクトルに代わる入力雑音スペクトルを送出し、演算手
段によって、周波数スペクトルから当該入力雑音スペク
トルが差し引かれるようにするとよい。このようにすれ
ば、より適切なデータで処理がなされることになる。In the configuration having such a noise data updating function, the above-mentioned instruction means issues an update instruction and sends an input noise spectrum instead of the estimated noise spectrum to the arithmetic means. Preferably, the input noise spectrum is subtracted from the frequency spectrum by the calculating means. In this way, processing is performed with more appropriate data.
【0029】ここで、比較手段による推定雑音データと
入力雑音データとの比較について考える。上述したよう
に推定雑音データ及び入力雑音データは、周波数スペク
トルを含むため、この周波数スペクトルで比較するよう
にしてもよい。ただし、雑音として人間に聞き取られ易
い帯域とそうでない帯域とがある。つまり、スペクトル
形状による比較だけでは、更新すべきか否かの適切な比
較判断が困難になる場合も考えられる。Here, the comparison between the estimated noise data and the input noise data by the comparing means will be considered. As described above, since the estimated noise data and the input noise data include a frequency spectrum, comparison may be made using this frequency spectrum. However, there are bands that are easily heard by humans as noise and bands that are not. In other words, there may be a case where it is difficult to make an appropriate comparison determination as to whether or not to update only by comparison based on the spectrum shape.
【0030】そこで、請求項7に示すように、推定雑音
データ及び入力雑音データは、周波数スペクトルと当該
周波数スペクトルの変化量とを含むものにするとよい。
ここでいう周波数スペクトルの変化量とは、スペクトル
形状を周波数帯域別に分けた場合の形状そのものの変化
量、もしくは、帯域別の変化量である。Therefore, it is preferable that the estimated noise data and the input noise data include a frequency spectrum and a change amount of the frequency spectrum.
The change amount of the frequency spectrum here is the change amount of the shape itself when the spectrum shape is divided by frequency band, or the change amount of each band.
【0031】このようにすれば、スペクトルの変化量も
比較要素となり、したがって例えば、人間に聞き取られ
易い帯域の雑音については変化量が小さくても更新した
り、一方、聞き取られ難い帯域の雑音については変化量
が比較的大きくなったときに更新したりするというよう
な比較判断が可能になる。その結果、比較手段による適
切な比較が実現される。In this way, the amount of change in the spectrum is also a comparison factor. Therefore, for example, noise in a band that can be easily heard by humans is updated even if the amount of change is small, while noise in a band that is hard to hear is updated. Can be compared when the change amount becomes relatively large. As a result, an appropriate comparison by the comparing means is realized.
【0032】同様に、周波数スペクトルのパワーや、パ
ワーとそのパワーの変化量を比較要素とすれば、さらに
適切な比較判断が実現される。そこで請求項8に示すよ
うに、推定雑音データ及び入力雑音データが、周波数ス
ペクトルに加え、当該周波数スペクトルのパワー、又
は、当該パワー及び当該パワーの変化量を含むものにす
ることが考えられる。ここでいうパワーとは、周波数ス
ペクトルが振幅成分である振幅スペクトルの場合、その
振幅スペクトルを二乗したパワースペクトルであること
が考えられる。また、周波数スペクトルがパワースペク
トルである場合には、パワースペクトルを周波数軸で積
分した音のエネルギーとしてもよい。これは、周波数の
概念の存在しない単なるエネルギーである。このように
パワーまで含めて比較判断を行うようにすれば、比較手
段による比較判断がさらに適切なものとなる。Similarly, if the power of the frequency spectrum or the power and the amount of change in the power are used as comparison factors, more appropriate comparison judgment can be realized. Therefore, as described in claim 8, it is conceivable that the estimated noise data and the input noise data include, in addition to the frequency spectrum, the power of the frequency spectrum or the power and the amount of change in the power. The power here may be a power spectrum obtained by squaring the amplitude spectrum when the frequency spectrum is an amplitude component having an amplitude component. When the frequency spectrum is a power spectrum, sound energy obtained by integrating the power spectrum on the frequency axis may be used. This is simply energy without the concept of frequency. If the comparison judgment is performed including the power as described above, the comparison judgment by the comparing means becomes more appropriate.
【0033】なお、本発明は、要因情報に対応させて、
記憶手段に雑音データを記憶しておくことを特徴として
いることは既に述べた通りである。このとき、請求項9
に示すように、雑音データは、雑音種類毎の雑音別デー
タとして記憶しておくことが考えられる。これは移動体
を限定すれば、発生する雑音が限られてくることを前提
としている。この場合、選択手段によって複数の雑音デ
ータが選択されると、雑音算出手段が、それらの雑音デ
ータを合成して推定雑音スペクトルを含む推定雑音デー
タを算出する。このように雑音別データとして雑音デー
タを用意すれば、新たな雑音を追加したい場合など、雑
音データの追加・更新が容易になるという点で有利であ
る。In the present invention, in accordance with the factor information,
As described above, noise data is stored in the storage unit. At this time, claim 9
As shown in (1), noise data may be stored as noise-specific data for each noise type. This is based on the premise that if the number of moving objects is limited, noise generated is limited. In this case, when a plurality of noise data are selected by the selection unit, the noise calculation unit combines the noise data to calculate estimated noise data including an estimated noise spectrum. Thus, preparing noise data as noise-specific data is advantageous in that addition / update of noise data becomes easy, for example, when adding new noise.
【0034】また、請求項10に示すように、コード化
して雑音データを記憶するとよい。スペクトル形状その
もので記憶すると膨大な記憶容量が必要になるためであ
る。このようにすれば、記憶手段の記憶容量の削減に寄
与できる。また、コード化して雑音データを記憶する場
合、請求項11に示すように、雑音データの更新機能を
備える構成においては、さらにコードデータ生成手段を
備える構成とし、このコードデータ生成手段が、入力雑
音スペクトルに基づき、コード化された雑音データを生
成するようにする。具体的には請求項12に示すよう
に、コードデータ生成手段は、入力雑音スペクトルに聴
感上最も近くなるように、予め用意された雑音の周波数
スペクトルの中から適当な周波数スペクトルを選択し、
当該選択した周波数スペクトルをコード化して雑音デー
タを生成する。ここでいう予め用意された雑音の周波数
スペクトルは、請求項13に示すように、帯域別の雑音
を示す雑音スペクトル、帯域別の雑音スペクトルに重み
付けをした雑音スペクトル、又は、低域のみの雑音スペ
クトルの少なくともいずれかの雑音スペクトルで構成す
ればよい。帯域毎に重み付けするのは、上述したよう
に、人間にとって聞き取り易い帯域とそうでない帯域が
存在するからである。また、低域のみの雑音スペクトル
だけを用意してもよい理由は、車両内の雑音が低域に集
中するためである。このようにすれば、雑音データの更
新機能を備える構成においても、コード化した雑音デー
タを記憶することができ、記憶容量の削減が図られる。[0034] Further, it is preferable that noise data is stored by coding. This is because storing in the form of a spectrum itself requires a huge storage capacity. This can contribute to a reduction in the storage capacity of the storage unit. In the case where the noise data is encoded and stored, the configuration having the function of updating the noise data may further include a code data generating means, and the code data generating means may include an input noise. Based on the spectrum, encoded noise data is generated. Specifically, as set forth in claim 12, the code data generating means selects an appropriate frequency spectrum from the frequency spectrum of noise prepared in advance so as to be closest to the input noise spectrum in terms of audibility,
The selected frequency spectrum is coded to generate noise data. The frequency spectrum of the noise prepared in advance is a noise spectrum indicating noise for each band, a noise spectrum weighted to the noise spectrum for each band, or a noise spectrum for only the low band. The noise spectrum may be constituted by at least one of the following noise spectra. Weighting is performed for each band, as described above, because there are bands that are easy for humans to hear and bands that are not. The reason why only the noise spectrum of only the low band may be prepared is that noise in the vehicle is concentrated in the low band. By doing so, even in a configuration having a function of updating noise data, coded noise data can be stored, and the storage capacity can be reduced.
【0035】さらに、記憶容量の削減という観点から
は、請求項14に示すように、補間手段が、要因情報取
得手段にて取得された要因情報に基づき、推定雑音スペ
クトルを補間する構成を採用してもよい。具体的には請
求項15に示すように、移動速度に応じた雑音のゲイン
補間を行ったり、請求項16に示すように、エンジン回
転数に応じた雑音の周波数補間を行ったりすることが考
えられる。この技術思想は、推定雑音スペクトルを補間
することで、基になる雑音データを減らそうとするもの
である。このような構成によっても、記憶容量の削減が
図られることになる。Further, from the viewpoint of reducing the storage capacity, a configuration is adopted in which the interpolation means interpolates the estimated noise spectrum based on the factor information obtained by the factor information obtaining means. You may. Specifically, it is conceivable to perform noise gain interpolation according to the moving speed as described in claim 15 or to perform frequency interpolation of noise according to the engine speed as described in claim 16. Can be This technical idea is to reduce the underlying noise data by interpolating the estimated noise spectrum. Even with such a configuration, the storage capacity can be reduced.
【0036】[0036]
【発明の実施の形態】以下、本発明を具体化した実施例
を図面を参照して説明する。 [第1実施例]図1は、本発明の「雑音低減装置」を具
体化した第1実施例の音響処理装置の構成を示す。Embodiments of the present invention will be described below with reference to the drawings. [First Embodiment] FIG. 1 shows the configuration of a sound processing apparatus according to a first embodiment which embodies a "noise reduction apparatus" of the present invention.
【0037】本第1実施例の音響処理装置は、雑音低減
回路1、マイクロホン3、出力部4、を主要部として備
える。さらに詳細には、雑音低減回路1は、記憶部2、
要因情報検出部28、選択部29、雑音算出部30、時
間-周波数変換部31、演算部32により構成されてい
る。The sound processing apparatus of the first embodiment includes a noise reduction circuit 1, a microphone 3, and an output unit 4 as main parts. More specifically, the noise reduction circuit 1 includes a storage unit 2,
It comprises a factor information detection unit 28, a selection unit 29, a noise calculation unit 30, a time-frequency conversion unit 31, and a calculation unit 32.
【0038】マイクロホン3は、車両内の音響信号を入
力する。マイクロホン3から入力される音響信号をディ
ジタル信号に変換するのがアナログ/ディジタル変換部
5である。出力部4は、雑音低減回路1により雑音成分
が演算除去された音響信号を出力する。出力形態は接続
されるアプリケーションによるが、一例として周波数−
時間変換した音とすることが考えられる。出力部4をス
ピーカで構成する場合、専用スピーカで構成してもよい
し、車載オーディオのスピーカで兼用してもよい。な
お、出力先は限定される事はなく、音声用インターフェ
ースを備える各種アプリケーション機器に接続が可能で
あり、例えば音声認識や携帯端末機等に用いることがで
きる。The microphone 3 inputs an acoustic signal in the vehicle. The analog / digital converter 5 converts an audio signal input from the microphone 3 into a digital signal. The output unit 4 outputs an acoustic signal from which noise components have been removed by the noise reduction circuit 1. The output form depends on the connected application.
A time-converted sound can be considered. When the output unit 4 is configured by a speaker, the output unit 4 may be configured by a dedicated speaker, or may be shared by a speaker of an in-vehicle audio. The output destination is not limited, and can be connected to various application devices having a voice interface, and can be used for, for example, voice recognition and portable terminals.
【0039】続いて雑音低減回路1の各構成について説
明する。記憶部2は、要因情報検出部28の検出する要
因情報に対応させて、車両内で発生する雑音の種類毎の
雑音別スペクトルを雑音データとして記憶している。要
因情報は、雑音発生の要因となる情報であり、どのよう
な情報が検出されるかについては後述する。Next, each configuration of the noise reduction circuit 1 will be described. The storage unit 2 stores noise-specific spectra for each type of noise generated in the vehicle as noise data in association with the factor information detected by the factor information detection unit 28. The factor information is information that causes noise generation, and what kind of information is detected will be described later.
【0040】選択部29は、要因情報検出部28で検出
された要因情報に対応する雑音データを、記憶部2より
選択する。要因情報検出部28は、図2に示すように、
現在位置を検出する位置検出部27と、車両の状態・状
況を示す内部情報を検出する車両情報検出部37と、外
部より提供される外部情報を収集する外部情報検出部3
6とを備えている。The selecting section 29 selects, from the storage section 2, noise data corresponding to the factor information detected by the factor information detecting section 28. The factor information detection unit 28, as shown in FIG.
A position detection unit 27 for detecting a current position, a vehicle information detection unit 37 for detecting internal information indicating the state and situation of the vehicle, and an external information detection unit 3 for collecting external information provided from outside
6 is provided.
【0041】位置検出部27は、図3に示すように、人
工衛星からの信号を基に現在位置を特定するGPS受信
機40や地図情報を有するナビゲーションシステム2
6、車両の方位変化量を検出するジャイロセンサ41、
車両の走行速度を検出する車両速度センサ12、車両の
加速度を検出する加速度(G)センサ11、車両周囲の状
況を画像で取り込むための画像センサ42を備えてい
る。これによって、現在位置・進行方向および周辺道路
形状(道幅、車線、交差点、カーブ、橋、トンネルな
ど)等の位置情報・地図情報が得られることになる。As shown in FIG. 3, the position detector 27 includes a GPS receiver 40 for specifying a current position based on a signal from an artificial satellite and a navigation system 2 having map information.
6. a gyro sensor 41 for detecting the amount of change in the direction of the vehicle;
The vehicle includes a vehicle speed sensor 12 for detecting a traveling speed of the vehicle, an acceleration (G) sensor 11 for detecting an acceleration of the vehicle, and an image sensor 42 for capturing a situation around the vehicle as an image. As a result, position information and map information such as the current position / traveling direction and peripheral road shapes (road width, lanes, intersections, curves, bridges, tunnels, etc.) can be obtained.
【0042】車両情報検出部37は、図4に示すよう
に、車両の状態・状況を示す、車両内部で取得可能な内
部情報を取得する。なお、図4には、取得される情報種
類を示した。具体的には、エンジン回転数10、エンジ
ントルク6、エアコン情報13、オーディオ情報14、
窓開閉状態15、乗員数18、乗員位置19、ワイパ情
報43、フォグランプ情報44、雨滴情報45を取得す
る。ここで、エンジン回転数10はエンジン回転センサ
が検出するエンジンの回転数、エンジントルク6はトル
クセンサが検出するエンジンのトルク、エアコン情報1
3はエアコン制御ユニットが検出するエアコンの送風量
および送風方向、オーディオ情報14は車載オーディオ
ユニットから検出する音量およびチューナ、CD、M
D、カセットなどのメディア情報とメディアソース情
報、窓開閉状態15はウィンド制御ユニットが検出する
車両のウィンドウ開閉状態の情報、乗員数18および乗
員位置19は各座席下部に設けられた圧力センサや各座
席周辺に設けた赤外センサ等によって検出する車両に乗
車している乗員数と乗員位置の情報、ワイパ情報43は
ワイパスイッチに基づくオン/オフ情報、フォグランプ
情報44はフォグランプスイッチに基づくオン/オフ情
報、雨滴情報45は雨滴センサによる雨滴有無の情報で
ある。ワイパ情報43、フォグランプ情報44及び雨滴
情報45は、雑音要因となる天気関連情報である。As shown in FIG. 4, the vehicle information detecting section 37 acquires internal information indicating the state and situation of the vehicle, which can be acquired inside the vehicle. FIG. 4 shows the types of information to be obtained. Specifically, the engine speed 10, the engine torque 6, the air conditioner information 13, the audio information 14,
The window opening / closing state 15, the number of occupants 18, the occupant position 19, the wiper information 43, the fog lamp information 44, and the raindrop information 45 are acquired. Here, the engine speed 10 is the engine speed detected by the engine rotation sensor, the engine torque 6 is the engine torque detected by the torque sensor, and the air conditioner information 1
Reference numeral 3 denotes an air-conditioning air flow detected by the air-conditioner control unit and a direction of air flow.
D, media information such as cassettes and media source information, window opening / closing state 15 is information on the window opening / closing state of the vehicle detected by the window control unit, and the number of occupants 18 and the occupant position 19 are pressure sensors and the Information on the number of occupants and the occupant position in the vehicle detected by an infrared sensor or the like provided around the seat, wiper information 43 is on / off information based on a wiper switch, and fog light information 44 is on / off based on a fog light switch. The information, raindrop information 45 is information on the presence or absence of raindrops by a raindrop sensor. The wiper information 43, the fog lamp information 44, and the raindrop information 45 are weather-related information that causes noise.
【0043】外部情報検出部36は、図5に示すよう
に、車両が走行中に、車両の外部より提供される外部情
報を携帯通信端末もしくは車両内の通信装置より収集す
る構成である。図5にも、図4と同様に、収集される情
報を示した。具体的には、交通情報21、天気22、日
時23、風向24、気温25の情報を取得する。交通情
報21はVICSシステム、道路交通情報センタおよび
インターネット等から入手できる現在走行付近と進行方
向の道路交通情報、天気22は道路交通情報センタやイ
ンターネット等から入手できる現在走行中の付近と進行
方向の天気情報、日時23は時報・インターネット等か
ら入手できる現在の日時、風向24は道路交通情報セン
タやインターネット等から入手できる現在走行付近およ
び進行方向の風向情報、気温25は道路交通情報センタ
やインターネット等から入手できる現在走行付近および
進行方向の気温情報である。As shown in FIG. 5, the external information detector 36 is configured to collect external information provided from outside the vehicle from a portable communication terminal or a communication device in the vehicle while the vehicle is running. FIG. 5 also shows information to be collected, similarly to FIG. Specifically, information of traffic information 21, weather 22, date and time 23, wind direction 24, and temperature 25 is acquired. The traffic information 21 is road traffic information of the current traveling area and traveling direction available from the VICS system, the road traffic information center and the Internet, and the weather 22 is the current traveling area and traveling direction available from the road traffic information center and the Internet. The weather information, date and time 23 are the current date and time available from a time signal and the Internet, the wind direction 24 is the wind direction information on the current running and traveling directions available from the road traffic information center and the Internet, etc., and the temperature 25 is the road traffic information center and the Internet etc. This is the temperature information of the vicinity of the current traveling and the traveling direction, which can be obtained from.
【0044】図1中の雑音算出部30は、選択部29に
よって選択された雑音データに基づき推定雑音データを
算出する。雑音データは、上述したように雑音別スペク
トルである。したがって、選択される雑音別スペクトル
を合成した推定雑音スペクトルとして推定雑音データが
算出される。算出された推定雑音スペクトルは、演算部
32へ出力される。The noise calculating section 30 in FIG. 1 calculates estimated noise data based on the noise data selected by the selecting section 29. The noise data is a noise-specific spectrum as described above. Therefore, estimated noise data is calculated as an estimated noise spectrum obtained by combining the selected noise-specific spectra. The calculated estimated noise spectrum is output to the operation unit 32.
【0045】一方で時間−周波数変換部31は、アナロ
グ/ディジタル変換部5からの音響信号から周波数スペ
クトルを算出し、演算部32へ出力する。演算部32
は、時間−周波数変換部31からの周波数スペクトルか
ら雑音算出部30で算出された推定雑音スペクトルを差
し引く雑音除去を行う。そして、この演算部32からの
出力が雑音低減回路1からの出力となる。On the other hand, the time-frequency converter 31 calculates a frequency spectrum from the audio signal from the analog / digital converter 5 and outputs the frequency spectrum to the calculator 32. Arithmetic unit 32
Performs noise removal by subtracting the estimated noise spectrum calculated by the noise calculator 30 from the frequency spectrum from the time-frequency converter 31. Then, the output from the arithmetic unit 32 is the output from the noise reduction circuit 1.
【0046】以上、本第1実施例の音響処理装置の構成
と各構成の機能を説明した。ここで、再び図1を参照し
つつ、本第1実施例の音響処理装置の動作を説明する。
マイクロホン3により検出された車両内の音響信号は、
アナログ/ディジタル変換部5に入力されてディジタル
信号に変換され、時間−周波数変換部31によって周波
数スペクトルとなる。The configuration of the sound processing apparatus according to the first embodiment and the function of each configuration have been described above. Here, the operation of the sound processing apparatus of the first embodiment will be described with reference to FIG. 1 again.
The acoustic signal in the vehicle detected by the microphone 3 is
The signal is input to the analog / digital converter 5 and is converted into a digital signal, which is converted into a frequency spectrum by the time-frequency converter 31.
【0047】一方、要因情報検出部28の出力する要因
情報を基にして、選択部29により選択された雑音デー
タを基に、雑音算出部30によって、推定雑音スペクト
ルが算出される。そして、演算部32が、周波数スペク
トルから推定雑音スペクトルを減算処理することによ
り、雑音低減を行う。On the other hand, an estimated noise spectrum is calculated by a noise calculating section 30 based on the noise data selected by the selecting section 29 based on the factor information output from the factor information detecting section 28. Then, the arithmetic unit 32 performs noise reduction by subtracting the estimated noise spectrum from the frequency spectrum.
【0048】このとき、車両内の音響信号に含まれる既
知音源を予め除去することにより、雑音低減をより効果
的に実現することが考えられる。音響信号に含まれる既
知音源の除去を行う構成例として、図6に入力信号補正
部の構成を示した。図6に示すように、オーディオ情報
14に基づきオーディオ出力がオンである場合には、オ
ーディオのメディアソースに車室内残響特性(インパル
ス応答)を畳み込んだ入力信号を求め、この信号を時間
−周波数変換部により周波数スペクトルの信号に変換
し、入力音響信号から差し引いた信号を前記音響信号の
スペクトルとすることにより、より高い雑音低減効果が
得られる。At this time, it is conceivable to realize noise reduction more effectively by removing a known sound source included in the acoustic signal in the vehicle in advance. FIG. 6 shows the configuration of an input signal correction unit as a configuration example for removing a known sound source included in an audio signal. As shown in FIG. 6, when the audio output is on based on the audio information 14, an input signal obtained by convolving the interior reverberation characteristic (impulse response) with the audio media source is obtained, and this signal is time-frequency-converted. A higher noise reduction effect can be obtained by converting the signal into a signal having a frequency spectrum by the converter and subtracting the signal from the input audio signal into the spectrum of the audio signal.
【0049】なお、本実施例において記憶部2に記憶さ
れる雑音データは、雑音種類毎の雑音別スペクトルとし
た。この場合、雑音データの追加・更新が容易になると
いう点で有利である。ただし、雑音別スペクトルでな
く、要因情報の組み合わせに対応する雑音そのもののス
ペクトル(雑音スペクトル)としてもよい。In this embodiment, the noise data stored in the storage unit 2 is a noise-specific spectrum for each noise type. In this case, it is advantageous in that addition / update of the noise data becomes easy. However, instead of the spectrum for each noise, the spectrum of the noise itself (noise spectrum) corresponding to the combination of the factor information may be used.
【0050】次に、本第1実施例の音響処理装置が発揮
する効果を説明する。なお、ここでの説明に対する理解
を容易にするために、従来の問題点を最初に説明してお
く。従来、実際にマイクロホンなどで雑音を拾い、これ
らの雑音に対して一律に処理を行っていた。そのため、
突発的な雑音に対しても雑音低減処理を実行してしま
い、それが却って、聴感上の違和感を引き起こしたり、
音声認識における誤認識を招く結果となっていた。Next, the effects of the sound processing apparatus of the first embodiment will be described. Here, in order to facilitate understanding of the description here, conventional problems will be described first. Conventionally, noise was actually picked up by a microphone or the like, and the noise was uniformly processed. for that reason,
It performs noise reduction processing even for sudden noise, which in turn causes auditory discomfort,
This resulted in misrecognition in speech recognition.
【0051】すなわち、雑音によっては処理対象としな
い方が却って入力音声を明瞭化できることがある。ま
た、車両において発生が推定される典型的な雑音は、限
られたものとなってくる。そこで、本実施例では、要因
情報検出部28を備える構成とし、ここで検出される要
因情報に対応させて、記憶部2に、車両内で発生すると
推定される雑音の雑音データを予め記憶しておく。そし
て、選択部29が、検出された要因情報に対応する雑音
データを選択し、雑音算出部30が、選択された雑音デ
ータに基づいて推定雑音スペクトルを算出する。演算部
32は、この推定雑音スペクトルを用いて雑音低減を行
う。That is, depending on the noise, it may be possible to clarify the input voice if it is not processed. In addition, typical noise that is estimated to occur in a vehicle is limited. Therefore, in the present embodiment, a configuration is provided in which the factor information detection unit 28 is provided, and noise data of noise estimated to be generated in the vehicle is previously stored in the storage unit 2 in accordance with the factor information detected here. Keep it. Then, the selection unit 29 selects noise data corresponding to the detected factor information, and the noise calculation unit 30 calculates an estimated noise spectrum based on the selected noise data. The operation unit 32 performs noise reduction using the estimated noise spectrum.
【0052】これによって、典型的な雑音のみを処理対
象とでき、予期しない突発的な雑音を処理対象から敢え
て外すことにより、適切な雑音低減処理を実現できる。
すなわち、車両に発生する種々の雑音を適切に処理で
き、入力音声の明瞭化が図られる。As a result, only typical noise can be processed, and appropriate noise reduction processing can be realized by intentionally removing unexpected unexpected noise from the processing target.
That is, various noises generated in the vehicle can be appropriately processed, and the input voice can be clarified.
【0053】また、本実施例では、雑音の要因となる要
因情報に車両の位置情報、車両の状態・状況を示す情
報、外部より得られる情報を含め、それぞれを、位置検
出部27、車両情報検出部37、外部情報検出部36で
検出する。これによって車両内で発生すると推定される
ほとんどの雑音に対し、記憶部2には雑音データが用意
されることになり、適切な雑音除去が実施される。Further, in the present embodiment, the position information of the vehicle, the information indicating the state / situation of the vehicle, and the information obtained from the outside are included in the factor information which is a factor of the noise. The detection is performed by the detection unit 37 and the external information detection unit 36. As a result, noise data is prepared in the storage unit 2 for most of the noise estimated to be generated in the vehicle, and appropriate noise removal is performed.
【0054】このとき、位置検出部27では、車両の進
行方向をも検出可能であるため、選択部29は、この進
行方向を考慮して次に走行するエリアの雑音データを前
持って読み出すようにしてもよい。これによって演算部
32の処理の遅れをカバーすることができ、例えば、路
面の段差などで生じる雑音のデータを記憶しておき、前
もってその雑音データを選択することで、突発的な雑音
を突発的でないものとして処理することもできる。At this time, since the position detecting section 27 can also detect the traveling direction of the vehicle, the selecting section 29 takes the traveling direction into account and reads out the noise data of the next traveling area in advance. It may be. This makes it possible to cover a delay in the processing of the arithmetic unit 32. For example, by storing data of noise generated due to a step on a road surface and selecting the noise data in advance, sudden noise can be suddenly reduced. Can also be processed as not.
【0055】突発的な雑音の予測は、具体的には次に示
すようなエリアを設定して行うことが考えられる。位置
検出部27では、ナビゲーションシステム26を備えて
いるため、位置情報に加え地図情報も検出される。した
がって、図7に示すように、地図上のエリアを設定し、
このエリアに対応させて雑音データを記憶しておくこと
が考えられる。図7は、道路上に所定間隔でエリアを設
定し、このエリアに対応させて各種特徴を有する雑音デ
ータが記憶された様子を示している。例えばエリア10
3には、特徴Bを有する雑音データが記憶されていると
いう具合である。Specifically, it is conceivable to predict the sudden noise by setting the following areas. Since the position detection unit 27 includes the navigation system 26, map information is detected in addition to the position information. Therefore, as shown in FIG. 7, set the area on the map,
It is conceivable to store noise data corresponding to this area. FIG. 7 shows a state in which areas are set at predetermined intervals on a road, and noise data having various characteristics is stored in correspondence with the areas. For example, area 10
No. 3 shows that noise data having the characteristic B is stored.
【0056】図7中に示す車両100は進行方向101
の方向に走行中であるとする。現在地の雑音データは特
徴Dを有するものであるため、特徴Dを有する推定雑音
スペクトルが選択されて出力される。このとき、進行方
向101と現在位置とが分かっているため、進行方向1
01の方向で雑音スペクトルが特徴Dから特徴CやBに
変化することを予測可能になる。ここで、突発雑音源1
02の位置を予測すれば、演算部32の処理の遅れがな
くなり、突発的な雑音についても処理の対象とすること
ができる。The vehicle 100 shown in FIG.
It is assumed that the vehicle is traveling in the direction of. Since the noise data at the current location has the feature D, an estimated noise spectrum having the feature D is selected and output. At this time, since the traveling direction 101 and the current position are known, the traveling direction 1
It is possible to predict that the noise spectrum changes from the feature D to the features C and B in the direction of 01. Here, sudden noise source 1
If the position of 02 is predicted, the processing of the arithmetic unit 32 is not delayed, and sudden noise can be processed.
【0057】ここに示した例では、車両100の進行方
向101を考慮して雑音データの遷移を予測している
が、進行方向101に加えて車両速度、加速度、エンジ
ン回転数10をも考慮すれば、雑音データ、特に突発雑
音源102の予測精度が更に向上する。また、この例で
は、雑音データを突発雑音源を含めてA〜Dの計5種類
として説明したが、これに限定されないことは言うまで
もない。In the example shown here, the transition of the noise data is predicted in consideration of the traveling direction 101 of the vehicle 100. However, in addition to the traveling direction 101, the vehicle speed, the acceleration, and the engine speed 10 are also considered. If this is the case, the prediction accuracy of the noise data, especially the sudden noise source 102, is further improved. Further, in this example, the noise data has been described as a total of five types of A to D including the sudden noise source, but it is needless to say that the present invention is not limited to this.
【0058】なお、本実施例において、アナログ/ディ
ジタル変換部5が「変換手段」に相当し、時間−周波数
変換部31が「スペクトル算出手段」に相当し、記憶部
2が「記憶手段」に相当する。また、要因情報検出部2
8が「要因情報取得手段」に相当し、選択部29が「選
択手段」に相当し、雑音算出部30が「雑音算出手段」
に相当し、演算部32が「演算手段」に相当する。ここ
で要因情報検出部28の位置検出部27が「進行方向取
得手段」に相当する。 [第2実施例]上記第1実施例では、要因情報に対応さ
せて記憶部2に予め雑音データを記憶しておく構成であ
った。In the present embodiment, the analog / digital converter 5 corresponds to “conversion means”, the time-frequency conversion section 31 corresponds to “spectrum calculation means”, and the storage section 2 corresponds to “storage means”. Equivalent to. Also, the factor information detection unit 2
8 corresponds to a “factor information acquiring unit”, the selecting unit 29 corresponds to a “selecting unit”, and the noise calculating unit 30 corresponds to a “noise calculating unit”.
And the calculation unit 32 corresponds to “calculation means”. Here, the position detection unit 27 of the factor information detection unit 28 corresponds to “traveling direction acquisition means”. [Second Embodiment] In the first embodiment, the noise data is stored in the storage unit 2 in advance in association with the factor information.
【0059】しかし、雑音データにも、既知のものと、
ある程度のレベルで予測可能なものが存在する。例え
ば、エンジン音、エアコンの送風音、カーオーディオ音
などが前者に相当し、一方、ロードノイズなどが後者に
相当する。そのため、記憶部2に予め記憶した雑音デー
タが実際のものと大きく異なる可能性もある。また、車
両内で発生する雑音は有限ではあるが、上記第1実施例
のように車両の位置(エリア)を要因情報に含める場合
は特に、全ての要因情報に対して予め雑音データを用意
するのは大変な作業となる。However, the noise data includes the known data,
Some are predictable at some level. For example, engine sound, air-conditioner blowing sound, car audio sound, and the like correspond to the former, while road noise and the like correspond to the latter. Therefore, the noise data stored in the storage unit 2 in advance may be significantly different from the actual noise data. Although noise generated in the vehicle is finite, especially when the position (area) of the vehicle is included in the factor information as in the first embodiment, noise data is prepared in advance for all the factor information. It can be a daunting task.
【0060】本第2実施例は、記憶部2の雑音データを
実際の雑音を基にして保存・更新するようにしたもので
ある。図8は、第2実施例の音響処理装置の構成を示す
ブロック図である。本音響処理装置は、雑音低減回路
1、マイクロホン3、出力部4、を主要部として備え
る。さらに、雑音低減回路1は、記憶部2、要因情報検
出部28、更新選択部29、雑音算出部30、時間−周
波数変換部31、演算部32、更新判定部33、雑音推
定部38、コード化部46により構成されている。In the second embodiment, the noise data in the storage section 2 is stored and updated based on actual noise. FIG. 8 is a block diagram illustrating the configuration of the sound processing apparatus according to the second embodiment. This acoustic processing device includes a noise reduction circuit 1, a microphone 3, and an output unit 4 as main components. Further, the noise reduction circuit 1 includes a storage unit 2, a factor information detection unit 28, an update selection unit 29, a noise calculation unit 30, a time-frequency conversion unit 31, a calculation unit 32, an update determination unit 33, a noise estimation unit 38, a code It is comprised by the conversion part 46.
【0061】ここでは、上記第1実施例と比較して、雑
音低減回路1及び雑音算出部30の構成が一部異なる。
また、更新選択部29が、図1中の選択部29に変わっ
て用いられている。ただし、煩雑になるのを避けるた
め、同じ符号を付して示した。なお、記憶部2、要因情
報検出部28、時間−周波数変換部31、演算部32の
構成は、上記第1実施例と同様であるため説明は省略す
る。Here, the configurations of the noise reduction circuit 1 and the noise calculator 30 are partially different from those of the first embodiment.
Further, an update selection unit 29 is used instead of the selection unit 29 in FIG. However, in order to avoid complication, the same reference numerals are given. Note that the configurations of the storage unit 2, the factor information detection unit 28, the time-frequency conversion unit 31, and the calculation unit 32 are the same as those in the first embodiment, and a description thereof will be omitted.
【0062】更新選択部29は、本第2実施例では、記
憶部2からの雑音データの選択に加え、コード化部46
から出力されるコード化された雑音データを、記憶部2
へ記憶して雑音データを更新する。雑音算出部30は、
本第2実施例では、図9に示すように、雑音データを基
に推定雑音スペクトルを算出する雑音スペクトル算出部
34と、雑音スペクトル算出部34の算出した推定雑音
スペクトルを基に雑音パワーを算出するパワー算出部3
5から構成されている。したがって、推定雑音データ
は、推定雑音スペクトル及びその雑音パワーから成る。
なお、ここでいうパワーは、振幅スペクトルを二乗した
パワースペクトルであってもよいし、さらに、周波数軸
上で積分した音のエネルギーとしてもよい。また、コー
ド化された雑音データが更新選択部29から出力される
ため、雑音スペクトル算出部34は、このコード化され
た雑音データに基づいて推定雑音スペクトルを算出する
ことになる。In the second embodiment, in addition to the selection of the noise data from the storage unit 2, the update selection unit 29
The coded noise data output from the
To update the noise data. The noise calculation unit 30
In the second embodiment, as shown in FIG. 9, a noise spectrum calculator 34 that calculates an estimated noise spectrum based on noise data, and a noise power is calculated based on the estimated noise spectrum calculated by the noise spectrum calculator 34. Power calculation unit 3
5 is comprised. Therefore, the estimated noise data consists of the estimated noise spectrum and its noise power.
The power here may be a power spectrum obtained by squaring the amplitude spectrum, or may be sound energy integrated on the frequency axis. In addition, since the coded noise data is output from the update selection unit 29, the noise spectrum calculation unit 34 calculates an estimated noise spectrum based on the coded noise data.
【0063】雑音推定部38は、アナログ/ディジタル
変換部5からの音響信号に含まれる雑音成分である入力
雑音データを推定する。この入力雑音データには、入力
雑音の周波数スペクトルである入力雑音スペクトル及び
入力雑音スペクトルの雑音パワーが含まれる。この雑音
推定部38には、従来一般的に使用されている雑音除去
アルゴリズムを用いることができる。例えば、ゲイン調
整法、雑音スペクトル推定法、カルマンフィルタ方式な
どを用いることが可能で、本実施例では、その一例とし
て時間−周波数変換を用いて非音声区間の雑音スペクト
ルを算出し、周波数スペクトルで雑音を除去する。この
とき、音響信号の補正については上記第1実施例と同様
に行うことができることは言うまでもない。The noise estimation section 38 estimates input noise data, which is a noise component included in the audio signal from the analog / digital conversion section 5. The input noise data includes an input noise spectrum which is a frequency spectrum of the input noise and a noise power of the input noise spectrum. For the noise estimation unit 38, a noise removal algorithm generally used conventionally can be used. For example, a gain adjustment method, a noise spectrum estimation method, a Kalman filter method, or the like can be used. In this embodiment, as an example, a noise spectrum of a non-voice section is calculated using time-frequency conversion, and Is removed. At this time, it goes without saying that the sound signal can be corrected in the same manner as in the first embodiment.
【0064】更新判定部33は、雑音算出部30にて算
出された推定雑音データと、雑音推定部38にて算出さ
れた入力雑音データとを比較する。そして、この比較結
果に基づき、必要に応じて、更新選択部29への更新指
示を行うと共に、入力雑音スペクトルが演算部32の演
算対象となるようにスイッチの切り換えを行う。つま
り、更新判定部33による判定結果によっては、推定雑
音スペクトルに代えて、入力雑音スペクトルが演算部3
2に入力される。The update determining section 33 compares the estimated noise data calculated by the noise calculating section 30 with the input noise data calculated by the noise estimating section 38. Then, based on the result of the comparison, an update instruction is issued to the update selection unit 29 as necessary, and a switch is switched so that the input noise spectrum becomes a calculation target of the calculation unit 32. That is, depending on the determination result by the update determination unit 33, the input noise spectrum is replaced with the input noise spectrum instead of the estimated noise spectrum.
2 is input.
【0065】コード化部46は、入力雑音データ中の入
力雑音スペクトルを、コード化して更新選択部29へ出
力する。具体的に、更新選択部29によって保存される
雑音データは、コード化された識別情報(ID)とな
る。コード化部46は、図10に示すように、予め用意
した雑音の音源およびゲインの音源を基にそのあらゆる
組み合わせから聴感上で最も入力雑音スペクトルに近い
組み合わせを算出する。このとき、車両内の雑音特性が
低域側に集中する特性であることを考慮し、雑音の音源
は低域側に重みを置いたサブバンド化や周波数分割等を
行った音源とするとよい。これによって、音源数に対し
て、雑音低減効果を大きくすることができる。The coding section 46 codes the input noise spectrum in the input noise data and outputs it to the update selecting section 29. Specifically, the noise data stored by the update selection unit 29 is coded identification information (ID). As shown in FIG. 10, the coding unit 46 calculates a combination that is closest to the input noise spectrum in terms of audibility from all combinations of the noise source and the gain source prepared in advance. At this time, in consideration of the fact that the noise characteristics in the vehicle are concentrated on the low-frequency side, the noise source may be a sound source that has been subjected to sub-banding or frequency division with weighting on the low-frequency side. This makes it possible to increase the noise reduction effect with respect to the number of sound sources.
【0066】次に、図11に示すフローチャートに基づ
いて、本音響処理装置の動作を説明する。まず最初のス
テップ(以下、ステップを単に記号Sで示す。)51に
おいて、マイクロホン3により検出され、アナログ/デ
ィジタル変換部5にて変換されたディジタル信号を入力
する。これによって、時間−周波数変換部31及び雑音
推定部38へディジタル信号となった音響信号が入力さ
れる。Next, the operation of the sound processing apparatus will be described with reference to the flowchart shown in FIG. First, in a first step (hereinafter, steps are simply indicated by a symbol S) 51, a digital signal detected by the microphone 3 and converted by the analog / digital converter 5 is input. As a result, the digital audio signal is input to the time-frequency converter 31 and the noise estimator 38.
【0067】時間-周波数変換部31は、アナログ/デ
ィジタル変換部5により変換された音響信号の周波数ス
ペクトルを算出する。このとき、音響信号の補正につい
ては上記実施例と同様に、オーディオ情報14に基づき
オーディオ出力がオンである場合には、図6に示すよう
に、オーディオのメディアソースを入力信号から車両内
の残響を考慮して減算処理してもよい。The time-frequency converter 31 calculates the frequency spectrum of the audio signal converted by the analog / digital converter 5. At this time, as in the above embodiment, when the audio output is turned on based on the audio information 14, the audio media source is changed from the input signal to the reverberation in the vehicle as shown in FIG. May be subtracted in consideration of the above.
【0068】続くS52では、車両情報検出部37によ
り各種の情報を検出する。次のS53では、位置検出部
27により現在走行中の車両位置などを含む位置情報・
地図情報を検出する。さらに次のS54では、外部情報
検出部36により車両の外部より提供される情報を検出
する。S52〜S54で検出された情報は、更新選択部
29へ出力される。At S52, the vehicle information detector 37 detects various information. In the next step S53, the position information including the position of the vehicle currently traveling by the position detection unit 27, etc.
Detect map information. Further, in next S54, the information provided from outside the vehicle is detected by the external information detection unit 36. The information detected in S52 to S54 is output to the update selection unit 29.
【0069】続くS55では、S51で入力された車両
内の音響信号から、雑音推定部38が、音響信号に含ま
れる雑音成分である入力雑音データを推定する。この入
力雑音データは、コード化部46にてコード化されて更
新選択部29へ出力されると共に、更新判定部33へ出
力される。At S55, the noise estimating unit 38 estimates input noise data, which is a noise component included in the audio signal, from the audio signal in the vehicle input at S51. The input noise data is coded by the coding unit 46 and output to the update selection unit 29, and is also output to the update determination unit 33.
【0070】続くS56では、本装置に各種アプリケー
ションの音声インターフェースが接続されることを前提
にして、接続される音声インターフェースが動作中であ
るか検出判定を行う。これは、マイクロホン3を一本だ
けで実現するために必要となる判定処理である。つま
り、ここでは、マイクロホン3が音声インターフェース
への音声信号入力に用いられているか否かを判断するの
である。In S56, on the premise that voice interfaces of various applications are connected to the apparatus, it is determined whether or not the connected voice interfaces are operating. This is a determination process necessary to realize only one microphone 3. That is, here, it is determined whether or not the microphone 3 is used for inputting a sound signal to the sound interface.
【0071】ここでは、音声区間検出器によって音声区
間が検出されているか、音声認識装置の音声入力スイッ
チがオンとなっているか、あるいは、ハンズフリー装置
の通話スイッチがオンとなっているかなどの判定を行な
う。通常ハンズフリー装置や音声認識装置は、使用時に
必ずステアリングホイール部等に設置されたスイッチを
押下することになる。したがって、スイッチのオン/オ
フを検出することにより、確実に動作中であるか否かを
検出することができる。また、ハンズフリーや音声認識
装置の有無に関わらずイニシャルは、使用されている場
合と同様に動作する。ここで使用中であると判定された
場合(S56:YES)、S58へ移行する。一方、使
用中でないと判定された場合(S56:NO)、S57
へ移行する。Here, it is determined whether the voice section is detected by the voice section detector, the voice input switch of the voice recognition device is turned on, or the speech switch of the hands-free device is turned on. Perform Usually, a hands-free device or a voice recognition device always presses a switch installed on a steering wheel or the like when used. Therefore, by detecting ON / OFF of the switch, it is possible to reliably detect whether or not the operation is being performed. Also, the initials operate in the same manner as when they are used regardless of the presence or absence of the hands-free or voice recognition device. If it is determined that the device is in use (S56: YES), the process proceeds to S58. On the other hand, if it is determined that it is not in use (S56: NO), S57
Move to.
【0072】S57では、コード化された入力雑音スペ
クトルが、更新選択部29により、雑音データとして、
要因情報に対応させ記憶部2に記憶される。この場合、
初めて走行したエリアに対しては要因情報に対応させた
新規保存が行われ、過去に走行したことのあるエリアに
対しては要因情報に対応させた更新保存が行われること
になる。At S57, the coded input noise spectrum is converted by the update selection unit 29 as noise data.
The information is stored in the storage unit 2 in association with the factor information. in this case,
New storage corresponding to the factor information is performed for the area where the vehicle has traveled for the first time, and update storage corresponding to the factor information is performed for the area that has traveled in the past.
【0073】音声インターフェースが使用中である場
合、要因情報に対応して記憶された雑音データを、更新
選択部29が記憶部2から選択して雑音算出部30へ出
力する。これによって、雑音算出部30は、推定雑音デ
ータを更新判定部33へ出力する。When the voice interface is being used, the update selecting section 29 selects the noise data stored corresponding to the factor information from the storage section 2 and outputs the selected noise data to the noise calculating section 30. Thereby, the noise calculation unit 30 outputs the estimated noise data to the update determination unit 33.
【0074】したがって、S58では、雑音算出部30
にて算出された推定雑音データと、雑音推定部38で算
出された入力雑音データとが、類似しているか否かを判
断する。更新判定部33は、入力雑音スペクトル、推定
雑音スペクトル、及び各スペクトルの雑音パワーを用い
て類似判断を行う。Therefore, in S58, the noise calculation unit 30
Then, it is determined whether or not the estimated noise data calculated in step (1) and the input noise data calculated in the noise estimating unit 38 are similar. The update determination unit 33 performs similarity determination using the input noise spectrum, the estimated noise spectrum, and the noise power of each spectrum.
【0075】推定雑音スペクトルと入力雑音スペクトル
の形状が類似していても両者のパワーが異なる場合や、
推定雑音スペクトルと入力雑音スペクトルが同じパワー
であっても両者のスペクトル形状が異なる場合は、人間
の耳には全く異なる音として聞こえることになる。した
がって、スペクトルのパワーを含めた比較を行うことに
より、より精度の高い判定を行うことが可能になる。さ
らに、推定雑音データや入力雑音データに、スペクトル
の変化量やそのパワーの変化量を加え、これらの変化量
を判断に用いることも考えられる。Even if the shapes of the estimated noise spectrum and the input noise spectrum are similar, if the powers of the two are different,
Even if the estimated noise spectrum and the input noise spectrum have the same power, if the two have different spectral shapes, the sound will be heard as completely different sounds by human ears. Therefore, by performing the comparison including the power of the spectrum, it is possible to make a more accurate determination. Furthermore, it is also conceivable to add the amount of change in the spectrum and the amount of change in the power to the estimated noise data and the input noise data, and use these amounts of change in the determination.
【0076】ここで両データが類似していると判断され
た場合(S58:YES)、S59にて推定雑音スペク
トルを演算部32へ出力し、その後、S62へ移行す
る。一方、両データが類似していないと判断された場合
(S58:NO)、S60にて入力雑音スペクトルを演
算部32へ出力し、さらに、S61にて更新処理を行
い、その後、S62へ移行する。なお、S59やS60
のスペクトルの出力は、更新判定部33によるスイッチ
制御で実現される(図8参照)。また、S61の更新処
理は、上述したS57と同様の処理である。If it is determined that the two data are similar (S58: YES), the estimated noise spectrum is output to the arithmetic unit 32 in S59, and thereafter, the process proceeds to S62. On the other hand, when it is determined that the two data are not similar (S58: NO), the input noise spectrum is output to the arithmetic unit 32 in S60, and the updating process is performed in S61, and thereafter, the process proceeds to S62. . Note that S59 and S60
Is realized by the switch control by the update determination unit 33 (see FIG. 8). The update processing in S61 is the same processing as S57 described above.
【0077】S62では、演算部32が雑音除去を行
う。これは時間−周波数変換部31によって変換された
周波数スペクトルから、出力された雑音のスペクトル、
すなわち推定雑音スペクトル又は入力雑音スペクトルの
一方を差し引くものである。つまり、本第2実施例の音
響処理装置では、雑音推定部38により音響信号から推
定される入力雑音データと、記憶部2に記憶された雑音
データより雑音算出部30にて算出される推定雑音デー
タとが類似しているか否かを判断し(図11中のS5
8)、類似していれば推定雑音スペクトルを用いて雑音
除去を行い(S59,S62)、一方、類似してなけれ
ば入力雑音スペクトルを用いて雑音除去を行う(S6
0,S62)。そしてこのときは、入力雑音スペクトル
に基づく雑音データによって、記憶部2の雑音データを
更新する(S61)。In S62, the operation unit 32 removes noise. This is a spectrum of noise output from the frequency spectrum converted by the time-frequency conversion unit 31,
That is, one of the estimated noise spectrum and the input noise spectrum is subtracted. That is, in the acoustic processing device of the second embodiment, the input noise data estimated from the acoustic signal by the noise estimating unit 38 and the estimated noise calculated by the noise calculating unit 30 from the noise data stored in the storage unit 2. It is determined whether or not the data is similar (S5 in FIG. 11).
8) If similar, noise removal is performed using the estimated noise spectrum (S59, S62), while if not similar, noise removal is performed using the input noise spectrum (S6).
0, S62). Then, at this time, the noise data in the storage unit 2 is updated with the noise data based on the input noise spectrum (S61).
【0078】このように記憶部2の雑音データを更新す
るようにすれば、要因情報と雑音データとの対応関係が
適切なものになり、種々の雑音を適切に処理でき入力音
声の明瞭化が図られる、という第1実施例で説明した効
果がより一層際だつものになる。なお、雑音データの更
新タイミングは、上記実施例に限定されない。これは本
装置に接続される音声インターフェースを備えるアプリ
ケーションによっても異なってくるからである。例え
ば、一定時間間隔、一定走行距離間隔、雑音スペクトル
の閾値以上変動時、あるいは、雑音ゲインの閾値以上変
動時など、を更新タイミングとしてもよい。When the noise data in the storage unit 2 is updated in this manner, the correspondence between the factor information and the noise data becomes appropriate, so that various noises can be appropriately processed and the input voice can be clarified. The effect described in the first embodiment, which is achieved, is further enhanced. The update timing of the noise data is not limited to the above embodiment. This is because it differs depending on the application provided with the voice interface connected to the present apparatus. For example, the update timing may be a fixed time interval, a fixed travel distance interval, a time when the noise spectrum fluctuates more than a threshold value, or a time when the noise gain fluctuates more than a threshold value.
【0079】また、本第2実施例では、図9に示すよう
に、雑音算出部30にて、推定雑音スペクトルとそのパ
ワーとを含む推定雑音データを算出し、スペクトルだけ
でなくパワーも用いて類似判断を行っている。これによ
って、より精度の高い更新判定を行うことが可能にな
る。Further, in the second embodiment, as shown in FIG. 9, estimated noise data including the estimated noise spectrum and its power is calculated by the noise calculating section 30, and not only the spectrum but also the power is used. We make similar judgments. This makes it possible to make a more accurate update determination.
【0080】さらにまた、本第2実施例では、本装置に
接続された音声インターフェースが使用中であるか否か
を判定し(図11中のS56)、使用中でなければ、マ
イクロホン3から入力された音響信号を雑音成分とし
て、その位置情報の一つであるエリアに対応させた雑音
データとして保存する。これによって、過去に走行した
あらゆる場所のあらゆる雑音に対処可能になる。また、
現在位置からの進行方向に存在する突発的雑音源や雑音
パタンを予測することが可能となり、演算部32による
処理の遅れを防止できるため、突発的な雑音までも処理
でき、聴感上の違和感や誤認識を確実に防止できる。Further, in the second embodiment, it is determined whether or not the voice interface connected to the apparatus is in use (S56 in FIG. 11). The obtained acoustic signal is stored as a noise component as noise data corresponding to an area which is one of the position information. This makes it possible to deal with any noise in any place where you have traveled in the past. Also,
It is possible to predict a sudden noise source or a noise pattern existing in the traveling direction from the current position, and it is possible to prevent a delay in the processing by the arithmetic unit 32. False recognition can be reliably prevented.
【0081】また、本第2実施例では、コード化部46
を備えており、雑音推定部38で推定された入力雑音ス
ペクトルは、コード化されたコードデータとして記憶部
2に記憶される。これは、雑音データをスペクトル形状
そのもので記憶すると、一つ一つが大きくなり、また、
記憶回数に比例して記憶総量も大きくなるからである。
つまり、車室内の雑音に的を絞ったスペクトルデータが
用意され、聴感上一番近いスペクトルデータを識別情報
(ID)に変換して記憶するため、メモリ使用量を格段
に減らすことができる。In the second embodiment, the coding section 46
The input noise spectrum estimated by the noise estimating unit 38 is stored in the storage unit 2 as coded code data. This is because when noise data is stored in the form of the spectrum itself, each one becomes larger,
This is because the total storage amount increases in proportion to the number of storages.
That is, spectrum data focused on the noise in the vehicle compartment is prepared, and the spectral data closest to the audibility is converted into identification information (ID) and stored, so that the memory usage can be significantly reduced.
【0082】なお、本第2実施例の音響処理装置でも、
上記第1実施例と同様に、アナログ/ディジタル変換部
5が「変換手段」に相当し、時間−周波数変換部31が
「スペクトル算出手段」に相当し、記憶部2が「記憶手
段」に相当し、要因情報検出部28が「要因情報取得手
段」に相当し、雑音算出部30が「雑音算出手段」に相
当し、演算部32が「演算手段」に相当し、要因情報検
出部28の位置検出部27が「進行方向取得手段」に相
当する。Note that the sound processing apparatus of the second embodiment also
As in the first embodiment, the analog / digital converter 5 corresponds to “converter”, the time-frequency converter 31 corresponds to “spectrum calculator”, and the storage 2 corresponds to “storage”. The factor information detecting unit 28 corresponds to “factor information obtaining unit”, the noise calculating unit 30 corresponds to “noise calculating unit”, the calculating unit 32 corresponds to “calculating unit”, and the factor information detecting unit 28 The position detection unit 27 corresponds to “traveling direction acquisition means”.
【0083】さらに、雑音推定部38が「雑音推定手
段」に相当し、更新選択部29が「選択手段」及び「更
新手段」に相当する。また、更新判定部33が「指示手
段」及び「比較手段」に相当し、コード化部46が「コ
ード化手段」に相当する。また、図11中のS52〜S
54の処理が要因情報検出手段としての処理に相当し、
S55の処理が雑音推定手段としての処理に相当し、S
58〜S60の処理が指示手段としての処理に相当し、
S61の処理が更新手段としての処理に相当する。Further, the noise estimating section 38 corresponds to “noise estimating means”, and the update selecting section 29 corresponds to “selecting means” and “updating means”. Further, the update determination unit 33 corresponds to “instruction unit” and “comparison unit”, and the coding unit 46 corresponds to “coding unit”. Also, S52 to S in FIG.
The processing of 54 corresponds to the processing as factor information detecting means,
The processing in S55 corresponds to the processing as noise estimation means.
The processing of 58 to S60 corresponds to the processing as the instruction means,
The process of S61 corresponds to a process as an updating unit.
【0084】以上、本発明はこのような実施例に何等限
定されるものではなく、本発明の主旨を逸脱しない範囲
において種々なる形態で実施し得る。例えば上記第1及
び第2実施例の構成の一部を変更した以下のような実施
例も考えられる。 [第3実施例]図12に示す本音響処理装置は、上記第
1実施例に記載の記憶部2が、要因情報に対応する雑音
データとして、推定雑音スペクトルそのものを記憶する
構成である。この場合、読み出した雑音データが既に推
定雑音スペクトルであるため、雑音算出部30は不要と
なる。 [第4実施例]図13に示す本音響処理装置は、上記第
2実施例に記載の記憶部2が、要因情報に対応する雑音
データとして、推定雑音スペクトルそのものを記憶する
構成である。この場合、上記第3実施例と同様に雑音算
出部30が不要になると共に、雑音データの更新処理を
行う際、入力雑音スペクトルをそのまま記憶部2に記憶
することになるため、コード化部46も不要になる。 [第5実施例]ところで、雑音データをコード化するこ
とによって記憶部2の記憶容量を削減できることは既に
述べた。このような記憶容量の削減は、図14に示すよ
うな、記憶部2の雑音データを補間するような構成によ
っても実現できる。As described above, the present invention is not limited to such an embodiment, and can be implemented in various forms without departing from the gist of the present invention. For example, the following embodiment in which a part of the configuration of the first and second embodiments is changed is also conceivable. [Third Embodiment] The acoustic processing apparatus shown in FIG. 12 has a configuration in which the storage unit 2 described in the first embodiment stores the estimated noise spectrum itself as noise data corresponding to the factor information. In this case, since the read noise data is already the estimated noise spectrum, the noise calculation unit 30 becomes unnecessary. Fourth Embodiment The acoustic processing apparatus shown in FIG. 13 has a configuration in which the storage unit 2 described in the second embodiment stores the estimated noise spectrum itself as noise data corresponding to the factor information. In this case, the noise calculating unit 30 becomes unnecessary as in the third embodiment, and the input noise spectrum is stored in the storage unit 2 as it is when updating the noise data. Also becomes unnecessary. Fifth Embodiment By the way, it has already been described that the storage capacity of the storage unit 2 can be reduced by coding the noise data. Such a reduction in storage capacity can also be realized by a configuration that interpolates noise data in the storage unit 2 as shown in FIG.
【0085】上記第1〜4の実施例では、記憶部2に、
全ての要因情報に対応させて、すなわち要因情報のあら
ゆる組み合わせに対応させて、雑音データを記憶してい
た。これに対して、記憶部2には、予め決められた法則
で間引かれた雑音データを記憶しておく。そして、雑音
補間部47を設けることにより、間引かれた雑音データ
に基づく推定雑音スペクトルを補間する。その結果、雑
音データの記憶容量を削減しつつ、上記実施例と同等の
性能を発揮することができる。In the first to fourth embodiments, the storage unit 2
Noise data is stored in correspondence with all the factor information, that is, in correspondence with every combination of the factor information. On the other hand, the storage unit 2 stores noise data thinned out according to a predetermined rule. Then, by providing the noise interpolation unit 47, the estimated noise spectrum based on the decimated noise data is interpolated. As a result, performance equivalent to that of the above embodiment can be exhibited while reducing the storage capacity of noise data.
【0086】これについて説明する。選択部29によっ
て選択された雑音別スペクトルを基に、雑音算出部30
は、上記第1実施例と同様に、推定雑音スペクトル(補
間前)を算出する。しかし、ここで算出された推定雑音
スペクトルは、間引きされた雑音データを基に算出され
ているため精度が低い。そこで、要因情報検出部28か
らの要因情報に基づき、推定雑音スペクトルの補間を行
うのが、雑音補間部47である。This will be described. Based on the noise-specific spectrum selected by the selection unit 29, the noise calculation unit 30
Calculates the estimated noise spectrum (before interpolation) as in the first embodiment. However, the estimated noise spectrum calculated here has low accuracy because it is calculated based on the thinned noise data. Therefore, the noise interpolation unit 47 interpolates the estimated noise spectrum based on the factor information from the factor information detection unit 28.
【0087】例えば車両速度60km/h、エンジン回
転数2000rpmで走行している場合で、車両速度4
0km/h、エンジン回転数1000rpmに対応する
雑音データから、推定雑音スペクトルが算出されたとし
て以下説明する。雑音補間部47は、図15に示すよう
に、車両速度、エンジン回転数10、窓開閉状態15、
オーディオ情報14等の情報を入力し、図16に示すよ
うな、予め決められた法則で記憶してあるエンジン回転
数10に対応した周波数−ゲイン特性から、現在のエン
ジン回転数10に対応する補間値を線形補間により推定
する。この例では、1000rpmと3000rpmの
中間値となる。For example, when traveling at a vehicle speed of 60 km / h and an engine speed of 2000 rpm, the vehicle speed
The following description is based on the assumption that an estimated noise spectrum has been calculated from noise data corresponding to 0 km / h and an engine speed of 1000 rpm. As shown in FIG. 15, the noise interpolation unit 47 includes a vehicle speed, an engine speed 10, a window opening / closing state 15,
The information such as the audio information 14 is input, and the interpolation corresponding to the current engine speed 10 is obtained from the frequency-gain characteristics corresponding to the engine speed 10 stored according to a predetermined rule as shown in FIG. The value is estimated by linear interpolation. In this example, the value is an intermediate value between 1000 rpm and 3000 rpm.
【0088】また、図17に示すような、予め決められ
た法則で記憶してある車両速度に対応する周波数−ゲイ
ン特性から、現在の車両速度に対応する補間値を線形補
間により推定する。この例では、40km/hと80k
m/hの中間値となる。このようにすれば、雑音データ
に基づく推定雑音スペクトルに対し、エンジン回転数1
0の補間値および車両速度に対する補間値をそれぞれ演
算(加算)することにより、特性を補間した推定雑音ス
ペクトルが算出できる。補間された推定雑音スペクトル
は、上記第1実施例と遜色のない精度となる。一方で、
雑音データのデータ量が削減され、記憶部2の記憶容量
を削減することができる。 [その他]上記第5実施例の構成に対し、さらに、雑音
データの更新機能を付加することも考えられる。その構
成例は、図18に示す如くである。Further, an interpolation value corresponding to the current vehicle speed is estimated by linear interpolation from the frequency-gain characteristics corresponding to the vehicle speed stored according to a predetermined rule as shown in FIG. In this example, 40km / h and 80km
It is an intermediate value of m / h. By doing so, the engine speed 1 is added to the estimated noise spectrum based on the noise data.
By calculating (adding) the interpolated value of 0 and the interpolated value with respect to the vehicle speed, an estimated noise spectrum in which characteristics are interpolated can be calculated. The interpolated estimated noise spectrum has an accuracy comparable to that of the first embodiment. On the other hand,
The data amount of the noise data is reduced, and the storage capacity of the storage unit 2 can be reduced. [Others] A function of updating noise data may be added to the configuration of the fifth embodiment. An example of the configuration is as shown in FIG.
【0089】また、上記第1〜5の実施例の特徴部分を
適宜組み合わせた実施例とすることもできる。すなわ
ち、上記実施例3の構成に上記実施例5の補間機能を組
み合わせた構成とすることが考えられる。図19に示す
如くである。また、上記第4実施例に上記第5実施例の
補間機能を組み合わせてもよい。図20に示す如くであ
る。 [車両位置の特定について]なお、本実施例では、車両
の位置は位置検出部27によってGPS受信機40など
を用いて特定するようにしていたが、通信端末や無線機
などによって外部からの情報を用いて特定してもよい。
すなわち、図3中に破線で示すように、位置検出部27
に通信端末(あるいは無線機)48を備えるようにし、
この通信端末48を介して位置情報を取得することが考
えられる。また、外部からの情報で位置を特定すること
を考えると、外部情報検出部36によって車両の位置情
報を取得する構成としてもよい。すなわち、図5中に破
線で示すような位置情報49を、外部情報検出部36が
取得するようにしてもよい。現在ではGPSを用いた位
置検出が主流となっているが、今後、インフラ装置が整
備されると、これらのインフラ装置によって車両位置が
特定されるようになることが考えられるからである。Further, an embodiment in which the characteristic portions of the first to fifth embodiments are appropriately combined may be adopted. That is, a configuration in which the interpolation function of the fifth embodiment is combined with the configuration of the third embodiment can be considered. As shown in FIG. Further, the interpolation function of the fifth embodiment may be combined with the fourth embodiment. As shown in FIG. [Specification of Vehicle Position] In the present embodiment, the position of the vehicle is specified by the position detector 27 using the GPS receiver 40 or the like. It may be specified by using.
That is, as shown by a broken line in FIG.
To have a communication terminal (or radio) 48,
It is conceivable to obtain the position information via the communication terminal 48. Further, considering that the position is specified by external information, the external information detecting unit 36 may acquire the position information of the vehicle. That is, the external information detection unit 36 may obtain the position information 49 as indicated by a broken line in FIG. At present, position detection using GPS is the mainstream, but in the future, when infrastructure devices are provided, it is conceivable that the vehicle position will be specified by these infrastructure devices.
【図1】第1実施例の音響処理装置の構成を示す説明図
である。FIG. 1 is an explanatory diagram illustrating a configuration of a sound processing apparatus according to a first embodiment.
【図2】要因情報検出部を示す説明図である。FIG. 2 is an explanatory diagram showing a factor information detection unit.
【図3】位置情報検出部を示す説明図である。FIG. 3 is an explanatory diagram showing a position information detection unit.
【図4】車両情報検出部を示す説明図である。FIG. 4 is an explanatory diagram showing a vehicle information detection unit.
【図5】外部情報検出部を示す説明図である。FIG. 5 is an explanatory diagram showing an external information detection unit.
【図6】入力信号処理部の一例を示す説明図である。FIG. 6 is an explanatory diagram illustrating an example of an input signal processing unit.
【図7】突発雑音源の予測手法を示す説明図である。FIG. 7 is an explanatory diagram showing a method for predicting a sudden noise source.
【図8】第2実施例の音響処理装置の構成を示す説明図
である。FIG. 8 is an explanatory diagram illustrating a configuration of a sound processing device according to a second embodiment.
【図9】第2実施例の雑音算出部の構成を示す説明図で
ある。FIG. 9 is an explanatory diagram illustrating a configuration of a noise calculator according to a second embodiment.
【図10】コード化部によるコード化手法を示す説明図で
ある。FIG. 10 is an explanatory diagram showing a coding method by a coding unit.
【図11】第2実施例の音響処理装置の動作を示すフロー
チャートである。FIG. 11 is a flowchart illustrating an operation of the sound processing device of the second embodiment.
【図12】第3実施例の音響処理装置の構成を示す説明図
である。FIG. 12 is an explanatory diagram illustrating a configuration of a sound processing device according to a third embodiment.
【図13】第4実施例の音響処理装置の構成を示す説明図
である。FIG. 13 is an explanatory diagram illustrating a configuration of a sound processing apparatus according to a fourth embodiment.
【図14】第5実施例の音響処理装置の構成を示す説明図
である。FIG. 14 is an explanatory diagram illustrating a configuration of a sound processing device according to a fifth embodiment.
【図15】雑音補間部の概要を示す説明図である。FIG. 15 is an explanatory diagram illustrating an outline of a noise interpolation unit.
【図16】エンジン回転数のゲイン−周波数特性を例示す
る説明図である。FIG. 16 is an explanatory diagram illustrating a gain-frequency characteristic of an engine speed.
【図17】車両速度のゲイン−周波数特性を例示する説明
図である。FIG. 17 is an explanatory diagram illustrating a gain-frequency characteristic of a vehicle speed.
【図18】別実施例の音響処理装置の構成を示す説明図で
ある。FIG. 18 is an explanatory diagram illustrating a configuration of a sound processing device according to another embodiment.
【図19】別実施例の音響処理装置の構成を示す説明図で
ある。FIG. 19 is an explanatory diagram illustrating a configuration of a sound processing device according to another embodiment.
【図20】別実施例の音響処理装置の構成を示す説明図で
ある。FIG. 20 is an explanatory diagram illustrating a configuration of a sound processing device according to another embodiment.
1…雑音低減回路 2…記憶部 3…マイクロホン 4…出力部 5…アナログ/ディジタル変換部 6…エンジントルク 10…エンジン回転数 11…加速度センサ 12…車両速度センサ 13…エアコン情報 14…オーディオ情報 15…窓開閉状態 18…乗員数 19…乗員位置 21…交通情報 22…天気 23…日時 24…風向 25…気温 26…ナビゲーションシステム 27…位置検出部 28…要因情報検出部 29…選択部,更新選択部 30…雑音算出部 31…時間−周波数変換部 32…演算部 33…更新判定部 34…雑音スペクトル算出部 35…パワー算出部 36…外部情報検出部 37…車両情報検出部 38…雑音推定部 40…GPS受信機 41…ジャイロセンサ 42…画像センサ 43…ワイパ情報 44…フォグランプ情報 45…雨滴情報 46…コード化部 47…雑音補間部 48…通信端末 49…位置情報 100…車両 101…進行方向 102…突発雑音源 103…エリア DESCRIPTION OF SYMBOLS 1 ... Noise reduction circuit 2 ... Storage part 3 ... Microphone 4 ... Output part 5 ... Analog / digital conversion part 6 ... Engine torque 10 ... Engine speed 11 ... Acceleration sensor 12 ... Vehicle speed sensor 13 ... Air conditioner information 14 ... Audio information 15 ... window opening / closing state 18 ... number of occupants 19 ... occupant position 21 ... traffic information 22 ... weather 23 ... date and time 24 ... wind direction 25 ... temperature 26 ... navigation system 27 ... position detection unit 28 ... factor information detection unit 29 ... selection unit, update selection Unit 30 noise calculation unit 31 time-frequency conversion unit 32 calculation unit 33 update determination unit 34 noise spectrum calculation unit 35 power calculation unit 36 external information detection unit 37 vehicle information detection unit 38 noise estimation unit 40 GPS receiver 41 Gyro sensor 42 Image sensor 43 Wiper information 44 Fog lamp information 4 5 raindrop information 46 coding part 47 noise interpolation part 48 communication terminal 49 position information 100 vehicle 101 traveling direction 102 sudden noise source 103 area
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/28 G10L 3/00 551J 21/02 521L H04B 1/10 531Q 551Q (72)発明者 愛知 功 愛知県刈谷市昭和町1丁目1番地 株式会 社デンソー内 Fターム(参考) 3D020 BA07 BB01 BC01 BD14 BE03 5D015 EE05 5K027 AA11 AA16 BB03 DD12 HH03 5K052 AA01 BB08 DD02 EE12 EE24 FF31 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 15/28 G10L 3/00 551J 21/02 521L H04B 1/10 531Q 551Q (72) Inventor Isao Aichi Aichi 1-chome, Showa-cho, Kariya-shi, Japan F-term in DENSO Corporation (reference) 3D020 BA07 BB01 BC01 BD14 BE03 5D015 EE05 5K027 AA11 AA16 BB03 DD12 HH03 5K052 AA01 BB08 DD02 EE12 EE24 FF31
Claims (16)
タル変換を施す変換手段と、 前記変換手段にて変換された前記音響信号の周波数スペ
クトルを算出するスペクトル算出手段と、 移動体における発生音に対し、その発生が推定可能な雑
音のデータである雑音データを、前記雑音発生の要因と
なる、予め定められる要因情報に対応させて記憶するた
めの記憶手段と、 前記要因情報を取得する要因情報取得手段と、 該要因情報取得手段にて取得された要因情報に基づき、
対応する雑音データを前記記憶手段から選択する選択手
段と、 該選択手段にて選択された雑音データに基づき、推定さ
れる雑音の周波数スペクトルである推定雑音スペクトル
を含む推定雑音データを算出する雑音算出手段と、 前記スペクトル算出手段にて算出された周波数スペクト
ルから前記雑音算出手段にて算出された推定雑音スペク
トルを差し引く演算手段とを備えていることを特徴とす
る雑音低減装置。1. A conversion unit for acquiring an audio signal input from a microphone and being used by being mounted on a moving body and performing digital conversion, and calculating a frequency spectrum of the audio signal converted by the conversion unit. Spectrum calculating means, and storage for storing noise data, which is noise data whose generation can be estimated for a sound generated in the moving object, in association with predetermined factor information which is a factor of the noise generation. Means, factor information obtaining means for obtaining the factor information, based on the factor information obtained by the factor information obtaining means,
Selecting means for selecting corresponding noise data from the storage means; and noise calculation for calculating estimated noise data including an estimated noise spectrum which is a frequency spectrum of estimated noise based on the noise data selected by the selecting means. And a calculating means for subtracting the estimated noise spectrum calculated by the noise calculating means from the frequency spectrum calculated by the spectrum calculating means.
とを特徴とする雑音低減装置。2. The noise reduction device according to claim 1, wherein the factor information includes position information of a moving body.
を備え、 前記選択手段は、前記進行方向取得手段にて取得された
進行方向を考慮して、前記記憶手段から前記雑音データ
を選択することを特徴とする雑音低減装置。3. The noise reduction device according to claim 2, further comprising a traveling direction acquisition unit that acquires a traveling direction of the moving body, wherein the selection unit includes a traveling direction acquired by the traveling direction acquisition unit. Wherein the noise data is selected from the storage means in consideration of the following.
装置において、 前記要因情報には、移動体の状態・状況を示す内部情報
又は移動体の外部から取得される外部情報の少なくとも
いずれか一方が含まれていることを特徴とする雑音低減
装置。4. The noise reduction device according to claim 1, wherein the factor information includes at least one of internal information indicating a state / situation of the moving body or external information acquired from outside the moving body. A noise reduction device characterized by including one of them.
装置において、 前記変換手段からの前記音響信号に含まれる雑音成分の
周波数スペクトルである入力雑音スペクトルを含む入力
雑音データを推定する雑音推定手段と、 該雑音推定手段にて推定された入力雑音データと、前記
雑音算出手段にて算出された推定雑音データとを比較す
る比較手段と、 該比較手段による比較結果に基づき前記雑音データの更
新指示を行う指示手段と前記指示手段による更新指示が
あると、前記入力雑音データに基づく雑音データを前記
記憶手段へ記憶して雑音データを更新する更新手段と、 を備えていることを特徴とする雑音低減装置。5. The noise reduction apparatus according to claim 1, wherein input noise data including an input noise spectrum which is a frequency spectrum of a noise component included in the acoustic signal from the conversion unit is estimated. Noise estimating means; comparing means for comparing input noise data estimated by the noise estimating means with estimated noise data calculated by the noise calculating means; and the noise data based on a comparison result by the comparing means And updating means for updating the noise data by storing the noise data based on the input noise data in the storage means when there is an updating instruction by the instruction means. Noise reduction device.
手段へ、前記推定雑音スペクトルに代わる前記入力雑音
スペクトルを送出し、 前記演算手段は、前記指示手段によって前記入力雑音ス
ペクトルが送出されると、前記周波数スペクトルから当
該入力雑音スペクトルを差し引くことを特徴とする雑音
低減装置。6. The noise reduction apparatus according to claim 5, wherein said instruction means issues said update instruction and sends said input noise spectrum instead of said estimated noise spectrum to said arithmetic means. Wherein the input noise spectrum is subtracted from the frequency spectrum when the input noise spectrum is transmitted by the instruction means.
装置において、 前記推定雑音データ及び前記入力雑音データは、周波数
スペクトルに加え、当該周波数スペクトルの変化量とを
含むものであることを特徴とする雑音低減装置。7. The noise reduction apparatus according to claim 1, wherein the estimated noise data and the input noise data include a change in the frequency spectrum in addition to a frequency spectrum. Noise reduction device.
装置において、 前記推定雑音データ及び前記入力雑音データは、周波数
スペクトルに加え、当該周波数スペクトルのパワー、又
は、当該パワー及び当該パワーの変化量を含むものであ
ることを特徴とする雑音低減装置。8. The noise reduction apparatus according to claim 1, wherein the estimated noise data and the input noise data are, in addition to a frequency spectrum, a power of the frequency spectrum or a power of the frequency spectrum and the power. A noise reduction device characterized by including a change amount of the noise.
装置において、 前記雑音データは、雑音種類毎の雑音別データとして記
憶されることを特徴とする雑音低減装置。9. The noise reduction device according to claim 1, wherein the noise data is stored as noise-specific data for each noise type.
減装置において、 前記雑音データは、コード化されて記憶されることを特
徴とする雑音低減装置。10. The noise reduction device according to claim 1, wherein the noise data is coded and stored.
て、 前記雑音データの更新機能を備えていることを前提とし
て、 さらに、前記入力雑音スペクトルに基づき、前記コード
化された雑音データを生成するコードデータ生成手段を
備えていることを特徴とする雑音低減装置。11. The noise reduction device according to claim 10, further comprising: generating said coded noise data based on said input noise spectrum, provided that said noise reduction device has a function of updating said noise data. A noise reduction device comprising code data generation means.
て、 前記コードデータ生成手段は、前記入力雑音スペクトル
に聴感上最も近くなるように、予め用意された雑音の周
波数スペクトルの中から適当な周波数スペクトルを選択
し、当該選択した周波数スペクトルをコード化して雑音
データを生成することを特徴とする雑音低減装置。12. The noise reduction apparatus according to claim 11, wherein said code data generating means selects an appropriate frequency from a frequency spectrum of noise prepared in advance so as to be audibly closest to said input noise spectrum. A noise reduction apparatus comprising: selecting a spectrum; encoding the selected frequency spectrum to generate noise data.
て、 前記予め用意された雑音の周波数スペクトルは、帯域別
の雑音を示す雑音スペクトル、帯域別の雑音スペクトル
に重み付けをした雑音スペクトル、又は、低域のみの雑
音スペクトルの少なくともいずれかの雑音スペクトルで
構成されることを特徴とする雑音低減装置。13. The noise reduction device according to claim 12, wherein the frequency spectrum of the previously prepared noise is a noise spectrum indicating noise for each band, a noise spectrum weighting the noise spectrum for each band, or A noise reduction device comprising a noise spectrum of at least one of a noise spectrum of only a low band.
低減装置において、 前記要因情報取得手段にて取得された要因情報に基づ
き、前記推定雑音スペクトルを補間する補間手段を備え
ていることを特徴とする雑音低減装置。14. The noise reduction device according to claim 1, further comprising an interpolation unit that interpolates the estimated noise spectrum based on the factor information obtained by the factor information obtaining unit. A noise reduction device characterized by the above-mentioned.
て、 前記補間手段は、移動速度に応じた、雑音のゲイン補間
を行うことを特徴とする雑音低減装置。15. The noise reduction apparatus according to claim 14, wherein said interpolation means performs noise gain interpolation according to a moving speed.
置において、 前記補間手段は、エンジン回転数に応じた、雑音の周波
数補間を行うことを特徴とする雑音低減装置。16. The noise reduction device according to claim 14, wherein said interpolation means performs frequency interpolation of noise according to an engine speed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001110070A JP2002314637A (en) | 2001-04-09 | 2001-04-09 | Device for reducing noise |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001110070A JP2002314637A (en) | 2001-04-09 | 2001-04-09 | Device for reducing noise |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002314637A true JP2002314637A (en) | 2002-10-25 |
Family
ID=18961913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001110070A Pending JP2002314637A (en) | 2001-04-09 | 2001-04-09 | Device for reducing noise |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002314637A (en) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005057552A1 (en) * | 2003-12-09 | 2005-06-23 | National Institute Of Advanced Industrial Science And Technology | Acoustic signal removal device, acoustic signal removal method, and acoustic signal removal program |
WO2005057551A1 (en) * | 2003-12-09 | 2005-06-23 | National Institute Of Advanced Industrial Science And Technology | Acoustic signal removal device, acoustic signal removal method, and acoustic signal removal program |
WO2005112007A1 (en) * | 2004-05-13 | 2005-11-24 | Fuji Television Network, Inc. | Acoustic signal removal device, acoustic signal removal method, and acoustic signal removal program |
JP2006039447A (en) * | 2004-07-30 | 2006-02-09 | Nissan Motor Co Ltd | Voice input device |
JP2006047447A (en) * | 2004-08-02 | 2006-02-16 | Nissan Motor Co Ltd | Speech input device |
JP2007331737A (en) * | 2006-05-15 | 2007-12-27 | Toyota Motor Corp | Controller of cooling fan for vehicular battery and control method |
JP2008224960A (en) * | 2007-03-12 | 2008-09-25 | Nippon Seiki Co Ltd | Voice recognition device |
WO2009093702A1 (en) * | 2008-01-25 | 2009-07-30 | Kawasaki Jukogyo Kabushiki Kaisha | Acoustic device and acoustic control device |
JP2009231928A (en) * | 2008-03-19 | 2009-10-08 | Alpine Electronics Inc | Sound improving device and sound improving method |
JP2010074734A (en) * | 2008-09-22 | 2010-04-02 | Denso Corp | Onboard hands-free device |
KR101058003B1 (en) | 2004-02-11 | 2011-08-19 | 삼성전자주식회사 | Noise-adaptive mobile communication terminal device and call sound synthesis method using the device |
WO2011148861A1 (en) * | 2010-05-25 | 2011-12-01 | 日本電気株式会社 | Signal processing method, information processing device, and signal processing program |
JP2012215715A (en) * | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | Noise estimation device and noise estimation program |
JP2014041292A (en) * | 2012-08-23 | 2014-03-06 | Daihen Corp | Welding system and welding control device |
JP5867389B2 (en) * | 2010-05-24 | 2016-02-24 | 日本電気株式会社 | Signal processing method, information processing apparatus, and signal processing program |
JP2016180833A (en) * | 2015-03-24 | 2016-10-13 | 株式会社Jvcケンウッド | Noise reduction device, noise reduction method, and program |
JP2017067812A (en) * | 2015-09-28 | 2017-04-06 | アルパイン株式会社 | Voice recognition system and computer |
WO2017203688A1 (en) * | 2016-05-27 | 2017-11-30 | 三菱電機株式会社 | Vehicle-mounted audio power consumption suppression apparatus and vehicle-mounted audio apparatus |
CN107481730A (en) * | 2016-10-14 | 2017-12-15 | 宝沃汽车(中国)有限公司 | The noise-reduction method and system of automobile pickup system |
CN108068767A (en) * | 2016-11-10 | 2018-05-25 | 福特环球技术公司 | For detecting the system of windscreen wiper noise and correlation technique |
WO2018179249A1 (en) * | 2017-03-30 | 2018-10-04 | 三菱電機株式会社 | In-vehicle speech communication control apparatus, in-vehicle speech communication control system, and in-vehicle speech communication control method |
KR20190074650A (en) * | 2017-12-20 | 2019-06-28 | 주식회사 디엠씨시스 | Improvement system for audio sound quality of automobile by noise pattern analysis and improvement method therefor |
WO2020054141A1 (en) * | 2018-09-11 | 2020-03-19 | 川崎重工業株式会社 | Audio system for vehicle and audio output method |
US11996077B2 (en) | 2019-08-08 | 2024-05-28 | Nec Corporation | Noise estimation device, moving object sound detection device, noise estimation method, moving object sound detection method, and non-transitory computer-readable medium |
WO2024176827A1 (en) * | 2023-02-24 | 2024-08-29 | Agc株式会社 | Information processing device |
-
2001
- 2001-04-09 JP JP2001110070A patent/JP2002314637A/en active Pending
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005057552A1 (en) * | 2003-12-09 | 2005-06-23 | National Institute Of Advanced Industrial Science And Technology | Acoustic signal removal device, acoustic signal removal method, and acoustic signal removal program |
WO2005057551A1 (en) * | 2003-12-09 | 2005-06-23 | National Institute Of Advanced Industrial Science And Technology | Acoustic signal removal device, acoustic signal removal method, and acoustic signal removal program |
US8108217B2 (en) | 2004-02-11 | 2012-01-31 | Samsung Electronics Co., Ltd. | Noise adaptive mobile communication device, and call sound synthesizing method using the same |
KR101058003B1 (en) | 2004-02-11 | 2011-08-19 | 삼성전자주식회사 | Noise-adaptive mobile communication terminal device and call sound synthesis method using the device |
WO2005112007A1 (en) * | 2004-05-13 | 2005-11-24 | Fuji Television Network, Inc. | Acoustic signal removal device, acoustic signal removal method, and acoustic signal removal program |
JP2006039447A (en) * | 2004-07-30 | 2006-02-09 | Nissan Motor Co Ltd | Voice input device |
JP4561222B2 (en) * | 2004-07-30 | 2010-10-13 | 日産自動車株式会社 | Voice input device |
JP4649905B2 (en) * | 2004-08-02 | 2011-03-16 | 日産自動車株式会社 | Voice input device |
JP2006047447A (en) * | 2004-08-02 | 2006-02-16 | Nissan Motor Co Ltd | Speech input device |
JP2007331737A (en) * | 2006-05-15 | 2007-12-27 | Toyota Motor Corp | Controller of cooling fan for vehicular battery and control method |
JP2008224960A (en) * | 2007-03-12 | 2008-09-25 | Nippon Seiki Co Ltd | Voice recognition device |
WO2009093702A1 (en) * | 2008-01-25 | 2009-07-30 | Kawasaki Jukogyo Kabushiki Kaisha | Acoustic device and acoustic control device |
JP2009175558A (en) * | 2008-01-25 | 2009-08-06 | Kawasaki Heavy Ind Ltd | Acoustic device and acoustic control device |
US8588429B2 (en) | 2008-01-25 | 2013-11-19 | Kawasaki Jukogyo Kabushiki Kaisha | Sound device and sound control device |
JP2009231928A (en) * | 2008-03-19 | 2009-10-08 | Alpine Electronics Inc | Sound improving device and sound improving method |
JP2010074734A (en) * | 2008-09-22 | 2010-04-02 | Denso Corp | Onboard hands-free device |
JP5867389B2 (en) * | 2010-05-24 | 2016-02-24 | 日本電気株式会社 | Signal processing method, information processing apparatus, and signal processing program |
JP5788873B2 (en) * | 2010-05-25 | 2015-10-07 | 日本電気株式会社 | Signal processing method, information processing apparatus, and signal processing program |
CN102918592A (en) * | 2010-05-25 | 2013-02-06 | 日本电气株式会社 | Signal processing method, information processing device, and signal processing program |
EP2767978A1 (en) * | 2010-05-25 | 2014-08-20 | Nec Corporation | Audio signal processing |
WO2011148861A1 (en) * | 2010-05-25 | 2011-12-01 | 日本電気株式会社 | Signal processing method, information processing device, and signal processing program |
JP2012215715A (en) * | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | Noise estimation device and noise estimation program |
JP2014041292A (en) * | 2012-08-23 | 2014-03-06 | Daihen Corp | Welding system and welding control device |
JP2016180833A (en) * | 2015-03-24 | 2016-10-13 | 株式会社Jvcケンウッド | Noise reduction device, noise reduction method, and program |
US10319393B2 (en) | 2015-09-28 | 2019-06-11 | Alpine Electronics, Inc. | Speech recognition system and gain setting system |
JP2017067812A (en) * | 2015-09-28 | 2017-04-06 | アルパイン株式会社 | Voice recognition system and computer |
WO2017203688A1 (en) * | 2016-05-27 | 2017-11-30 | 三菱電機株式会社 | Vehicle-mounted audio power consumption suppression apparatus and vehicle-mounted audio apparatus |
CN107481730A (en) * | 2016-10-14 | 2017-12-15 | 宝沃汽车(中国)有限公司 | The noise-reduction method and system of automobile pickup system |
CN107481730B (en) * | 2016-10-14 | 2020-09-18 | 宝沃汽车(中国)有限公司 | Noise reduction method and system for automobile pickup system |
CN108068767A (en) * | 2016-11-10 | 2018-05-25 | 福特环球技术公司 | For detecting the system of windscreen wiper noise and correlation technique |
WO2018179249A1 (en) * | 2017-03-30 | 2018-10-04 | 三菱電機株式会社 | In-vehicle speech communication control apparatus, in-vehicle speech communication control system, and in-vehicle speech communication control method |
KR20190074650A (en) * | 2017-12-20 | 2019-06-28 | 주식회사 디엠씨시스 | Improvement system for audio sound quality of automobile by noise pattern analysis and improvement method therefor |
KR102017261B1 (en) | 2017-12-20 | 2019-09-02 | 주식회사 디엠씨시스 | Improvement system for audio sound quality of automobile by noise pattern analysis and improvement method therefor |
WO2020054141A1 (en) * | 2018-09-11 | 2020-03-19 | 川崎重工業株式会社 | Audio system for vehicle and audio output method |
JP2020042163A (en) * | 2018-09-11 | 2020-03-19 | 川崎重工業株式会社 | Voice system and voice output method of vehicle |
US11557275B2 (en) | 2018-09-11 | 2023-01-17 | Kawasaki Motors, Ltd. | Voice system and voice output method of moving machine |
JP7240116B2 (en) | 2018-09-11 | 2023-03-15 | カワサキモータース株式会社 | Vehicle audio system and audio output method |
US11996077B2 (en) | 2019-08-08 | 2024-05-28 | Nec Corporation | Noise estimation device, moving object sound detection device, noise estimation method, moving object sound detection method, and non-transitory computer-readable medium |
WO2024176827A1 (en) * | 2023-02-24 | 2024-08-29 | Agc株式会社 | Information processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002314637A (en) | Device for reducing noise | |
JP4549243B2 (en) | In-vehicle audio processor | |
US7941189B2 (en) | Communicating road noise control system, in-vehicle road noise controller, and server | |
JP4134989B2 (en) | Automotive audio equipment | |
CN108630221B (en) | Audio signal quality enhancement based on quantized SNR analysis and adaptive wiener filtering | |
US20100204987A1 (en) | In-vehicle speech recognition device | |
JP2012025270A (en) | Apparatus for controlling sound volume for vehicle, and program for the same | |
CN1821911A (en) | Vehicle-state based parameter adjustment system | |
JP2008236448A (en) | Sound signal processing device, hands-free calling device, sound signal processing method, and control program | |
CN105810203B (en) | Apparatus and method for eliminating noise, voice recognition apparatus and vehicle equipped with the same | |
US10440467B1 (en) | Vehicle and method for controlling the same | |
JP4297186B2 (en) | Communication road noise control system, in-vehicle road noise control device and server | |
JP2008163713A (en) | Noise preventing device | |
EP3514793B1 (en) | Predictive speech enhancement in a vehicle | |
EP1531605B1 (en) | Method and system for noise reduction of a sound signal | |
JP2002351488A (en) | Noise canceller and on-vehicle system | |
JP4016529B2 (en) | Noise suppression device, voice recognition device, and vehicle navigation device | |
JP5132376B2 (en) | Voice improvement device and voice improvement method | |
US11557275B2 (en) | Voice system and voice output method of moving machine | |
JP2001075595A (en) | On-vehicle voice recognition device | |
JP2005122042A (en) | Speech recognizing device, speech recognizing method, speech synthesizer, speech synthesis method, speech recognition system, speech synthesis system, speech recognition and synthesizing device, navigation system, and moving body | |
JP2008070877A (en) | Voice signal pre-processing device, voice signal processing device, voice signal pre-processing method and program for voice signal pre-processing | |
JP2007276748A (en) | Vehicular warning device | |
JP2018176949A (en) | Vehicle approaching sound control device | |
JP4190735B2 (en) | Voice recognition method and apparatus, and navigation apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070629 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080708 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081202 |