JP2924539B2 - Sound image localization control method - Google Patents
Sound image localization control methodInfo
- Publication number
- JP2924539B2 JP2924539B2 JP3494693A JP3494693A JP2924539B2 JP 2924539 B2 JP2924539 B2 JP 2924539B2 JP 3494693 A JP3494693 A JP 3494693A JP 3494693 A JP3494693 A JP 3494693A JP 2924539 B2 JP2924539 B2 JP 2924539B2
- Authority
- JP
- Japan
- Prior art keywords
- sound image
- hrtf
- sound
- image localization
- localization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Stereophonic System (AREA)
- Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、実際のトランスジュー
サ(スピーカ)とは異なる所望の任意の位置に音像が定
位しているように感じさせる音像定位制御方法に係り、
特に、アミューズメントゲーム機やコンピュータ端末機
などにも搭載可能な、音像定位感に優れ、かつ、回路規
模を小さくできる音像定位制御方法に関するものであ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound image localization control method for causing a sound image to be localized at a desired arbitrary position different from an actual transducer (speaker).
In particular, the present invention relates to a sound image localization control method that can be mounted on an amusement game machine, a computer terminal, or the like, has an excellent sound image localization feeling, and can reduce the circuit scale.
【0002】[0002]
【従来の技術】従来より、両耳における信号のレベル差
と位相差(時間差)によって特定位置(特定方向)に音
源を感じさせる音像定位方法がある。この音像定位方法
を、デジタル回路により実現したものとして、例えば、
特開平2-298200号公報記載の「音像形成方法及びその装
置」がある。このデジタル回路を用いた音像定位の方法
は、音源からの信号をFFT(FastFourier Transfor
m)変換して周波数軸上で処理し、左右の両チャンネル
信号に周波数に依存したレベル差と位相差とを与えて、
音像の定位をデジタル的に制御するものである。この装
置の各音像定位位置における、周波数に依存したレベル
差と位相差とは、実際の聴取者を利用した実験的なデー
タ(心理的なデータ)として収集されたものである。し
かし、この音像定位の方法により、正確・精密に音像を
定位させようとすると、回路規模が大きくなるので、特
殊な業務用のレコーディングシステムとして利用される
にすぎなかった。レコーディングの段階で音像定位の処
理(例えば飛行音の移動)をして、その処理した結果の
音(音楽)信号をレコード化していた。処理された信号
は、通常のステレオ再生装置で再生することにより、音
像の移動効果が生じる。2. Description of the Related Art Conventionally, there is a sound image localization method in which a sound source can be felt at a specific position (specific direction) by a signal level difference and a phase difference (time difference) in both ears. As a sound image localization method realized by a digital circuit, for example,
There is a "method and apparatus for forming a sound image" described in JP-A-2-298200. This method of sound image localization using a digital circuit is based on a method in which a signal from a sound source is FFT (Fast Fourier Transfor
m) Convert and process on the frequency axis, give both the left and right channel signals a frequency-dependent level difference and phase difference,
It controls the localization of the sound image digitally. The frequency-dependent level difference and phase difference at each sound image localization position of this device are collected as experimental data (psychological data) using an actual listener. However, in order to accurately and precisely localize a sound image by this sound image localization method, the circuit scale becomes large, so that it has only been used as a special professional recording system. At the recording stage, sound image localization processing (for example, movement of flying sound) is performed, and a sound (music) signal resulting from the processing is recorded. The processed signal is reproduced by a normal stereo reproduction device, thereby producing a sound image moving effect.
【0003】ところで、最近では、バーチャルリアリテ
ィ(仮想現実感)を利用したアミューズメントゲーム機
やコンピュータ端末機が出現している。これらゲーム機
や端末機においても、画面に応じた現実感のある音像定
位が要求され始めている。例えばゲーム機において、画
面上の飛行機の動きにマッチした飛行音の動きが必要と
され始めている。この場合、飛行機の飛ぶコースが決っ
ていれば、予めその動きに合わせて音像の移動処理をし
た音(音楽)を入れておき、ゲーム機側ではその音(音
楽)を単純に再生すれば、足りる。[0005] Recently, amusement game machines and computer terminals using virtual reality have appeared. Also in these game machines and terminals, demands for sound image localization with a sense of reality corresponding to the screen have begun. For example, in a game machine, the movement of a flying sound that matches the movement of an airplane on a screen is beginning to be required. In this case, if the flight course of the airplane is determined, the sound (music) obtained by moving the sound image in accordance with the movement is inserted in advance, and the sound (music) is simply reproduced on the game machine side. Is enough.
【0004】しかし、ゲーム機(や端末機)において
は、操作者の操作に応じて、飛行機の飛ぶコース(位
置)が異なることになり、操作に応じてリアルタイムで
操作に合った音像の移動処理をして、それを再生する必
要が生じる。この点が、前述したレコード用の音像定位
処理と大幅に異なる。このため、個々のゲーム機に音像
定位装置が必要となるが、上述した方法では、音源から
の信号をFFT変換して、周波数軸上で処理して再び逆
FFT変換して再生する必要があるので、回路規模が大
きくなりやすい。また、周波数軸上のデータ(周波数に
依存したレベル差と位相差の伝達特性)にもとずく音像
定位であったので、HRTF(頭部伝達関数)の近似が
正確に実施し得ず、必要な音像定位位置のすべて(360
度分)について、その伝達特性を保有させることができ
なかった。However, in a game machine (or a terminal device), the course (position) at which an airplane flies depends on the operation of the operator, and the moving process of the sound image suitable for the operation in real time according to the operation. Need to be regenerated. This point is significantly different from the above-described sound image localization processing for a record. For this reason, a sound image localization device is required for each game machine. However, in the above-described method, it is necessary to perform FFT on a signal from a sound source, process the signal on a frequency axis, perform inverse FFT on the signal again, and reproduce the signal. Therefore, the circuit scale tends to be large. In addition, since the sound image localization is based on the data on the frequency axis (the transfer characteristics of the level difference and the phase difference depending on the frequency), the approximation of the HRTF (head-related transfer function) cannot be performed accurately. Of all sound image localization positions (360
Degree), the transfer characteristics could not be retained.
【0005】そこで、本出願人は、かかる従来の音像定
位方法に代わるものとして、新たな音像定位方法を発明
し、「音像定位制御の方法」(出願日:平成4年11月
30日)「音像定位制御装置」(出願日:平成4年12
月18日)などを出願している。この音像定位方法は、
一対のコンボルバにより音源からの信号を時間軸上で処
理して音像を定位させるようにすると共に、音像定位用
の伝達特性(コンボルバの係数)を最終的に時間軸上の
IR(インパルス応答)のデータとしたものである。こ
の音像定位方法の概略を図3に示す原理図を参照して説
明すると以下の通りである。同図中、sp1,sp2は
聴取者の前方左右に配置される一対のスピーカであり、
sp1から聴取者左耳までの頭部伝達特性(インパルス
応答)をh1L、右耳までの頭部伝達特性をh1R、s
p2から左右耳までの頭部伝達特性をh2L,h2Rと
する。また、目的とする定位位置xに実際のスピーカを
配置したときの聴取者左右耳までの頭部伝達特性をpL
x,pRxとする。ここで各伝達特性は、音響空間内の
スピーカと、ダミーヘッド(または人頭)の両耳に配置
されたマイクとで、実際に測定し適切な波形処理などを
施したものである。そして、定位させたい音源(ソー
ス)Xを信号変換装置cfLx,cfRx(コンボルバ
などによる伝達特性)に通し、処理された信号を、それ
ぞれスピーカsp1,sp2で再生する。このとき、 cfLx=(h2R・pLx−h2L・pRx)/H cfRx=(−h1R・pLx+h1L・pRx)/H ただし、 H=h1L・h2R−h2L・h1R により算出した伝達特性cfLx,cfRxを用いてコ
ンボルバ(畳み込み演算処理回路)等により定位させた
い信号を処理する。すると、目的の位置xに音像を定位
して聴取者に聞かれることになる。この場合、配置され
るスピーカsp1,sp2による頭部伝達特性h1L,
h1R,h2L,h2R及び、目的とする定位位置xに
実際のスピーカを配置したときの頭部伝達特性pLx,
pRxは、いずれも各角度ごとに実際にスピーカを設置
して実測されたIR(インパルス応答)を用いていた。
すなわち、後述する物理的な音像位置に対する物理的H
RTF(頭部伝達関数)を測定して、使用していた。Accordingly, the present applicant has invented a new sound image localization method as an alternative to the conventional sound image localization method, and has described a “method of sound image localization control” (filing date: November 30, 1992). Sound image localization control device ”(filing date: December 1992
On March 18). This sound image localization method
A signal from a sound source is processed on a time axis by a pair of convolvers to localize a sound image, and a transfer characteristic for sound image localization (coefficient of a convolver) is finally adjusted to an IR (impulse response) on a time axis. It is data. The outline of this sound image localization method will be described below with reference to the principle diagram shown in FIG. In the figure, sp1 and sp2 are a pair of speakers arranged at the front left and right of the listener,
The head transfer characteristic (impulse response) from sp1 to the listener's left ear is h1L, and the head transfer characteristic from the right ear to h1R is s.
The head transfer characteristics from p2 to the left and right ears are defined as h2L and h2R. Further, the head transfer characteristic to the listener's left and right ears when an actual speaker is placed at the target localization position x is pL.
x, pRx. Here, each transfer characteristic is obtained by actually measuring and performing appropriate waveform processing or the like using a speaker in an acoustic space and microphones arranged at both ears of a dummy head (or a human head). Then, the sound source (source) X to be localized is passed through signal conversion devices cfLx and cfRx (transfer characteristics by a convolver or the like), and the processed signals are reproduced by the speakers sp1 and sp2, respectively. At this time, cfLx = (h2R · pLx−h2L · pRx) / H cfRx = (− h1R · pLx + h1L · pRx) / H where H = h1L · h2R−h2L · h1R, using transfer characteristics cfLx and cfRx. A signal to be localized is processed by a convolver (convolution operation processing circuit) or the like. Then, the sound image is localized at the target position x and heard by the listener. In this case, the head transfer characteristics h1L,
h1R, h2L, h2R, and the head transfer characteristics pLx, when an actual speaker is placed at a target localization position x,
As pRx, IR (impulse response) actually measured by actually installing a speaker at each angle was used.
That is, the physical H with respect to the physical sound image position described later
RTF (head-related transfer function) was measured and used.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、上記し
た本出願人による新たな音像定位方法おいては、音源に
よっては、音像の定位位置に曖昧さが残ることがあ
る、単一の音像を再生しても複数の音像として聞こえ
ることがある、意図した定位位置から聞こえないこと
があるなど、改善すべき点が残っていた。However, in the above-described new sound image localization method by the present applicant, depending on the sound source, there is a case where ambiguity remains in the localization position of the sound image. However, there were still points to be improved, such as the fact that they could be heard as multiple sound images and that they could not be heard from the intended localization position.
【0007】[0007]
【課題を解決するための手段】本発明は上記課題を解決
するために、図1に示すように、離間して配設された複
数のトランスジューサから、同一の音源が供給され、か
つ所定の伝達特性を有する複数の信号変換回路で処理し
た信号を再生して、聴取者に前記トランスジューサとは
異なる任意の位置に音像が定位しているように感じさせ
る音像定位制御方法において、前記トランスジューサと
聴取者との間の頭部伝達関数(HRTF)である第1の
HRTFを測定するステップ(101a,102a)
と、前記音像の定位位置に対応したHRTFである第2
のHRTFを測定するステップ(101b,102b)
と、測定した前記第1のHRTFと前記第2のHRTF
とをもとにして各音像定位位置における前記信号変換回
路用の伝達特性を求めるステップ(104)と、求めた
前記伝達特性を前記信号変換回路に設定し、前記音源か
らの信号を処理して前記トランスジューサで再生するス
テップ(106)とからなることを特徴とする音像定位
制御方法を提供するものである。According to the present invention, in order to solve the above-mentioned problems, as shown in FIG. 1, the same sound source is supplied from a plurality of transducers arranged at a distance and a predetermined transmission is performed. A sound image localization control method that reproduces signals processed by a plurality of signal conversion circuits having characteristics and makes a listener feel that a sound image is localized at an arbitrary position different from the transducer.
The first is the head related transfer function (HRTF) with the listener
Step of measuring HRTF (101a, 102a)
A second HRTF corresponding to the localization position of the sound image.
Measuring the HRTF of (101b, 102b)
The measured first HRTF and the measured second HRTF
(104) determining a transfer characteristic for the signal conversion circuit at each sound image localization position based on the above, setting the determined transfer characteristic in the signal conversion circuit, and processing a signal from the sound source. A sound image localization control method characterized by comprising the step (106) of reproducing by the transducer.
【0008】[0008]
【作用】上記のような音像定位制御方法によれば、図2
に示すように、各音像定位位置におけるHRTF(頭部
伝達関数)は、トランスジューサと聴取者との間の頭部
伝達関数である第1のHRTFと音像の定位位置に対応
した頭部伝達関数である第2のHRTFをもとにして正
確な近似処理が行われて、複数の信号変換回路(一対の
コンボルバ1,2)の伝達特性(インパルス応答の係数
データcfLx,cfRx)となる。物理的HRTFを
もとにしているので、HRTFの測定は容易であり、心
理的HRTFをもとにしているので、聴覚の特性を考慮
した音像定位感に優れたものとなる。そして、複数の信
号変換回路(一対のコンボルバ1,2)により、音源
(X)からの信号は時間軸上で畳み込み演算処理がなさ
れて、離間して配設された複数のトランスジューサ(一
対のスピーカsp1,sp2)から再生される。トラン
スジューサから再生され音は、両耳へのクロストークが
キャンセルされて、所望の任意の位置(x)に音源があ
るように音像定位して、聴取者(例えば、ゲーム操作
者)Mに、聞かれる。According to the sound image localization control method as described above, FIG.
As shown in, the HRTF (head-related transfer function) at each sound image localization position is the head between the transducer and the listener.
Corresponds to the first HRTF that is the transfer function and the localization position of the sound image
Accurate approximation processing is performed based on the second HRTF that is the head-related transfer function obtained, and the transfer characteristics (coefficient data cfLx, cfRx of impulse response) of the plurality of signal conversion circuits (a pair of convolvers 1 and 2) are obtained. ). Since the measurement is based on the physical HRTF, the measurement of the HRTF is easy, and since the measurement is based on the psychological HRTF, the sound image localization is excellent in consideration of the auditory characteristics. The signal from the sound source (X) is convolved on the time axis by a plurality of signal conversion circuits (a pair of convolvers 1 and 2), and a plurality of transducers (a pair of speakers) (sp1, sp2). The sound reproduced from the transducer is sound localized so that the sound source is located at a desired arbitrary position (x) with the crosstalk to both ears cancelled, and the sound is heard by the listener (for example, a game operator) M. It is.
【0009】[0009]
【実施例】本発明になる音像定位制御方法の一実施例に
ついて、以下図面と共に説明する。 最初に、音像定位
制御方法の基本原理について説明する。これは、離間し
て配設された一対のトランスジューサ(以下、スピーカ
を例として説明する)を使用し、空間の任意の位置に音
像を定位させる技術である。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of a sound image localization control method according to the present invention will be described below with reference to the drawings. First, the basic principle of the sound image localization control method will be described. This is a technique in which a sound image is localized at an arbitrary position in a space using a pair of transducers (hereinafter, a speaker will be described as an example) that are arranged apart from each other.
【0010】図3は音像定位の原理図である。sp1,
sp2は聴取者Mの前方左右に配置されるスピーカであ
り、sp1から聴取者左耳までの頭部伝達特性(インパ
ルス応答)をh1L、右耳までの頭部伝達特性をh1
R、sp2から左右耳までの頭部伝達特性をh2L,h
2Rとする。また、目的とする定位位置xに音像がある
ときの聴取者左右耳までの頭部伝達特性をpLx,pR
xとする。ここで各伝達特性は、音響空間内のスピーカ
と、ダミーヘッド(または人頭)の両耳に配置されたマ
イクとで、実際に測定し適切な波形処理などを施したも
のである。FIG. 3 is a diagram showing the principle of sound image localization. sp1,
sp2 is a speaker arranged at the front left and right of the listener M. The head transfer characteristic (impulse response) from sp1 to the listener's left ear is h1L, and the head transfer characteristic from the right ear to the head is h1.
The head transfer characteristics from R, sp2 to the left and right ears are h2L, h
2R. Further, when there is a sound image at a target localization position x, the head transfer characteristics to the listener's left and right ears are pLx and pR.
x. Here, each transfer characteristic is obtained by actually measuring and performing appropriate waveform processing or the like using a speaker in an acoustic space and microphones arranged at both ears of a dummy head (or a human head).
【0011】次に、定位させたい音源ソースXを信号変
換装置cfLx,cfRx(コンボルバなどによる伝達
特性)に通して得られる信号を、それぞれsp1,sp
2で再生することを考える。このとき聴取者左右耳に得
られる信号をeL,eRとすると、 eL=h1L・cfLx・X+h2L・cfRx・X (式1) eR=h1R・cfLx・X+h2R・cfRx・X (〃 ) 一方、ソースXを目的の定位位置から再生したときに聴
取者左右耳に得られる信号をdL,dRとすると、 dL=pLx・X (式2) dR=pRx・X (〃 )Next, signals obtained by passing a sound source X to be localized through signal conversion devices cfLx and cfRx (transfer characteristics by a convolver or the like) are respectively converted into sp1 and sp
Consider playing on 2. At this time, if the signals obtained from the listener's left and right ears are eL and eR, eL = h1L · cfLx · X + h2L · cfRx · X (Equation 1) eR = h1R · cfLx · X + h2R · cfRx · X (〃) On the other hand, source X Let dL and dR be the signals obtained at the listener's left and right ears when reproducing from the target localization position, dL = pLx · X (Equation 2) dR = pRx · X (〃)
【0012】ここで、sp1,sp2の再生により聴取
者左右耳に得られる信号が、目的位置からソースを再生
したときの信号に一致すれば、聴取者はあたかも目的位
置にスピーカが存在するように音像を認識することとな
る。この条件eL=dL,eR=dRと(式1),(式
2)より、Xを消去して h1L・cfLx+h2L・cfRx=pLx (式3) h1R・cfRx+h2R・cfRx=pRx (〃 ) (式3)からcfLx,cfRxを求めると cfLx=(h2R・pLx−h2L・pRx)/H (式4a) cfRx=(−h1R・pLx+h1L・pRx)/H ( 〃) ただし、 H=h1L・h2R−h2L・h1R (式4b) したがって、(式4a),(式4b)により算出した伝
達特性cfLx,cfRxを用いてコンボルバ(畳み込
み演算処理回路)等により定位させたい信号を処理すれ
ば、目的の位置xに音像を定位させることができる。Here, if the signals obtained at the listener's left and right ears by the reproduction of sp1 and sp2 coincide with the signals at the time of reproducing the source from the target position, the listener can make the speaker appear as if at the target position. It will recognize the sound image. From the conditions eL = dL, eR = dR and (Equation 1) and (Equation 2), X is eliminated and h1L · cfLx + h2L · cfRx = pLx (Equation 3) h1R · cfRx + h2R · cfRx = pRx (〃) (Equation 3) ), CfLx = (h2R · pLx−h2L · pRx) / H (Equation 4a) cfRx = (− h1R · pLx + h1L · pRx) / H (〃) where H = h1L · h2R−h2L · h1R (Equation 4b) Therefore, if a signal to be localized by a convolver (convolution operation processing circuit) or the like is processed using the transfer characteristics cfLx and cfRx calculated by (Equation 4a) and (Equation 4b), the target position x can be obtained. The sound image can be localized.
【0013】具体的な信号変換装置の実現方法は様々考
えられるが、非対称なFIRデジタルフィルタ(コンボ
ルバ)を用いて実現すれば良い。なお、FIRデジタル
フィルタで用いる場合の最終の伝達特性は、時間応答関
数である。つまり、必要な定位位置xにおける伝達特性
cfLx,cfRxとして、(式4a),(式4b)で
求めたものを、1回のFIRフィルタ処理により実現す
るための係数として、cfLx,cfRxの係数をあら
かじめ作成し、ROMのデータとして準備しておく。R
OMから必要な音像定位置の係数をFIRデジタルフィ
ルタに転送し、音源からの信号を畳み込み演算処理して
一対のスピーカから再生すれば、所望の任意の位置に音
像が定位されることになる。Various methods for realizing a specific signal conversion device are conceivable, but they may be realized using an asymmetric FIR digital filter (convolver). The final transfer characteristic when used in the FIR digital filter is a time response function. That is, as the transfer characteristics cfLx and cfRx at the required localization position x, those obtained by (Equation 4a) and (Equation 4b) are used as coefficients for realizing by one FIR filter process, and the coefficients cfLx and cfRx are used. It is created in advance and prepared as ROM data. R
If the necessary sound image fixed position coefficient is transferred from the OM to the FIR digital filter, the signal from the sound source is convolution-processed and reproduced from a pair of speakers, the sound image is localized at a desired arbitrary position.
【0014】以上のような原理に基づいた本発明になる
音像定位制御方法について図1,図2及び図4〜6を参
照して詳述する。図1は音像定位制御方法のステップを
示すもので、図2は音像定位制御装置の構成図である。
本発明になる音像定位制御方法は、(a)物理的な音像
位置に対する物理的HRTF(第1のHRTF)と、心
理的な音像位置に対する心理的HRTF(第2のHRT
F)とを測定し、これら測定した物理的HRTFと心理
的HRTFとをもとにして各音像定位位置における一対
のコンボルバの係数cfLx,cfRxを求めたこと、
(b)前記心理的HRTFを、分割された周波数帯域ご
とに測定して、これをIR(インパルス応答)として合
成したこと、(c)分割される周波数帯域の幅は、臨界
帯域幅としたことにその特徴がある。The sound image localization control method according to the present invention based on the above principle will be described in detail with reference to FIGS. 1, 2 and 4 to 6. FIG. 1 shows steps of a sound image localization control method, and FIG. 2 is a configuration diagram of a sound image localization control device.
Sound localization control method according to the present invention, (a) the physical HRTF for physical sound image position (first HRTF), psychological HRTF for psychological sound image position (second HRT
F), and based on the measured physical HRTF and psychological HRTF, coefficients cfLx and cfRx of a pair of convolvers at each sound image localization position were obtained.
(B) The psychological HRTF is measured for each divided frequency band and synthesized as an IR (impulse response). (C) The width of the divided frequency band is a critical bandwidth. Has its features.
【0015】ここで、物理的な音像位置に対する物理的
HRTFとは、図4及び図5において、スピーカSPを
正面を0度(°)として取決めた空間内の角度θ(例え
ば、図5に示すように、15度ごとに24ポイント)に
実際に設置した状態で、一対マイクロホンML,MRで
物理的に測定された頭部伝達関数である。また、心理的
な音像位置に対する心理的HRTFとは、図4におい
て、正面を0度(°)として取決めた空間内の角度θの
方向に、実際に音像があると心理的に感じられる位置に
スピーカSPを設置した状態で、一対マイクロホンM
L,MRにより測定された頭部伝達関数である。すなわ
ち、心理的評価(聴覚の特性)を加味して測定された頭
部伝達関数である。Here, the physical HRTF with respect to the physical sound image position is defined as an angle θ in a space in which the front face of the speaker SP is set to 0 degree (°) in FIGS. 4 and 5 (for example, as shown in FIG. 5). As described above, the head-related transfer function is physically measured by the pair of microphones ML and MR in a state where the head-mounted transfer function is actually set at 24 points every 15 degrees. In addition, the psychological HRTF for the psychological sound image position is a position in FIG. 4 where the front is 0 ° (°) in the direction of the angle θ in the space and the position where the sound image is actually felt. With the speaker SP installed, a pair of microphones M
L and MR are head-related transfer functions. That is, it is a head-related transfer function measured in consideration of a psychological evaluation (aural characteristic).
【0016】物理的及び心理的な頭部伝達関数(Head
Related Transfer Function;HRTFと称する)の測
定(ステップ101a,101b) これを図4,図5をもって説明する。図4は、HRTF
の測定システムを示すものである。ダミーヘッド(また
は人頭)DMの両耳に一対マイクロホンML,MRを設
置し、スピーカSPからの測定音を受け、録音器DAT
にソース音(リファレンスデータ)refL,refR
と被測定音(測定データ)L,Rを同期して記録するよ
うに構成されている。Physical and psychological head-related transfer functions (Head
Measurement of Related Transfer Function (referred to as HRTF) (Steps 101a and 101b) This will be described with reference to FIGS. FIG. 4 shows the HRTF
1 shows a measurement system. A pair of microphones ML and MR are installed at both ears of the dummy head (or human head) DM, receive a measurement sound from the speaker SP, and a recorder DAT.
Source sound (reference data) refL, refR
And the measured sound (measurement data) L and R are recorded in synchronization with each other.
【0017】そして、物理的な音像位置に対する物理的
HRTFの測定時には、ソース音XHとして、ホワイト
ノイズを用いる。上記スピーカSPの位置を正面を0度
(°)として取決めた空間内の複数の角度θ(例えば、
図5に示すように、15度ごとに24ポイント)に設置
し、それぞれ所定の時間だけ連続的に記録して、角度θ
における物理的HRTFデータ(測定データL,R)と
する。When measuring the physical HRTF for the physical sound image position, white noise is used as the source sound XH. A plurality of angles θ (for example, in a space where the position of the speaker SP is determined as 0 degrees (°) in the front)
As shown in FIG. 5, it is set at 24 points every 15 degrees), and is continuously recorded for a predetermined period of time.
Are the physical HRTF data (measurement data L, R).
【0018】さらに、心理的な音像位置に対する心理的
HRTFの測定時には、ソース音XHとして、分割され
た周波数帯域ごと、例えば臨界帯域幅の信号音(バンド
パスフィルタにより、臨界帯域幅に帯域制限されたホワ
イトノイズ)を用いる。この時、ダミーヘッド(または
人頭)DMの位置に、聴取者を配置して、正面を0度
(°)として取決めた空間内の角度θの方向に、実際に
音像があると心理的に感じられる位置にスピーカSPを
設置した状態で、ソース音XHを再生して測定する。こ
の状態で、臨界帯域幅ごとに測定されたHRTF群を、
角度θにおける心理的HRTFデータ(測定データL,
R)とする。Further, at the time of measuring the psychological HRTF for the psychological sound image position, a signal sound having a critical bandwidth, for example, a signal sound having a critical bandwidth (band-limited to a critical bandwidth by a band-pass filter) is used as the source sound XH. White noise). At this time, a listener is placed at the position of the dummy head (or head) DM, and it is psychologically considered that there is actually a sound image in the direction of the angle θ in the space determined as 0 degrees (°) in front. The source sound XH is reproduced and measured with the speaker SP installed at a position where the user can feel it. In this state, the HRTFs measured for each critical bandwidth are
Psychological HRTF data at the angle θ (measurement data L,
R).
【0019】物理的及び心理的なHRTFのインパル
ス応答(Impulse Response;以下、IRと称する)の算
出(ステップ102a,102b) ステップ101で、同期して記録されたソース音(リフ
ァレンスデータ)refL,refRと被測定音(測定
データ)L,Rとを、ワークステーション(図示せず)
上で処理する。ソース音(リファレンスデータ)の周波
数応答をX(S)、被測定音(測定データ)の周波数応
答をY(S)、測定位置におけるHRTFの周波数応答
をIR(S)とすると、(式5)に示す、入出力の関係
がある。 Y(S)=IR(S)・X(S) (式5) したがって、HRTFの周波数応答をIR(S)は、 IR(S)=Y(S)/X(S) (式6) である。Calculation of physical and psychological HRTF impulse responses (hereinafter referred to as IR) (steps 102a and 102b) In step 101, source sounds (reference data) refL and refR recorded synchronously. And a measured sound (measurement data) L and R are transmitted to a workstation (not shown).
Process above. If the frequency response of the source sound (reference data) is X (S), the frequency response of the measured sound (measurement data) is Y (S), and the frequency response of the HRTF at the measurement position is IR (S), (Equation 5) There is an input / output relationship shown in FIG. Y (S) = IR (S) · X (S) (Equation 5) Therefore, the frequency response of the HRTF is expressed by IR (S) = Y (S) / X (S) (Equation 6) is there.
【0020】よって、リファレンスの周波数応答X
(S)、測定データの周波数応答Y(S)は、前記ステ
ップ101で求めたデータを時間同期した窓で切り出
し、それぞれFFT変換により、有限のフーリエ級数展
開して離散周波数として計算し、(式6)より、物理的
HRTF及び心理的HRTFの周波数応答IR(S)
が、周知の計算方法で求められる。なお、臨界帯域幅ご
とに測定された心理的HRTFデータ群は、各角度θご
とに合成されて、各角度θごとに1つの心理的HRTF
とされる。Therefore, the frequency response X of the reference
(S) The frequency response Y (S) of the measured data is cut out from the data obtained in step 101 with a time-synchronous window, and finite Fourier series expansion is performed by the FFT transform to calculate a discrete frequency. 6) From frequency response IR (S) of physical HRTF and psychological HRTF
Is obtained by a well-known calculation method. In addition, the psychological HRTF data group measured for each critical bandwidth is synthesized for each angle θ, and one psychological HRTF data is set for each angle θ.
It is said.
【0021】このようにして、臨界帯域幅ごとに測定し
て心理的HRTFを求める理由は以下の2点にある。心
理的な音像位置は、音源の周波数に左右されやすく、周
波数帯域ごとにHRTFを求めて音像定位させないと、
意図した定位位置から聞こえないことになったり、周波
数帯域の広い音源を音像処理したときに、音像の定位位
置に曖昧さが残ったり、単一の音像を再生しても複数の
音像として聞こえることになるからである。しかし、心
理的な音像位置(心理的HRTF)を考慮し過ぎると、
測定が膨大となり、実用性がなくなってしまう。一般
に、人間の聴覚は臨界帯域と呼ばれる「可聴周波数帯域
全体に並ぶ帯域通過特性により音の弁別や周波数分析を
行っており、通過帯域幅は低域ほど狭く高域ほど広い」
という特性を持っている。そこで、本願発明は、この臨
界帯域に着目し、分割された臨界帯域幅ごとに心理的H
RTFを測定し、最適化されたデータ数で、かつ、効果
的な心理的HRTFを測定するようにしたものである。As described above, there are two reasons why the psychological HRTF is obtained by measuring each critical bandwidth. The psychological sound image position is easily affected by the frequency of the sound source, and if the HRTF is determined for each frequency band and the sound image is not localized,
Inability to hear from the intended localization position, ambiguity in the localization position of the sound image when performing sound image processing on a sound source with a wide frequency band, or sound reproduction as a single sound image as multiple sound images Because it becomes. However, if the psychological sound image position (psychological HRTF) is considered too much,
The measurement becomes enormous and practicality is lost. In general, human hearing is called the critical band, `` they use sound-discrimination and frequency analysis based on band-pass characteristics arranged along the entire audible frequency band, and the pass band is narrower for lower frequencies and wider for higher frequencies. ''
It has the characteristic that. Therefore, the present invention focuses on this critical band, and sets a psychological H for each of the divided critical bandwidths.
RTF is measured, and an effective number of data and an effective psychological HRTF are measured.
【0022】なお、IR(S)の精度をあげる(SN比
の向上)ために時間的に異なる数百個の窓に対してそれ
ぞれIR(S)を計算し、それらを平均化すると良い。
そして、計算したHRTFの周波数応答IR(S)を逆
FFT変換して、HRTFの時間軸応答(インパルス応
答)として、各角度θごとの物理的及び心理的IRが求
められる。In order to improve the accuracy of the IR (S) (improve the SN ratio), it is preferable to calculate the IR (S) for each of several hundred different windows and average them.
Then, the calculated frequency response IR (S) of the HRTF is subjected to an inverse FFT transform, and a physical and psychological IR for each angle θ is obtained as a time axis response (impulse response) of the HRTF.
【0023】IR(インパルス応答)の整形処理(ス
テップ103) ここで、ステップ102で求めたIRを整形する。まず
例えばFFT変換により、ステップ102で求めたIR
をオーディオスペクトラムにわたる離散周波数で展開し
てIR(S)とし、不要な帯域(高域には大きなディッ
プが生じるが、これは音像定位にあまり影響しない不要
なものである)を、BPF(バンドパスフィルタ)で除
去する。このように帯域制限すると、周波数軸上での不
要なピークやディップが除去されて、キャンセルフィル
タに不要な係数が生じなくなるので、収束性がよくな
り、係数を短くすることができる。IR (Impulse Response) Shaping Process (Step 103) Here, the IR obtained in Step 102 is shaped. First, the IR obtained in step 102 by, for example, FFT conversion
Is developed at a discrete frequency over the audio spectrum to be IR (S), and unnecessary bands (a large dip occurs in a high frequency band, which is an unnecessary one that does not significantly affect sound image localization) are converted into BPFs (bandpasses). Filter). When the band is limited in this manner, unnecessary peaks and dips on the frequency axis are removed, and unnecessary coefficients are not generated in the cancel filter, so that convergence is improved and the coefficients can be shortened.
【0024】そして、帯域制限されたIR(S)を逆F
FT変換して、IR(インパルス応答)を時間軸上で切
り出し窓(例えば、コサイン関数の窓)を掛けて、ウィ
ンド処理する。ウィンド処理することにより、IRの有
効長が長くなくなり、キャンセルフィルタの収束性が向
上して、音質の劣化が生じないようになる。Then, the band-limited IR (S) is converted into the inverse F
The FT conversion is performed, and an IR (impulse response) is multiplied by a cutout window (for example, a window of a cosine function) on the time axis, and a window process is performed. By performing the window processing, the effective length of the IR is no longer long, the convergence of the cancel filter is improved, and the sound quality does not deteriorate.
【0025】キャンセルフィルタcfLx、cfRx
の算出(ステップ104) コンボルバ(たたみ込み積分回路)であるキャンセルフ
ィルタcfLx、cfRxは、前述した(式4a)及び
(式4b)に示したように、 cfLx=(h2R・pLx−h2L・pRx)/H (式4a) cfRx=(−h1R・pLx+h1L・pRx)/H ( 〃) ただし、H=h1L・h2R−h2L・h1R (式4b) である。Cancel filters cfLx, cfRx
(Step 104) The cancellation filters cfLx and cfRx, which are convolvers (convolution integrators), are, as shown in (Equation 4a) and (Equation 4b), cfLx = (h2R · pLx−h2L · pRx) / H (Formula 4a) cfRx = (− h1R · pLx + h1L · pRx) / H (() where H = h1L · h2R−h2L · h1R (Formula 4b).
【0026】ここで、配置されるスピーカsp1,sp
2による頭部伝達特性h1L,h1R,h2L,h2R
及び、目的とする定位位置xに実際に音像があると感じ
られるときの頭部伝達特性pLx,pRxとして、上記
ステップ101〜103によって求められた、各角度θ
ごとの整形処理された物理的及び心理的なIR(インパ
ルス応答)を代入する。Here, the speakers sp1 and sp
2 transfer characteristics h1L, h1R, h2L, h2R
Each angle θ obtained in steps 101 to 103 as the head transfer characteristics pLx and pRx when the sound image is actually felt at the target localization position x.
The physical and psychological IRs (impulse responses) that have been shaped for each are substituted.
【0027】頭部伝達特性h1L,h1Rは、図6のL
チャンネルスピーカの位置に対応するもので、正面から
左に例えば30度(θ=330度)に設置されるとすれ
ば、θ=330度の物理的なIRを用いる。頭部伝達特
性h2R,h2Lは、同図のRチャンネルスピーカの位
置に対応するもので、正面から右に例えば30度(θ=
30度)に設置されるとすれば、θ=30度の物理的な
IRを用いる(すなわち、実際の音像再生時のシステム
(例えば、後述する図2に示す)に近いものを選ぶ)。The head transfer characteristics h1L and h1R are represented by L in FIG.
It corresponds to the position of the channel speaker, and if it is installed at, for example, 30 degrees (θ = 330 degrees) from the front to the left, a physical IR of θ = 330 degrees is used. The head transfer characteristics h2R and h2L correspond to the position of the R channel speaker in FIG.
If it is set at 30 degrees, a physical IR of θ = 30 degrees is used (that is, a system that is close to a system at the time of actual sound image reproduction (for example, shown in FIG. 2 described later) is selected).
【0028】そして、頭部伝達特性pLx、pRxとし
ては、目的とする音源定位位置である正面から左右90
度の180度の範囲はもちろんのこと(図6では、24
0度の位置を例としている)、それを越える広範囲な空
間(全空間)における、30度ごとの心理的なIRを代
入する。この結果、それに対応した全空間のcfLx、
cfRx、すなわち実測した15度ごとに24組のキャ
ンセルフィルタcfLx、cfRx群が求められる。キ
ャンセルフィルタcfLx、cfRx群は、最終的に
は、時間軸上の応答であるIR(インパルス応答)とし
て求められることになる。The head-related transfer characteristics pLx and pRx are 90 degrees from the front which is the target sound source localization position.
The range of 180 degrees is of course (24 in FIG. 6).
A position at 0 degree is taken as an example), and a psychological IR for every 30 degrees in a wide space (all spaces) beyond that is substituted. As a result, the corresponding space cfLx,
cfRx, that is, 24 sets of cancellation filters cfLx and cfRx are obtained for every 15 degrees actually measured. The group of cancellation filters cfLx and cfRx is finally determined as an IR (impulse response) which is a response on the time axis.
【0029】各定位ポイントxのキャンセルフィルタ
のスケーリング(ステップ105) また、実際にコンボルバ(キャンセルフィルタ)で音像
処理される音源(ソース音)のスペクトラム分布は、統
計的にみるとピンクノイズのように分布するもの、ある
いは高域でなだらかに下がるものなどがあり、いずれに
しても音源は単一音とは異なるために、畳み込み演算
(積分)を行ったときオーバーフローして、歪が発生す
る危険がある。そこで、オーバーフローを防止するた
め、キャンセルフィルタcfLx、cfRxの係数の中
で最大のゲインのものを見つけ、その係数と0dbのホ
ワイトノイズを畳込んだときに、オーバーフローが生じ
ないように、全係数をスケーリングする。The scaling of the cancellation filter at each localization point x (step 105) The spectrum distribution of the sound source (source sound) actually subjected to sound image processing by the convolver (cancellation filter) is statistically similar to pink noise. In some cases, the sound source is different from a single sound, so there is a danger that the convolution operation (integration) will overflow and cause distortion. is there. Therefore, in order to prevent overflow, when the coefficient having the largest gain is found among the coefficients of the cancel filters cfLx and cfRx, and all the coefficients are convolved with the white noise of 0 db, all the coefficients are changed so as not to cause overflow. Scale.
【0030】そして、ウィンド窓(コサイン窓)によ
り、実際のコンボルバ(本実施例では、スケーリング処
理された最終的なキャンセルフィルタをコンボルバと称
している)の係数の数にあわせて、両端が0となるよう
に、ウィンド処理し、係数の有効長を短くする。このよ
うにスケーリング処理されて、最終的にコンボルバに係
数として供給されるデータ群(この例では、15度ごと
に音像定位が可能な24組のコンボルバの係数群)cf
Lx、cfRxが求まる。[0030] Then, the wind window (cosine window), (in the present embodiment, the final cancellation filters scaling process is referred to as a combo Luba) actual convolver in accordance with the number of coefficients, both ends Window processing is performed so that the coefficient length becomes 0, and the effective length of the coefficient is shortened. A data group which is thus scaled and finally supplied to the convolver as a coefficient (in this example, a coefficient group of 24 sets of convolvers capable of localizing a sound image every 15 degrees) cf
Lx and cfRx are obtained.
【0031】音源からの信号を畳み込み演算して再生
(ステップ106) 例えば、ゲーム機の音響再生装置として、図2に示すよ
うに、ゲーム操作者(聴取者)Mを中心として左右30
度づづ離間して一対のスピーカsp1,sp2を配設
し、これら一対のスピーカsp1,sp2には、一対の
コンボルバ(畳み込み演算処理回路)1,2で処理され
た音響信号が再生されるように構成する。係数ROM3
には、前記ステップ101〜105で求められた15度
ごとの24組のコンボルバの係数群cfLx、cfRx
が記憶されている。The signal from the sound source is convoluted and reproduced (step 106). For example, as shown in FIG.
A pair of loudspeakers sp1 and sp2 are disposed at regular intervals so that sound signals processed by a pair of convolvers (convolution operation processing circuits) 1 and 2 are reproduced on the pair of loudspeakers sp1 and sp2. Constitute. Coefficient ROM3
Include 24 sets of convolver coefficient groups cfLx and cfRx for every 15 degrees obtained in steps 101 to 105.
Is stored.
【0032】一対のコンボルバ1,2には、同一の音源
X(例えば、ゲーム用シンセサイザからの飛行音など)
からの信号が供給されると共に、所望の係数cfLx、
cfRx(例えば、飛行音を左後方120度(θ=24
0度)の位置に音像定位させたい時は、θ=240度の
係数)が、選択されてコンボルバ1,2に設定される。
例えば、ゲーム機などのメインCPU(中央演算装置)
からの音像定位命令にもとづいてコントロール用サブC
PU4が係数ROM3から、所望の定位位置の係数を一
対のコンボルバ1,2に転送する。The pair of convolvers 1 and 2 have the same sound source X (for example, a flight sound from a game synthesizer).
And the desired coefficient cfLx,
cfRx (for example, the flight sound is 120 degrees to the left rear (θ = 24
When it is desired to localize the sound image at the position of 0 °), a coefficient of θ = 240 °) is selected and set in the convolvers 1 and 2.
For example, a main CPU (central processing unit) of a game machine or the like
Sub C for control based on sound image localization command from
The PU 4 transfers the coefficient at the desired localization position from the coefficient ROM 3 to the pair of convolvers 1 and 2.
【0033】このようにして、一対のコンボルバ1,2
により音源Xからの信号は時間軸上で畳み込み演算処理
がなされて、離間して配設された一対のスピーカsp
1,sp2から再生される。一対のスピーカsp1,s
p2から再生され音は、両耳へのクロストークがキャン
セルされて、所望の位置に音源があるように音像定位し
て、ゲーム操作者(聴取者)Mに聞かれ、極めて現実感
に満ちた音として再生される。コンボルバ1,2の係数
は、操作者Mの操作に応じた飛行機の動きの推移と共
に、最適な音像位置が順次選択され、切換えられる。ま
た、飛行音から、例えばミサイル音に変更される時は、
音源Xからのソース音が飛行音からミサイル音に変更さ
れる。このようにして、任意の位置に音像を自由に定位
させられる。In this manner, the pair of convolvers 1 and 2
The signal from the sound source X is subjected to convolution calculation processing on the time axis, and a pair of speakers sp
1 and sp2. A pair of speakers sp1, s
The sound reproduced from p2 is canceled out of the crosstalk to both ears, the sound image is localized so that the sound source is located at a desired position, and the sound is heard by the game operator (listener) M, which is very realistic. Played as sound. As for the coefficients of the convolvers 1 and 2, the optimal sound image position is sequentially selected and switched with the transition of the movement of the airplane according to the operation of the operator M. Also, when changing from a flight sound to a missile sound, for example,
The source sound from the sound source X is changed from the flight sound to the missile sound. In this way, the sound image can be freely localized at any position.
【0034】以上詳述したように、本音像定位制御方法
によれば、物理的な音像位置に対する物理的HRTF
と、心理的な音像位置に対する心理的HRTFとを測定
して、これらの物理的HRTF(IR)と心理的HRT
F(IR)をもとにして、15度ごとに音像定位が可能
な24組のコンボルバ1,2の係数群cfLx、cfR
xを求めるようにしたので、聴覚の特性(すなわち、心
理的な音像位置は、音源の周波数に左右される点)がコ
ンボルバ1,2の係数に反映されることになり、音像定
位感が極めてシャープで、明確なものとなる。As described in detail above, according to the present sound image localization control method, the physical HRTF for the physical sound image position is determined.
And the psychological HRTF with respect to the psychological sound image position are measured, and these physical HRTF (IR) and psychological HRTF are measured.
Based on F (IR), coefficient groups cfLx, cfR of 24 sets of convolvers 1 and 2 capable of localizing a sound image every 15 degrees
Since x is obtained, the auditory characteristics (that is, the psychological sound image position depends on the frequency of the sound source) are reflected in the coefficients of the convolvers 1 and 2, and the sound image localization feeling is extremely high. Be sharp and clear.
【0035】さらに、周波数帯域ごとに心理的HRTF
を求めて音像定位させたので、音像の定位位置の曖昧
さ、意図した定位位置から聞こえない、音像が曖昧にな
るなどの聴覚の特性を原因とする問題点が生じない。つ
まり、本出願人が先に発明した、従来の「音像定位制御
の方法」での問題点がことごとく解決される。さらに、
また、臨界帯域に着目して、分割された臨界帯域幅ごと
に心理的HRTFを測定したので、最適化されたデータ
数で、かつ、効果的な心理的HRTFを測定でき、極め
て実用的である。つまり、従来例で説明した特開平2−
298200号公報記載の「音像形成方法及びその装
置」のように、すべてのデータを心理的な評価に基ずく
データとしていないので、測定データ数が膨大とならな
い。Further, a psychological HRTF is provided for each frequency band.
The sound image is localized, so the sound image cannot be heard from the intended localization position, and the sound image is not clear.
It does not occur due to problems the hearing of characteristics such as that. That is, all the problems of the conventional “method of sound image localization control” invented earlier by the present applicant are solved. further,
In addition, since the psychological HRTF is measured for each of the divided critical bandwidths by focusing on the critical band, an effective number of data and an effective psychological HRTF can be measured, which is extremely practical. . That is, Japanese Unexamined Patent Application Publication No.
As in “Sound image forming method and apparatus” described in Japanese Patent Publication No. 298200, all data is not based on psychological evaluation, so that the number of measured data does not become enormous.
【0036】なお、再生のためのトランスジューサとし
てはー対のスピーカsp1,sp2のかわりにヘッドホ
ーンを用いることもできる。この場合は、HRTFの測
定条件が異なるので、係数を別に準備して再生状況に応
じて切換えると良い。また、ステップ103に示したI
R(インパルス応答)の整形処理は必ずしも必要ではな
く、省略しても音像定位の制御は可能である。As a transducer for reproduction, a headphone can be used instead of the pair of speakers sp1 and sp2. In this case, since the measurement conditions of the HRTF are different, it is preferable to prepare a coefficient separately and switch according to the reproduction state. Also, the I shown in step 103
The shaping process of R (impulse response) is not always necessary, and even if it is omitted, the sound image localization can be controlled.
【0037】また、実施例で説明した、離間して配設さ
れた一対のトランスジューサ(スピーカ)から同一の音
源が供給された一対のコンボルバで処理した信号を再生
する構成は、音像定位の効果を得るための最小限の構成
を示すものである。よって、必要に応じては、一対、す
なわち、2つ以上のトランスジューサ及びコンボルバを
追加構成しても良いことはもちろんであり、さらに、コ
ンボルバの係数が長い場合などには、係数を分割して複
数個のコンボルバで構成しても良い。The configuration described in the embodiment for reproducing a signal processed by a pair of convolvers supplied with the same sound source from a pair of transducers (loudspeakers) disposed separately from each other provides an effect of sound image localization. It shows the minimum configuration to obtain. Therefore, if necessary, a pair, that is, two or more transducers and convolvers may be additionally configured. Further, when the coefficient of the convolver is long, the coefficient may be divided into a plurality of parts. It may be composed of convolvers.
【0038】[0038]
【発明の効果】以上詳述したように、本発明になる音像
定位制御方法は、離間して配設された複数のトランスジ
ューサから、同一の音源が供給され、かつ所定の伝達特
性を有する複数の信号変換回路で処理した信号を再生し
て、聴取者に前記トランスジューサとは異なる任意の位
置に音像が定位しているように感じさせる音像定位制御
方法において、前記トランスジューサと聴取者との間の
頭部伝達関数(HRTF)である第1のHRTFを測定
するステップと、音像の定位位置に対応したHRTFで
ある第2のHRTFを測定するステップと、測定した前
記第1のHRTFと前記第2のHRTFとをもとにして
各音像定位位置における前記信号変換回路用の伝達特性
を求めるステップと、求めた前記伝達特性を前記信号変
換回路に設定し、前記音源からの信号を処理して前記ト
ランスジューサで再生するステップとからなるので、音
像定位感が明確なものとなる。As described above in detail, according to the sound image localization control method according to the present invention, the same sound source is supplied from a plurality of transducers arranged at a distance and a plurality of transducers having a predetermined transfer characteristic are provided. A sound image localization control method for reproducing a signal processed by a signal conversion circuit to make a listener feel that a sound image is localized at an arbitrary position different from that of the transducer.
Measuring a first HRTF that is a head-related transfer function (HRTF), and using an HRTF corresponding to a localized position of the sound image.
Measuring a certain second HRTF; obtaining a transfer characteristic for the signal conversion circuit at each sound image localization position based on the measured first HRTF and the second HRTF; Setting the transfer characteristics in the signal conversion circuit, processing the signal from the sound source, and reproducing the signal with the transducer, so that the sense of sound image localization becomes clear.
【0039】さらに、周波数帯域ごとに第2のHRTF
を求めて音像定位させたものでは、音像の定位位置の曖
昧さ、意図した定位位置から聞こえない、単一の音像が
複数の音像として聞こえるなどの聴覚の特性を原因とす
る問題点が生じない。特に、臨界帯域に着目し、分割さ
れた臨界帯域幅ごとに第2のHRTFを測定したもので
は、最適化されたデータ数で、かつ、効果的に測定で
き、極めて実用的である。Further, a second HRTF is provided for each frequency band.
In the case of sound image localization in which the sound image is localized, there is no problem caused by auditory characteristics such as ambiguity of the localization position of the sound image, inability to hear from the intended localization position, and hearing of a single sound image as multiple sound images. . In particular, in the case where the second HRTF is measured for each of the divided critical bandwidths by focusing on the critical band, the measurement can be performed with an optimized number of data and effectively.
Come, it is very practical.
【0040】したがって、民生用のゲーム機,コンピュ
ータ端末機などの小規模で安価な装置に搭載して、音像
定位制御をすることが可能で、その音像定位感も良好な
ものとなる。Accordingly, the sound image localization control can be performed by mounting the apparatus on a small and inexpensive device such as a consumer game machine or a computer terminal, and the sound image localization feeling can be improved.
【図1】本発明になる音像定位制御方法の一実施例を説
明するフローチャートである。FIG. 1 is a flowchart illustrating an embodiment of a sound image localization control method according to the present invention.
【図2】本発明になる音像定位制御方法を利用した音像
定位装置の基本的な構成図である。FIG. 2 is a basic configuration diagram of a sound image localization apparatus using a sound image localization control method according to the present invention.
【図3】音像定位制御の方法の基本原理を示す構成図で
ある。FIG. 3 is a configuration diagram showing a basic principle of a method of sound image localization control.
【図4】HRTF(頭部伝達関数)の測定システムを示
す構成図である。FIG. 4 is a configuration diagram showing an HRTF (head-related transfer function) measurement system.
【図5】HRTF測定のポイントを説明する図である。FIG. 5 is a diagram illustrating points of HRTF measurement.
【図6】キャンセルフィルタの算出を説明する図であ
る。FIG. 6 is a diagram illustrating calculation of a cancel filter.
1,2 信号変換回路(コンボルバ) 3 係数ROM 4 係数供給手段(サブCPU) 101a 物理的HRTFを測定するステップ 101b 臨界帯域幅ごとに心理的HRTFを測定する
ステップ 102a 物理的HRTFのインパルス応答を算出する
ステップ 102b 臨界帯域ごとのデータを合成して心理的HR
TFのインパルス応答を算出するステップ 103 IR(インパルス応答)を整形処理するステッ
プ 104 キャンセルフィルタ(伝達特性)を算出するス
テップ 105 キャンセルフィルタのスケーリングをするステ
ップ 106 音源からの信号を畳み込み演算して再生するス
テップ sp1,sp2 スピーカ h1L,h1R スピーカsp1から聴取者左右耳まで
の頭部伝達特性 h2L,h2R スピーカsp2から聴取者左右耳まで
の頭部伝達特性 pLx,pRx 目的とする定位位置xに実際に音像が
あると感じられるようにスピーカーを配置して、測定し
た聴取者左右耳までの頭部伝達特性 cfLx,cfRx コンボルバの係数(キャンセルフ
ィルタの係数) DM ダミーヘッド(人頭) M 聴取者(ゲーム操作者) X 音源 x 目的とする音像定位位置1, 2 Signal conversion circuit (convolver) 3 Coefficient ROM 4 Coefficient supply means (sub CPU) 101a Step of measuring physical HRTF 101b Step of measuring psychological HRTF for each critical bandwidth 102a Calculate impulse response of physical HRTF Step 102b Psychological HR by combining data for each critical band
Step of calculating the impulse response of the TF 103 Step of shaping the IR (impulse response) 104 Step of calculating the cancel filter (transfer characteristic) 105 Step of scaling the cancel filter 106 Convolution calculation and reproduction of the signal from the sound source Steps sp1, sp2 Speakers h1L, h1R Head transfer characteristics from the speaker sp1 to the listener's left and right ears h2L, h2R Head transfer characteristics from the speaker sp2 to the listener's left and right ears pLx, pRx Actual sound image at the intended localization position x by placing the speaker to be felt that there is, the head-related transfer characteristic cfLx up to the measured listener's left and right ears, cfRx coefficient of convolver (coefficient of the cancellation filter) DM dummy head (poll) M listener (game Operator) X sound source x purpose and The sound image localization position that
Claims (3)
サから、同一の音源が供給され、かつ所定の伝達特性を
有する複数の信号変換回路で処理した信号を再生して、
聴取者に前記トランスジューサとは異なる任意の位置に
音像が定位しているように感じさせる音像定位制御方法
において、前記トランスジューサと聴取者との間の頭部伝達関数
(HRTF)である第1のHRTF を測定するステップ
と、前記音像の定位位置に対応したHRTFである第2
のHRTFを測定するステップと、測定した前記第1の
HRTFと前記第2のHRTFとをもとにして各音像定
位位置における前記信号変換回路用の伝達特性を求める
ステップと、求めた前記伝達特性を前記信号変換回路に
設定し、前記音源からの信号を処理して前記トランスジ
ューサで再生するステップとからなることを特徴とする
音像定位制御方法。1. A signal which is supplied from a plurality of transducers spaced apart and which is supplied with the same sound source and processed by a plurality of signal conversion circuits having predetermined transfer characteristics, is reproduced.
In a sound image localization control method for causing a listener to feel that a sound image is localized at an arbitrary position different from the transducer, a head-related transfer function between the transducer and the listener is provided.
Measuring a first HRTF that is (HRTF); and a second HRTF that is HRTF corresponding to the localization position of the sound image.
Measuring the HRTF of the signal conversion circuit, determining a transfer characteristic for the signal conversion circuit at each sound image localization position based on the measured first HRTF and the second HRTF, and determining the determined transfer characteristic Is set in the signal conversion circuit, and a signal from the sound source is processed and reproduced by the transducer.
帯域ごとに測定して、これをIR(インパルス応答)と
して合成したことをを特徴とする請求項1に記載の音像
定位制御方法。2. The sound image localization control method according to claim 1, wherein the second HRTF is measured for each of divided frequency bands and synthesized as an IR (impulse response).
であることを特徴とする請求項2に記載の音像定位制御
方法。3. A divided frequency band width, the sound image localization control method according to claim 2, characterized in that the critical bandwidth.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3494693A JP2924539B2 (en) | 1993-01-29 | 1993-01-29 | Sound image localization control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3494693A JP2924539B2 (en) | 1993-01-29 | 1993-01-29 | Sound image localization control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06233396A JPH06233396A (en) | 1994-08-19 |
JP2924539B2 true JP2924539B2 (en) | 1999-07-26 |
Family
ID=12428339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3494693A Expired - Lifetime JP2924539B2 (en) | 1993-01-29 | 1993-01-29 | Sound image localization control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2924539B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000299900A (en) * | 1999-04-14 | 2000-10-24 | Mitsubishi Electric Corp | Audio reproducing device |
TWI485698B (en) * | 2005-09-14 | 2015-05-21 | Lg Electronics Inc | Method and apparatus for decoding an audio signal |
EP1938312A4 (en) | 2005-09-14 | 2010-01-20 | Lg Electronics Inc | Method and apparatus for decoding an audio signal |
-
1993
- 1993-01-29 JP JP3494693A patent/JP2924539B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH06233396A (en) | 1994-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6574339B1 (en) | Three-dimensional sound reproducing apparatus for multiple listeners and method thereof | |
US5404406A (en) | Method for controlling localization of sound image | |
EP1816895B1 (en) | Three-dimensional acoustic processor which uses linear predictive coefficients | |
JP4584416B2 (en) | Multi-channel audio playback apparatus for speaker playback using virtual sound image capable of position adjustment and method thereof | |
US5598478A (en) | Sound image localization control apparatus | |
US6611603B1 (en) | Steering of monaural sources of sound using head related transfer functions | |
US6850621B2 (en) | Three-dimensional sound reproducing apparatus and a three-dimensional sound reproduction method | |
KR20050115801A (en) | Apparatus and method for reproducing wide stereo sound | |
WO2004103023A1 (en) | Method for preparing transfer function table for localizing virtual sound image, recording medium on which the table is recorded, and acoustic signal editing method using the medium | |
JPH09505702A (en) | Binaural signal processor | |
JP2008502200A (en) | Wide stereo playback method and apparatus | |
JPH06245300A (en) | Sound image localization controller | |
JP2827777B2 (en) | Method for calculating intermediate transfer characteristics in sound image localization control and sound image localization control method and apparatus using the same | |
JPH06315200A (en) | Distance sensation control method for sound image localization processing | |
JP2924539B2 (en) | Sound image localization control method | |
JPH09135499A (en) | Sound image localization control method | |
JP3367625B2 (en) | Sound image localization control device | |
JP2755081B2 (en) | Sound image localization control method | |
JPH09191500A (en) | Method for generating transfer function localizing virtual sound image, recording medium recording transfer function table and acoustic signal edit method using it | |
JP2870562B2 (en) | Method of sound image localization control | |
JP2882449B2 (en) | Sound image localization control device for video games | |
JP4306815B2 (en) | Stereophonic sound processor using linear prediction coefficients | |
JPH06198074A (en) | Video game machine | |
JP2985919B2 (en) | Sound image localization control device | |
JP2985557B2 (en) | Surround signal processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090507 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090507 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100507 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110507 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120507 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120507 Year of fee payment: 13 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120507 Year of fee payment: 13 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120507 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130507 Year of fee payment: 14 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130507 Year of fee payment: 14 |