JP4735920B2 - Sound processor - Google Patents
Sound processor Download PDFInfo
- Publication number
- JP4735920B2 JP4735920B2 JP2001283020A JP2001283020A JP4735920B2 JP 4735920 B2 JP4735920 B2 JP 4735920B2 JP 2001283020 A JP2001283020 A JP 2001283020A JP 2001283020 A JP2001283020 A JP 2001283020A JP 4735920 B2 JP4735920 B2 JP 4735920B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- listener
- head
- speaker
- ultrasonic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Stereophonic System (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、例えば、椅子やヘッドレストにスピーカが設けられて構成され、聴取者の頭部の後方側から音声が放音するようにされる音響処理装置に関する。
【0002】
【従来の技術】
背もたれ部分にスピーカが設けられた椅子や、スピーカが設けられたヘッドレスト(頭部支持部分)を有するリクライニングチェアーなどが提供されるようになってきている。このように、椅子の背もたれ部分、あるいは、ヘッドレストにスピーカを設けることにより、聴取者の耳の近傍にスピーカを設けるようにすることができる。
【0003】
このように、スピーカが設けられた椅子やヘッドレストを用いることにより、聴取者の耳の近傍において高品位の音声を放音して、聴取者に提供することが行なわれるようになってきている。すなわち、ヘッドホンなどを用いなくても、聴取者の耳の近傍に位置付けられるスピーカを通じて、高品位の音声を聴取者が聴取することができる環境が整えられてきている。
【0004】
【発明が解決しようとする課題】
ところで、椅子の背もたれ部分やヘッドレストにスピーカを設けた場合、聴取者の耳の近傍において高品位の音声を放音することができるものの、聴取者の耳の後ろ側から直接音声が放音されるために、聴取者の意識が聴取者の後方に惹かれ、聴取する音楽によっては、違和感を感じたり、いわゆる聞き疲れが生じたりする場合があると考えられる。
【0005】
また、聴取者は、スピーカが設けられた椅子やヘッドレストを利用する場合、その使用の時々によって、スピーカと聴取者の耳との位置関係がまちまちとなり、いつでも同じ条件で椅子やヘッドレストに設けられたスピーカから放音される音声を聴取することは難しい。
【0006】
しかし、椅子やヘッドレストの内部に設けられたスピーカに対して、聴取者の頭部の位置(耳の位置)がいつでも同じ位置となるように、強制的に聴取者の頭部の位置を規制するようにすることは、聴取者のリラックス感を阻害するなど好ましくない。また、頭部を椅子やヘッドレストに常時接触させているわけではないので、スピーカに対して聴取者の頭部の位置を固定するようにすること自体が難しい。
【0007】
以上のことにかんがみ、この発明は、例えば椅子やヘッドレストに設けられたスピーカに対する聴取者の頭部の位置(耳の位置)が一定でなくても、違和感なく、常に適正な状態とされた音声を聴取できるようにする音響処理装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記課題を解決するため、請求項1に記載の発明の音響処理装置は、
スピーカデバイスと、
前記スピーカデバイスに供給するようにする音声信号に対して、前記音声信号による音声の音像を所定の位置に定位させるようにする処理を行なう音像定位処理部と、
前記音像定位処理部からの音声信号に対して、前記スピーカデバイスに対する聴取者の頭部の位置に応じた補正処理を行なうようにする補正処理部と、
超音波を送信する超音波送信手段と、前記超音波送信手段から送信され、聴取者の頭部により反射される反射超音波を受信する超音波受信手段と、前記超音波受信手段による反射超音波の受信の有無、および、前記超音波受信手段により反射超音波を受信した場合には超音波の速度と超音波を送信してから反射超音波として受信するまでの時間とに基づいて聴取者の頭部の前記スピーカに対する位置を特定する頭部位置特定手段とを備える頭部位置検出部と、
前記頭部位置検出部からの検出結果に応じて、前記補正処理部を制御するようにする制御部と
を備え、
前記超音波送信手段と、前記超音波受信手段とは、前記スピーカデバイスの高音域スピーカであることを特徴とする。
【0009】
この請求項1に記載の音響処理装置によれば、スピーカデバイスに供給される音声信号は、音像定位処理部において、その音声信号による再生音声の音像が所定の位置に定位するように処理された後、スピーカデバイスと聴取者の頭部の位置(聴取者の耳の位置)とを考慮した補正処理が行なわれ、スピーカデバイスから放音される音声の音像を所定の位置に定位するようにされる。
【0010】
そして、頭部位置検出部により、スピーカデバイスに対する聴取者の現実の頭部の位置が検出される。この検出結果に基づいて、制御部により補正処理部が制御され、補正処理部において、聴取者の頭部の位置に応じた補正処理が音像定位処理後の音声信号に対して行なわれる。
【0011】
これにより、スピーカデバイスと聴取者の頭部との位置関係が変わった場合にも、音声信号に対して行なわれた音像定位の効果を落とすことなく、処理された音声信号による音声を良好に聴取することができるようにされる。
【0013】
またこの請求項1に記載の音響処理装置によれば、反射超音波の有無と、超音波送信手段から送信された超音波が、聴取者の頭部に反射して超音波受信手段により受信されるまでの時間と、超音波の速度とに基づいて、頭部位置特定手段により、スピーカデバイスに対する聴取者の頭部の位置が特定され、この特定された聴取者の頭部の位置に応じて制御部により補正処理部が制御される。
【0014】
このように、スピーカデバイスに対して特定の位置に設けられる超音波送信手段と超音波受信手段とを用いることにより、スピーカデバイスと、当該スピーカデバイスを用いて音声を聴取する聴取者の頭部との位置関係を確実かつ正確に検出し、これに基づき補正処理部においての補正処理を適正に制御することができるようにされる。
【0016】
またこの請求項1に記載の音響処理装置によれば、スピーカデバイスと聴取者の頭部の位置との位置関係を検出するための超音波送信手段と超音波受信手段とは、スピーカデバイスの高音域スピーカが用いられる。すなわち、超音波送信手段と超音波受信手段とは、高音域スピーカそのものが用いられるようにされる。
【0017】
これにより、スピーカデバイスと聴取者の頭部との位置関係を検出するために、新たに超音波送信手段と超音波受信手段とを別途設けることなく、既存の高音域スピーカを超音波送信手段、超音波受信手段として用いて、スピーカデバイスと聴取者の頭部との関係を検出するようにすることができる。
【0018】
また、請求項2に記載の音響処理装置は、
スピーカデバイスと、
前記スピーカデバイスに供給するようにする音声信号に対して、前記音声信号による音声の音像を所定の位置に定位させるようにする処理を行なう音像定位処理部と、
前記音像定位処理部からの音声信号に対して、前記スピーカデバイスに対する聴取者の頭部の位置に応じた補正処理を行なうようにする補正処理部と、
超音波を送信する超音波送信手段と、前記超音波送信手段から送信され、聴取者の頭部により反射される反射超音波を受信する超音波受信手段と、前記超音波受信手段による反射超音波の受信の有無、および、前記超音波受信手段により反射超音波を受信した場合には超音波の速度と超音波を送信してから反射超音波として受信するまでの時間とに基づいて聴取者の頭部の前記スピーカに対する位置を特定する頭部位置特定手段とを備える頭部位置検出部と、
前記頭部位置検出部からの検出結果に応じて、前記補正処理部を制御するようにする制御部と
を備え、
前記超音波送信手段は、左右2チャンネルの前記スピーカデバイスの高音域スピーカであり、
前記超音波受信手段は、所定の位置に並べられた複数個の超音波感知素子からなるものであり、
左右2チャンネルのそれぞれの前記高音域スピーカからは、異なる周波数の超音波を送信することを特徴とする。
【0019】
この請求項2に記載の音響処理装置によれば、超音波送信手段として、左右チャンネルのスピーカデバイスの高音域スピーカが用いられ、超音波受信手段としては、例えば超音波送信手段の近傍に複数個が並べられていわゆるアレイ構造とされた超音波感知素子が用いられるようにされる。
【0020】
そして、左右チャンネルの高音域スピーカのそれぞれからは、周波数の異なる超音波が送信され、この超音波の聴取者の頭部により反射された反射超音波を感知した超音波感知素子をも考慮することによって、スピーカデバイスと聴取者の頭部との位置関係をより正確に検出することができるようにされる。
【0021】
また、本願発明の別の実施の形態における音響処理装置においては、前記頭部位置検出部は、前記スピーカデバイスを通じて音声を聴取するようにしている聴取者の頭部を含む画像を撮像する撮像手段と、前記撮像手段により撮像された画像を解析し、前記聴取者の頭部の前記スピーカデバイスに対する位置を検出する画像解析手段とからなることを特徴とする。
【0022】
この音響処理装置によれば、スピーカデバイスを通じて音声を聴取する位置にある聴取者の頭部を含む画像が撮像手段により撮像され、この撮像された画像が、画像解析手段により解析されて、スピーカデバイスと聴取者の頭部との位置関係が検出するようにされる。
【0023】
これにより、スピーカデバイスを通じて音声を聴取する位置にある聴取者の頭部を含む画像に基づいて、スピーカデバイスと聴取者の頭部との位置関係を正確に検出し、これに応じて補正処理部においての補正処理を適正に制御することができるようにされる。
【0024】
【発明の実施の形態】
以下、図を参照しながら、この発明による音響処理装置の一実施の形態について説明する。以下に説明する実施の形態においては、例えば、自動車の座席に設けられるヘッドレスト部(頭部支持部)や家庭において用いられる椅子のヘッドレスト部にスピーカを搭載して構成する音響処理装置を例にして説明する。
【0025】
[第1の実施の形態]
図1は、この発明が適用された第1の実施の形態の音響処理装置1を説明するためのブロック図であり、図2は、この第1の実施の形態の音響処理装置が搭載された椅子の外観を説明するための図である。この第1の実施の形態の音響処理装置1は、左右2チャンネルの音声信号を処理することができるものである。
【0026】
図1において、ディスク100は、2チャンネルの音声信号を提供するもの(2ch音源(chはチャンネル略称))である。このディスク100から再生された左右2チャンネルの音声信号が、この図1に示す第1の実施の形態の音響処理装置1に供給される。
【0027】
このため、この第1の実施の形態の音響処理装置1は、図1に示すように、2ch音源であるディスク100からの左チャンネルの音声信号の供給を受け付ける左チャンネル入力端子Linと、右チャンネルの音声信号の供給を受け付ける右チャンネル入力端子Rinとを有している。
【0028】
そして、図1に示すように、この第1の実施の形態の音響処理装置1は、音像定位処理フィルタ部10と、トランスオーラルシステムフィルタ部20と、ヘッドレスト部30と、頭部位置検出部(以下、単に検出部という)40と、CPU(Central Processing Unit)50と、トランスオーラルシステムフィルタ部20用の係数データベース(以下、単にデータベースという。)60とを備えている。
【0029】
ヘッドレスト部30は、図1に示すように、左右2チャンネルのスピーカとして、左スピーカ(左チャンネルスピーカ)SLと右スピーカ(右チャンネルスピーカ)SRとが設けられた部分である。このヘッドレスト部30は、図2に示すように、自動車の座席や家庭で用いられる椅子などにおいて、使用者の頭部を支持する部分(頭部支持部)に相当する。
【0030】
すなわち、図2に示すように、自動車の座席やリクライニングシートなどのいわゆる椅子Stは、大きく分けると、使用者が腰をおろす部分である腰掛部St1、使用者の背中をもたせかける部分である背もたれ部St2、使用者の頭部を支持する部分であるヘッドレスト部St3とからなっている。
【0031】
この第1の実施の形態においては、図2に示すヘッドレスト部St3に相当する部分に、少なくとも左右2チャンネルのスピーカSL、SRを設けることによって、図1に示すヘッドレスト部30を構成するようにしている。したがって、このヘッドレスト部30が設けられた椅子に腰をかけた聴取者(使用者)は、自己の頭部の斜め後方に位置する左スピーカSL、右スピーカSRからの放音音声を聴取することになる。
【0032】
なお、ヘッドレスト部は、自動車の座席のように取り外しが可能なものもあれば、背もたれ部と一体に形成され、ヘッドレスト部分のみを取り外すことができないものもある。後者の場合には、椅子の背もたれ部分にスピーカが設けられているということもできる。この第1の実施の形態において、ヘッドレスト部30は、例えば、椅子の背もたれ部から取り外すことができるようにされたものである。
【0033】
そして、この第1の実施の形態の音響処理装置1においては、音声の定位を実際に固定されたスピーカの位置から、仮想的なスピーカの位置にずらすようにすることによって、音が聴取者の後頭部付近や聴取者の耳の後方から聞こえることによる違和感、不快感を除去するようにしている。
【0034】
すなわち、この第1の実施の形態においては、音像定位処理フィルタ部10、トランスオーラルシステムフィルタ部20とにより、ヘッドレスト部30の左スピーカSLと右スピーカSRから放音される音声を、図1、図2において点線で示す左仮想スピーカVSL、右仮想スピーカVSRの位置から放音されたように聞こえるようにする。換言すれば、実スピーカSL、SRから放音される音声の音像を仮想スピーカVSL、VSRから放音されたもののように感じるように定位させる。
【0035】
なお、この第1の実施の形態において、仮想スピーカVSL、VSRは、左スピーカSL、右スピーカSRから放音される音声を定位させるようにする仮想位置であり、図1、図2に示すように、ヘッドレスト部30に対する聴取者の頭部が所定の位置にあるときに、当該聴取者の前方方向の所定の位置に設定するようにしたものである。
【0036】
このように、ヘッドレスト部30の左スピーカSLと右スピーカSRから放音される音声が、左右の仮想スピーカVSL、VSRが示す位置から放音されたように定位させることにより、前述もしたように、音声が聴取者の後頭部付近や聴取者の耳の後方から聞こえることによる違和感、不快感を除去し、自然な音声として聴取者が聴取できるようにしている。
【0037】
以下、この第1の実施の形態の音響処理装置の各部について詳細に説明する。まず、音像定位処理フィルタ部10を説明するに当たり、音像定位処理の原理について説明する。図3は、音像定位処理の原理を説明するための図である。
【0038】
図3に示すように、所定の再生音場において、ダミーヘッドDHの位置を聴取者の位置とし、このダミーヘッドDHの位置の聴取者に対して、音像を定位させようとする左右の仮想スピーカ位置(スピーカがあるとものと想定する位置)に実際に左実スピーカSPL、右実スピーカSLRを設置する。
【0039】
そして、左実スピーカSPL、右実スピーカSPRから放音される音声をダミーヘッドDHの両耳部分において収音し、左実スピーカSPL、右実スピーカSPRから放音された音声が、ダミーヘッドDHの両耳部分に到達したときには、どのように変化するか示す伝達関数(HRTF)を予め測定しておく。
【0040】
図3に示すように、この第1の実施の形態においては、左実スピーカSPLからダミーヘッドDHの左耳までの音声の伝達関数はM11であり、左実スピーカSPLからダミーヘッドDHの右耳までの音声の伝達関数はM12であるとする。同様に、右実スピーカSPRからダミーヘッドDHの左耳までの音声の伝達関数はM21であり、右実スピーカSPRからダミーヘッドDHの右耳までの音声の伝達関数はM22であるとする。
【0041】
そして、図1のヘッドレスト部30について前述したように、聴取者の耳の近傍に位置することになるヘッドレスト部30のスピーカSL、SRから放音する音声の音声信号について、上述のようにして予め測定した伝達関数を用いて処理し、その処理後の音声信号による音声を放音するようにする。
【0042】
これにより、ヘッドレスト部30のスピーカSL、SRから放音される音声が、あたかも仮想スピーカ位置(図1、図2において、仮想スピーカVSL、VSRの位置)から音声が放音されているように聴取者が感じるように、スピーカSL、SRから放音される音声の音像を定位させることができる。
【0043】
なお、ここでは、伝達関数(HRTF)の測定を行なう場合にダミーヘッドDHを用いるものとして説明したが、これに限るものではない。伝達関数を測定するための再生音場において、実際に人間を座らせ、その人間の耳近傍にマイクを置いて音声の伝達関数を測定してももちろんよい。
【0044】
このように、所定の位置に音像を定位させるために、予め測定するようにした音声の伝達関数による処理を行なう部分が、図1に示した音像定位処理フィルタ部10である。この実施の形態の音像定位フィルタ処理部10は、左右2チャンネルの音声信号を処理することができるものであり、図1に示すように、4つのフィルタ11、12、13、14と、2つの加算部15、16からなるものである。
【0045】
フィルタ11は、左入力端子Linを通じて供給を受けた左チャンネルの音声信号を伝達関数M11で処理するものであり、処理後の音声信号を左チャンネル用の加算部15に供給する。また、フィルタ12は、左入力端子Linを通じて供給を受けた左チャンネルの音声信号を伝達関数M12で処理するものであり、処理後の音声信号を右チャンネル用の加算部16に供給する。
【0046】
また、フィルタ21は、右入力端子Rinを通じて供給を受けた右チャンネルの音声信号を伝達関数M21で処理するものであり、処理後の音声信号を左チャンネル用の加算部15に供給する。また、フィルタ22は、右入力端子Rinを通じて供給を受けた右チャンネルの音声信号を伝達関数M22で処理するものであり、処理後の音声信号を右チャンネル用の加算部16に供給する。
【0047】
これにより、左チャンネル用の加算部15からの出力音声信号による音声と、右チャンネル用の加算部16からの出力音声信号による音声とは、図1、図2において左仮想スピーカVSL、右仮想スピーカVSRから放音されるように、その音像が定位するようにされる。
【0048】
しかし、ヘッドレスト部30に設けられた左スピーカSL、右スピーカSRから放音される音声は、音像定位処理が施されていても、図1に示すように、実際の再生音場における伝達関数G11、G12、G21、G22の影響を受けて、再生音声の音像を目的とする仮想スピーカ位置に正確に定位させることができない場合がある。
【0049】
そこで、この第1の実施の形態においては、トランスオーラルシステムフィルタ部20を用いて、音像定位処理フィルタ部10からの音声信号に対して補正処理を行なうようにすることで、左スピーカSL、右スピーカSRから放音される音声を、正確に仮想スピーカ位置の左右の仮想スピーカVSL、VSRから放音されたように定位させる。
【0050】
トランスオーラルシステムフィルタ部20は、トランスオーラルシステムが適用されて形成された音声フィルタである。トランスオーラルシステムは、ヘッドホンを用いて音声を厳密に再生するようにする方式であるバイノーラルシステム方式と同様の効果を、スピーカを用いた場合にも実現しようとする技術である。
【0051】
トランスオーラルシステムについて、図1の場合を例にして説明すると、左スピーカSL、右スピーカSRから放音される音声について、それぞれのスピーカから放音される音声の聴取者の左右それぞれの耳までの伝達関数G11、G12、G13、G14の影響を除去することにより、左スピーカSL、右スピーカSRから放音される音声を厳密に再生させるようにするものである。
【0052】
したがって、図1に示すトランスオーラルシステムフィルタ部20は、左スピーカSL、右スピーカSRから放音されることになる音声について、再生音場における伝達関数の影響を除去することにより、左スピーカSL、右スピーカSRから放音される音声の音像を正確に仮想スピーカ位置応じた位置に定位させるようにする。
【0053】
具体的にトランスオーラルシステムフィルタ部20は、左スピーカSL、右スピーカSRから聴取者の左右の耳までの伝達関数の影響を除去するために、右スピーカSRから聴取者の左右の耳までの伝達関数の逆関数に応じて音声信号を処理するフィルタ21、22,23、24と、加算部25、26を備えたものである。なお、この第1の実施の形態において、フィルタ21、22,23、24においては、逆フィルタ特性をも考慮した処理を行ないより自然な再生音声を放音できるようにしている。
【0054】
また、詳しくは後述もするように、左スピーカSL、右スピーカSRから聴取者の左右の耳までの伝達関数は、左右のスピーカSL、SRと聴取者の頭部の位置(聴取者の耳の位置)によって変わってしまう。このため、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24のそれぞれには、データベース60に予め蓄積されている聴取者の頭部の位置に応じた各フィルタに対するフィルタ係数がCPU50を通じてセットすることができるようにされている。
【0055】
そして、音像定位処理フィルタ部10の左チャンネル用の加算部15からの出力音声信号は、トランスオーラルシステムフィルタ部20の左チャンネル用のフィルタ21と、右チャンネル用のフィルタ22とに供給され、また、音像定位処理フィルタ部10の右チャンネル用の加算部16からの出力音声信号は、トランスオーラルシステムフィルタ部20の左チャンネル用のフィルタ23と、右チャンネル用のフィルタ24とに供給される。
【0056】
各フィルタ21、22、23、24のそれぞれは、CPU50からのフィルタ係数を用いて所定の処理を行なうものであり、具体的には、前述もしたように、スピーカSL、SRから聴取者の現在の頭部の位置に応じた伝達関数の逆関数H1n、H2n、H3n、H4nを用いて、自フィルタに供給された音声信号を処理する。
【0057】
なお、各フィルタ21、22、23、24で用いられる伝達関数の逆関数H1n、H2n、H3n、H4nにおいて、nは、聴取者の頭部の位置に応じて決まる変数を意味し、n以外の文字であるH1、H2、H3、H4は、順にフィルタ21、22、23、24のおのおのにおいて用いられる関数であることを示している。
【0058】
そして、フィルタ21からの出力は、左チャンネル用の加算部25に供給され、フィルタ22からの出力は、右チャンネル用の加算部26に供給される。同様に、フィルタ23からの出力は、左チャンネル用の加算部25に供給され、フィルタ24からの出力は、右チャンネル用の加算部26に供給される。
【0059】
そして、各加算部25、26は、これらに供給された音声信号を加算し、加算部25は、左スピーカSLに音声信号を供給し、加算部26は、右スピーカSRに音声信号を供給する。これにより、ヘッドレスト部30のスピーカSL、SRから放音される音声は、再生音場における現在の聴取者の頭部の位置に応じた伝達関数の影響が除去され、その音像が正確に左仮想スピーカVSL、右仮想スピーカVSRから放音された音声のように定位させることができるようにしている。
【0060】
このように、この第1の実施の形態の音響処理装置1は、ヘッドレスト部30の近傍の所定の位置に頭部が位置する聴取者は、ヘッドレスト部30のスピーカSL、SRから放音される音声を仮想スピーカVSL、VSRから放音されたように聴取することができるようにされる。
【0061】
したがって、聴取者の頭部の斜め後ろ側に位置する左スピーカSL、右スピーカSRから放音される音声を聴取するにもかかわらず、音声は聴取者の前方方向から聞こえてくるようにされるので、左スピーカSL、右スピーカSRから放音される音声が聴取者の後ろ側に張り付いて聞こえるなどの違和感や不快感を感じることなく、良好に音声を聴取できるようにすることができる。
【0062】
しかしながら、前述もしたように、図1に示した音響処理装置1の場合、仮想スピーカVSL、VSRが示す仮想スピーカ位置から聴取者の両耳までの位置関係、および、スピーカSL、SRから聴取者の両耳までの位置関係が、伝達関数測定時と、システム再生時(実際に音声を再生して聴取する時)とで大きく変わってしまう場合には、各伝達関数も変わってしまうため、仮想スピーカ位置への音像の定位の効果が薄くなる。
【0063】
この第1の実施の形態の音響処理装置1の場合には、図1に示すように、ヘッドレスト部30のスピーカSL、SLから聴取者の耳までの伝達関数が、伝達関数G11、G12、G21、G22である位置に聴取者の頭部がある場合には、当該聴取者は、ヘッドレスト部30のスピーカSL、SRから放音される音声を仮想スピーカVSL、VSRから放音されたかのように聴取することができる。
【0064】
しかし、ヘッドレスト部30のスピーカSL、SRに対する聴取者の頭部の位置が想定した位置よりもずれてしまえば、仮想スピーカ位置にスピーカSL、SRから放音した音声の音像を定位させるようにする仮想スピーカ定位効果が十分には得られない。
【0065】
特に、スピーカの放音面に対して平行に上下方向や左右方向に動いてしまった場合には、スピーカの放音面に対して直交する方向に聴取者の頭部が動いた場合(スピーカに近づくように、あるいは、スピーカから遠ざかるように動いた場合)に比べてその影響は大きい。
【0066】
このため、仮想スピーカ定位の効果を得るためには、スピーカに対する聴取者の頭部の位置(耳の位置)を必ず決まった位置となるようにして、音声を聴取するか、聴取者の様々な頭部の位置における伝達関数を測定しておき、その位置に適するような伝達関数や逆フィルタを通したシステムで音声を再生するようにすることが望ましい。
【0067】
しかし、当該ヘッドレスト部30を有する椅子に腰をかけた聴取者の頭部の位置を常にスピーカに対して所定の位置の保持するようにすることは難しい。また、保持するようにすることができたとしても、かえって聴取者のリラックス感を阻害することにもなりかねない。
【0068】
そこで、この第1の実施の形態の音響処理装置1においては、当該音響処理装置1が動作状態にあるときには、例えば所定のタイミング毎に、ヘッドレスト部30から聴取者の頭部までの距離、位置を測定し、測定した聴取者の頭部の位置に応じたフィルタ係数をトランスオーラルシステムフィルタ部20の各フィルタに供給することによって、聴取者の頭部の最新の位置に応じて音像定位処理後の音声信号に対して補正処理を行なう。
【0069】
このようにすることによって、聴取者の頭部が動くことにより、聴取者の頭部の位置が、ヘッドレスト部30、すなわち、スピーカSL、SRに対して変わってしまった場合でも、仮想スピーカ位置に音像を定位させるようにする仮想スピーカ定位効果が劣化することがなく、より自由な姿勢でヘッドレスト部30の左右のスピーカSL、SRからの音声を聴取することができるようにしている。
【0070】
そして、この第1の実施の形態の音響処理装置1においては、ヘッドレスト部30に搭載されたスピーカのスーパーツイータを聴取者の頭部の位置検出センサとして用いるようにしている。近年、再生オーディオについてのHiFi指向が進み、可聴周波数帯域以上の再生性能を持つスピーカを実装することは珍しいことではないため、これを利用するようにしたものである。
【0071】
このように、この第1の実施の形態の音響処理装置1のスピーカSL、SRのスーパーツイータは、可聴周波数以上の再生能力を持つものであり、この構成のスピーカ(スピーカデバイス)を聴取者の頭部の位置の測定に用いることにより、感圧式などの専用のセンサシステムを搭載しなくても済むように構成したものである。
【0072】
そして、ヘッドレスト部30のスピーカSL、SRのスーパーツイータから所定の周波数の超音波を送信し、この超音波の聴取者の主に頭部からの反射をヘッドレスト部30のスピーカSR、SLのスーパーツイータを通じて受信し、当該超音波の反射波の受信の有無や、反射波を受信した場合には、超音波を送信してからその反射波を受信するまでにかかった時間、当該時間と超音波の速度とから得られるスピーカと聴取者との距離などに基づいて、ヘッドレスト部30に対する聴取者の頭部の位置を検出する。
【0073】
図4は、この第1の実施の形態の音響処理装置1において行なう聴取者の頭部の位置の検出処理を説明するための図である。図4に示すように、ヘッドレスト部30の左右のスピーカSL、SRのスーパーツイータから40kHzの超音波を送信し、この超音波の使用者の頭部からの反射波を、同じくヘッドレスト部30の左右のスピーカSL、SRのスーパーツイータにより受信する。
【0074】
左右のスピーカSL、SRのスーパーツイータからの超音波の送信の制御は、例えばCPU50によって制御される。そして、左右のスピーカSL、SRのスーパーツイータにより受信される超音波は、検出部40に供給するようにされる。この検出部40において、40kHzの超音波(反射波)の有無や、40kHzの超音波(反射波)を受信したときには、当該超音波の送信から受信までにかかった時間、超音波の速度などからヘッドレスト部30の左右のスピーカSL、SRに対する聴取者の頭部の位置を検出する。
【0075】
すなわち、図4A、Bに示すように、ヘッドレスト部30のスピーカSL、SRのスーパーツイータのそれぞれが、同じように送信した超音波の反射波を同じように受信した場合には、送信から受信までにかかった時間に応じて、ヘッドレスト部30に対する聴取者の頭部の位置を検出することができる。
【0076】
簡単に言えば、例えば、図4Aに示したように、超音波の送信から受信までにかかった時間が比較的に長い場合には、聴取者の頭部は、ヘッドレスト部30から比較的に離れた位置に位置していることがわかる。また、図4Bに示したように、超音波の送信から受信までにかかった時間が比較的に短い場合には、聴取者の頭部の位置は、ヘッドレスト部30から比較的に近い位置に位置していることがわかる。
【0077】
また、図4Cに示すように、ヘッドレスト部30に設けた左右のスピーカSL、SRのスーパーツイータから同じように送信した超音波を例えば左スピーカSLのスーパーツイータのみが受信し、右スピーカSRのスーパーツイータは40kHzの超音波を受信しなかった場合には、聴取者の頭部は、ヘッドレスト部30に対して左側に片寄っていることがわかる。
【0078】
この逆に、ヘッドレスト部30に設けた左右のスピーカSL、SRのスーパーツイータから同じように送信した超音波を例えば右スピーカSRのスーパーツイータのみが受信し、左スピーカSLのスーパーツイータは40kHzの超音波を受信しなかった場合には、聴取者の頭部は、ヘッドレスト部30に対して右側に片寄っていることがわかる。
【0079】
このように、検出部40は、左右のスピーカから送信された超音波の聴取者の頭部からの反射波に基づいて、ヘッドレスト部30のスピーカSL、SRからの距離および左右のオフセット(ずれ分)などがセンシング可能である。この場合、聴取者の頭部の位置は、例えば、本来聴取者の頭部が位置すべき基準位置からのずれ分(オフセット分)として検出され、これがCPU50に通知される。
【0080】
そして、CPU50は、検出部40からの聴取者の頭部の位置の検出結果に基づいて、データベース60を参照し、現在の聴取者の頭部の位置に応じたトランスオーラルシステムフィルタ部20の各フィルタ21から24に供給する係数データを読み出す。
【0081】
この第1の実施の形態において、データベース60には、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24のそれぞれに供給する係数データであって、ヘッドレスト部30に対する聴取者の頭部の位置に応じたデータが記憶されている。
【0082】
すなわち、ヘッドレスト部30のスピーカSL、SRから放音された音声の聴取者の左右の耳元までの伝達関数を、予めヘッドレスト部30に対する聴取者の頭部の位置をいろいろと変えて測定しておき、この測定結果に基づいて、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24で用いる係数データを求め、この求めた係数データと聴取者の頭部の位置とを対応付けたデータがデータベース60に記憶するようにされている。
【0083】
したがって、データベース60には、聴取者の頭部の位置が、位置Aにおけるトランスオーラルシステムフィルタ部20のフィルタ21、22、23、24のそれぞれで用いられる係数データ、位置Bにおけるトランスオーラルシステムフィルタ部20のフィルタ21、22、23、34のそれぞれで用いられる係数データ、…というように、ヘッドレスト部30に対してその位置を変えるようにした聴取者の頭部の各位置におけるフィルタ21、22、23、24で用いる係数データが記憶されている。
【0084】
CPU50は、検出部40からの現在の使用者の頭部の位置の検出結果に基づいて、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24に供給する係数データをデータベース60から読み出し、これをトランスオーラルシステムフィルタ部20の対応するフィルタに供給する。
【0085】
これにより、聴取者の頭部の位置がヘッドレスト部30に対して動いても、聴取者の実際の頭部の位置を測定して、その位置に応じて再生音場における伝達関数の影響を除去するようにトランスオーラルシステムフィルタ部20において、補正処理を行なうことができる。したがって、ヘッドレスト部30の左右のスピーカSL、SRから放音される音声の音像を聴取者の頭部の位置にかかわりなく仮想スピーカ位置に定位させることができる。
【0086】
なお、この第1の実施の形態においては、データベース60には、聴取者の頭部が取り得る各位置において測定した伝達関数に基づいて、頭部の各位置において各フィルタにセットする関数を求め、この関数と頭部の位置とを対応付けて記憶するようにしてもよい。すなわち、補正に用いる関数自体を頭部の位置に対応付けてデータベースに記憶しておき、これをトランスオーラルシステムフィルタ部の目的とするフィルタにセットするようにしてもよい。
【0087】
また、前述した第1の実施の形態の場合のように、例えば、基準位置における伝達関数を測定し、この基準伝達関数に対する振幅調整用パラメータや遅延処理用パラメータなどの必要なパラメータを設定しておき、この基準パラメータを基準にして、検出される聴取者の頭部の実際の位置に応じ、新たなパラメータを求め、これを各フィルタに設定するようにしてもよい。
【0088】
つまり、1つの伝達関数モデルを設定し、このモデルに対して聴取者の頭部の位置に応じて調整を行なうようにすることによって、聴取者の実際の頭部の位置に応じた補正処理を音声信号に対して行なうようにすることもできる。この場合には、基準モデルとして、基準位置に置けるパラメータを例えばCPUで実行するプログラム中に保持するようにした場合には、パラメータを保持するためのメモリは必要ないし、また、基準パラメータのみをメモリに保持しておくのであれば、大きな記憶容量のメモリは必要ないことになる。
【0089】
なお、上述したように、データベース60に蓄積され、トランスオーラルシステムフィルタ部20の各フィルタに供給することになる処理用情報としては、係数データ、関数データ、パラメータデータなど、複数種類のものがかんがえられるが、これらは、実際に音響処理装置に搭載されることになる各フィルタ回路に応じて用いるようにすればよい。
【0090】
また、データベース60は、例えば、ROMやEEPROMなどの半導体メモリである。なお、データベース60として、磁気ディスク、光ディスク、光磁気ディスクなどの記録媒体を用いるようにすることもできる。
【0091】
[第1の実施の形態の変形例]
図5は、第1の実施の形態の音響処理装置の変形例を説明するためのブロック図である。図5に示すように、この例の音響処理装置2は、トランスオーラルシステムフィルタ部20に変えて、簡易型トランスオーラルシステムフィルタ部70が搭載されたことを除けば、図1に示した第1の実施の形態の音響処理装置1と同様に構成されたものである。このため、この図5に示す音響処理装置2において、図1に示した第1の音響処理装置1と同様に構成される部分には、同じ参照符号を付し、その詳細な説明は省略する。
【0092】
図1、図2、図5に示したように、ヘッドレスト部30と聴取者の頭部とは通常近接しており、ヘッドレスト部3のスピーカSL、SRは、聴取者の耳に近いという性質上、スピーカSL、SRから反対側の耳へのクロストーク成分は、スピーカSL、SRから当該スピーカに対応する側の耳への音声信号成分よりも格段に小さい。
【0093】
つまり、図1に示した例において、クロストーク成分の伝達関数G12、G21は、伝達関数G11、G22よりも格段に小さいので、クロストーク成分の伝達関数G12、G21は無視することができる。このため、クロストーク成分の考慮を通常のトランスオーラルシステムから省略することにより、簡略化を図ったものが、図5に示す簡易型トランスオーラルシステムフィルタ部70である。
【0094】
この簡易型トランスオーラルシステムフィルタ部70は、図5に示すように、ヘッドレスト部30の左スピーカSLから聴取者の左耳までの音声の伝達関数G1の逆関数で音声信号を処理するフィルタ71と、右スピーカSRから聴取者の右耳までの音声の伝達関数G2の逆関数で音声信号を処理するフィルタ72とを備えたものである。このように、クロストーク成分を無視するようにした場合であっても、音の定位は仮想スピーカ位置になることは実験により確認されている。
【0095】
そして、簡易型トランスオーラルシステムフィルタ部70の2つのフィルタ71、72のそれぞれには、実際には、後述もするように、再生音場における聴取者の実際の頭部の位置に応じた関数、あるいは、係数データが設定するようにされる。
【0096】
この場合、データベース60に用意しておくデータもフィルタ71、72に対するものだけでよいので、データベース60に記憶保持しておくデータ量を少なくすることができる。したがって、データベース60として記憶容量の小さなものを用いることができる。
【0097】
また、図5に示した音響処理装置2の場合には、簡易型トランスオーラルシステムフィルタ部70を用いることにより、音響処理装置の構成を簡単にすることができる。
【0098】
また、図5に示した音響処理装置の場合にも、図1に示した第1の実施の形態の音響処理装置1の場合と同様に、聴取者の頭部の斜め後ろ側に位置する左スピーカSL、右スピーカSRから放音される音声を聴取するにもかかわらず、音声は聴取者の前方方向から聞こえてくるようにされるので、左スピーカSL、右スピーカSRから放音される音声が聴取者の後ろ側に張り付いて聞こえるなどの違和感や不快感を感じさせずに、良好に音声を聴取できるようにすることができる。
【0099】
[第2の実施の形態]
図6は、この発明が適用された第2の実施の形態の音響処理装置3を説明するためのブロック図である。この第2の実施の形態の音響処理装置は、例えばDVDなどのマルチチャンネルのメディアからの音声信号を処理することができるものであり、この第2の実施の形態においては、5チャンネルの音声信号を処理することができるものである。
【0100】
図6に示すように、この第2の実施の形態の音響処理装置3は、5チャンネル分の音声信号の入力端子i1〜i5を備え、例えば、DVDなどのマルチチャンネルの記録媒体からの5チャンネル分の音声信号の入力を受けることができるものである。そして、図6に示す音響処理装置3は、ヘッドレスト部30、頭部位置検出部40、CPU50、データベース60、簡易型トランスオーラルシステムフィルタ部70、音像定位処理フィルタ部80を備えたものである。
【0101】
ヘッドレスト部30は、図1に示した第1の実施の形態の音響処理装置1、および、図5に示した第1の実施の形態の変形例の音響処理装置2のヘッドレスト部30と同様に構成されたものである。また、簡易型トランスオーラルシステムフィルタ部70は、図5を用いて前述した第1の実施の形態の変形例の音響処理装置2の簡易型トランスオーラルシステムフィルタ部70と同様に構成されたものである。
【0102】
そして、この第2の実施の形態の音響処理装置3の音像定位処理フィルタ部80は、基本的には、第1の実施の形態の音響処理装置の音像定位処理フィルタ部10と同様の原理に基づいて、スピーカから放音される音声の音像を定位させるものである。
【0103】
しかし、図6に示すこの第2の実施の形態の音響処理装置においては、ヘッドレスト部30の左右のスピーカSL、SRから放音される音声の音像を、図6において、点線で示した5つの仮想スピーカVS1〜VS5から放音されているように定位させるようにしている。
【0104】
図7は、図6に示した第2の実施の形態の音響処理装置3の音像定位処理フィルタ部80の原理を説明するための図である。図7に示すように、所定の再生音場において、ダミーヘッドDHの位置を聴取者の位置とし、このダミーヘッドDHの位置の聴取者に対して、音像を定位させようとする仮想スピーカ位置(スピーカがあるとものと想定する位置)に実際に実スピーカSP1〜SP5を設置する。そして、実スピーカSP1〜SP5のそれぞれから放音される音声のダミーヘッドDHの左右それぞれの耳までの伝達関数(HRTF)を予め測定しておく。
【0105】
図7に示すように、この第2の実施の形態において、実スピーカSP1からダミーヘッドDHの左耳までの音声の伝達関数はN11であり、実スピーカSP1からダミーヘッドDHの右耳までの音声の伝達関数はN12である。また、実スピーカSP2からダミーヘッドDHの左の耳までの音声の伝達関数はN21であり、実スピーカSP2からダミーヘッドDHの右の耳までの音声の伝達関数はN22である。
【0106】
以下同様に、実スピーカSP3からダミーヘッドDHの左右それぞれの耳までの音声の伝達関数は、N31、N32であり、実スピーカSP4からダミーヘッドDHの左右それぞれの耳までの音声の伝達関数は、N41、N42である。また、実スピーカSP5からダミーヘッドDHの左右それぞれの耳までの音声の伝達関数は、N51、N52である。
【0107】
そして、入力端子i1〜i5のそれぞれから入力される音声信号について、図7を用いて説明したように、予め測定した対応する伝達関数を用いて処理するとともに、簡易型トランスオーラルシステムフィルタ部70において補正処理し、その処理後の音声信号による音声をヘッドレスト部30の左右のスピーカSL、SRに供給し、音声を放音するようにする。
【0108】
これにより、ヘッドレスト部30のスピーカSL、SRから放音される音声が、あたかも図6において点線で示した仮想スピーカVS1〜VS5が示す位置から放音されているように視聴者が感じるようにその音像を定位させることができる。
【0109】
このように、音像を定位させるために、予め測定した音声の伝達関数による処理を行なう部分が、図6に示した音像定位処理フィルタ部80である。この実施の形態の音像定位フィルタ処理部80は、前述もしたように、5チャンネルの音声信号を処理することができるものであり、10個のフィルタ81〜90と、2つの加算部91、92とからなるものである。
【0110】
フィルタ81は、端子i1を通じて供給を受けた音声信号を伝達関数N11で処理するものであり、処理後の音声信号を左チャンネル用の加算部91に供給する。また、フィルタ82は、端子i2を通じて供給を受けた音声信号を伝達関数N12で処理するものであり、処理後の音声信号を右チャンネル用の加算部92に供給する。
【0111】
フィルタ83は、端子i2を通じて供給を受けた音声信号を伝達関数N21で処理するものであり、処理後の音声信号を左チャンネル用の加算部91に供給する。また、フィルタ84は、端子i2を通じて供給を受けた音声信号を伝達関数N22で処理するものであり、処理後の音声信号を右チャンネル用の加算部92に供給する。
【0112】
フィルタ85は、端子i3を通じて供給を受けた音声信号を伝達関数N31で処理するものであり、処理後の音声信号を左チャンネル用の加算部91に供給する。また、フィルタ86は、端子i3を通じて供給を受けた音声信号を伝達関数N32で処理するものであり、処理後の音声信号を右チャンネル用の加算部92に供給する。
【0113】
フィルタ87は、端子i4を通じて供給を受けた音声信号を伝達関数N41で処理するものであり、処理後の音声信号を左チャンネル用の加算部91に供給する。また、フィルタ88は、端子i4を通じて供給を受けた音声信号を伝達関数N42で処理するものであり、処理後の音声信号を右チャンネル用の加算部92に供給する。
【0114】
フィルタ89は、端子i5を通じて供給を受けた音声信号を伝達関数N51で処理するものであり、処理後の音声信号を左チャンネル用の加算部91に供給する。また、フィルタ90は、端子i5を通じて供給を受けた音声信号を伝達関数N52で処理するものであり、処理後の音声信号を右チャンネル用の加算部92に供給する。
【0115】
これにより、左チャンネル用の加算部91からの出力音声信号による音声と、右チャンネル用の加算部92からの出力音声信号による音声とは、図6において点線で示した仮想スピーカVS1〜VS5の位置から放音されるように音像が定位するようにされる。
【0116】
そして、この第2の実施の形態の音響処理装置3の場合にも、第1の実施の形態の音響処理装置1、2の場合と同様に、ヘッドレスト部30に設けられた左スピーカSL、右スピーカSRから放音される音声は、音像定位処理が施されていても、実際の再生音場における伝達関数の影響を受けて、再生音声の音像を目的とする仮想スピーカ位置に定位させることができない場合があると考えられる。
【0117】
そこで、この第2の実施の形態の音響処理装置3においても、クロストーク成分を考慮しない簡易型のトランスオーラルシステムフィルタ部70を用いることによって、ヘッドレスト部30の左右のスピーカSL、SRから放音される音声の音像が、正確に各仮想スピーカVS1〜VS5の各位置に定位するようにしている。
【0118】
このように、DVDなどのマルチチャンネルの音源を持つメディアも普及してきているが、この第2の実施の形態の音響処理装置3のように、5チャンネルの音声信号を処理できるようにしておくことによって、ヘッドレスト部30の2つのスピーカSL、SRを通じて、仮想的な5チャンネルの音像を得て、迫力ある再生音声を楽しむことができる。
【0119】
また、聴取者の頭部が動くことにより、ヘッドレスト部30に対する聴取者の頭部の位置が変わった場合であっても、前述した第1の実施の形態の音響処理装置1、2の場合と同様に、ヘッドレスト部30に対する聴取者の頭部の位置を検出し、その位置に応じて簡易型トランスオーラルシステムフィルタ部70のフィルタ71、72の関数やパラメータを変更することにより、ヘッドレスト部30の左右のスピーカSL、SRから放音される音声を仮想スピーカ位置に定位させることができる。
【0120】
すなわち、この第2の実施の形態においても、第1の実施の形態の音響処理装置1、2の場合と同様に、ヘッドレスト部30の左右のスピーカSL、SRのスーパーツイータから超音波を送信し、この送信した超音波の聴取者の頭部からの反射波をスーパーツイータが受信し、これに基づいて、検出部40が、聴取者の頭部の位置を検出し、その位置における伝達関数の影響を除去するように簡易型トランスオーラルシステムフィルタ部70で補正処理することにより音像を所定の仮想スピーカ位置に定位させることができる。
【0121】
なお、この第2の実施の形態においては、簡易型トランスオーラルシステムフィルタ部70を用いるようにしたが、図1に示した第1の実施の形態の音響処理装置1の場合と同様に、クロストーク成分をも考慮したトランスオーラルシステムフィルタ20を用いるようにしてもよい。
【0122】
また、図2、図4、図5に示した音響処理装置の全部をヘッドレスト部30側に設けるようにすることにより、前述した第1の実施の形態の音響処理装置のヘッドレスト部30のように、ヘッドレスト部を背もたれ部から取り外しが可能なように構成することによって、当該ヘッドレスト部を他の椅子の背もたれ部に装着するようにした場合にも、常時所定の位置に音像を定位させ、良好に音声の聴取ができるようにすることができる。
【0123】
また、左右のスピーカ以外の各部からなるアダプタを構成し、このアダプタと、スピーカを設けたヘッドレスト部とにより、この発明による音響処理装置を構成するようにすることもできる。また、左右のスピーカSL、SR以外の各部を、例えば、椅子の背もたれ部に設けたり、音声信号の再生機器側に設けたりすることにより、この発明の音響処理装置を構成することもできる。
【0124】
なお、前述した第1、第2の実施の形態の音響処理装置においては、ヘッドレスト部30に搭載されたスピーカSL、SRのスーパーツイータを聴取者の頭部の位置を検出するための超音波の送信部として、また、送信された超音波が聴取者の頭部にあって戻ってくる反射波を受信するための受信部として用いるようにした。
【0125】
したがって、超音波の送信部、受信部とも新たに設ける必要がないので、比較的に安価に、聴取者の頭部の位置を検出する機能を搭載した音響処理装置を実現することができる。
【0126】
そして、前述した第1、第2の実施の形態の場合には、ヘッドレスト部30に対する聴取者の頭部の位置を、常に、あるいは、随時に測定し、その測定した位置に応じた伝達関数に応じた補正処理(トランスオーラル処理)することで、従来のような聴取者の頭部の測定位置と聴取位置の不正合による仮想スピーカ定位効果の不足の状態を避け、聴取者の頭部の位置に左右されることなく、第1の実施の形態のように音像の前方定位や第2の実施の形態のように音像の全周囲定位などの効果を実現することができる。
【0127】
[第3の実施の形態]
ところで、より高品位の音声の提供が可能な音響処理装置を実現するために、ヘッドレスト部に対する聴取者の頭部の位置の検出精度を上げ、音声信号に対するトランスオーラルシステムによる補正処理をより厳密に行なえるようにしたいとする要求がある。
【0128】
そこで、この第3の実施の形態の音響処理装置においても、聴取者の頭部の位置を検出するための超音波を、前述した第1、第2の実施の形態の音響処理装置の場合と同様に、ヘッドレスト部30に設けられたスピーカSL、SRのスーパーツイータから送信する。
【0129】
しかし、この第3の実施の形態の音響処理装置においては、送信された超音波の反射波は、ヘッドレスト部30、あるいは、その近傍に設ける複数個の超音波受信素子によって受信するようにし、より精度よく聴取者の頭部の位置を検出できるようにしたものである。
【0130】
図8は、この第3の実施の形態の音響処理装置4を説明するためのブロック図である。図8に示すように、この第3の実施の形態の音響処理装置4は、左右2チャンネルのスピーカSL、SRと、複数個の超音波受信素子とが設けられたヘッドレスト90と、複数個の受信素子からの検出出力を受け付ける頭部位置検出部40A以外は、図1に示した第1の実施の形態の音響処理装置と同様に構成されたものである
このため、図8に示す第3の実施の形態の音響処理装置4において、図1に示した第1の実施の形態の音響処理装置1と同様に構成される部分には、第1の実施の形態の音響処理装置1と同様の参照符号を付し、その部分の説明は省略することにする。
【0131】
そして、上述もしたように、図8に示すこの第3の実施の形態の音響処理装置4の場合には、ヘッドレスト部90に、6つの超音波受信素子(超音波感知素子)SS1〜SS6をアレイ状に設けている。そして、左チャンネルSLのスーパーツイータと、右チャンネルSRのスーパーツイータから、周波数の異なる超音波を送信し、その反射波を超音波受信素子(以下、単に受信素子という。)SS1〜SS6で受信し、その検出出力に基づいて、検出部40Aが聴取者の頭部の位置をより正確に検出することができるようにしている。
【0132】
図9は、この第3の実施の形態の音響処理装置において行なう聴取者の頭部の位置の検出処理を説明するための図である。図9に示すように、本来聴取者の頭部がある方向にその放音面が向けられた左右のスピーカSL、SRから、異なる周波数の超音波を送信し、この送信した超音波の聴取者の頭部からの反射波を受信素子SS1〜SS6により受信するようにする。
【0133】
この図9に示す例の場合、左スピーカSLのスーパーツイータからは、周波数が40kHzの超音波を送信し、右スピーカSRのスーパーツイータからは、周波数が50kHzの超音波を送信するようにしている。このようにすることによって、位置検出の精度をより向上させるようにしている。
【0134】
そして、図9Aに示すように、ヘッドレスト部90に設けられた受信素子SS1〜SS6のいずれもが、左右のスピーカSL、SRのスーパーツイータから送信された超音波の反射波を受信できない場合には、聴取者の頭部の位置は、ヘッドレスト90から所定の距離以上離れた位置にあると検出することができる。
【0135】
また、図9Bに示すように、左スピーカSLのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、40kHzの超音波が受信素子SS3により受信され、かつ、右スピーカSRのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、50kHzの超音波が受信素子SS1により受信された場合には、聴取者の頭部の位置は、ヘッドレスト部90の左スピーカSL側によった位置にあると検出することができる。
【0136】
また、図示しないが、図9Bの場合とは逆に、左スピーカSLのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、40kHzの超音波が受信素子SS6により受信され、かつ、右スピーカSRのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、50kHzの超音波が受信素子SS4が受信した場合には、聴取者の頭部の位置は、ヘッドレスト部90の右スピーカSL側によった位置にあると検出することができる。
【0137】
さらに、図9Cに示すように、左スピーカSLのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、40kHzの超音波が受信素子SS3により受信され、かつ、右スピーカSRのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、50kHzの超音波が受信素子SS4が受信した場合には、聴取者の頭部の位置は、ヘッドレスト部90の左右のスピーカSL、SRのちょうど中間の位置にあると検出することができる。
【0138】
このように、左右のスピーカSL、SRのスーパーツイータから送信される、周波数の異なる超音波をヘッドレスト部90にアレイ状に設けられた6つの受信素子の内のどの受信素子が受信したかに応じて、ヘッドレスト部90に対する聴取者の頭部のオフセット(ずれ分)を検出することができる。
【0139】
さらに、左右のスピーカのスーパーツイータから送信される超音波について、その送信から受信素子により受信されるまでの時間を計測しておくことにより、当該時間と超音波の速度とに応じて、ヘッドレスト部90から聴取者の頭部までの距離を検出することができる。これらヘッドレスト部90に対する聴取者の頭部のオフセット、および、距離に基づいて、ヘッドレスト部90に対する聴取者の頭部の位置をより正確に検出することができる。
【0140】
そして、検出部40Aは、ヘッドレスト部90にアレイ状に設けられた各受信素子からの検出出力に基づいて聴取者の頭部の正確な位置を検出する。すなわち、検出部40Aは、上述したように、どの受信素子によって、左右それぞれのスピーカのスーパーツイータから送信された超音波を受信したか、さらに、左右それぞれのスピーカのスーパーツイータから送信された超音波の送信から受信までの時間を考慮して、聴取者の頭部の位置を検出する。
【0141】
そして、CPU50は、前述した第1の実施の形態の音響処理装置1のCPU50の場合と同様に、検出部40Aからのヘッドレスト部90に対する現在の聴取者の頭部の位置に対応するデータをデータベース60から読み出し、読み出したデータ(係数データ、関数データ、あるいは、パラメータなど)をトランスオーラルシステムフィルタ部20の目的とするフィルタ21、22、23、24に供給する。
【0142】
これにより、トランスオーラルシステム部20においては、ヘッドレスト部90に対する現在の聴取者の頭部の位置に応じて、音像定位処理後の音声信号に対する補正処理が行なわれ、補正後の音声信号が左右のスピーカSL、SRに供給され、ヘッドレスト部90に対して聴取者の頭部の位置が変わってしまっても、左右のスピーカから放音される音声の音像を仮想スピーカ位置に定位させることができる。
【0143】
そして、前述した第1〜第3の実施の形態の音響処理装置1、2、3、4の場合には、聴取者の頭部の位置の検出に超音波を用いている。超音波は人間の耳では音として聴取することはできないので、聴取者に頭部の検出処理を行なっていることを気付かれることがない。
【0144】
また、通常の音楽成分であれば、検出精度(測定精度)にかかわるほどの超音波成分は含まれていないため、聴取目的の再生音声(音楽信号)との干渉が問題になることはない。すなわち、音楽の再生中において、再生音声を劣化させることなく、かつ、聴取者に気付かれることなく、スピーカに対する聴取者の位置を測定し、検出することが可能である。
【0145】
なお、前述した第3の実施の形態の音響処理装置4においては、6つの超音波受信素子をヘッドレスト部90に設けるようにしたが、これに限るものではなく、さらに多くの超音波受信素子を用いるようにしてももちろんよいし、複数の受信素子を複数列設けるようにしてもよい。また、受信素子間の間隔や左右のスピーカSL、SRの放音面の向きなどを適宜調整するようにすることもできる。
【0146】
また、超音波受信素子を設ける位置は、ヘッドレスト部90やその近傍のほか、聴取者の頭部からの反射の受信が可能な任意の場所に設けるようにしてもよい。
【0147】
また、トランスオーラルシステムフィルタ部20に変えて、図5に示した第1の実施の形態の変形例において用いるようにした簡易型トランスオーラルシステム部70を用いるようにしてもよい。また、2チャンネルの音像定位処理フィルタ部10に変えて、多チャンネル、例えば、5チャンネルの音像定位処理フィルタ80を用いるようにしてもよい。
【0148】
したがって、前述した第3の実施の形態の音響処理装置の場合にも、前述した第1、第2の実施の形態の音響処理装置の場合と同様に、ヘッドレスト部90に対する聴取者の頭部の位置を、常に、あるいは、随時に測定し、その測定した位置に応じた伝達関数に応じた補正処理(トランスオーラル処理)することで、従来のような聴取者の頭部の測定位置と聴取位置の不正合による仮想スピーカ定位効果の不足の状態を避け、聴取者の頭部の位置に左右されることなく、音像の前方定位や音像の全周囲定位などの効果を実現することができる。
【0149】
[第4の実施の形態]
前述した第1〜第3の実施の形態においては、スピーカが設けられたヘッドレスト部に対する聴取者の頭部の位置を超音波を送信し、その反射波を受信することにより検出するようにした。しかし、聴取者の頭部の位置検出は、超音波を用いるものに限るものではない。
【0150】
例えば、音声だけでなく画像の送受信が可能なテレビ電話が家庭において用いられるようになってきている。そこで、例えば図10に示すように、テレビセット(TVセット)200と左右2チャンネルのスピーカSR、SLが設けられたヘッドレスト部30を有する音響処理装置が搭載された椅子とにより、いわゆるホームシアターシステムを構築するような場合には、通常はテレビ電話用として用いられるCCDカメラ210を、ヘッドレスト部30に対する聴取者の頭部の位置検出に用いることができる。
【0151】
また、自動車内(車室内)において音楽などの音声を聴取するようにすることも多い。そこで、図11に示すように、自動車内の座席に左右2チャンネルのスピーカ(SL1、SR1またはSL2、SR2)を搭載したヘッドレスト部を設けることにより音響処理装置を構成することが考えられる。このような場合に、自動車内に例えばテレビ電話用のCCDカメラ310を搭載することにより、当該テレビ電話用のCCDカメラ310をヘッドレスト部に対する聴取者の頭部の位置検出に用いることが可能となる。
【0152】
なお、現状においても、数種類の自動車においては、死角を排除するなどのために、自動車の外側にCCDカメラを設け、このCCDカメラを通じて撮像するようにした画像を車内のディスプレイに表示して観視できるようにしたものも提供されており、自動車内撮像用のCCDカメラを自動車に搭載することも可能である。
【0153】
そこで、この第4の実施の形態の音響処理装置は、スピーカが設けられたヘッドレスト部に対する聴取者の頭部の位置を家庭内や自動車内に設けられるCCDカメラ(CCD装置)を用い、聴取者の頭部がスピーカに対してどれ位オフセットして座っているかをリアルタイムに把握し、その位置に適した伝達関数をシステムに使用することで、より自由な姿勢で仮想スピーカ定位効果を楽しむことができるようにしたものである。
【0154】
なお、この第4の実施の形態の音響処理装置5もまた、前述した第1の実施の形態の音響処理装置1の場合と同様に、左右2チャンネルの音声信号を処理することができるものであり、ヘッドレスト部に設けられた左右2チャンネルのスピーカから放音される音声の音像を聴取者の前方方向に定位させることができるものである。すなわち、音響処理装置5は、ヘッドレスト部に設けられた左右2チャンネルのスピーカから放音される音声を仮想スピーカVSL、VSRから放音されたように音像を定位させることができるものである。
【0155】
図12は、この第4の実施の形態の音響処理装置5を説明するためのブロック図である。この図12に示す音響処理装置5は、図10、図11を用いて説明したように、家庭の室内や自動車内に設けられるようにされるものである。そして、この図12に示す音響処理装置5は、CCDカメラ210と、このCCDカメラ210によって撮像された画像を解析し、ヘッドレスト部30に対する聴取者の頭部の位置を検出するようにする画像解析部40Dを除けば、図1に示した第1の実施の形態の音響処理装置1と同様に構成されたものである。
【0156】
このため、図12に示すこの第4の実施の形態の音響処理装置5において、図1に示した第1の実施の形態の音響処理装置1と同様に構成される部分には、同じ参照符号を付し、その部分の説明については省略する。
【0157】
そして、この第4の実施の形態の音響処理装置5において、CCDカメラ210は、聴取者方向に向けられてセットされ、常に聴取者方向の画像を撮像することができるようにされている。そして、CCDカメラ210は、例えば、CPU50からの制御により、音響処理装置5が動作している間、常時、あるいは、所定のタイミング毎に聴取者方向の画像を撮像し、撮像した画像を画像解析部40Dに供給する。
【0158】
画像解析部40Dは、CCDカメラ210からの画像データの解析処理を行ない、ヘッドレスト部30に対する聴取者の頭部の位置を検出し、これをCPU50に通知する。具体的には、聴取者が座る椅子や座席のヘッドレスト部分などの所定の位置に目印をつけておくことにより、ヘッドレスト部30のスピーカの位置を画像処理的に確認できるようにしておく。
【0159】
そして、聴取者は、椅子に座っている状態でも必ず少しではあるが動いているので、これを利用し、静止画像の時間軸差分を取ることにより、聴取者のエッジ部分が抽出できる。この聴取者のエッジ部分とスピーカの位置とにより、聴取者の頭部とヘッドレスト部30のスピーカSL、SRとの位置関係がわかる。
【0160】
CPU50は、画像解析部40Dからの検出結果(聴取者の頭部の位置)に基づいて、データベース60に記憶されている係数データを読み出し、これをトランスオーラルシステムフィルタ部20の対応するフィルタに供給する。
【0161】
これにより、トランスオーラルシステムフィルタ部20においては、音像定位処理された音声信号に対して、聴取者の頭部の位置に応じた補正が施され、ヘッドレスト部30に対する聴取者の頭部の位置が変わった場合であっても、ヘッドレスト部30の左右のスピーカSL、SRから放音された音声の音像を仮想スピーカVSL、VSRから放音されているように定位させることができる。
【0162】
なお、CCDカメラ210によって撮像した画像を解析する場合には、ヘッドレスト部30の頭部接触面に対して直交する方向である縦方向に頭部が移動した場合と、ヘッドレスト部30の頭部接触面に対して並行な方向である横方向に頭部が移動した場合とでは、後者の横方向の移動の方が容易に検知可能である。
【0163】
もともと、スピーカはヘッドレスト部30に設けられ聴取者の耳の近傍に位置することになるため、聴取者の頭部が同じだけ移動するとしても、ヘッドレスト部30の頭部接触面に対して直交する方向である縦方向に頭部が移動した場合と、ヘッドレスト部30の頭部接触面に対して並行な方向である横方向に頭部が移動した場合とでは、横方向に移動した場合の方がスピーカか聴取者の耳までの伝達関数の変化がきい。
【0164】
このため、この第4の実施の形態の音響処理装置5においては、CDDカメラ210により撮像した画像を解析することにより、聴取者の頭部の横方向の位置(オフセット)をセンシングし、これに応じて、トランスオーラルシステムフィル部20の各フィルタに対して適切なフィルタ係数を用いるようにすることで、ヘッドレスト30の左右のスピーカSL、SRから放音される音声の音像を正確に所定の位置に定位させるようにしている。
【0165】
なお、この第4の実施の形態の音響処理装置5においても、トランスオーラルシステムフィルタ部20に変えて、図5に示した第1の実施の形態の変形例において用いるようにした簡易型トランスオーラルシステム部70を用いるようにすることもできる。また、2チャンネルの音像定位処理フィルタ部10に変えて、多チャンネル、例えば、5チャンネルの音像定位処理フィルタ80を用いるようにすることもできる。
【0166】
したがって、この第4の実施の形態の音響処理装置の場合にも、前述した第1、第2、第3の実施の形態の音響処理装置の場合と同様に、ヘッドレスト部30に対する聴取者の頭部の位置を、常に、あるいは、随時に測定し、その測定した位置に応じた伝達関数に応じた補正処理(トランスオーラル処理)することで、従来のような聴取者の頭部の測定位置と聴取位置の不正合による仮想スピーカ定位効果の不足の状態を避け、聴取者の頭部の位置に左右されることなく、音像の前方定位や音像の全周囲定位などの効果を実現することができる。
【0167】
なお、前述した第1、第2、および、第4の実施の形態において、ヘッドレスト部に設けられるスピーカの放音面は、ヘッドレスト部の頭部が接触する面に平行となるようにした場合を示したが、ヘッドレスト部に設けるスピーカの放音面を聴取者側に傾けるなど、適宜の修正を行なうようにすることも可能である。
【0168】
また、前述の実施の形態においては、ヘッドレスト部に左スピーカSL、右スピーカSRの2つのスピーカを設けるようにした場合の例を示したが、スピーカは、必ず2つである必要はなく、1つであってもよいし、また、3つ以上の複数であってもよい。また、ツイターなどを備えたいわゆるHiFi志向のスピーカデバイスを用いることができることはいうまでもない。
【0169】
また、図1、図5、図6、図8、図12に示した音響処理装置の全部をヘッドレスト部側に設けるようにすることにより、ヘッドレスト部を背もたれ部から取り外しが可能なように構成し、当該ヘッドレスト部を他の椅子の背もたれ部に装着して使用するようにすることができる。
【0170】
また、図1、図5、図6、図8、図12に示した音響処理装置において、左右のスピーカ以外の各部からなるアダプタを構成し、このアダプタと、スピーカを設けたヘッドレスト部とにより、この発明による音響処理装置を構成するようにすることもできる。また、左右のスピーカSL、SR以外の各部を、例えば、椅子の背もたれ部に設けたり、音声信号の再生機器側に設けたりすることにより、この発明の音響処理装置を構成することもできる。
【0171】
【発明の効果】
以上説明したように、スピーカに対する聴取者の頭部の位置を検出し、音像定位処理された音声信号について、実際の聴取者の頭部の位置に応じた補正を施すことができる。これにより、スピーカに対する聴取者の頭部の位置の自由度がまし、聴取者の頭部の多少の移動によっては、音像定位の効果を低下させることのない信頼性の高い音響処理装置を提供することができる。
【図面の簡単な説明】
【図1】この発明による音響処理装置の第1の実施の形態を説明するためのブロック図である。
【図2】第1の実施の形態の音響処理装置が搭載された椅子の外観について説明するための図である。
【図3】図1に示した第1の実施の形態の音響処理装置において行なわれる音像定位処理の原理について説明するための図である。
【図4】図1に示した第1の実施の形態の音響処理装置において行なわれる聴取者の頭部の位置の検出処理を説明するための図である。
【図5】図1に示した第1の実施の形態の音響処理装置の変形例を説明するためのブロック図である。
【図6】この発明による音響処理装置の第2の実施の形態を説明するためのブロック図である。
【図7】図6に示した第2の実施の形態の音響処理装置において行なわれる音像定位処理の原理について説明するための図である。
【図8】この発明による音響処理装置の第3の実施の形態を説明するためのブロック図である。
【図9】図8に示した第3の実施の形態の音響処理装置において行なわれる聴取者の頭部の位置の検出処理を説明するための図である。
【図10】この発明による第4の実施の形態の音響処理装置の利用態様の例を説明するための図である。
【図11】この発明による第4の実施の形態の音響処理装置の利用態様の他の例を説明するための図である。
【図12】この発明による第4の実施の形態の音響処理装置を説明するためのブロック図である。
【符号の説明】
10…音像定位処理フィルタ部、11〜14…フィルタ、15、16…加算部、20…トランスオーラルシステムフィルタ部、21〜24…フィルタ、25、26…加算部、30…ヘッドレスト部、SL…左スピーカ、SR…右スピーカ、VSL…仮想左スピーカ、VSR…仮想右スピーカ、40…頭部位置検出部、50…CPU、60…データベース、70…簡易型トランスオーラルシステムフィルタ部、41、42…フィルタ、80…音像定位処理フィルタ部、81〜90…フィルタ、91、92…加算部、SS1〜SS6…超音波受信素子、210、310…CCDカメラ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a sound processing apparatus that is configured by, for example, a speaker provided on a chair or a headrest, and that emits sound from the rear side of a listener's head.
[0002]
[Prior art]
A chair provided with a speaker at a backrest portion, a reclining chair having a headrest (head support portion) provided with a speaker, and the like have been provided. As described above, the speaker can be provided in the vicinity of the listener's ear by providing the speaker on the backrest portion of the chair or the headrest.
[0003]
As described above, by using a chair or a headrest provided with a speaker, high-quality sound is emitted in the vicinity of the listener's ear and provided to the listener. That is, an environment in which a listener can listen to high-quality sound through a speaker positioned in the vicinity of the listener's ear without using headphones or the like has been prepared.
[0004]
[Problems to be solved by the invention]
By the way, when a speaker is provided on the chair backrest or headrest, high-quality sound can be emitted in the vicinity of the listener's ear, but sound is emitted directly from the back of the listener's ear. For this reason, it is considered that the listener's consciousness is attracted to the back of the listener, and depending on the music to be listened, there may be a sense of incongruity or so-called listening fatigue.
[0005]
In addition, when a listener uses a chair or headrest provided with a speaker, the positional relationship between the speaker and the listener's ear varies depending on the use, and the listener or headrest is always provided under the same conditions. It is difficult to listen to the sound emitted from the speaker.
[0006]
However, the position of the listener's head is forcibly restricted so that the position of the listener's head (ear position) is always the same with respect to the speaker provided in the chair or headrest. Doing so is not preferable because it hinders the listener's feeling of relaxation. In addition, since the head is not always in contact with the chair or the headrest, it is difficult to fix the position of the listener's head with respect to the speaker.
[0007]
In view of the above, for example, the present invention is a sound that is always in an appropriate state without any sense of incongruity even if the position of the listener's head (ear position) with respect to a speaker provided on a chair or headrest is not constant. It is an object of the present invention to provide a sound processing apparatus that enables listening to music.
[0008]
[Means for Solving the Problems]
In order to solve the above problem, the sound processing apparatus according to the first aspect of the present invention provides:
A speaker device;
A sound image localization processing unit that performs processing to localize a sound image of the sound by the sound signal to a predetermined position with respect to the sound signal to be supplied to the speaker device;
A correction processing unit configured to perform a correction process according to the position of the listener's head relative to the speaker device with respect to the audio signal from the sound image localization processing unit;
Ultrasonic transmitting means for transmitting ultrasonic waves, ultrasonic receiving means for receiving reflected ultrasonic waves transmitted from the ultrasonic transmitting means and reflected by the listener's head, and reflected ultrasonic waves by the ultrasonic receiving means Of the listener, and when the reflected ultrasonic wave is received by the ultrasonic wave receiving means, based on the speed of the ultrasonic wave and the time from transmission of the ultrasonic wave until reception of the reflected ultrasonic wave, Head position specifying means for specifying the position of the head relative to the speaker.A head position detector;
A control unit configured to control the correction processing unit in accordance with a detection result from the head position detection unit;
With,
The ultrasonic transmission means and the ultrasonic reception means are high-frequency speakers of the speaker device.It is characterized by that.
[0009]
According to the acoustic processing apparatus of the first aspect, the sound signal supplied to the speaker device is processed by the sound image localization processing unit so that the sound image of the reproduced sound by the sound signal is localized at a predetermined position. Thereafter, correction processing is performed in consideration of the speaker device and the position of the listener's head (the position of the listener's ear), and the sound image of the sound emitted from the speaker device is localized at a predetermined position. The
[0010]
The head position detector detects the actual position of the listener's head relative to the speaker device. Based on the detection result, the correction processing unit is controlled by the control unit, and the correction processing unit performs correction processing according to the position of the listener's head on the sound signal after the sound image localization processing.
[0011]
As a result, even when the positional relationship between the speaker device and the listener's head changes, the sound of the processed sound signal is satisfactorily listened without reducing the effect of sound image localization performed on the sound signal. To be able to.
[0013]
AlsoThis claim1According to the acoustic processing device described in (4), the presence or absence of reflected ultrasonic waves and the time until the ultrasonic waves transmitted from the ultrasonic transmission means are reflected by the listener's head and received by the ultrasonic reception means. Then, the position of the listener's head relative to the speaker device is specified by the head position specifying means based on the ultrasonic velocity, and correction processing is performed by the control unit in accordance with the specified position of the listener's head Part is controlled.
[0014]
Thus, by using the ultrasonic transmission means and the ultrasonic reception means provided at a specific position with respect to the speaker device, the speaker device and the head of the listener who listens to the sound using the speaker device, The positional relationship is reliably and accurately detected, and based on this, the correction processing in the correction processing unit can be appropriately controlled.
[0016]
AlsoThis claim1According to the acoustic processing apparatus described in the above, the ultrasonic transmission means and the ultrasonic reception means for detecting the positional relationship between the speaker device and the position of the listener's head are high-frequency speakers of the speaker device. . That is, the high frequency range speaker itself is used for the ultrasonic transmission means and the ultrasonic reception means.
[0017]
Thus, in order to detect the positional relationship between the speaker device and the listener's head, the ultrasonic transmission means is not necessary to newly provide an ultrasonic transmission means and an ultrasonic reception means, and the existing high-frequency speaker is an ultrasonic transmission means, It can be used as an ultrasonic wave receiving means to detect the relationship between the speaker device and the listener's head.
[0018]
Claims2The sound processing apparatus described in
A speaker device;
A sound image localization processing unit that performs processing to localize a sound image of the sound by the sound signal to a predetermined position with respect to the sound signal to be supplied to the speaker device;
A correction processing unit configured to perform a correction process according to the position of the listener's head relative to the speaker device with respect to the audio signal from the sound image localization processing unit;
Ultrasonic transmitting means for transmitting ultrasonic waves, ultrasonic receiving means for receiving reflected ultrasonic waves transmitted from the ultrasonic transmitting means and reflected by the listener's head, and reflected ultrasonic waves by the ultrasonic receiving means Of the listener, and when the reflected ultrasonic wave is received by the ultrasonic wave receiving means, based on the speed of the ultrasonic wave and the time from transmission of the ultrasonic wave until reception of the reflected ultrasonic wave, A head position detection unit comprising head position specifying means for specifying the position of the head relative to the speaker;
A control unit configured to control the correction processing unit according to a detection result from the head position detection unit;
With
The ultrasonic transmission means is a high-frequency speaker of the speaker device with two channels on the left and right,
The ultrasonic receiving means comprises a plurality of ultrasonic sensing elements arranged in a predetermined position,
Ultrasonic waves having different frequencies are transmitted from the high-frequency speakers of the two left and right channels.
[0019]
This claim2According to the acoustic processing apparatus described in the above, the high frequency range speaker of the left and right channel speaker device is used as the ultrasonic transmission unit, and a plurality of ultrasonic reception units are arranged in the vicinity of the ultrasonic transmission unit, for example. An ultrasonic sensing element having a so-called array structure is used.
[0020]
Also, consider the ultrasonic sensing element that senses the reflected ultrasonic waves reflected from the head of the listener of the ultrasonic waves that are transmitted from each of the high-frequency speakers of the left and right channels. Thus, the positional relationship between the speaker device and the listener's head can be detected more accurately.
[0021]
Also,In the sound processing apparatus according to another embodiment of the present invention,The head position detection unit is configured to capture an image including a head of a listener who is listening to sound through the speaker device, and to analyze the image captured by the imaging unit, And image analysis means for detecting the position of the head relative to the speaker device.
[0022]
Thissound ofAccording to the sound processing apparatus, an image including the head of the listener at a position where the sound is heard through the speaker device is captured by the imaging unit, and the captured image is analyzed by the image analysis unit, and the speaker device The positional relationship with the listener's head is detected.
[0023]
Accordingly, the positional relationship between the speaker device and the listener's head is accurately detected based on the image including the listener's head at the position where the sound is heard through the speaker device, and the correction processing unit is accordingly detected. It is possible to appropriately control the correction process in the above.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of a sound processing apparatus according to the present invention will be described with reference to the drawings. In the embodiment described below, for example, a sound processing device configured by mounting a speaker on a headrest portion (head support portion) provided in a car seat or a headrest portion of a chair used at home is taken as an example. explain.
[0025]
[First Embodiment]
FIG. 1 is a block diagram for explaining a
[0026]
In FIG. 1, a
[0027]
Therefore, as shown in FIG. 1, the
[0028]
As shown in FIG. 1, the
[0029]
As shown in FIG. 1, the
[0030]
That is, as shown in FIG. 2, a so-called chair St such as a car seat or a reclining seat is roughly divided into a seat part St <b> 1 that is a part where the user sits down, and a backrest that is a part that rests the user's back. It comprises a part St2 and a headrest part St3 which is a part that supports the user's head.
[0031]
In the first embodiment, the
[0032]
The headrest part may be removable such as an automobile seat, while the headrest part may be formed integrally with the backrest part, and only the headrest part cannot be removed. In the latter case, it can also be said that a speaker is provided on the backrest of the chair. In the first embodiment, the
[0033]
In the
[0034]
That is, in the first embodiment, the sound emitted from the left speaker SL and the right speaker SR of the
[0035]
In the first embodiment, the virtual speakers VSL and VSR are virtual positions that localize the sound emitted from the left speaker SL and the right speaker SR, as shown in FIG. 1 and FIG. In addition, when the listener's head with respect to the
[0036]
As described above, the sound emitted from the left speaker SL and the right speaker SR of the
[0037]
Hereinafter, each part of the sound processing apparatus according to the first embodiment will be described in detail. First, in describing the sound image localization processing filter unit 10, the principle of the sound image localization processing will be described. FIG. 3 is a diagram for explaining the principle of sound image localization processing.
[0038]
As shown in FIG. 3, in a predetermined reproduction sound field, the position of the dummy head DH is set as the position of the listener, and the left and right virtual speakers that attempt to localize the sound image with respect to the listener at the position of the dummy head DH The actual left speaker SPL and the actual right speaker SLR are actually installed at the position (the position where the speaker is supposed to be).
[0039]
Then, the sound emitted from the left actual speaker SPL and the right actual speaker SPR is collected at both ears of the dummy head DH, and the sound emitted from the left actual speaker SPL and the right actual speaker SPR is collected by the dummy head DH. A transfer function (HRTF) indicating how it changes when reaching both ears is measured in advance.
[0040]
As shown in FIG. 3, in this first embodiment, the transfer function of the sound from the left real speaker SPL to the left ear of the dummy head DH is M11, and the right ear of the dummy head DH from the left real speaker SPL. It is assumed that the transfer function of the sound up to is M12. Similarly, the transfer function of the sound from the right real speaker SPR to the left ear of the dummy head DH is M21, and the transfer function of the sound from the right real speaker SPR to the right ear of the dummy head DH is M22.
[0041]
Then, as described above with respect to the
[0042]
As a result, the sound emitted from the speakers SL and SR of the
[0043]
Here, the description has been made assuming that the dummy head DH is used when measuring the transfer function (HRTF), but the present invention is not limited to this. Of course, in a reproduction sound field for measuring a transfer function, a person is actually seated and a microphone is placed in the vicinity of the ear of the person to measure the transfer function of the sound.
[0044]
In this way, the sound image localization processing filter unit 10 shown in FIG. 1 is the part that performs the processing based on the transfer function of the sound that is measured in advance in order to localize the sound image at a predetermined position. The sound image localization filter processing unit 10 of this embodiment is capable of processing left and right two-channel audio signals. As shown in FIG. 1, four
[0045]
The filter 11 processes the audio signal of the left channel supplied through the left input terminal Lin with the transfer function M11, and supplies the processed audio signal to the
[0046]
The
[0047]
As a result, the sound based on the output audio signal from the
[0048]
However, even if the sound emitted from the left speaker SL and the right speaker SR provided in the
[0049]
Therefore, in the first embodiment, the transoral system filter unit 20 is used to perform correction processing on the audio signal from the sound image localization processing filter unit 10 so that the left speaker SL, the right speaker The sound emitted from the speaker SR is localized as if the sound was accurately emitted from the left and right virtual speakers VSL and VSR at the virtual speaker position.
[0050]
The trans-oral system filter unit 20 is an audio filter formed by applying a trans-oral system. The trans-oral system is a technique for realizing the same effect as that of the binaural system system, which is a system for strictly reproducing sound using headphones, even when a speaker is used.
[0051]
The transoral system will be described by taking the case of FIG. 1 as an example. With respect to the sound emitted from the left speaker SL and the right speaker SR, the sound emitted from each speaker to the left and right ears of the listener. By removing the influence of the transfer functions G11, G12, G13, and G14, the sound emitted from the left speaker SL and the right speaker SR is strictly reproduced.
[0052]
Therefore, the trans-oral system filter unit 20 shown in FIG. 1 removes the influence of the transfer function in the reproduction sound field for the sound to be emitted from the left speaker SL and the right speaker SR, so that the left speaker SL, The sound image of the sound emitted from the right speaker SR is accurately localized at a position corresponding to the virtual speaker position.
[0053]
Specifically, the transoral system filter unit 20 transmits signals from the right speaker SR to the listener's left and right ears in order to eliminate the influence of the transfer function from the left speaker SL and the right speaker SR to the listener's left and right ears.
[0054]
Further, as will be described in detail later, the transfer functions from the left speaker SL and right speaker SR to the left and right ears of the listener depend on the positions of the left and right speakers SL and SR and the listener's head (the ears of the listener's ears). The position will change. For this reason, in each of the
[0055]
The output audio signal from the left
[0056]
Each of the
[0057]
In addition, in the inverse functions H1n, H2n, H3n, and H4n of transfer functions used in the
[0058]
The output from the
[0059]
The
[0060]
As described above, in the
[0061]
Accordingly, the sound can be heard from the front of the listener despite listening to the sound emitted from the left speaker SL and the right speaker SR located obliquely behind the listener's head. Therefore, it is possible to listen to the sound satisfactorily without feeling uncomfortable or uncomfortable feeling that the sound emitted from the left speaker SL and the right speaker SR is stuck on the back side of the listener.
[0062]
However, as described above, in the case of the
[0063]
In the case of the
[0064]
However, if the position of the listener's head relative to the speakers SL and SR of the
[0065]
In particular, if the listener's head moves in a direction orthogonal to the sound emitting surface of the speaker (if it has moved in the vertical or horizontal direction parallel to the sound emitting surface of the speaker) The effect is larger than when moving closer or away from the speaker.
[0066]
For this reason, in order to obtain the effect of virtual speaker localization, the position of the listener's head (ear position) with respect to the speaker is always set to a predetermined position to listen to the sound, It is desirable to measure the transfer function at the position of the head and reproduce the sound with a system through a transfer function or inverse filter suitable for the position.
[0067]
However, it is difficult to always keep the position of the head of the listener sitting on the chair having the
[0068]
Therefore, in the
[0069]
By doing so, even when the listener's head moves and the position of the listener's head has changed with respect to the
[0070]
In the
[0071]
As described above, the super tweeters of the speakers SL and SR of the
[0072]
Then, ultrasonic waves of a predetermined frequency are transmitted from the super tweeters of the speakers SL and SR of the
[0073]
FIG. 4 is a diagram for explaining the detection process of the position of the listener's head performed in the
[0074]
Control of transmission of ultrasonic waves from the super tweeters of the left and right speakers SL and SR is controlled by the
[0075]
That is, as shown in FIGS. 4A and 4B, when each of the super tweeters of the speakers SL and SR of the
[0076]
Simply put, for example, as shown in FIG. 4A, when the time taken from transmission to reception of ultrasonic waves is relatively long, the listener's head is relatively separated from the
[0077]
Further, as shown in FIG. 4C, for example, only the super tweeter of the left speaker SL receives ultrasonic waves transmitted in the same way from the super tweeters of the left and right speakers SL and SR provided in the
[0078]
Conversely, for example, only the super tweeter of the right speaker SR receives ultrasonic waves transmitted in the same way from the super tweeters of the left and right speakers SL and SR provided in the
[0079]
As described above, the
[0080]
Then, the
[0081]
In the first embodiment, the
[0082]
That is, the transfer function of the sound emitted from the speakers SL and SR of the
[0083]
Accordingly, in the
[0084]
Based on the detection result of the current position of the user's head from the
[0085]
As a result, even if the position of the listener's head moves relative to the
[0086]
In the first embodiment, the
[0087]
Further, as in the case of the first embodiment described above, for example, a transfer function at a reference position is measured, and necessary parameters such as an amplitude adjustment parameter and a delay processing parameter for the reference transfer function are set. Alternatively, based on the reference parameter, a new parameter may be obtained according to the actual position of the detected listener's head and set in each filter.
[0088]
That is, by setting one transfer function model and adjusting the model according to the position of the listener's head, a correction process according to the actual position of the listener's head is performed. It is also possible to perform it on an audio signal. In this case, when the parameter placed at the reference position is held as a reference model in, for example, a program executed by the CPU, a memory for holding the parameter is not necessary, and only the reference parameter is stored in the memory. Therefore, a large memory capacity is not necessary.
[0089]
As described above, the processing information stored in the
[0090]
The
[0091]
[Modification of First Embodiment]
FIG. 5 is a block diagram for explaining a modification of the sound processing apparatus according to the first embodiment. As shown in FIG. 5, the
[0092]
As shown in FIGS. 1, 2, and 5, the
[0093]
That is, in the example shown in FIG. 1, since the transfer functions G12 and G21 of the crosstalk component are much smaller than the transfer functions G11 and G22, the transfer functions G12 and G21 of the crosstalk component can be ignored. For this reason, the simplified transoral system filter unit 70 shown in FIG. 5 is simplified by omitting consideration of the crosstalk component from the normal transoral system.
[0094]
As shown in FIG. 5, the simplified transoral system filter unit 70 includes a
[0095]
Each of the two
[0096]
In this case, since the data prepared in the
[0097]
In the case of the
[0098]
Further, in the case of the sound processing apparatus shown in FIG. 5 as well, as in the case of the
[0099]
[Second Embodiment]
FIG. 6 is a block diagram for explaining the
[0100]
As shown in FIG. 6, the
[0101]
The
[0102]
The sound image localization processing filter unit 80 of the
[0103]
However, in the acoustic processing apparatus according to the second embodiment shown in FIG. 6, the sound images of the sounds emitted from the left and right speakers SL and SR of the
[0104]
FIG. 7 is a diagram for explaining the principle of the sound image localization processing filter unit 80 of the
[0105]
As shown in FIG. 7, in the second embodiment, the transfer function of the sound from the real speaker SP1 to the left ear of the dummy head DH is N11, and the sound from the real speaker SP1 to the right ear of the dummy head DH. The transfer function is N12. The transfer function of the sound from the real speaker SP2 to the left ear of the dummy head DH is N21, and the transfer function of the sound from the real speaker SP2 to the right ear of the dummy head DH is N22.
[0106]
Similarly, the transfer functions of the sound from the real speaker SP3 to the left and right ears of the dummy head DH are N31 and N32, respectively, and the transfer function of the sound from the real speaker SP4 to the left and right ears of the dummy head DH is N41 and N42. The transfer functions of the sound from the real speaker SP5 to the left and right ears of the dummy head DH are N51 and N52.
[0107]
Then, as described with reference to FIG. 7, the audio signal input from each of the input terminals i1 to i5 is processed using the corresponding transfer function measured in advance, and the simplified transoral system filter unit 70 The correction process is performed, and the sound based on the processed sound signal is supplied to the left and right speakers SL and SR of the
[0108]
As a result, the sound emitted from the speakers SL and SR of the
[0109]
In this way, in order to localize the sound image, the part that performs processing based on the sound transfer function measured in advance is the sound image localization processing filter unit 80 shown in FIG. As described above, the sound image localization filter processing unit 80 according to this embodiment can process a 5-channel audio signal, and includes ten
[0110]
The
[0111]
The filter 83 processes the audio signal supplied through the terminal i2 with the transfer function N21, and supplies the processed audio signal to the
[0112]
The
[0113]
The
[0114]
The
[0115]
Thereby, the sound based on the output sound signal from the
[0116]
And also in the case of the
[0117]
Therefore, also in the
[0118]
As described above, media having a multi-channel sound source such as a DVD have become widespread. However, as in the
[0119]
Further, even when the position of the listener's head relative to the
[0120]
That is, also in the second embodiment, ultrasonic waves are transmitted from the super tweeters of the left and right speakers SL and SR of the
[0121]
In the second embodiment, the simplified transoral system filter unit 70 is used. However, as in the case of the
[0122]
Further, by providing all of the sound processing devices shown in FIG. 2, FIG. 4, and FIG. 5 on the
[0123]
Moreover, the adapter which consists of each part other than a right-and-left speaker can be comprised, and the sound processing apparatus by this invention can also be comprised by this adapter and the headrest part which provided the speaker. Also, the sound processing apparatus of the present invention can be configured by providing each part other than the left and right speakers SL and SR, for example, on the backrest part of the chair or on the playback device side of the audio signal.
[0124]
In the acoustic processing apparatuses of the first and second embodiments described above, the ultrasonic tweeter for detecting the position of the listener's head using the super tweeters of the speakers SL and SR mounted on the
[0125]
Therefore, since it is not necessary to newly provide an ultrasonic transmitter and receiver, it is possible to realize an acoustic processing device equipped with a function for detecting the position of the listener's head at a relatively low cost.
[0126]
In the case of the first and second embodiments described above, the position of the listener's head with respect to the
[0127]
[Third Embodiment]
By the way, in order to realize a sound processing device capable of providing higher-quality sound, the detection accuracy of the position of the listener's head relative to the headrest portion is increased, and the correction processing by the transoral system for the sound signal is more strictly performed. There is a demand to be able to do it.
[0128]
Therefore, also in the sound processing apparatus of the third embodiment, the ultrasonic waves for detecting the position of the listener's head are used in the case of the sound processing apparatuses of the first and second embodiments described above. Similarly, transmission is performed from the super tweeters of the speakers SL and SR provided in the
[0129]
However, in the acoustic processing apparatus of the third embodiment, the reflected ultrasonic wave transmitted is received by the
[0130]
FIG. 8 is a block diagram for explaining the
For this reason, in the
[0131]
As described above, in the case of the
[0132]
FIG. 9 is a diagram for explaining the process of detecting the position of the listener's head performed in the sound processing apparatus according to the third embodiment. As shown in FIG. 9, ultrasonic waves having different frequencies are transmitted from the left and right speakers SL, SR whose sound emitting surfaces are originally directed in the direction in which the listener's head is located, and the listener of the transmitted ultrasonic waves The reflected waves from the head of the receiver are received by the receiving elements SS1 to SS6.
[0133]
In the example shown in FIG. 9, an ultrasonic wave with a frequency of 40 kHz is transmitted from the super tweeter of the left speaker SL, and an ultrasonic wave with a frequency of 50 kHz is transmitted from the super tweeter of the right speaker SR. . By doing so, the accuracy of position detection is further improved.
[0134]
As shown in FIG. 9A, when none of the receiving elements SS1 to SS6 provided in the
[0135]
Further, as shown in FIG. 9B, the reflected wave from the listener's head transmitted from the super tweeter of the left speaker SL, that is, a 40 kHz ultrasonic wave is received by the receiving element SS3, and the right speaker SR. When a reflected wave from the listener's head transmitted from the super tweeter, that is, an ultrasonic wave of 50 kHz is received by the receiving element SS1, the position of the listener's head is the position of the
[0136]
Although not shown, contrary to the case of FIG. 9B, the reflected wave from the listener's head transmitted from the super tweeter of the left speaker SL, that is, a 40 kHz ultrasonic wave is received by the receiving element SS6. When the reception element SS4 receives the reflected wave from the listener's head transmitted from the super tweeter of the right speaker SR, that is, the ultrasonic wave of 50 kHz, the position of the listener's head is It can be detected that the
[0137]
Further, as shown in FIG. 9C, the reflected wave from the listener's head transmitted from the super tweeter of the left speaker SL, that is, a 40 kHz ultrasonic wave is received by the receiving element SS3, and the right speaker SR. When the reception element SS4 receives an ultrasonic wave reflected from the head of the listener transmitted from the super tweeter, that is, an ultrasonic wave of 50 kHz, the position of the head of the listener is the left and right of the
[0138]
As described above, depending on which receiving element of the six receiving elements provided in an array on the
[0139]
Further, for the ultrasonic waves transmitted from the super tweeters of the left and right speakers, by measuring the time from the transmission to reception by the receiving element, the headrest portion is determined according to the time and the ultrasonic velocity. The distance from 90 to the listener's head can be detected. Based on the offset of the listener's head relative to the
[0140]
And 40 A of detection parts detect the exact position of a listener's head based on the detection output from each receiving element provided in the
[0141]
Then, as in the case of the
[0142]
Thereby, in the trans-oral system unit 20, a correction process is performed on the audio signal after the sound image localization process according to the current position of the head of the listener with respect to the
[0143]
In the case of the
[0144]
In addition, in the case of a normal music component, an ultrasonic component that is related to detection accuracy (measurement accuracy) is not included, so that there is no problem of interference with reproduced sound (music signal) for listening purposes. That is, during music playback, the position of the listener relative to the speaker can be measured and detected without deteriorating the reproduced sound and without being noticed by the listener.
[0145]
In the
[0146]
Further, the position where the ultrasonic receiving element is provided may be provided in an arbitrary place where reflection from the head of the listener can be received, in addition to the
[0147]
Further, instead of the trans-oral system filter unit 20, a simplified trans-oral system unit 70 used in the modification of the first embodiment shown in FIG. 5 may be used. Further, instead of the 2-channel sound image localization processing filter unit 10, a multi-channel, for example, 5-channel sound image localization processing filter 80 may be used.
[0148]
Therefore, also in the case of the sound processing device of the third embodiment described above, as in the case of the sound processing device of the first and second embodiments described above, the head of the listener with respect to the
[0149]
[Fourth Embodiment]
In the first to third embodiments described above, the position of the listener's head relative to the headrest portion provided with the speaker is detected by transmitting ultrasonic waves and receiving the reflected waves. However, detection of the position of the listener's head is not limited to using ultrasonic waves.
[0150]
For example, videophones capable of transmitting and receiving not only voice but also images have been used at home. Therefore, for example, as shown in FIG. 10, a so-called home theater system is formed by a TV set (TV set) 200 and a chair on which a sound processing device having a
[0151]
Also, it is often the case that sound such as music is listened to in a car (vehicle interior). Therefore, as shown in FIG. 11, it is conceivable to configure the sound processing apparatus by providing a headrest portion on which two left and right channel speakers (SL1, SR1 or SL2, SR2) are mounted on a seat in the automobile. In such a case, by mounting, for example, a
[0152]
Even in the present situation, in some types of automobiles, in order to eliminate blind spots, a CCD camera is provided outside the automobile, and an image captured through the CCD camera is displayed on a display inside the automobile for viewing. What can be done is also provided, and it is possible to mount a CCD camera for in-car imaging on a car.
[0153]
Therefore, the acoustic processing apparatus according to the fourth embodiment uses a CCD camera (CCD apparatus) provided in the home or in the car to determine the position of the listener's head relative to the headrest portion provided with the speaker. You can enjoy the virtual speaker localization effect in a more free posture by grasping in real time how much your head is sitting with respect to the speaker and using a transfer function suitable for that position in the system It is something that can be done.
[0154]
Note that the
[0155]
FIG. 12 is a block diagram for explaining the
[0156]
For this reason, in the
[0157]
In the
[0158]
The image analysis unit 40D performs an analysis process of the image data from the
[0159]
Since the listener always moves a little while sitting on the chair, the edge portion of the listener can be extracted by using this and taking the time axis difference of the still image. The positional relationship between the listener's head and the speakers SL and SR of the
[0160]
The
[0161]
Thereby, in the trans-oral system filter unit 20, the sound signal subjected to the sound image localization process is corrected according to the position of the listener's head, and the position of the listener's head with respect to the
[0162]
Note that when analyzing an image captured by the
[0163]
Originally, since the speaker is provided in the
[0164]
For this reason, in the
[0165]
In the
[0166]
Therefore, in the case of the sound processing apparatus according to the fourth embodiment, as in the case of the sound processing apparatuses according to the first, second, and third embodiments described above, the listener's head with respect to the
[0167]
In the first, second, and fourth embodiments described above, the sound emitting surface of the speaker provided in the headrest portion is parallel to the surface that the head of the headrest portion contacts. Although shown, it is also possible to make appropriate corrections such as tilting the sound emitting surface of the speaker provided in the headrest portion toward the listener.
[0168]
In the above-described embodiment, an example in which the left speaker SL and the right speaker SR are provided in the headrest portion has been described. However, the number of speakers is not necessarily two, and 1 There may be one or more than two. It goes without saying that a so-called HiFi-oriented speaker device equipped with a twitter or the like can be used.
[0169]
Further, the sound processing device shown in FIGS. 1, 5, 6, 8, and 12 is all provided on the headrest side so that the headrest portion can be removed from the backrest portion. The headrest part can be used by being mounted on the backrest part of another chair.
[0170]
Moreover, in the sound processing apparatus shown in FIG. 1, FIG. 5, FIG. 6, FIG. 8, and FIG. 12, an adapter composed of each part other than the left and right speakers is configured, The sound processing apparatus according to the present invention can also be configured. Also, the sound processing apparatus of the present invention can be configured by providing each part other than the left and right speakers SL and SR, for example, on the backrest part of the chair or on the playback device side of the audio signal.
[0171]
【The invention's effect】
As described above, the position of the listener's head relative to the speaker can be detected, and the sound signal subjected to the sound image localization processing can be corrected according to the actual position of the listener's head. As a result, the degree of freedom of the position of the listener's head relative to the speaker is increased, and a highly reliable acoustic processing device is provided that does not reduce the effect of sound image localization due to slight movement of the listener's head. be able to.
[Brief description of the drawings]
FIG. 1 is a block diagram for explaining a first embodiment of a sound processing apparatus according to the present invention;
FIG. 2 is a diagram for explaining an appearance of a chair on which the sound processing apparatus according to the first embodiment is mounted.
FIG. 3 is a diagram for explaining the principle of sound image localization processing performed in the sound processing apparatus according to the first embodiment shown in FIG. 1;
4 is a diagram for explaining processing for detecting the position of a listener's head performed in the sound processing apparatus according to the first embodiment shown in FIG. 1; FIG.
FIG. 5 is a block diagram for explaining a modification of the sound processing apparatus according to the first embodiment shown in FIG. 1;
FIG. 6 is a block diagram for explaining a second embodiment of the sound processing apparatus according to the present invention;
7 is a diagram for explaining the principle of sound image localization processing performed in the sound processing apparatus according to the second embodiment shown in FIG. 6; FIG.
FIG. 8 is a block diagram for explaining a third embodiment of the sound processing apparatus according to the present invention;
FIG. 9 is a diagram for explaining the process of detecting the position of the listener's head performed in the sound processing apparatus according to the third embodiment shown in FIG. 8;
FIG. 10 is a diagram for explaining an example of a usage mode of the sound processing apparatus according to the fourth embodiment of the invention;
FIG. 11 is a diagram for explaining another example of a usage mode of the sound processing apparatus according to the fourth embodiment of the invention;
FIG. 12 is a block diagram for explaining a sound processing apparatus according to a fourth embodiment of the present invention;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Sound image localization process filter part, 11-14 ... Filter, 15, 16 ... Adder part, 20 ... Trans-oral system filter part, 21-24 ... Filter, 25, 26 ... Adder part, 30 ... Headrest part, SL ... Left Speaker, SR ... Right speaker, VSL ... Virtual left speaker, VSR ... Virtual right speaker, 40 ... Head position detection unit, 50 ... CPU, 60 ... Database, 70 ... Simplified transoral system filter unit, 41, 42 ... Filter , 80 ... Sound image localization processing filter unit, 81-90 ... Filter, 91, 92 ... Adder, SS1-SS6 ... Ultrasonic wave receiving element, 210, 310 ... CCD camera
Claims (2)
前記スピーカデバイスに供給するようにする音声信号に対して、前記音声信号による音声の音像を所定の位置に定位させるようにする処理を行なう音像定位処理部と、
前記音像定位処理部からの音声信号に対して、前記スピーカデバイスに対する聴取者の頭部の位置に応じた補正処理を行なうようにする補正処理部と、
超音波を送信する超音波送信手段と、前記超音波送信手段から送信され、聴取者の頭部により反射される反射超音波を受信する超音波受信手段と、前記超音波受信手段による反射超音波の受信の有無、および、前記超音波受信手段により反射超音波を受信した場合には超音波の速度と超音波を送信してから反射超音波として受信するまでの時間とに基づいて聴取者の頭部の前記スピーカに対する位置を特定する頭部位置特定手段とを備える頭部位置検出部と、
前記頭部位置検出部からの検出結果に応じて、前記補正処理部を制御するようにする制御部と
を備え、
前記超音波送信手段と、前記超音波受信手段とは、前記スピーカデバイスの高音域スピーカである
音響処理装置。A speaker device;
A sound image localization processing unit that performs processing to localize a sound image of the sound by the sound signal to a predetermined position with respect to the sound signal to be supplied to the speaker device;
A correction processing unit configured to perform a correction process according to the position of the listener's head relative to the speaker device with respect to the audio signal from the sound image localization processing unit;
Ultrasonic transmitting means for transmitting ultrasonic waves, ultrasonic receiving means for receiving reflected ultrasonic waves transmitted from the ultrasonic transmitting means and reflected by the listener's head, and reflected ultrasonic waves by the ultrasonic receiving means Of the listener, and when the reflected ultrasonic wave is received by the ultrasonic wave receiving means, based on the speed of the ultrasonic wave and the time from transmission of the ultrasonic wave until reception of the reflected ultrasonic wave, A head position detection unit comprising head position specifying means for specifying the position of the head relative to the speaker ;
A control unit configured to control the correction processing unit according to a detection result from the head position detection unit ,
The ultrasonic transmission unit and the ultrasonic reception unit are acoustic processing apparatuses that are high-frequency speakers of the speaker device.
前記スピーカデバイスに供給するようにする音声信号に対して、前記音声信号による音声の音像を所定の位置に定位させるようにする処理を行なう音像定位処理部と、
前記音像定位処理部からの音声信号に対して、前記スピーカデバイスに対する聴取者の頭部の位置に応じた補正処理を行なうようにする補正処理部と、
超音波を送信する超音波送信手段と、前記超音波送信手段から送信され、聴取者の頭部により反射される反射超音波を受信する超音波受信手段と、前記超音波受信手段による反射超音波の受信の有無、および、前記超音波受信手段により反射超音波を受信した場合には超音波の速度と超音波を送信してから反射超音波として受信するまでの時間とに基づいて聴取者の頭部の前記スピーカに対する位置を特定する頭部位置特定手段とを備える頭部位置検出部と、
前記頭部位置検出部からの検出結果に応じて、前記補正処理部を制御するようにする制御部と
を備え、
前記超音波送信手段は、左右2チャンネルの前記スピーカデバイスの高音域スピーカであり、
前記超音波受信手段は、所定の位置に並べられた複数個の超音波感知素子からなるものであり、
左右2チャンネルのそれぞれの前記高音域スピーカからは、異なる周波数の超音波を送信する
音響処理装置。 A speaker device;
A sound image localization processing unit that performs processing to localize a sound image of the sound by the sound signal to a predetermined position with respect to the sound signal to be supplied to the speaker device;
A correction processing unit configured to perform a correction process according to the position of the listener's head relative to the speaker device with respect to the audio signal from the sound image localization processing unit;
Ultrasonic transmitting means for transmitting ultrasonic waves, ultrasonic receiving means for receiving reflected ultrasonic waves transmitted from the ultrasonic transmitting means and reflected by the listener's head, and reflected ultrasonic waves by the ultrasonic receiving means Of the listener, and when the reflected ultrasonic wave is received by the ultrasonic wave receiving means, based on the speed of the ultrasonic wave and the time from transmission of the ultrasonic wave until reception of the reflected ultrasonic wave, A head position detection unit comprising head position specifying means for specifying the position of the head relative to the speaker;
A control unit configured to control the correction processing unit according to a detection result from the head position detection unit;
With
The ultrasonic transmission means is a high-frequency speaker of the speaker device with two channels on the left and right,
The ultrasonic receiving means comprises a plurality of ultrasonic sensing elements arranged in a predetermined position,
An acoustic processing apparatus that transmits ultrasonic waves of different frequencies from the high-frequency speakers of the two left and right channels .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001283020A JP4735920B2 (en) | 2001-09-18 | 2001-09-18 | Sound processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001283020A JP4735920B2 (en) | 2001-09-18 | 2001-09-18 | Sound processor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003092799A JP2003092799A (en) | 2003-03-28 |
JP4735920B2 true JP4735920B2 (en) | 2011-07-27 |
Family
ID=19106579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001283020A Expired - Fee Related JP4735920B2 (en) | 2001-09-18 | 2001-09-18 | Sound processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4735920B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9088842B2 (en) | 2013-03-13 | 2015-07-21 | Bose Corporation | Grille for electroacoustic transducer |
US9327628B2 (en) | 2013-05-31 | 2016-05-03 | Bose Corporation | Automobile headrest |
US9699537B2 (en) | 2014-01-14 | 2017-07-04 | Bose Corporation | Vehicle headrest with speakers |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005236502A (en) | 2004-02-18 | 2005-09-02 | Yamaha Corp | Sound system |
JP2007214897A (en) * | 2006-02-09 | 2007-08-23 | Kenwood Corp | Sound system |
KR100718160B1 (en) | 2006-05-19 | 2007-05-14 | 삼성전자주식회사 | Apparatus and method for crosstalk cancellation |
JP4924119B2 (en) * | 2007-03-12 | 2012-04-25 | ヤマハ株式会社 | Array speaker device |
JP2010016525A (en) * | 2008-07-02 | 2010-01-21 | Sony Corp | Sound processing apparatus and sound processing method |
JP5597975B2 (en) * | 2009-12-01 | 2014-10-01 | ソニー株式会社 | Audiovisual equipment |
JP5488732B1 (en) * | 2013-03-05 | 2014-05-14 | パナソニック株式会社 | Sound playback device |
IL243513B2 (en) | 2016-01-07 | 2023-11-01 | Noveto Systems Ltd | System and method for audio communication |
WO2018127901A1 (en) | 2017-01-05 | 2018-07-12 | Noveto Systems Ltd. | An audio communication system and method |
US11388541B2 (en) | 2016-01-07 | 2022-07-12 | Noveto Systems Ltd. | Audio communication system and method |
JP6629625B2 (en) * | 2016-02-19 | 2020-01-15 | 学校法人 中央大学 | Work environment improvement system |
EP3280154B1 (en) * | 2016-08-04 | 2019-10-02 | Harman Becker Automotive Systems GmbH | System and method for operating a wearable loudspeaker device |
US10764704B2 (en) | 2018-03-22 | 2020-09-01 | Boomcloud 360, Inc. | Multi-channel subband spatial processing for loudspeakers |
WO2021010006A1 (en) * | 2019-07-17 | 2021-01-21 | パナソニックIpマネジメント株式会社 | Sound control device, sound control system, and sound control method |
US10841728B1 (en) | 2019-10-10 | 2020-11-17 | Boomcloud 360, Inc. | Multi-channel crosstalk processing |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2568742B2 (en) * | 1990-09-07 | 1997-01-08 | 松下電器産業株式会社 | Audio / video control unit |
DE69434887T2 (en) * | 1993-10-04 | 2007-07-12 | Sony Corp. | AUDIO PLAYBACK DEVICE |
JPH07193900A (en) * | 1993-12-24 | 1995-07-28 | Aqueous Res:Kk | Head position detector for generating stereoscopic sound field |
JP3207666B2 (en) * | 1994-03-15 | 2001-09-10 | 株式会社ケンウッド | In-car audio equipment |
JP3431756B2 (en) * | 1996-05-13 | 2003-07-28 | 三菱電機株式会社 | Detection device and detection method |
JP3502524B2 (en) * | 1997-02-19 | 2004-03-02 | 日本碍子株式会社 | Transducer array |
JPH10230899A (en) * | 1997-02-24 | 1998-09-02 | Motoya Takeyama | Man-machine interface of aerospace aircraft |
JP2001057699A (en) * | 1999-06-11 | 2001-02-27 | Pioneer Electronic Corp | Audio system |
US7016504B1 (en) * | 1999-09-21 | 2006-03-21 | Insonus Medical, Inc. | Personal hearing evaluator |
-
2001
- 2001-09-18 JP JP2001283020A patent/JP4735920B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9088842B2 (en) | 2013-03-13 | 2015-07-21 | Bose Corporation | Grille for electroacoustic transducer |
US9327628B2 (en) | 2013-05-31 | 2016-05-03 | Bose Corporation | Automobile headrest |
US9699537B2 (en) | 2014-01-14 | 2017-07-04 | Bose Corporation | Vehicle headrest with speakers |
Also Published As
Publication number | Publication date |
---|---|
JP2003092799A (en) | 2003-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4692803B2 (en) | Sound processor | |
JP4735920B2 (en) | Sound processor | |
US8787602B2 (en) | Device for and a method of processing audio data | |
AU2001239516B2 (en) | System and method for optimization of three-dimensional audio | |
JP3435156B2 (en) | Sound image localization device | |
US6975731B1 (en) | System for producing an artificial sound environment | |
JP3435141B2 (en) | SOUND IMAGE LOCALIZATION DEVICE, CONFERENCE DEVICE USING SOUND IMAGE LOCALIZATION DEVICE, MOBILE PHONE, AUDIO REPRODUCTION DEVICE, AUDIO RECORDING DEVICE, INFORMATION TERMINAL DEVICE, GAME MACHINE, COMMUNICATION AND BROADCASTING SYSTEM | |
AU2001239516A1 (en) | System and method for optimization of three-dimensional audio | |
JP3920404B2 (en) | Audio playback module | |
EP1562401A2 (en) | Sound reproduction apparatus and sound reproduction method | |
JP2010034755A (en) | Acoustic processing apparatus and acoustic processing method | |
JP2004135023A (en) | Sound outputting appliance, system, and method | |
WO2019198314A1 (en) | Audio processing device, audio processing method, and program | |
US20240107232A1 (en) | Directional sound recording and playback | |
KR20200021854A (en) | Electronic apparatus, method for controlling thereof and recording media thereof | |
JP2010016525A (en) | Sound processing apparatus and sound processing method | |
US20230199426A1 (en) | Audio signal output method, audio signal output device, and audio system | |
JP2023092961A (en) | Audio signal output method, audio signal output device, and audio system | |
JPH11127500A (en) | Bi-noral reproducing device, headphone for binaural reproduction and sound source evaluating method | |
JP2006157106A (en) | Apparatus and system for reproducing sound | |
JP2006080709A (en) | Audio reproducing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080826 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090825 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20091001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100708 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100826 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110413 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140513 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |