Nothing Special   »   [go: up one dir, main page]

JP4735920B2 - Sound processor - Google Patents

Sound processor Download PDF

Info

Publication number
JP4735920B2
JP4735920B2 JP2001283020A JP2001283020A JP4735920B2 JP 4735920 B2 JP4735920 B2 JP 4735920B2 JP 2001283020 A JP2001283020 A JP 2001283020A JP 2001283020 A JP2001283020 A JP 2001283020A JP 4735920 B2 JP4735920 B2 JP 4735920B2
Authority
JP
Japan
Prior art keywords
sound
listener
head
speaker
ultrasonic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001283020A
Other languages
Japanese (ja)
Other versions
JP2003092799A (en
Inventor
宏平 浅田
徹徳 板橋
健司 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001283020A priority Critical patent/JP4735920B2/en
Publication of JP2003092799A publication Critical patent/JP2003092799A/en
Application granted granted Critical
Publication of JP4735920B2 publication Critical patent/JP4735920B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Stereophonic System (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、例えば、椅子やヘッドレストにスピーカが設けられて構成され、聴取者の頭部の後方側から音声が放音するようにされる音響処理装置に関する。
【0002】
【従来の技術】
背もたれ部分にスピーカが設けられた椅子や、スピーカが設けられたヘッドレスト(頭部支持部分)を有するリクライニングチェアーなどが提供されるようになってきている。このように、椅子の背もたれ部分、あるいは、ヘッドレストにスピーカを設けることにより、聴取者の耳の近傍にスピーカを設けるようにすることができる。
【0003】
このように、スピーカが設けられた椅子やヘッドレストを用いることにより、聴取者の耳の近傍において高品位の音声を放音して、聴取者に提供することが行なわれるようになってきている。すなわち、ヘッドホンなどを用いなくても、聴取者の耳の近傍に位置付けられるスピーカを通じて、高品位の音声を聴取者が聴取することができる環境が整えられてきている。
【0004】
【発明が解決しようとする課題】
ところで、椅子の背もたれ部分やヘッドレストにスピーカを設けた場合、聴取者の耳の近傍において高品位の音声を放音することができるものの、聴取者の耳の後ろ側から直接音声が放音されるために、聴取者の意識が聴取者の後方に惹かれ、聴取する音楽によっては、違和感を感じたり、いわゆる聞き疲れが生じたりする場合があると考えられる。
【0005】
また、聴取者は、スピーカが設けられた椅子やヘッドレストを利用する場合、その使用の時々によって、スピーカと聴取者の耳との位置関係がまちまちとなり、いつでも同じ条件で椅子やヘッドレストに設けられたスピーカから放音される音声を聴取することは難しい。
【0006】
しかし、椅子やヘッドレストの内部に設けられたスピーカに対して、聴取者の頭部の位置(耳の位置)がいつでも同じ位置となるように、強制的に聴取者の頭部の位置を規制するようにすることは、聴取者のリラックス感を阻害するなど好ましくない。また、頭部を椅子やヘッドレストに常時接触させているわけではないので、スピーカに対して聴取者の頭部の位置を固定するようにすること自体が難しい。
【0007】
以上のことにかんがみ、この発明は、例えば椅子やヘッドレストに設けられたスピーカに対する聴取者の頭部の位置(耳の位置)が一定でなくても、違和感なく、常に適正な状態とされた音声を聴取できるようにする音響処理装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記課題を解決するため、請求項1に記載の発明の音響処理装置は、
スピーカデバイスと、
前記スピーカデバイスに供給するようにする音声信号に対して、前記音声信号による音声の音像を所定の位置に定位させるようにする処理を行なう音像定位処理部と、
前記音像定位処理部からの音声信号に対して、前記スピーカデバイスに対する聴取者の頭部の位置に応じた補正処理を行なうようにする補正処理部と、
超音波を送信する超音波送信手段と、前記超音波送信手段から送信され、聴取者の頭部により反射される反射超音波を受信する超音波受信手段と、前記超音波受信手段による反射超音波の受信の有無、および、前記超音波受信手段により反射超音波を受信した場合には超音波の速度と超音波を送信してから反射超音波として受信するまでの時間とに基づいて聴取者の頭部の前記スピーカに対する位置を特定する頭部位置特定手段とを備える頭部位置検出部と、
前記頭部位置検出部からの検出結果に応じて、前記補正処理部を制御するようにする制御部と
を備え
前記超音波送信手段と、前記超音波受信手段とは、前記スピーカデバイスの高音域スピーカであることを特徴とする。
【0009】
この請求項1に記載の音響処理装置によれば、スピーカデバイスに供給される音声信号は、音像定位処理部において、その音声信号による再生音声の音像が所定の位置に定位するように処理された後、スピーカデバイスと聴取者の頭部の位置(聴取者の耳の位置)とを考慮した補正処理が行なわれ、スピーカデバイスから放音される音声の音像を所定の位置に定位するようにされる。
【0010】
そして、頭部位置検出部により、スピーカデバイスに対する聴取者の現実の頭部の位置が検出される。この検出結果に基づいて、制御部により補正処理部が制御され、補正処理部において、聴取者の頭部の位置に応じた補正処理が音像定位処理後の音声信号に対して行なわれる。
【0011】
これにより、スピーカデバイスと聴取者の頭部との位置関係が変わった場合にも、音声信号に対して行なわれた音像定位の効果を落とすことなく、処理された音声信号による音声を良好に聴取することができるようにされる。
【0013】
またこの請求項に記載の音響処理装置によれば、反射超音波の有無と、超音波送信手段から送信された超音波が、聴取者の頭部に反射して超音波受信手段により受信されるまでの時間と、超音波の速度とに基づいて、頭部位置特定手段により、スピーカデバイスに対する聴取者の頭部の位置が特定され、この特定された聴取者の頭部の位置に応じて制御部により補正処理部が制御される。
【0014】
このように、スピーカデバイスに対して特定の位置に設けられる超音波送信手段と超音波受信手段とを用いることにより、スピーカデバイスと、当該スピーカデバイスを用いて音声を聴取する聴取者の頭部との位置関係を確実かつ正確に検出し、これに基づき補正処理部においての補正処理を適正に制御することができるようにされる。
【0016】
またこの請求項に記載の音響処理装置によれば、スピーカデバイスと聴取者の頭部の位置との位置関係を検出するための超音波送信手段と超音波受信手段とは、スピーカデバイスの高音域スピーカが用いられる。すなわち、超音波送信手段と超音波受信手段とは、高音域スピーカそのものが用いられるようにされる。
【0017】
これにより、スピーカデバイスと聴取者の頭部との位置関係を検出するために、新たに超音波送信手段と超音波受信手段とを別途設けることなく、既存の高音域スピーカを超音波送信手段、超音波受信手段として用いて、スピーカデバイスと聴取者の頭部との関係を検出するようにすることができる。
【0018】
また、請求項に記載の音響処理装置は、
スピーカデバイスと、
前記スピーカデバイスに供給するようにする音声信号に対して、前記音声信号による音声の音像を所定の位置に定位させるようにする処理を行なう音像定位処理部と、
前記音像定位処理部からの音声信号に対して、前記スピーカデバイスに対する聴取者の頭部の位置に応じた補正処理を行なうようにする補正処理部と、
超音波を送信する超音波送信手段と、前記超音波送信手段から送信され、聴取者の頭部により反射される反射超音波を受信する超音波受信手段と、前記超音波受信手段による反射超音波の受信の有無、および、前記超音波受信手段により反射超音波を受信した場合には超音波の速度と超音波を送信してから反射超音波として受信するまでの時間とに基づいて聴取者の頭部の前記スピーカに対する位置を特定する頭部位置特定手段とを備える頭部位置検出部と、
前記頭部位置検出部からの検出結果に応じて、前記補正処理部を制御するようにする制御部と
を備え、
前記超音波送信手段は、左右2チャンネルの前記スピーカデバイスの高音域スピーカであり、
前記超音波受信手段は、所定の位置に並べられた複数個の超音波感知素子からなるものであり、
左右2チャンネルのそれぞれの前記高音域スピーカからは、異なる周波数の超音波を送信することを特徴とする。
【0019】
この請求項に記載の音響処理装置によれば、超音波送信手段として、左右チャンネルのスピーカデバイスの高音域スピーカが用いられ、超音波受信手段としては、例えば超音波送信手段の近傍に複数個が並べられていわゆるアレイ構造とされた超音波感知素子が用いられるようにされる。
【0020】
そして、左右チャンネルの高音域スピーカのそれぞれからは、周波数の異なる超音波が送信され、この超音波の聴取者の頭部により反射された反射超音波を感知した超音波感知素子をも考慮することによって、スピーカデバイスと聴取者の頭部との位置関係をより正確に検出することができるようにされる。
【0021】
また、本願発明の別の実施の形態における音響処理装置においては、前記頭部位置検出部は、前記スピーカデバイスを通じて音声を聴取するようにしている聴取者の頭部を含む画像を撮像する撮像手段と、前記撮像手段により撮像された画像を解析し、前記聴取者の頭部の前記スピーカデバイスに対する位置を検出する画像解析手段とからなることを特徴とする。
【0022】
の音響処理装置によれば、スピーカデバイスを通じて音声を聴取する位置にある聴取者の頭部を含む画像が撮像手段により撮像され、この撮像された画像が、画像解析手段により解析されて、スピーカデバイスと聴取者の頭部との位置関係が検出するようにされる。
【0023】
これにより、スピーカデバイスを通じて音声を聴取する位置にある聴取者の頭部を含む画像に基づいて、スピーカデバイスと聴取者の頭部との位置関係を正確に検出し、これに応じて補正処理部においての補正処理を適正に制御することができるようにされる。
【0024】
【発明の実施の形態】
以下、図を参照しながら、この発明による音響処理装置の一実施の形態について説明する。以下に説明する実施の形態においては、例えば、自動車の座席に設けられるヘッドレスト部(頭部支持部)や家庭において用いられる椅子のヘッドレスト部にスピーカを搭載して構成する音響処理装置を例にして説明する。
【0025】
[第1の実施の形態]
図1は、この発明が適用された第1の実施の形態の音響処理装置1を説明するためのブロック図であり、図2は、この第1の実施の形態の音響処理装置が搭載された椅子の外観を説明するための図である。この第1の実施の形態の音響処理装置1は、左右2チャンネルの音声信号を処理することができるものである。
【0026】
図1において、ディスク100は、2チャンネルの音声信号を提供するもの(2ch音源(chはチャンネル略称))である。このディスク100から再生された左右2チャンネルの音声信号が、この図1に示す第1の実施の形態の音響処理装置1に供給される。
【0027】
このため、この第1の実施の形態の音響処理装置1は、図1に示すように、2ch音源であるディスク100からの左チャンネルの音声信号の供給を受け付ける左チャンネル入力端子Linと、右チャンネルの音声信号の供給を受け付ける右チャンネル入力端子Rinとを有している。
【0028】
そして、図1に示すように、この第1の実施の形態の音響処理装置1は、音像定位処理フィルタ部10と、トランスオーラルシステムフィルタ部20と、ヘッドレスト部30と、頭部位置検出部(以下、単に検出部という)40と、CPU(Central Processing Unit)50と、トランスオーラルシステムフィルタ部20用の係数データベース(以下、単にデータベースという。)60とを備えている。
【0029】
ヘッドレスト部30は、図1に示すように、左右2チャンネルのスピーカとして、左スピーカ(左チャンネルスピーカ)SLと右スピーカ(右チャンネルスピーカ)SRとが設けられた部分である。このヘッドレスト部30は、図2に示すように、自動車の座席や家庭で用いられる椅子などにおいて、使用者の頭部を支持する部分(頭部支持部)に相当する。
【0030】
すなわち、図2に示すように、自動車の座席やリクライニングシートなどのいわゆる椅子Stは、大きく分けると、使用者が腰をおろす部分である腰掛部St1、使用者の背中をもたせかける部分である背もたれ部St2、使用者の頭部を支持する部分であるヘッドレスト部St3とからなっている。
【0031】
この第1の実施の形態においては、図2に示すヘッドレスト部St3に相当する部分に、少なくとも左右2チャンネルのスピーカSL、SRを設けることによって、図1に示すヘッドレスト部30を構成するようにしている。したがって、このヘッドレスト部30が設けられた椅子に腰をかけた聴取者(使用者)は、自己の頭部の斜め後方に位置する左スピーカSL、右スピーカSRからの放音音声を聴取することになる。
【0032】
なお、ヘッドレスト部は、自動車の座席のように取り外しが可能なものもあれば、背もたれ部と一体に形成され、ヘッドレスト部分のみを取り外すことができないものもある。後者の場合には、椅子の背もたれ部分にスピーカが設けられているということもできる。この第1の実施の形態において、ヘッドレスト部30は、例えば、椅子の背もたれ部から取り外すことができるようにされたものである。
【0033】
そして、この第1の実施の形態の音響処理装置1においては、音声の定位を実際に固定されたスピーカの位置から、仮想的なスピーカの位置にずらすようにすることによって、音が聴取者の後頭部付近や聴取者の耳の後方から聞こえることによる違和感、不快感を除去するようにしている。
【0034】
すなわち、この第1の実施の形態においては、音像定位処理フィルタ部10、トランスオーラルシステムフィルタ部20とにより、ヘッドレスト部30の左スピーカSLと右スピーカSRから放音される音声を、図1、図2において点線で示す左仮想スピーカVSL、右仮想スピーカVSRの位置から放音されたように聞こえるようにする。換言すれば、実スピーカSL、SRから放音される音声の音像を仮想スピーカVSL、VSRから放音されたもののように感じるように定位させる。
【0035】
なお、この第1の実施の形態において、仮想スピーカVSL、VSRは、左スピーカSL、右スピーカSRから放音される音声を定位させるようにする仮想位置であり、図1、図2に示すように、ヘッドレスト部30に対する聴取者の頭部が所定の位置にあるときに、当該聴取者の前方方向の所定の位置に設定するようにしたものである。
【0036】
このように、ヘッドレスト部30の左スピーカSLと右スピーカSRから放音される音声が、左右の仮想スピーカVSL、VSRが示す位置から放音されたように定位させることにより、前述もしたように、音声が聴取者の後頭部付近や聴取者の耳の後方から聞こえることによる違和感、不快感を除去し、自然な音声として聴取者が聴取できるようにしている。
【0037】
以下、この第1の実施の形態の音響処理装置の各部について詳細に説明する。まず、音像定位処理フィルタ部10を説明するに当たり、音像定位処理の原理について説明する。図3は、音像定位処理の原理を説明するための図である。
【0038】
図3に示すように、所定の再生音場において、ダミーヘッドDHの位置を聴取者の位置とし、このダミーヘッドDHの位置の聴取者に対して、音像を定位させようとする左右の仮想スピーカ位置(スピーカがあるとものと想定する位置)に実際に左実スピーカSPL、右実スピーカSLRを設置する。
【0039】
そして、左実スピーカSPL、右実スピーカSPRから放音される音声をダミーヘッドDHの両耳部分において収音し、左実スピーカSPL、右実スピーカSPRから放音された音声が、ダミーヘッドDHの両耳部分に到達したときには、どのように変化するか示す伝達関数(HRTF)を予め測定しておく。
【0040】
図3に示すように、この第1の実施の形態においては、左実スピーカSPLからダミーヘッドDHの左耳までの音声の伝達関数はM11であり、左実スピーカSPLからダミーヘッドDHの右耳までの音声の伝達関数はM12であるとする。同様に、右実スピーカSPRからダミーヘッドDHの左耳までの音声の伝達関数はM21であり、右実スピーカSPRからダミーヘッドDHの右耳までの音声の伝達関数はM22であるとする。
【0041】
そして、図1のヘッドレスト部30について前述したように、聴取者の耳の近傍に位置することになるヘッドレスト部30のスピーカSL、SRから放音する音声の音声信号について、上述のようにして予め測定した伝達関数を用いて処理し、その処理後の音声信号による音声を放音するようにする。
【0042】
これにより、ヘッドレスト部30のスピーカSL、SRから放音される音声が、あたかも仮想スピーカ位置(図1、図2において、仮想スピーカVSL、VSRの位置)から音声が放音されているように聴取者が感じるように、スピーカSL、SRから放音される音声の音像を定位させることができる。
【0043】
なお、ここでは、伝達関数(HRTF)の測定を行なう場合にダミーヘッドDHを用いるものとして説明したが、これに限るものではない。伝達関数を測定するための再生音場において、実際に人間を座らせ、その人間の耳近傍にマイクを置いて音声の伝達関数を測定してももちろんよい。
【0044】
このように、所定の位置に音像を定位させるために、予め測定するようにした音声の伝達関数による処理を行なう部分が、図1に示した音像定位処理フィルタ部10である。この実施の形態の音像定位フィルタ処理部10は、左右2チャンネルの音声信号を処理することができるものであり、図1に示すように、4つのフィルタ11、12、13、14と、2つの加算部15、16からなるものである。
【0045】
フィルタ11は、左入力端子Linを通じて供給を受けた左チャンネルの音声信号を伝達関数M11で処理するものであり、処理後の音声信号を左チャンネル用の加算部15に供給する。また、フィルタ12は、左入力端子Linを通じて供給を受けた左チャンネルの音声信号を伝達関数M12で処理するものであり、処理後の音声信号を右チャンネル用の加算部16に供給する。
【0046】
また、フィルタ21は、右入力端子Rinを通じて供給を受けた右チャンネルの音声信号を伝達関数M21で処理するものであり、処理後の音声信号を左チャンネル用の加算部15に供給する。また、フィルタ22は、右入力端子Rinを通じて供給を受けた右チャンネルの音声信号を伝達関数M22で処理するものであり、処理後の音声信号を右チャンネル用の加算部16に供給する。
【0047】
これにより、左チャンネル用の加算部15からの出力音声信号による音声と、右チャンネル用の加算部16からの出力音声信号による音声とは、図1、図2において左仮想スピーカVSL、右仮想スピーカVSRから放音されるように、その音像が定位するようにされる。
【0048】
しかし、ヘッドレスト部30に設けられた左スピーカSL、右スピーカSRから放音される音声は、音像定位処理が施されていても、図1に示すように、実際の再生音場における伝達関数G11、G12、G21、G22の影響を受けて、再生音声の音像を目的とする仮想スピーカ位置に正確に定位させることができない場合がある。
【0049】
そこで、この第1の実施の形態においては、トランスオーラルシステムフィルタ部20を用いて、音像定位処理フィルタ部10からの音声信号に対して補正処理を行なうようにすることで、左スピーカSL、右スピーカSRから放音される音声を、正確に仮想スピーカ位置の左右の仮想スピーカVSL、VSRから放音されたように定位させる。
【0050】
トランスオーラルシステムフィルタ部20は、トランスオーラルシステムが適用されて形成された音声フィルタである。トランスオーラルシステムは、ヘッドホンを用いて音声を厳密に再生するようにする方式であるバイノーラルシステム方式と同様の効果を、スピーカを用いた場合にも実現しようとする技術である。
【0051】
トランスオーラルシステムについて、図1の場合を例にして説明すると、左スピーカSL、右スピーカSRから放音される音声について、それぞれのスピーカから放音される音声の聴取者の左右それぞれの耳までの伝達関数G11、G12、G13、G14の影響を除去することにより、左スピーカSL、右スピーカSRから放音される音声を厳密に再生させるようにするものである。
【0052】
したがって、図1に示すトランスオーラルシステムフィルタ部20は、左スピーカSL、右スピーカSRから放音されることになる音声について、再生音場における伝達関数の影響を除去することにより、左スピーカSL、右スピーカSRから放音される音声の音像を正確に仮想スピーカ位置応じた位置に定位させるようにする。
【0053】
具体的にトランスオーラルシステムフィルタ部20は、左スピーカSL、右スピーカSRから聴取者の左右の耳までの伝達関数の影響を除去するために、右スピーカSRから聴取者の左右の耳までの伝達関数の逆関数に応じて音声信号を処理するフィルタ21、22,23、24と、加算部25、26を備えたものである。なお、この第1の実施の形態において、フィルタ21、22,23、24においては、逆フィルタ特性をも考慮した処理を行ないより自然な再生音声を放音できるようにしている。
【0054】
また、詳しくは後述もするように、左スピーカSL、右スピーカSRから聴取者の左右の耳までの伝達関数は、左右のスピーカSL、SRと聴取者の頭部の位置(聴取者の耳の位置)によって変わってしまう。このため、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24のそれぞれには、データベース60に予め蓄積されている聴取者の頭部の位置に応じた各フィルタに対するフィルタ係数がCPU50を通じてセットすることができるようにされている。
【0055】
そして、音像定位処理フィルタ部10の左チャンネル用の加算部15からの出力音声信号は、トランスオーラルシステムフィルタ部20の左チャンネル用のフィルタ21と、右チャンネル用のフィルタ22とに供給され、また、音像定位処理フィルタ部10の右チャンネル用の加算部16からの出力音声信号は、トランスオーラルシステムフィルタ部20の左チャンネル用のフィルタ23と、右チャンネル用のフィルタ24とに供給される。
【0056】
各フィルタ21、22、23、24のそれぞれは、CPU50からのフィルタ係数を用いて所定の処理を行なうものであり、具体的には、前述もしたように、スピーカSL、SRから聴取者の現在の頭部の位置に応じた伝達関数の逆関数H1n、H2n、H3n、H4nを用いて、自フィルタに供給された音声信号を処理する。
【0057】
なお、各フィルタ21、22、23、24で用いられる伝達関数の逆関数H1n、H2n、H3n、H4nにおいて、nは、聴取者の頭部の位置に応じて決まる変数を意味し、n以外の文字であるH1、H2、H3、H4は、順にフィルタ21、22、23、24のおのおのにおいて用いられる関数であることを示している。
【0058】
そして、フィルタ21からの出力は、左チャンネル用の加算部25に供給され、フィルタ22からの出力は、右チャンネル用の加算部26に供給される。同様に、フィルタ23からの出力は、左チャンネル用の加算部25に供給され、フィルタ24からの出力は、右チャンネル用の加算部26に供給される。
【0059】
そして、各加算部25、26は、これらに供給された音声信号を加算し、加算部25は、左スピーカSLに音声信号を供給し、加算部26は、右スピーカSRに音声信号を供給する。これにより、ヘッドレスト部30のスピーカSL、SRから放音される音声は、再生音場における現在の聴取者の頭部の位置に応じた伝達関数の影響が除去され、その音像が正確に左仮想スピーカVSL、右仮想スピーカVSRから放音された音声のように定位させることができるようにしている。
【0060】
このように、この第1の実施の形態の音響処理装置1は、ヘッドレスト部30の近傍の所定の位置に頭部が位置する聴取者は、ヘッドレスト部30のスピーカSL、SRから放音される音声を仮想スピーカVSL、VSRから放音されたように聴取することができるようにされる。
【0061】
したがって、聴取者の頭部の斜め後ろ側に位置する左スピーカSL、右スピーカSRから放音される音声を聴取するにもかかわらず、音声は聴取者の前方方向から聞こえてくるようにされるので、左スピーカSL、右スピーカSRから放音される音声が聴取者の後ろ側に張り付いて聞こえるなどの違和感や不快感を感じることなく、良好に音声を聴取できるようにすることができる。
【0062】
しかしながら、前述もしたように、図1に示した音響処理装置1の場合、仮想スピーカVSL、VSRが示す仮想スピーカ位置から聴取者の両耳までの位置関係、および、スピーカSL、SRから聴取者の両耳までの位置関係が、伝達関数測定時と、システム再生時(実際に音声を再生して聴取する時)とで大きく変わってしまう場合には、各伝達関数も変わってしまうため、仮想スピーカ位置への音像の定位の効果が薄くなる。
【0063】
この第1の実施の形態の音響処理装置1の場合には、図1に示すように、ヘッドレスト部30のスピーカSL、SLから聴取者の耳までの伝達関数が、伝達関数G11、G12、G21、G22である位置に聴取者の頭部がある場合には、当該聴取者は、ヘッドレスト部30のスピーカSL、SRから放音される音声を仮想スピーカVSL、VSRから放音されたかのように聴取することができる。
【0064】
しかし、ヘッドレスト部30のスピーカSL、SRに対する聴取者の頭部の位置が想定した位置よりもずれてしまえば、仮想スピーカ位置にスピーカSL、SRから放音した音声の音像を定位させるようにする仮想スピーカ定位効果が十分には得られない。
【0065】
特に、スピーカの放音面に対して平行に上下方向や左右方向に動いてしまった場合には、スピーカの放音面に対して直交する方向に聴取者の頭部が動いた場合(スピーカに近づくように、あるいは、スピーカから遠ざかるように動いた場合)に比べてその影響は大きい。
【0066】
このため、仮想スピーカ定位の効果を得るためには、スピーカに対する聴取者の頭部の位置(耳の位置)を必ず決まった位置となるようにして、音声を聴取するか、聴取者の様々な頭部の位置における伝達関数を測定しておき、その位置に適するような伝達関数や逆フィルタを通したシステムで音声を再生するようにすることが望ましい。
【0067】
しかし、当該ヘッドレスト部30を有する椅子に腰をかけた聴取者の頭部の位置を常にスピーカに対して所定の位置の保持するようにすることは難しい。また、保持するようにすることができたとしても、かえって聴取者のリラックス感を阻害することにもなりかねない。
【0068】
そこで、この第1の実施の形態の音響処理装置1においては、当該音響処理装置1が動作状態にあるときには、例えば所定のタイミング毎に、ヘッドレスト部30から聴取者の頭部までの距離、位置を測定し、測定した聴取者の頭部の位置に応じたフィルタ係数をトランスオーラルシステムフィルタ部20の各フィルタに供給することによって、聴取者の頭部の最新の位置に応じて音像定位処理後の音声信号に対して補正処理を行なう。
【0069】
このようにすることによって、聴取者の頭部が動くことにより、聴取者の頭部の位置が、ヘッドレスト部30、すなわち、スピーカSL、SRに対して変わってしまった場合でも、仮想スピーカ位置に音像を定位させるようにする仮想スピーカ定位効果が劣化することがなく、より自由な姿勢でヘッドレスト部30の左右のスピーカSL、SRからの音声を聴取することができるようにしている。
【0070】
そして、この第1の実施の形態の音響処理装置1においては、ヘッドレスト部30に搭載されたスピーカのスーパーツイータを聴取者の頭部の位置検出センサとして用いるようにしている。近年、再生オーディオについてのHiFi指向が進み、可聴周波数帯域以上の再生性能を持つスピーカを実装することは珍しいことではないため、これを利用するようにしたものである。
【0071】
このように、この第1の実施の形態の音響処理装置1のスピーカSL、SRのスーパーツイータは、可聴周波数以上の再生能力を持つものであり、この構成のスピーカ(スピーカデバイス)を聴取者の頭部の位置の測定に用いることにより、感圧式などの専用のセンサシステムを搭載しなくても済むように構成したものである。
【0072】
そして、ヘッドレスト部30のスピーカSL、SRのスーパーツイータから所定の周波数の超音波を送信し、この超音波の聴取者の主に頭部からの反射をヘッドレスト部30のスピーカSR、SLのスーパーツイータを通じて受信し、当該超音波の反射波の受信の有無や、反射波を受信した場合には、超音波を送信してからその反射波を受信するまでにかかった時間、当該時間と超音波の速度とから得られるスピーカと聴取者との距離などに基づいて、ヘッドレスト部30に対する聴取者の頭部の位置を検出する。
【0073】
図4は、この第1の実施の形態の音響処理装置1において行なう聴取者の頭部の位置の検出処理を説明するための図である。図4に示すように、ヘッドレスト部30の左右のスピーカSL、SRのスーパーツイータから40kHzの超音波を送信し、この超音波の使用者の頭部からの反射波を、同じくヘッドレスト部30の左右のスピーカSL、SRのスーパーツイータにより受信する。
【0074】
左右のスピーカSL、SRのスーパーツイータからの超音波の送信の制御は、例えばCPU50によって制御される。そして、左右のスピーカSL、SRのスーパーツイータにより受信される超音波は、検出部40に供給するようにされる。この検出部40において、40kHzの超音波(反射波)の有無や、40kHzの超音波(反射波)を受信したときには、当該超音波の送信から受信までにかかった時間、超音波の速度などからヘッドレスト部30の左右のスピーカSL、SRに対する聴取者の頭部の位置を検出する。
【0075】
すなわち、図4A、Bに示すように、ヘッドレスト部30のスピーカSL、SRのスーパーツイータのそれぞれが、同じように送信した超音波の反射波を同じように受信した場合には、送信から受信までにかかった時間に応じて、ヘッドレスト部30に対する聴取者の頭部の位置を検出することができる。
【0076】
簡単に言えば、例えば、図4Aに示したように、超音波の送信から受信までにかかった時間が比較的に長い場合には、聴取者の頭部は、ヘッドレスト部30から比較的に離れた位置に位置していることがわかる。また、図4Bに示したように、超音波の送信から受信までにかかった時間が比較的に短い場合には、聴取者の頭部の位置は、ヘッドレスト部30から比較的に近い位置に位置していることがわかる。
【0077】
また、図4Cに示すように、ヘッドレスト部30に設けた左右のスピーカSL、SRのスーパーツイータから同じように送信した超音波を例えば左スピーカSLのスーパーツイータのみが受信し、右スピーカSRのスーパーツイータは40kHzの超音波を受信しなかった場合には、聴取者の頭部は、ヘッドレスト部30に対して左側に片寄っていることがわかる。
【0078】
この逆に、ヘッドレスト部30に設けた左右のスピーカSL、SRのスーパーツイータから同じように送信した超音波を例えば右スピーカSRのスーパーツイータのみが受信し、左スピーカSLのスーパーツイータは40kHzの超音波を受信しなかった場合には、聴取者の頭部は、ヘッドレスト部30に対して右側に片寄っていることがわかる。
【0079】
このように、検出部40は、左右のスピーカから送信された超音波の聴取者の頭部からの反射波に基づいて、ヘッドレスト部30のスピーカSL、SRからの距離および左右のオフセット(ずれ分)などがセンシング可能である。この場合、聴取者の頭部の位置は、例えば、本来聴取者の頭部が位置すべき基準位置からのずれ分(オフセット分)として検出され、これがCPU50に通知される。
【0080】
そして、CPU50は、検出部40からの聴取者の頭部の位置の検出結果に基づいて、データベース60を参照し、現在の聴取者の頭部の位置に応じたトランスオーラルシステムフィルタ部20の各フィルタ21から24に供給する係数データを読み出す。
【0081】
この第1の実施の形態において、データベース60には、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24のそれぞれに供給する係数データであって、ヘッドレスト部30に対する聴取者の頭部の位置に応じたデータが記憶されている。
【0082】
すなわち、ヘッドレスト部30のスピーカSL、SRから放音された音声の聴取者の左右の耳元までの伝達関数を、予めヘッドレスト部30に対する聴取者の頭部の位置をいろいろと変えて測定しておき、この測定結果に基づいて、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24で用いる係数データを求め、この求めた係数データと聴取者の頭部の位置とを対応付けたデータがデータベース60に記憶するようにされている。
【0083】
したがって、データベース60には、聴取者の頭部の位置が、位置Aにおけるトランスオーラルシステムフィルタ部20のフィルタ21、22、23、24のそれぞれで用いられる係数データ、位置Bにおけるトランスオーラルシステムフィルタ部20のフィルタ21、22、23、34のそれぞれで用いられる係数データ、…というように、ヘッドレスト部30に対してその位置を変えるようにした聴取者の頭部の各位置におけるフィルタ21、22、23、24で用いる係数データが記憶されている。
【0084】
CPU50は、検出部40からの現在の使用者の頭部の位置の検出結果に基づいて、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24に供給する係数データをデータベース60から読み出し、これをトランスオーラルシステムフィルタ部20の対応するフィルタに供給する。
【0085】
これにより、聴取者の頭部の位置がヘッドレスト部30に対して動いても、聴取者の実際の頭部の位置を測定して、その位置に応じて再生音場における伝達関数の影響を除去するようにトランスオーラルシステムフィルタ部20において、補正処理を行なうことができる。したがって、ヘッドレスト部30の左右のスピーカSL、SRから放音される音声の音像を聴取者の頭部の位置にかかわりなく仮想スピーカ位置に定位させることができる。
【0086】
なお、この第1の実施の形態においては、データベース60には、聴取者の頭部が取り得る各位置において測定した伝達関数に基づいて、頭部の各位置において各フィルタにセットする関数を求め、この関数と頭部の位置とを対応付けて記憶するようにしてもよい。すなわち、補正に用いる関数自体を頭部の位置に対応付けてデータベースに記憶しておき、これをトランスオーラルシステムフィルタ部の目的とするフィルタにセットするようにしてもよい。
【0087】
また、前述した第1の実施の形態の場合のように、例えば、基準位置における伝達関数を測定し、この基準伝達関数に対する振幅調整用パラメータや遅延処理用パラメータなどの必要なパラメータを設定しておき、この基準パラメータを基準にして、検出される聴取者の頭部の実際の位置に応じ、新たなパラメータを求め、これを各フィルタに設定するようにしてもよい。
【0088】
つまり、1つの伝達関数モデルを設定し、このモデルに対して聴取者の頭部の位置に応じて調整を行なうようにすることによって、聴取者の実際の頭部の位置に応じた補正処理を音声信号に対して行なうようにすることもできる。この場合には、基準モデルとして、基準位置に置けるパラメータを例えばCPUで実行するプログラム中に保持するようにした場合には、パラメータを保持するためのメモリは必要ないし、また、基準パラメータのみをメモリに保持しておくのであれば、大きな記憶容量のメモリは必要ないことになる。
【0089】
なお、上述したように、データベース60に蓄積され、トランスオーラルシステムフィルタ部20の各フィルタに供給することになる処理用情報としては、係数データ、関数データ、パラメータデータなど、複数種類のものがかんがえられるが、これらは、実際に音響処理装置に搭載されることになる各フィルタ回路に応じて用いるようにすればよい。
【0090】
また、データベース60は、例えば、ROMやEEPROMなどの半導体メモリである。なお、データベース60として、磁気ディスク、光ディスク、光磁気ディスクなどの記録媒体を用いるようにすることもできる。
【0091】
[第1の実施の形態の変形例]
図5は、第1の実施の形態の音響処理装置の変形例を説明するためのブロック図である。図5に示すように、この例の音響処理装置2は、トランスオーラルシステムフィルタ部20に変えて、簡易型トランスオーラルシステムフィルタ部70が搭載されたことを除けば、図1に示した第1の実施の形態の音響処理装置1と同様に構成されたものである。このため、この図5に示す音響処理装置2において、図1に示した第1の音響処理装置1と同様に構成される部分には、同じ参照符号を付し、その詳細な説明は省略する。
【0092】
図1、図2、図5に示したように、ヘッドレスト部30と聴取者の頭部とは通常近接しており、ヘッドレスト部3のスピーカSL、SRは、聴取者の耳に近いという性質上、スピーカSL、SRから反対側の耳へのクロストーク成分は、スピーカSL、SRから当該スピーカに対応する側の耳への音声信号成分よりも格段に小さい。
【0093】
つまり、図1に示した例において、クロストーク成分の伝達関数G12、G21は、伝達関数G11、G22よりも格段に小さいので、クロストーク成分の伝達関数G12、G21は無視することができる。このため、クロストーク成分の考慮を通常のトランスオーラルシステムから省略することにより、簡略化を図ったものが、図5に示す簡易型トランスオーラルシステムフィルタ部70である。
【0094】
この簡易型トランスオーラルシステムフィルタ部70は、図5に示すように、ヘッドレスト部30の左スピーカSLから聴取者の左耳までの音声の伝達関数G1の逆関数で音声信号を処理するフィルタ71と、右スピーカSRから聴取者の右耳までの音声の伝達関数G2の逆関数で音声信号を処理するフィルタ72とを備えたものである。このように、クロストーク成分を無視するようにした場合であっても、音の定位は仮想スピーカ位置になることは実験により確認されている。
【0095】
そして、簡易型トランスオーラルシステムフィルタ部70の2つのフィルタ71、72のそれぞれには、実際には、後述もするように、再生音場における聴取者の実際の頭部の位置に応じた関数、あるいは、係数データが設定するようにされる。
【0096】
この場合、データベース60に用意しておくデータもフィルタ71、72に対するものだけでよいので、データベース60に記憶保持しておくデータ量を少なくすることができる。したがって、データベース60として記憶容量の小さなものを用いることができる。
【0097】
また、図5に示した音響処理装置2の場合には、簡易型トランスオーラルシステムフィルタ部70を用いることにより、音響処理装置の構成を簡単にすることができる。
【0098】
また、図5に示した音響処理装置の場合にも、図1に示した第1の実施の形態の音響処理装置1の場合と同様に、聴取者の頭部の斜め後ろ側に位置する左スピーカSL、右スピーカSRから放音される音声を聴取するにもかかわらず、音声は聴取者の前方方向から聞こえてくるようにされるので、左スピーカSL、右スピーカSRから放音される音声が聴取者の後ろ側に張り付いて聞こえるなどの違和感や不快感を感じさせずに、良好に音声を聴取できるようにすることができる。
【0099】
[第2の実施の形態]
図6は、この発明が適用された第2の実施の形態の音響処理装置3を説明するためのブロック図である。この第2の実施の形態の音響処理装置は、例えばDVDなどのマルチチャンネルのメディアからの音声信号を処理することができるものであり、この第2の実施の形態においては、5チャンネルの音声信号を処理することができるものである。
【0100】
図6に示すように、この第2の実施の形態の音響処理装置3は、5チャンネル分の音声信号の入力端子i1〜i5を備え、例えば、DVDなどのマルチチャンネルの記録媒体からの5チャンネル分の音声信号の入力を受けることができるものである。そして、図6に示す音響処理装置3は、ヘッドレスト部30、頭部位置検出部40、CPU50、データベース60、簡易型トランスオーラルシステムフィルタ部70、音像定位処理フィルタ部80を備えたものである。
【0101】
ヘッドレスト部30は、図1に示した第1の実施の形態の音響処理装置1、および、図5に示した第1の実施の形態の変形例の音響処理装置2のヘッドレスト部30と同様に構成されたものである。また、簡易型トランスオーラルシステムフィルタ部70は、図5を用いて前述した第1の実施の形態の変形例の音響処理装置2の簡易型トランスオーラルシステムフィルタ部70と同様に構成されたものである。
【0102】
そして、この第2の実施の形態の音響処理装置3の音像定位処理フィルタ部80は、基本的には、第1の実施の形態の音響処理装置の音像定位処理フィルタ部10と同様の原理に基づいて、スピーカから放音される音声の音像を定位させるものである。
【0103】
しかし、図6に示すこの第2の実施の形態の音響処理装置においては、ヘッドレスト部30の左右のスピーカSL、SRから放音される音声の音像を、図6において、点線で示した5つの仮想スピーカVS1〜VS5から放音されているように定位させるようにしている。
【0104】
図7は、図6に示した第2の実施の形態の音響処理装置3の音像定位処理フィルタ部80の原理を説明するための図である。図7に示すように、所定の再生音場において、ダミーヘッドDHの位置を聴取者の位置とし、このダミーヘッドDHの位置の聴取者に対して、音像を定位させようとする仮想スピーカ位置(スピーカがあるとものと想定する位置)に実際に実スピーカSP1〜SP5を設置する。そして、実スピーカSP1〜SP5のそれぞれから放音される音声のダミーヘッドDHの左右それぞれの耳までの伝達関数(HRTF)を予め測定しておく。
【0105】
図7に示すように、この第2の実施の形態において、実スピーカSP1からダミーヘッドDHの左耳までの音声の伝達関数はN11であり、実スピーカSP1からダミーヘッドDHの右耳までの音声の伝達関数はN12である。また、実スピーカSP2からダミーヘッドDHの左の耳までの音声の伝達関数はN21であり、実スピーカSP2からダミーヘッドDHの右の耳までの音声の伝達関数はN22である。
【0106】
以下同様に、実スピーカSP3からダミーヘッドDHの左右それぞれの耳までの音声の伝達関数は、N31、N32であり、実スピーカSP4からダミーヘッドDHの左右それぞれの耳までの音声の伝達関数は、N41、N42である。また、実スピーカSP5からダミーヘッドDHの左右それぞれの耳までの音声の伝達関数は、N51、N52である。
【0107】
そして、入力端子i1〜i5のそれぞれから入力される音声信号について、図7を用いて説明したように、予め測定した対応する伝達関数を用いて処理するとともに、簡易型トランスオーラルシステムフィルタ部70において補正処理し、その処理後の音声信号による音声をヘッドレスト部30の左右のスピーカSL、SRに供給し、音声を放音するようにする。
【0108】
これにより、ヘッドレスト部30のスピーカSL、SRから放音される音声が、あたかも図6において点線で示した仮想スピーカVS1〜VS5が示す位置から放音されているように視聴者が感じるようにその音像を定位させることができる。
【0109】
このように、音像を定位させるために、予め測定した音声の伝達関数による処理を行なう部分が、図6に示した音像定位処理フィルタ部80である。この実施の形態の音像定位フィルタ処理部80は、前述もしたように、5チャンネルの音声信号を処理することができるものであり、10個のフィルタ81〜90と、2つの加算部91、92とからなるものである。
【0110】
フィルタ81は、端子i1を通じて供給を受けた音声信号を伝達関数N11で処理するものであり、処理後の音声信号を左チャンネル用の加算部91に供給する。また、フィルタ82は、端子i2を通じて供給を受けた音声信号を伝達関数N12で処理するものであり、処理後の音声信号を右チャンネル用の加算部92に供給する。
【0111】
フィルタ83は、端子i2を通じて供給を受けた音声信号を伝達関数N21で処理するものであり、処理後の音声信号を左チャンネル用の加算部91に供給する。また、フィルタ84は、端子i2を通じて供給を受けた音声信号を伝達関数N22で処理するものであり、処理後の音声信号を右チャンネル用の加算部92に供給する。
【0112】
フィルタ85は、端子i3を通じて供給を受けた音声信号を伝達関数N31で処理するものであり、処理後の音声信号を左チャンネル用の加算部91に供給する。また、フィルタ86は、端子i3を通じて供給を受けた音声信号を伝達関数N32で処理するものであり、処理後の音声信号を右チャンネル用の加算部92に供給する。
【0113】
フィルタ87は、端子i4を通じて供給を受けた音声信号を伝達関数N41で処理するものであり、処理後の音声信号を左チャンネル用の加算部91に供給する。また、フィルタ88は、端子i4を通じて供給を受けた音声信号を伝達関数N42で処理するものであり、処理後の音声信号を右チャンネル用の加算部92に供給する。
【0114】
フィルタ89は、端子i5を通じて供給を受けた音声信号を伝達関数N51で処理するものであり、処理後の音声信号を左チャンネル用の加算部91に供給する。また、フィルタ90は、端子i5を通じて供給を受けた音声信号を伝達関数N52で処理するものであり、処理後の音声信号を右チャンネル用の加算部92に供給する。
【0115】
これにより、左チャンネル用の加算部91からの出力音声信号による音声と、右チャンネル用の加算部92からの出力音声信号による音声とは、図6において点線で示した仮想スピーカVS1〜VS5の位置から放音されるように音像が定位するようにされる。
【0116】
そして、この第2の実施の形態の音響処理装置3の場合にも、第1の実施の形態の音響処理装置1、2の場合と同様に、ヘッドレスト部30に設けられた左スピーカSL、右スピーカSRから放音される音声は、音像定位処理が施されていても、実際の再生音場における伝達関数の影響を受けて、再生音声の音像を目的とする仮想スピーカ位置に定位させることができない場合があると考えられる。
【0117】
そこで、この第2の実施の形態の音響処理装置3においても、クロストーク成分を考慮しない簡易型のトランスオーラルシステムフィルタ部70を用いることによって、ヘッドレスト部30の左右のスピーカSL、SRから放音される音声の音像が、正確に各仮想スピーカVS1〜VS5の各位置に定位するようにしている。
【0118】
このように、DVDなどのマルチチャンネルの音源を持つメディアも普及してきているが、この第2の実施の形態の音響処理装置3のように、5チャンネルの音声信号を処理できるようにしておくことによって、ヘッドレスト部30の2つのスピーカSL、SRを通じて、仮想的な5チャンネルの音像を得て、迫力ある再生音声を楽しむことができる。
【0119】
また、聴取者の頭部が動くことにより、ヘッドレスト部30に対する聴取者の頭部の位置が変わった場合であっても、前述した第1の実施の形態の音響処理装置1、2の場合と同様に、ヘッドレスト部30に対する聴取者の頭部の位置を検出し、その位置に応じて簡易型トランスオーラルシステムフィルタ部70のフィルタ71、72の関数やパラメータを変更することにより、ヘッドレスト部30の左右のスピーカSL、SRから放音される音声を仮想スピーカ位置に定位させることができる。
【0120】
すなわち、この第2の実施の形態においても、第1の実施の形態の音響処理装置1、2の場合と同様に、ヘッドレスト部30の左右のスピーカSL、SRのスーパーツイータから超音波を送信し、この送信した超音波の聴取者の頭部からの反射波をスーパーツイータが受信し、これに基づいて、検出部40が、聴取者の頭部の位置を検出し、その位置における伝達関数の影響を除去するように簡易型トランスオーラルシステムフィルタ部70で補正処理することにより音像を所定の仮想スピーカ位置に定位させることができる。
【0121】
なお、この第2の実施の形態においては、簡易型トランスオーラルシステムフィルタ部70を用いるようにしたが、図1に示した第1の実施の形態の音響処理装置1の場合と同様に、クロストーク成分をも考慮したトランスオーラルシステムフィルタ20を用いるようにしてもよい。
【0122】
また、図2、図4、図5に示した音響処理装置の全部をヘッドレスト部30側に設けるようにすることにより、前述した第1の実施の形態の音響処理装置のヘッドレスト部30のように、ヘッドレスト部を背もたれ部から取り外しが可能なように構成することによって、当該ヘッドレスト部を他の椅子の背もたれ部に装着するようにした場合にも、常時所定の位置に音像を定位させ、良好に音声の聴取ができるようにすることができる。
【0123】
また、左右のスピーカ以外の各部からなるアダプタを構成し、このアダプタと、スピーカを設けたヘッドレスト部とにより、この発明による音響処理装置を構成するようにすることもできる。また、左右のスピーカSL、SR以外の各部を、例えば、椅子の背もたれ部に設けたり、音声信号の再生機器側に設けたりすることにより、この発明の音響処理装置を構成することもできる。
【0124】
なお、前述した第1、第2の実施の形態の音響処理装置においては、ヘッドレスト部30に搭載されたスピーカSL、SRのスーパーツイータを聴取者の頭部の位置を検出するための超音波の送信部として、また、送信された超音波が聴取者の頭部にあって戻ってくる反射波を受信するための受信部として用いるようにした。
【0125】
したがって、超音波の送信部、受信部とも新たに設ける必要がないので、比較的に安価に、聴取者の頭部の位置を検出する機能を搭載した音響処理装置を実現することができる。
【0126】
そして、前述した第1、第2の実施の形態の場合には、ヘッドレスト部30に対する聴取者の頭部の位置を、常に、あるいは、随時に測定し、その測定した位置に応じた伝達関数に応じた補正処理(トランスオーラル処理)することで、従来のような聴取者の頭部の測定位置と聴取位置の不正合による仮想スピーカ定位効果の不足の状態を避け、聴取者の頭部の位置に左右されることなく、第1の実施の形態のように音像の前方定位や第2の実施の形態のように音像の全周囲定位などの効果を実現することができる。
【0127】
[第3の実施の形態]
ところで、より高品位の音声の提供が可能な音響処理装置を実現するために、ヘッドレスト部に対する聴取者の頭部の位置の検出精度を上げ、音声信号に対するトランスオーラルシステムによる補正処理をより厳密に行なえるようにしたいとする要求がある。
【0128】
そこで、この第3の実施の形態の音響処理装置においても、聴取者の頭部の位置を検出するための超音波を、前述した第1、第2の実施の形態の音響処理装置の場合と同様に、ヘッドレスト部30に設けられたスピーカSL、SRのスーパーツイータから送信する。
【0129】
しかし、この第3の実施の形態の音響処理装置においては、送信された超音波の反射波は、ヘッドレスト部30、あるいは、その近傍に設ける複数個の超音波受信素子によって受信するようにし、より精度よく聴取者の頭部の位置を検出できるようにしたものである。
【0130】
図8は、この第3の実施の形態の音響処理装置4を説明するためのブロック図である。図8に示すように、この第3の実施の形態の音響処理装置4は、左右2チャンネルのスピーカSL、SRと、複数個の超音波受信素子とが設けられたヘッドレスト90と、複数個の受信素子からの検出出力を受け付ける頭部位置検出部40A以外は、図1に示した第1の実施の形態の音響処理装置と同様に構成されたものである
このため、図8に示す第3の実施の形態の音響処理装置4において、図1に示した第1の実施の形態の音響処理装置1と同様に構成される部分には、第1の実施の形態の音響処理装置1と同様の参照符号を付し、その部分の説明は省略することにする。
【0131】
そして、上述もしたように、図8に示すこの第3の実施の形態の音響処理装置4の場合には、ヘッドレスト部90に、6つの超音波受信素子(超音波感知素子)SS1〜SS6をアレイ状に設けている。そして、左チャンネルSLのスーパーツイータと、右チャンネルSRのスーパーツイータから、周波数の異なる超音波を送信し、その反射波を超音波受信素子(以下、単に受信素子という。)SS1〜SS6で受信し、その検出出力に基づいて、検出部40Aが聴取者の頭部の位置をより正確に検出することができるようにしている。
【0132】
図9は、この第3の実施の形態の音響処理装置において行なう聴取者の頭部の位置の検出処理を説明するための図である。図9に示すように、本来聴取者の頭部がある方向にその放音面が向けられた左右のスピーカSL、SRから、異なる周波数の超音波を送信し、この送信した超音波の聴取者の頭部からの反射波を受信素子SS1〜SS6により受信するようにする。
【0133】
この図9に示す例の場合、左スピーカSLのスーパーツイータからは、周波数が40kHzの超音波を送信し、右スピーカSRのスーパーツイータからは、周波数が50kHzの超音波を送信するようにしている。このようにすることによって、位置検出の精度をより向上させるようにしている。
【0134】
そして、図9Aに示すように、ヘッドレスト部90に設けられた受信素子SS1〜SS6のいずれもが、左右のスピーカSL、SRのスーパーツイータから送信された超音波の反射波を受信できない場合には、聴取者の頭部の位置は、ヘッドレスト90から所定の距離以上離れた位置にあると検出することができる。
【0135】
また、図9Bに示すように、左スピーカSLのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、40kHzの超音波が受信素子SS3により受信され、かつ、右スピーカSRのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、50kHzの超音波が受信素子SS1により受信された場合には、聴取者の頭部の位置は、ヘッドレスト部90の左スピーカSL側によった位置にあると検出することができる。
【0136】
また、図示しないが、図9Bの場合とは逆に、左スピーカSLのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、40kHzの超音波が受信素子SS6により受信され、かつ、右スピーカSRのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、50kHzの超音波が受信素子SS4が受信した場合には、聴取者の頭部の位置は、ヘッドレスト部90の右スピーカSL側によった位置にあると検出することができる。
【0137】
さらに、図9Cに示すように、左スピーカSLのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、40kHzの超音波が受信素子SS3により受信され、かつ、右スピーカSRのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、50kHzの超音波が受信素子SS4が受信した場合には、聴取者の頭部の位置は、ヘッドレスト部90の左右のスピーカSL、SRのちょうど中間の位置にあると検出することができる。
【0138】
このように、左右のスピーカSL、SRのスーパーツイータから送信される、周波数の異なる超音波をヘッドレスト部90にアレイ状に設けられた6つの受信素子の内のどの受信素子が受信したかに応じて、ヘッドレスト部90に対する聴取者の頭部のオフセット(ずれ分)を検出することができる。
【0139】
さらに、左右のスピーカのスーパーツイータから送信される超音波について、その送信から受信素子により受信されるまでの時間を計測しておくことにより、当該時間と超音波の速度とに応じて、ヘッドレスト部90から聴取者の頭部までの距離を検出することができる。これらヘッドレスト部90に対する聴取者の頭部のオフセット、および、距離に基づいて、ヘッドレスト部90に対する聴取者の頭部の位置をより正確に検出することができる。
【0140】
そして、検出部40Aは、ヘッドレスト部90にアレイ状に設けられた各受信素子からの検出出力に基づいて聴取者の頭部の正確な位置を検出する。すなわち、検出部40Aは、上述したように、どの受信素子によって、左右それぞれのスピーカのスーパーツイータから送信された超音波を受信したか、さらに、左右それぞれのスピーカのスーパーツイータから送信された超音波の送信から受信までの時間を考慮して、聴取者の頭部の位置を検出する。
【0141】
そして、CPU50は、前述した第1の実施の形態の音響処理装置1のCPU50の場合と同様に、検出部40Aからのヘッドレスト部90に対する現在の聴取者の頭部の位置に対応するデータをデータベース60から読み出し、読み出したデータ(係数データ、関数データ、あるいは、パラメータなど)をトランスオーラルシステムフィルタ部20の目的とするフィルタ21、22、23、24に供給する。
【0142】
これにより、トランスオーラルシステム部20においては、ヘッドレスト部90に対する現在の聴取者の頭部の位置に応じて、音像定位処理後の音声信号に対する補正処理が行なわれ、補正後の音声信号が左右のスピーカSL、SRに供給され、ヘッドレスト部90に対して聴取者の頭部の位置が変わってしまっても、左右のスピーカから放音される音声の音像を仮想スピーカ位置に定位させることができる。
【0143】
そして、前述した第1〜第3の実施の形態の音響処理装置1、2、3、4の場合には、聴取者の頭部の位置の検出に超音波を用いている。超音波は人間の耳では音として聴取することはできないので、聴取者に頭部の検出処理を行なっていることを気付かれることがない。
【0144】
また、通常の音楽成分であれば、検出精度(測定精度)にかかわるほどの超音波成分は含まれていないため、聴取目的の再生音声(音楽信号)との干渉が問題になることはない。すなわち、音楽の再生中において、再生音声を劣化させることなく、かつ、聴取者に気付かれることなく、スピーカに対する聴取者の位置を測定し、検出することが可能である。
【0145】
なお、前述した第3の実施の形態の音響処理装置4においては、6つの超音波受信素子をヘッドレスト部90に設けるようにしたが、これに限るものではなく、さらに多くの超音波受信素子を用いるようにしてももちろんよいし、複数の受信素子を複数列設けるようにしてもよい。また、受信素子間の間隔や左右のスピーカSL、SRの放音面の向きなどを適宜調整するようにすることもできる。
【0146】
また、超音波受信素子を設ける位置は、ヘッドレスト部90やその近傍のほか、聴取者の頭部からの反射の受信が可能な任意の場所に設けるようにしてもよい。
【0147】
また、トランスオーラルシステムフィルタ部20に変えて、図5に示した第1の実施の形態の変形例において用いるようにした簡易型トランスオーラルシステム部70を用いるようにしてもよい。また、2チャンネルの音像定位処理フィルタ部10に変えて、多チャンネル、例えば、5チャンネルの音像定位処理フィルタ80を用いるようにしてもよい。
【0148】
したがって、前述した第3の実施の形態の音響処理装置の場合にも、前述した第1、第2の実施の形態の音響処理装置の場合と同様に、ヘッドレスト部90に対する聴取者の頭部の位置を、常に、あるいは、随時に測定し、その測定した位置に応じた伝達関数に応じた補正処理(トランスオーラル処理)することで、従来のような聴取者の頭部の測定位置と聴取位置の不正合による仮想スピーカ定位効果の不足の状態を避け、聴取者の頭部の位置に左右されることなく、音像の前方定位や音像の全周囲定位などの効果を実現することができる。
【0149】
[第4の実施の形態]
前述した第1〜第3の実施の形態においては、スピーカが設けられたヘッドレスト部に対する聴取者の頭部の位置を超音波を送信し、その反射波を受信することにより検出するようにした。しかし、聴取者の頭部の位置検出は、超音波を用いるものに限るものではない。
【0150】
例えば、音声だけでなく画像の送受信が可能なテレビ電話が家庭において用いられるようになってきている。そこで、例えば図10に示すように、テレビセット(TVセット)200と左右2チャンネルのスピーカSR、SLが設けられたヘッドレスト部30を有する音響処理装置が搭載された椅子とにより、いわゆるホームシアターシステムを構築するような場合には、通常はテレビ電話用として用いられるCCDカメラ210を、ヘッドレスト部30に対する聴取者の頭部の位置検出に用いることができる。
【0151】
また、自動車内(車室内)において音楽などの音声を聴取するようにすることも多い。そこで、図11に示すように、自動車内の座席に左右2チャンネルのスピーカ(SL1、SR1またはSL2、SR2)を搭載したヘッドレスト部を設けることにより音響処理装置を構成することが考えられる。このような場合に、自動車内に例えばテレビ電話用のCCDカメラ310を搭載することにより、当該テレビ電話用のCCDカメラ310をヘッドレスト部に対する聴取者の頭部の位置検出に用いることが可能となる。
【0152】
なお、現状においても、数種類の自動車においては、死角を排除するなどのために、自動車の外側にCCDカメラを設け、このCCDカメラを通じて撮像するようにした画像を車内のディスプレイに表示して観視できるようにしたものも提供されており、自動車内撮像用のCCDカメラを自動車に搭載することも可能である。
【0153】
そこで、この第4の実施の形態の音響処理装置は、スピーカが設けられたヘッドレスト部に対する聴取者の頭部の位置を家庭内や自動車内に設けられるCCDカメラ(CCD装置)を用い、聴取者の頭部がスピーカに対してどれ位オフセットして座っているかをリアルタイムに把握し、その位置に適した伝達関数をシステムに使用することで、より自由な姿勢で仮想スピーカ定位効果を楽しむことができるようにしたものである。
【0154】
なお、この第4の実施の形態の音響処理装置5もまた、前述した第1の実施の形態の音響処理装置1の場合と同様に、左右2チャンネルの音声信号を処理することができるものであり、ヘッドレスト部に設けられた左右2チャンネルのスピーカから放音される音声の音像を聴取者の前方方向に定位させることができるものである。すなわち、音響処理装置5は、ヘッドレスト部に設けられた左右2チャンネルのスピーカから放音される音声を仮想スピーカVSL、VSRから放音されたように音像を定位させることができるものである。
【0155】
図12は、この第4の実施の形態の音響処理装置5を説明するためのブロック図である。この図12に示す音響処理装置5は、図10、図11を用いて説明したように、家庭の室内や自動車内に設けられるようにされるものである。そして、この図12に示す音響処理装置5は、CCDカメラ210と、このCCDカメラ210によって撮像された画像を解析し、ヘッドレスト部30に対する聴取者の頭部の位置を検出するようにする画像解析部40Dを除けば、図1に示した第1の実施の形態の音響処理装置1と同様に構成されたものである。
【0156】
このため、図12に示すこの第4の実施の形態の音響処理装置5において、図1に示した第1の実施の形態の音響処理装置1と同様に構成される部分には、同じ参照符号を付し、その部分の説明については省略する。
【0157】
そして、この第4の実施の形態の音響処理装置5において、CCDカメラ210は、聴取者方向に向けられてセットされ、常に聴取者方向の画像を撮像することができるようにされている。そして、CCDカメラ210は、例えば、CPU50からの制御により、音響処理装置5が動作している間、常時、あるいは、所定のタイミング毎に聴取者方向の画像を撮像し、撮像した画像を画像解析部40Dに供給する。
【0158】
画像解析部40Dは、CCDカメラ210からの画像データの解析処理を行ない、ヘッドレスト部30に対する聴取者の頭部の位置を検出し、これをCPU50に通知する。具体的には、聴取者が座る椅子や座席のヘッドレスト部分などの所定の位置に目印をつけておくことにより、ヘッドレスト部30のスピーカの位置を画像処理的に確認できるようにしておく。
【0159】
そして、聴取者は、椅子に座っている状態でも必ず少しではあるが動いているので、これを利用し、静止画像の時間軸差分を取ることにより、聴取者のエッジ部分が抽出できる。この聴取者のエッジ部分とスピーカの位置とにより、聴取者の頭部とヘッドレスト部30のスピーカSL、SRとの位置関係がわかる。
【0160】
CPU50は、画像解析部40Dからの検出結果(聴取者の頭部の位置)に基づいて、データベース60に記憶されている係数データを読み出し、これをトランスオーラルシステムフィルタ部20の対応するフィルタに供給する。
【0161】
これにより、トランスオーラルシステムフィルタ部20においては、音像定位処理された音声信号に対して、聴取者の頭部の位置に応じた補正が施され、ヘッドレスト部30に対する聴取者の頭部の位置が変わった場合であっても、ヘッドレスト部30の左右のスピーカSL、SRから放音された音声の音像を仮想スピーカVSL、VSRから放音されているように定位させることができる。
【0162】
なお、CCDカメラ210によって撮像した画像を解析する場合には、ヘッドレスト部30の頭部接触面に対して直交する方向である縦方向に頭部が移動した場合と、ヘッドレスト部30の頭部接触面に対して並行な方向である横方向に頭部が移動した場合とでは、後者の横方向の移動の方が容易に検知可能である。
【0163】
もともと、スピーカはヘッドレスト部30に設けられ聴取者の耳の近傍に位置することになるため、聴取者の頭部が同じだけ移動するとしても、ヘッドレスト部30の頭部接触面に対して直交する方向である縦方向に頭部が移動した場合と、ヘッドレスト部30の頭部接触面に対して並行な方向である横方向に頭部が移動した場合とでは、横方向に移動した場合の方がスピーカか聴取者の耳までの伝達関数の変化がきい。
【0164】
このため、この第4の実施の形態の音響処理装置5においては、CDDカメラ210により撮像した画像を解析することにより、聴取者の頭部の横方向の位置(オフセット)をセンシングし、これに応じて、トランスオーラルシステムフィル部20の各フィルタに対して適切なフィルタ係数を用いるようにすることで、ヘッドレスト30の左右のスピーカSL、SRから放音される音声の音像を正確に所定の位置に定位させるようにしている。
【0165】
なお、この第4の実施の形態の音響処理装置5においても、トランスオーラルシステムフィルタ部20に変えて、図5に示した第1の実施の形態の変形例において用いるようにした簡易型トランスオーラルシステム部70を用いるようにすることもできる。また、2チャンネルの音像定位処理フィルタ部10に変えて、多チャンネル、例えば、5チャンネルの音像定位処理フィルタ80を用いるようにすることもできる。
【0166】
したがって、この第4の実施の形態の音響処理装置の場合にも、前述した第1、第2、第3の実施の形態の音響処理装置の場合と同様に、ヘッドレスト部30に対する聴取者の頭部の位置を、常に、あるいは、随時に測定し、その測定した位置に応じた伝達関数に応じた補正処理(トランスオーラル処理)することで、従来のような聴取者の頭部の測定位置と聴取位置の不正合による仮想スピーカ定位効果の不足の状態を避け、聴取者の頭部の位置に左右されることなく、音像の前方定位や音像の全周囲定位などの効果を実現することができる。
【0167】
なお、前述した第1、第2、および、第4の実施の形態において、ヘッドレスト部に設けられるスピーカの放音面は、ヘッドレスト部の頭部が接触する面に平行となるようにした場合を示したが、ヘッドレスト部に設けるスピーカの放音面を聴取者側に傾けるなど、適宜の修正を行なうようにすることも可能である。
【0168】
また、前述の実施の形態においては、ヘッドレスト部に左スピーカSL、右スピーカSRの2つのスピーカを設けるようにした場合の例を示したが、スピーカは、必ず2つである必要はなく、1つであってもよいし、また、3つ以上の複数であってもよい。また、ツイターなどを備えたいわゆるHiFi志向のスピーカデバイスを用いることができることはいうまでもない。
【0169】
また、図1、図5、図6、図8、図12に示した音響処理装置の全部をヘッドレスト部側に設けるようにすることにより、ヘッドレスト部を背もたれ部から取り外しが可能なように構成し、当該ヘッドレスト部を他の椅子の背もたれ部に装着して使用するようにすることができる。
【0170】
また、図1、図5、図6、図8、図12に示した音響処理装置において、左右のスピーカ以外の各部からなるアダプタを構成し、このアダプタと、スピーカを設けたヘッドレスト部とにより、この発明による音響処理装置を構成するようにすることもできる。また、左右のスピーカSL、SR以外の各部を、例えば、椅子の背もたれ部に設けたり、音声信号の再生機器側に設けたりすることにより、この発明の音響処理装置を構成することもできる。
【0171】
【発明の効果】
以上説明したように、スピーカに対する聴取者の頭部の位置を検出し、音像定位処理された音声信号について、実際の聴取者の頭部の位置に応じた補正を施すことができる。これにより、スピーカに対する聴取者の頭部の位置の自由度がまし、聴取者の頭部の多少の移動によっては、音像定位の効果を低下させることのない信頼性の高い音響処理装置を提供することができる。
【図面の簡単な説明】
【図1】この発明による音響処理装置の第1の実施の形態を説明するためのブロック図である。
【図2】第1の実施の形態の音響処理装置が搭載された椅子の外観について説明するための図である。
【図3】図1に示した第1の実施の形態の音響処理装置において行なわれる音像定位処理の原理について説明するための図である。
【図4】図1に示した第1の実施の形態の音響処理装置において行なわれる聴取者の頭部の位置の検出処理を説明するための図である。
【図5】図1に示した第1の実施の形態の音響処理装置の変形例を説明するためのブロック図である。
【図6】この発明による音響処理装置の第2の実施の形態を説明するためのブロック図である。
【図7】図6に示した第2の実施の形態の音響処理装置において行なわれる音像定位処理の原理について説明するための図である。
【図8】この発明による音響処理装置の第3の実施の形態を説明するためのブロック図である。
【図9】図8に示した第3の実施の形態の音響処理装置において行なわれる聴取者の頭部の位置の検出処理を説明するための図である。
【図10】この発明による第4の実施の形態の音響処理装置の利用態様の例を説明するための図である。
【図11】この発明による第4の実施の形態の音響処理装置の利用態様の他の例を説明するための図である。
【図12】この発明による第4の実施の形態の音響処理装置を説明するためのブロック図である。
【符号の説明】
10…音像定位処理フィルタ部、11〜14…フィルタ、15、16…加算部、20…トランスオーラルシステムフィルタ部、21〜24…フィルタ、25、26…加算部、30…ヘッドレスト部、SL…左スピーカ、SR…右スピーカ、VSL…仮想左スピーカ、VSR…仮想右スピーカ、40…頭部位置検出部、50…CPU、60…データベース、70…簡易型トランスオーラルシステムフィルタ部、41、42…フィルタ、80…音像定位処理フィルタ部、81〜90…フィルタ、91、92…加算部、SS1〜SS6…超音波受信素子、210、310…CCDカメラ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a sound processing apparatus that is configured by, for example, a speaker provided on a chair or a headrest, and that emits sound from the rear side of a listener's head.
[0002]
[Prior art]
A chair provided with a speaker at a backrest portion, a reclining chair having a headrest (head support portion) provided with a speaker, and the like have been provided. As described above, the speaker can be provided in the vicinity of the listener's ear by providing the speaker on the backrest portion of the chair or the headrest.
[0003]
As described above, by using a chair or a headrest provided with a speaker, high-quality sound is emitted in the vicinity of the listener's ear and provided to the listener. That is, an environment in which a listener can listen to high-quality sound through a speaker positioned in the vicinity of the listener's ear without using headphones or the like has been prepared.
[0004]
[Problems to be solved by the invention]
By the way, when a speaker is provided on the chair backrest or headrest, high-quality sound can be emitted in the vicinity of the listener's ear, but sound is emitted directly from the back of the listener's ear. For this reason, it is considered that the listener's consciousness is attracted to the back of the listener, and depending on the music to be listened, there may be a sense of incongruity or so-called listening fatigue.
[0005]
In addition, when a listener uses a chair or headrest provided with a speaker, the positional relationship between the speaker and the listener's ear varies depending on the use, and the listener or headrest is always provided under the same conditions. It is difficult to listen to the sound emitted from the speaker.
[0006]
However, the position of the listener's head is forcibly restricted so that the position of the listener's head (ear position) is always the same with respect to the speaker provided in the chair or headrest. Doing so is not preferable because it hinders the listener's feeling of relaxation. In addition, since the head is not always in contact with the chair or the headrest, it is difficult to fix the position of the listener's head with respect to the speaker.
[0007]
In view of the above, for example, the present invention is a sound that is always in an appropriate state without any sense of incongruity even if the position of the listener's head (ear position) with respect to a speaker provided on a chair or headrest is not constant. It is an object of the present invention to provide a sound processing apparatus that enables listening to music.
[0008]
[Means for Solving the Problems]
  In order to solve the above problem, the sound processing apparatus according to the first aspect of the present invention provides:
  A speaker device;
  A sound image localization processing unit that performs processing to localize a sound image of the sound by the sound signal to a predetermined position with respect to the sound signal to be supplied to the speaker device;
  A correction processing unit configured to perform a correction process according to the position of the listener's head relative to the speaker device with respect to the audio signal from the sound image localization processing unit;
  Ultrasonic transmitting means for transmitting ultrasonic waves, ultrasonic receiving means for receiving reflected ultrasonic waves transmitted from the ultrasonic transmitting means and reflected by the listener's head, and reflected ultrasonic waves by the ultrasonic receiving means Of the listener, and when the reflected ultrasonic wave is received by the ultrasonic wave receiving means, based on the speed of the ultrasonic wave and the time from transmission of the ultrasonic wave until reception of the reflected ultrasonic wave, Head position specifying means for specifying the position of the head relative to the speaker.A head position detector;
  A control unit configured to control the correction processing unit in accordance with a detection result from the head position detection unit;
  With,
  The ultrasonic transmission means and the ultrasonic reception means are high-frequency speakers of the speaker device.It is characterized by that.
[0009]
According to the acoustic processing apparatus of the first aspect, the sound signal supplied to the speaker device is processed by the sound image localization processing unit so that the sound image of the reproduced sound by the sound signal is localized at a predetermined position. Thereafter, correction processing is performed in consideration of the speaker device and the position of the listener's head (the position of the listener's ear), and the sound image of the sound emitted from the speaker device is localized at a predetermined position. The
[0010]
The head position detector detects the actual position of the listener's head relative to the speaker device. Based on the detection result, the correction processing unit is controlled by the control unit, and the correction processing unit performs correction processing according to the position of the listener's head on the sound signal after the sound image localization processing.
[0011]
As a result, even when the positional relationship between the speaker device and the listener's head changes, the sound of the processed sound signal is satisfactorily listened without reducing the effect of sound image localization performed on the sound signal. To be able to.
[0013]
  AlsoThis claim1According to the acoustic processing device described in (4), the presence or absence of reflected ultrasonic waves and the time until the ultrasonic waves transmitted from the ultrasonic transmission means are reflected by the listener's head and received by the ultrasonic reception means. Then, the position of the listener's head relative to the speaker device is specified by the head position specifying means based on the ultrasonic velocity, and correction processing is performed by the control unit in accordance with the specified position of the listener's head Part is controlled.
[0014]
Thus, by using the ultrasonic transmission means and the ultrasonic reception means provided at a specific position with respect to the speaker device, the speaker device and the head of the listener who listens to the sound using the speaker device, The positional relationship is reliably and accurately detected, and based on this, the correction processing in the correction processing unit can be appropriately controlled.
[0016]
  AlsoThis claim1According to the acoustic processing apparatus described in the above, the ultrasonic transmission means and the ultrasonic reception means for detecting the positional relationship between the speaker device and the position of the listener's head are high-frequency speakers of the speaker device. . That is, the high frequency range speaker itself is used for the ultrasonic transmission means and the ultrasonic reception means.
[0017]
Thus, in order to detect the positional relationship between the speaker device and the listener's head, the ultrasonic transmission means is not necessary to newly provide an ultrasonic transmission means and an ultrasonic reception means, and the existing high-frequency speaker is an ultrasonic transmission means, It can be used as an ultrasonic wave receiving means to detect the relationship between the speaker device and the listener's head.
[0018]
  Claims2The sound processing apparatus described in
  A speaker device;
  A sound image localization processing unit that performs processing to localize a sound image of the sound by the sound signal to a predetermined position with respect to the sound signal to be supplied to the speaker device;
  A correction processing unit configured to perform a correction process according to the position of the listener's head relative to the speaker device with respect to the audio signal from the sound image localization processing unit;
  Ultrasonic transmitting means for transmitting ultrasonic waves, ultrasonic receiving means for receiving reflected ultrasonic waves transmitted from the ultrasonic transmitting means and reflected by the listener's head, and reflected ultrasonic waves by the ultrasonic receiving means Of the listener, and when the reflected ultrasonic wave is received by the ultrasonic wave receiving means, based on the speed of the ultrasonic wave and the time from transmission of the ultrasonic wave until reception of the reflected ultrasonic wave, A head position detection unit comprising head position specifying means for specifying the position of the head relative to the speaker;
  A control unit configured to control the correction processing unit according to a detection result from the head position detection unit;
  With
  The ultrasonic transmission means is a high-frequency speaker of the speaker device with two channels on the left and right,
  The ultrasonic receiving means comprises a plurality of ultrasonic sensing elements arranged in a predetermined position,
  Ultrasonic waves having different frequencies are transmitted from the high-frequency speakers of the two left and right channels.
[0019]
  This claim2According to the acoustic processing apparatus described in the above, the high frequency range speaker of the left and right channel speaker device is used as the ultrasonic transmission unit, and a plurality of ultrasonic reception units are arranged in the vicinity of the ultrasonic transmission unit, for example. An ultrasonic sensing element having a so-called array structure is used.
[0020]
Also, consider the ultrasonic sensing element that senses the reflected ultrasonic waves reflected from the head of the listener of the ultrasonic waves that are transmitted from each of the high-frequency speakers of the left and right channels. Thus, the positional relationship between the speaker device and the listener's head can be detected more accurately.
[0021]
  Also,In the sound processing apparatus according to another embodiment of the present invention,The head position detection unit is configured to capture an image including a head of a listener who is listening to sound through the speaker device, and to analyze the image captured by the imaging unit, And image analysis means for detecting the position of the head relative to the speaker device.
[0022]
  Thissound ofAccording to the sound processing apparatus, an image including the head of the listener at a position where the sound is heard through the speaker device is captured by the imaging unit, and the captured image is analyzed by the image analysis unit, and the speaker device The positional relationship with the listener's head is detected.
[0023]
Accordingly, the positional relationship between the speaker device and the listener's head is accurately detected based on the image including the listener's head at the position where the sound is heard through the speaker device, and the correction processing unit is accordingly detected. It is possible to appropriately control the correction process in the above.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of a sound processing apparatus according to the present invention will be described with reference to the drawings. In the embodiment described below, for example, a sound processing device configured by mounting a speaker on a headrest portion (head support portion) provided in a car seat or a headrest portion of a chair used at home is taken as an example. explain.
[0025]
[First Embodiment]
FIG. 1 is a block diagram for explaining a sound processing apparatus 1 according to a first embodiment to which the present invention is applied, and FIG. 2 is equipped with the sound processing apparatus according to the first embodiment. It is a figure for demonstrating the external appearance of a chair. The sound processing apparatus 1 according to the first embodiment can process left and right two-channel audio signals.
[0026]
In FIG. 1, a disc 100 provides a 2-channel audio signal (2-channel sound source (ch is an abbreviation for channel)). The left and right channel audio signals reproduced from the disc 100 are supplied to the acoustic processing apparatus 1 of the first embodiment shown in FIG.
[0027]
Therefore, as shown in FIG. 1, the sound processing apparatus 1 according to the first embodiment includes a left channel input terminal Lin that receives supply of a left channel audio signal from the disc 100 that is a 2ch sound source, and a right channel. And a right channel input terminal Rin for receiving the supply of the audio signal.
[0028]
As shown in FIG. 1, the sound processing apparatus 1 according to the first embodiment includes a sound image localization processing filter unit 10, a trans-oral system filter unit 20, a headrest unit 30, a head position detection unit ( Hereinafter, it includes a detection unit 40, a CPU (Central Processing Unit) 50, and a coefficient database (hereinafter simply referred to as a database) 60 for the trans-oral system filter unit 20.
[0029]
As shown in FIG. 1, the headrest portion 30 is a portion provided with a left speaker (left channel speaker) SL and a right speaker (right channel speaker) SR as left and right two-channel speakers. As shown in FIG. 2, the headrest portion 30 corresponds to a portion (head support portion) that supports the user's head in a car seat or a chair used at home.
[0030]
That is, as shown in FIG. 2, a so-called chair St such as a car seat or a reclining seat is roughly divided into a seat part St <b> 1 that is a part where the user sits down, and a backrest that is a part that rests the user's back. It comprises a part St2 and a headrest part St3 which is a part that supports the user's head.
[0031]
In the first embodiment, the headrest portion 30 shown in FIG. 1 is configured by providing at least left and right two-channel speakers SL and SR in a portion corresponding to the headrest portion St3 shown in FIG. Yes. Therefore, a listener (user) who sits down on the chair provided with the headrest portion 30 listens to sound emitted from the left speaker SL and the right speaker SR located obliquely behind his / her head. become.
[0032]
The headrest part may be removable such as an automobile seat, while the headrest part may be formed integrally with the backrest part, and only the headrest part cannot be removed. In the latter case, it can also be said that a speaker is provided on the backrest of the chair. In the first embodiment, the headrest portion 30 can be removed from the backrest portion of the chair, for example.
[0033]
In the sound processing apparatus 1 according to the first embodiment, the sound is transmitted to the listener by shifting the sound localization from the position of the actually fixed speaker to the position of the virtual speaker. Discomfort and discomfort caused by hearing from the back of the head or behind the listener's ears are removed.
[0034]
That is, in the first embodiment, the sound emitted from the left speaker SL and the right speaker SR of the headrest unit 30 by the sound image localization processing filter unit 10 and the trans-oral system filter unit 20 is shown in FIG. In FIG. 2, the sound is heard as if sound is emitted from the positions of the left virtual speaker VSL and the right virtual speaker VSR indicated by dotted lines. In other words, the sound image of the sound emitted from the real speakers SL and SR is localized so that it feels like the sound emitted from the virtual speakers VSL and VSR.
[0035]
In the first embodiment, the virtual speakers VSL and VSR are virtual positions that localize the sound emitted from the left speaker SL and the right speaker SR, as shown in FIG. 1 and FIG. In addition, when the listener's head with respect to the headrest portion 30 is in a predetermined position, the listener's head is set to a predetermined position in the forward direction of the listener.
[0036]
As described above, the sound emitted from the left speaker SL and the right speaker SR of the headrest unit 30 is localized as if it was emitted from the positions indicated by the left and right virtual speakers VSL and VSR, as described above. Therefore, it is possible to eliminate the uncomfortable feeling and discomfort caused by the sound being heard near the back of the listener's head or behind the listener's ear so that the listener can listen to the sound as a natural sound.
[0037]
Hereinafter, each part of the sound processing apparatus according to the first embodiment will be described in detail. First, in describing the sound image localization processing filter unit 10, the principle of the sound image localization processing will be described. FIG. 3 is a diagram for explaining the principle of sound image localization processing.
[0038]
As shown in FIG. 3, in a predetermined reproduction sound field, the position of the dummy head DH is set as the position of the listener, and the left and right virtual speakers that attempt to localize the sound image with respect to the listener at the position of the dummy head DH The actual left speaker SPL and the actual right speaker SLR are actually installed at the position (the position where the speaker is supposed to be).
[0039]
Then, the sound emitted from the left actual speaker SPL and the right actual speaker SPR is collected at both ears of the dummy head DH, and the sound emitted from the left actual speaker SPL and the right actual speaker SPR is collected by the dummy head DH. A transfer function (HRTF) indicating how it changes when reaching both ears is measured in advance.
[0040]
As shown in FIG. 3, in this first embodiment, the transfer function of the sound from the left real speaker SPL to the left ear of the dummy head DH is M11, and the right ear of the dummy head DH from the left real speaker SPL. It is assumed that the transfer function of the sound up to is M12. Similarly, the transfer function of the sound from the right real speaker SPR to the left ear of the dummy head DH is M21, and the transfer function of the sound from the right real speaker SPR to the right ear of the dummy head DH is M22.
[0041]
Then, as described above with respect to the headrest unit 30 in FIG. 1, the audio signal of the sound emitted from the speakers SL and SR of the headrest unit 30 that will be located in the vicinity of the listener's ear is previously set as described above. Processing is performed using the measured transfer function, and the sound of the processed sound signal is emitted.
[0042]
As a result, the sound emitted from the speakers SL and SR of the headrest unit 30 is heard as if the sound is emitted from the virtual speaker position (the positions of the virtual speakers VSL and VSR in FIGS. 1 and 2). The sound image of the sound emitted from the speakers SL and SR can be localized so that a person can feel.
[0043]
Here, the description has been made assuming that the dummy head DH is used when measuring the transfer function (HRTF), but the present invention is not limited to this. Of course, in a reproduction sound field for measuring a transfer function, a person is actually seated and a microphone is placed in the vicinity of the ear of the person to measure the transfer function of the sound.
[0044]
In this way, the sound image localization processing filter unit 10 shown in FIG. 1 is the part that performs the processing based on the transfer function of the sound that is measured in advance in order to localize the sound image at a predetermined position. The sound image localization filter processing unit 10 of this embodiment is capable of processing left and right two-channel audio signals. As shown in FIG. 1, four filters 11, 12, 13, 14 and two It consists of the addition units 15 and 16.
[0045]
The filter 11 processes the audio signal of the left channel supplied through the left input terminal Lin with the transfer function M11, and supplies the processed audio signal to the adder 15 for the left channel. The filter 12 processes the audio signal of the left channel supplied through the left input terminal Lin with the transfer function M12, and supplies the processed audio signal to the adding unit 16 for the right channel.
[0046]
The filter 21 processes the right channel audio signal supplied through the right input terminal Rin with the transfer function M21, and supplies the processed audio signal to the left channel adder 15. The filter 22 processes the right channel audio signal supplied through the right input terminal Rin with the transfer function M22, and supplies the processed audio signal to the right channel adder 16.
[0047]
As a result, the sound based on the output audio signal from the left channel adder 15 and the sound based on the output sound signal from the right channel adder 16 are the left virtual speaker VSL and the right virtual speaker in FIGS. The sound image is localized so that sound is emitted from the VSR.
[0048]
However, even if the sound emitted from the left speaker SL and the right speaker SR provided in the headrest unit 30 is subjected to sound image localization processing, as shown in FIG. 1, the transfer function G11 in the actual reproduction sound field is shown. Under the influence of G12, G21, and G22, the sound image of the reproduced sound may not be accurately localized at the target virtual speaker position.
[0049]
Therefore, in the first embodiment, the transoral system filter unit 20 is used to perform correction processing on the audio signal from the sound image localization processing filter unit 10 so that the left speaker SL, the right speaker The sound emitted from the speaker SR is localized as if the sound was accurately emitted from the left and right virtual speakers VSL and VSR at the virtual speaker position.
[0050]
The trans-oral system filter unit 20 is an audio filter formed by applying a trans-oral system. The trans-oral system is a technique for realizing the same effect as that of the binaural system system, which is a system for strictly reproducing sound using headphones, even when a speaker is used.
[0051]
The transoral system will be described by taking the case of FIG. 1 as an example. With respect to the sound emitted from the left speaker SL and the right speaker SR, the sound emitted from each speaker to the left and right ears of the listener. By removing the influence of the transfer functions G11, G12, G13, and G14, the sound emitted from the left speaker SL and the right speaker SR is strictly reproduced.
[0052]
Therefore, the trans-oral system filter unit 20 shown in FIG. 1 removes the influence of the transfer function in the reproduction sound field for the sound to be emitted from the left speaker SL and the right speaker SR, so that the left speaker SL, The sound image of the sound emitted from the right speaker SR is accurately localized at a position corresponding to the virtual speaker position.
[0053]
Specifically, the transoral system filter unit 20 transmits signals from the right speaker SR to the listener's left and right ears in order to eliminate the influence of the transfer function from the left speaker SL and the right speaker SR to the listener's left and right ears. Filters 21, 22, 23, and 24 that process audio signals in accordance with the inverse function of the function, and addition units 25 and 26 are provided. In the first embodiment, the filters 21, 22, 23, and 24 perform processing that also takes into account the inverse filter characteristics so that more natural reproduced sound can be emitted.
[0054]
Further, as will be described in detail later, the transfer functions from the left speaker SL and right speaker SR to the left and right ears of the listener depend on the positions of the left and right speakers SL and SR and the listener's head (the ears of the listener's ears). The position will change. For this reason, in each of the filters 21, 22, 23, and 24 of the trans-oral system filter unit 20, the filter coefficient for each filter corresponding to the position of the listener's head stored in advance in the database 60 is transmitted through the CPU 50. It can be set.
[0055]
The output audio signal from the left channel adding unit 15 of the sound image localization processing filter unit 10 is supplied to the left channel filter 21 and the right channel filter 22 of the transoral system filter unit 20, and The output audio signal from the right channel adding unit 16 of the sound image localization processing filter unit 10 is supplied to the left channel filter 23 and the right channel filter 24 of the transoral system filter unit 20.
[0056]
Each of the filters 21, 22, 23, 24 performs a predetermined process using the filter coefficient from the CPU 50, and specifically, as described above, the current state of the listener from the speakers SL, SR. The speech signal supplied to the own filter is processed using inverse functions H1n, H2n, H3n, and H4n of transfer functions corresponding to the position of the head.
[0057]
In addition, in the inverse functions H1n, H2n, H3n, and H4n of transfer functions used in the filters 21, 22, 23, and 24, n means a variable that depends on the position of the listener's head, and other than n The characters H1, H2, H3, and H4 indicate functions that are used in the filters 21, 22, 23, and 24, respectively.
[0058]
The output from the filter 21 is supplied to the left channel adder 25, and the output from the filter 22 is supplied to the right channel adder 26. Similarly, the output from the filter 23 is supplied to the adder 25 for the left channel, and the output from the filter 24 is supplied to the adder 26 for the right channel.
[0059]
The adders 25 and 26 add the audio signals supplied thereto, the adder 25 supplies the audio signal to the left speaker SL, and the adder 26 supplies the audio signal to the right speaker SR. . Thereby, the sound emitted from the speakers SL and SR of the headrest unit 30 is removed from the influence of the transfer function according to the current position of the listener's head in the reproduction sound field, and the sound image is accurately left virtual. The sound can be localized like the sound emitted from the speaker VSL and the right virtual speaker VSR.
[0060]
As described above, in the sound processing device 1 according to the first embodiment, a listener whose head is located at a predetermined position in the vicinity of the headrest unit 30 emits sound from the speakers SL and SR of the headrest unit 30. The sound can be heard as if it was emitted from the virtual speakers VSL and VSR.
[0061]
Accordingly, the sound can be heard from the front of the listener despite listening to the sound emitted from the left speaker SL and the right speaker SR located obliquely behind the listener's head. Therefore, it is possible to listen to the sound satisfactorily without feeling uncomfortable or uncomfortable feeling that the sound emitted from the left speaker SL and the right speaker SR is stuck on the back side of the listener.
[0062]
However, as described above, in the case of the sound processing apparatus 1 shown in FIG. 1, the positional relationship from the virtual speaker position indicated by the virtual speakers VSL and VSR to both ears of the listener, and the speakers SL and SR to the listener. If the positional relationship between the two ears changes greatly between the transfer function measurement and the system playback (when actually playing back and listening to the sound), each transfer function also changes. The effect of localization of the sound image on the speaker position is diminished.
[0063]
In the case of the sound processing apparatus 1 of the first embodiment, as shown in FIG. 1, transfer functions from the speakers SL and SL of the headrest 30 to the ears of the listener are transfer functions G11, G12, and G21. , When the listener's head is at the position G22, the listener listens to the sound emitted from the speakers SL, SR of the headrest unit 30 as if the sound was emitted from the virtual speakers VSL, VSR. can do.
[0064]
However, if the position of the listener's head relative to the speakers SL and SR of the headrest unit 30 deviates from the assumed position, the sound image of the sound emitted from the speakers SL and SR is localized at the virtual speaker position. The virtual speaker localization effect cannot be obtained sufficiently.
[0065]
In particular, if the listener's head moves in a direction orthogonal to the sound emitting surface of the speaker (if it has moved in the vertical or horizontal direction parallel to the sound emitting surface of the speaker) The effect is larger than when moving closer or away from the speaker.
[0066]
For this reason, in order to obtain the effect of virtual speaker localization, the position of the listener's head (ear position) with respect to the speaker is always set to a predetermined position to listen to the sound, It is desirable to measure the transfer function at the position of the head and reproduce the sound with a system through a transfer function or inverse filter suitable for the position.
[0067]
However, it is difficult to always keep the position of the head of the listener sitting on the chair having the headrest 30 at a predetermined position with respect to the speaker. Moreover, even if it can be held, it may also hinder the listener's feeling of relaxation.
[0068]
Therefore, in the sound processing device 1 according to the first embodiment, when the sound processing device 1 is in the operating state, for example, at a predetermined timing, the distance and position from the headrest portion 30 to the listener's head. After the sound image localization processing is performed according to the latest position of the listener's head by supplying the filter coefficient corresponding to the measured position of the listener's head to each filter of the transoral system filter unit 20. Correction processing is performed on the audio signal.
[0069]
By doing so, even when the listener's head moves and the position of the listener's head has changed with respect to the headrest 30, that is, the speakers SL and SR, the virtual speaker position is obtained. The virtual speaker localization effect for localizing the sound image is not deteriorated, and the sound from the left and right speakers SL and SR of the headrest unit 30 can be heard in a more free posture.
[0070]
In the sound processing apparatus 1 according to the first embodiment, the super tweeter of the speaker mounted on the headrest unit 30 is used as a position detection sensor for the listener's head. In recent years, high-fidelity playback audio has progressed, and it is not uncommon to mount a speaker having a playback performance of an audible frequency band or higher, so this is used.
[0071]
As described above, the super tweeters of the speakers SL and SR of the sound processing apparatus 1 according to the first embodiment have a reproduction capability higher than the audible frequency, and the speaker (speaker device) having this configuration is used by the listener. By using it for the measurement of the position of the head, it is configured so that it is not necessary to mount a dedicated sensor system such as a pressure-sensitive type.
[0072]
Then, ultrasonic waves of a predetermined frequency are transmitted from the super tweeters of the speakers SL and SR of the headrest unit 30, and the reflection of the ultrasonic waves mainly from the head is reflected on the super tweeters of the speakers SR and SL of the headrest unit 30. The presence or absence of reception of the reflected wave of the ultrasonic wave, and when the reflected wave is received, the time taken from the transmission of the ultrasonic wave to reception of the reflected wave, the time and the ultrasonic wave The position of the listener's head relative to the headrest 30 is detected based on the distance between the speaker and the listener obtained from the speed.
[0073]
FIG. 4 is a diagram for explaining the detection process of the position of the listener's head performed in the sound processing apparatus 1 of the first embodiment. As shown in FIG. 4, 40 kHz ultrasonic waves are transmitted from the super tweeters of the left and right speakers SL and SR of the headrest unit 30, and the reflected waves from the user's head are also transmitted to the left and right headrest units 30. Are received by the super tweeters of the speakers SL and SR.
[0074]
Control of transmission of ultrasonic waves from the super tweeters of the left and right speakers SL and SR is controlled by the CPU 50, for example. Then, the ultrasonic waves received by the super tweeters of the left and right speakers SL and SR are supplied to the detection unit 40. When detecting 40 kHz ultrasonic waves (reflected waves), or when receiving 40 kHz ultrasonic waves (reflected waves), the detection unit 40 determines the time it takes to transmit and receive the ultrasonic waves, the speed of the ultrasonic waves, and the like. The position of the listener's head with respect to the left and right speakers SL and SR of the headrest unit 30 is detected.
[0075]
That is, as shown in FIGS. 4A and 4B, when each of the super tweeters of the speakers SL and SR of the headrest unit 30 similarly receives the reflected ultrasonic wave transmitted, from transmission to reception. The position of the listener's head with respect to the headrest portion 30 can be detected according to the time taken for.
[0076]
Simply put, for example, as shown in FIG. 4A, when the time taken from transmission to reception of ultrasonic waves is relatively long, the listener's head is relatively separated from the headrest portion 30. It can be seen that it is located at the position. Further, as shown in FIG. 4B, when the time taken from transmission to reception of the ultrasonic wave is relatively short, the position of the listener's head is positioned relatively close to the headrest 30. You can see that
[0077]
Further, as shown in FIG. 4C, for example, only the super tweeter of the left speaker SL receives ultrasonic waves transmitted in the same way from the super tweeters of the left and right speakers SL and SR provided in the headrest unit 30, and the super speaker of the right speaker SR. When the tweeter does not receive the 40 kHz ultrasonic wave, it can be seen that the listener's head is offset to the left with respect to the headrest 30.
[0078]
Conversely, for example, only the super tweeter of the right speaker SR receives ultrasonic waves transmitted in the same way from the super tweeters of the left and right speakers SL and SR provided in the headrest unit 30, and the super tweeter of the left speaker SL exceeds 40 kHz. When the sound wave is not received, it is understood that the listener's head is offset to the right side with respect to the headrest portion 30.
[0079]
As described above, the detection unit 40 determines the distance from the speakers SL and SR of the headrest unit 30 and the left and right offsets (shift amount) based on the reflected waves from the heads of the listeners of the ultrasonic waves transmitted from the left and right speakers. ) Etc. can be sensed. In this case, the position of the listener's head is detected, for example, as a deviation (offset) from the reference position where the listener's head should originally be located, and this is notified to the CPU 50.
[0080]
Then, the CPU 50 refers to the database 60 based on the detection result of the position of the listener's head from the detection unit 40, and each of the trans-oral system filter units 20 according to the current position of the listener's head. The coefficient data supplied to the filters 21 to 24 is read out.
[0081]
In the first embodiment, the database 60 includes coefficient data supplied to each of the filters 21, 22, 23, and 24 of the transoral system filter unit 20, and the listener's head for the headrest unit 30. Data corresponding to the position of is stored.
[0082]
That is, the transfer function of the sound emitted from the speakers SL and SR of the headrest unit 30 to the left and right ears of the listener is measured in advance by changing the position of the listener's head relative to the headrest unit 30 in advance. Based on this measurement result, coefficient data used in each filter 21, 22, 23, 24 of the trans-oral system filter unit 20 is obtained, and the obtained coefficient data is associated with the position of the listener's head. Is stored in the database 60.
[0083]
Accordingly, in the database 60, the position of the listener's head is the coefficient data used in each of the filters 21, 22, 23, and 24 of the transoral system filter unit 20 at the position A, and the transoral system filter unit at the position B. The coefficient data used in each of the twenty filters 21, 22, 23, 34,..., And so on, the filters 21, 22, at each position of the listener's head whose position is changed with respect to the headrest 30. Coefficient data used in 23 and 24 is stored.
[0084]
Based on the detection result of the current position of the user's head from the detection unit 40, the CPU 50 reads coefficient data to be supplied to each filter 21, 22, 23, 24 of the transoral system filter unit 20 from the database 60. This is supplied to the corresponding filter of the trans-oral system filter unit 20.
[0085]
As a result, even if the position of the listener's head moves relative to the headrest portion 30, the actual position of the listener's head is measured, and the effect of the transfer function in the reproduction sound field is removed according to the position. As described above, the transoral system filter unit 20 can perform correction processing. Therefore, the sound image of the sound emitted from the left and right speakers SL and SR of the headrest unit 30 can be localized at the virtual speaker position regardless of the position of the listener's head.
[0086]
In the first embodiment, the database 60 obtains a function to be set for each filter at each position of the head based on the transfer function measured at each position that the listener's head can take. The function and the position of the head may be stored in association with each other. That is, the function itself used for correction may be stored in a database in association with the position of the head, and set in the target filter of the transoral system filter unit.
[0087]
Further, as in the case of the first embodiment described above, for example, a transfer function at a reference position is measured, and necessary parameters such as an amplitude adjustment parameter and a delay processing parameter for the reference transfer function are set. Alternatively, based on the reference parameter, a new parameter may be obtained according to the actual position of the detected listener's head and set in each filter.
[0088]
That is, by setting one transfer function model and adjusting the model according to the position of the listener's head, a correction process according to the actual position of the listener's head is performed. It is also possible to perform it on an audio signal. In this case, when the parameter placed at the reference position is held as a reference model in, for example, a program executed by the CPU, a memory for holding the parameter is not necessary, and only the reference parameter is stored in the memory. Therefore, a large memory capacity is not necessary.
[0089]
As described above, the processing information stored in the database 60 and supplied to each filter of the trans-oral system filter unit 20 includes a plurality of types such as coefficient data, function data, and parameter data. However, these may be used according to each filter circuit to be actually mounted on the sound processing apparatus.
[0090]
The database 60 is a semiconductor memory such as a ROM or an EEPROM, for example. The database 60 may be a recording medium such as a magnetic disk, an optical disk, or a magneto-optical disk.
[0091]
[Modification of First Embodiment]
FIG. 5 is a block diagram for explaining a modification of the sound processing apparatus according to the first embodiment. As shown in FIG. 5, the sound processing device 2 of this example is the first illustrated in FIG. 1 except that a simplified transoral system filter unit 70 is mounted instead of the transoral system filter unit 20. It is comprised similarly to the acoustic processing apparatus 1 of embodiment. Therefore, in the sound processing device 2 shown in FIG. 5, the same reference numerals are given to the same parts as those of the first sound processing device 1 shown in FIG. 1, and the detailed description thereof is omitted. .
[0092]
As shown in FIGS. 1, 2, and 5, the headrest 30 and the listener's head are usually close to each other, and the speakers SL and SR of the headrest 3 are close to the listener's ears. The crosstalk component from the speakers SL and SR to the ear on the opposite side is much smaller than the audio signal component from the speakers SL and SR to the ear on the side corresponding to the speaker.
[0093]
That is, in the example shown in FIG. 1, since the transfer functions G12 and G21 of the crosstalk component are much smaller than the transfer functions G11 and G22, the transfer functions G12 and G21 of the crosstalk component can be ignored. For this reason, the simplified transoral system filter unit 70 shown in FIG. 5 is simplified by omitting consideration of the crosstalk component from the normal transoral system.
[0094]
As shown in FIG. 5, the simplified transoral system filter unit 70 includes a filter 71 that processes an audio signal with an inverse function of an audio transfer function G1 from the left speaker SL of the headrest unit 30 to the left ear of the listener. And a filter 72 that processes the audio signal with an inverse function of the transfer function G2 of the audio from the right speaker SR to the right ear of the listener. As described above, it has been experimentally confirmed that the sound localization is the virtual speaker position even when the crosstalk component is ignored.
[0095]
Each of the two filters 71 and 72 of the simplified transoral system filter unit 70 actually has a function according to the actual position of the listener's head in the reproduction sound field, as will be described later. Alternatively, coefficient data is set.
[0096]
In this case, since the data prepared in the database 60 need only be for the filters 71 and 72, the amount of data stored in the database 60 can be reduced. Accordingly, a database 60 having a small storage capacity can be used.
[0097]
In the case of the sound processing apparatus 2 shown in FIG. 5, the configuration of the sound processing apparatus can be simplified by using the simplified transoral system filter unit 70.
[0098]
Further, in the case of the sound processing apparatus shown in FIG. 5 as well, as in the case of the sound processing apparatus 1 of the first embodiment shown in FIG. 1, the left located on the diagonally rear side of the listener's head. Despite listening to the sound emitted from the speaker SL and the right speaker SR, the sound is heard from the front of the listener, so the sound emitted from the left speaker SL and the right speaker SR. Can be heard well without feeling uncomfortable or uncomfortable, such as being stuck to the back of the listener.
[0099]
[Second Embodiment]
FIG. 6 is a block diagram for explaining the sound processing apparatus 3 according to the second embodiment to which the present invention is applied. The acoustic processing apparatus according to the second embodiment can process an audio signal from a multi-channel medium such as a DVD. In the second embodiment, a 5-channel audio signal is used. Can be processed.
[0100]
As shown in FIG. 6, the sound processing device 3 according to the second embodiment includes audio signal input terminals i1 to i5 for five channels, for example, five channels from a multichannel recording medium such as a DVD. Minute audio signals can be received. 6 includes a headrest unit 30, a head position detection unit 40, a CPU 50, a database 60, a simplified transoral system filter unit 70, and a sound image localization processing filter unit 80.
[0101]
The headrest unit 30 is the same as the headrest unit 30 of the sound processing device 1 of the first embodiment shown in FIG. 1 and the sound processing device 2 of the modification of the first embodiment shown in FIG. It is configured. The simplified trans-oral system filter unit 70 is configured in the same manner as the simplified trans-oral system filter unit 70 of the sound processing apparatus 2 according to the modification of the first embodiment described above with reference to FIG. is there.
[0102]
The sound image localization processing filter unit 80 of the acoustic processing device 3 according to the second embodiment is basically based on the same principle as the sound image localization processing filter unit 10 of the acoustic processing device according to the first embodiment. Based on this, the sound image of the sound emitted from the speaker is localized.
[0103]
However, in the acoustic processing apparatus according to the second embodiment shown in FIG. 6, the sound images of the sounds emitted from the left and right speakers SL and SR of the headrest 30 are shown in FIG. Localization is performed so that sound is emitted from the virtual speakers VS1 to VS5.
[0104]
FIG. 7 is a diagram for explaining the principle of the sound image localization processing filter unit 80 of the acoustic processing device 3 according to the second embodiment shown in FIG. As shown in FIG. 7, in a predetermined reproduction sound field, the position of the dummy head DH is set as the position of the listener, and the virtual speaker position (in which the sound image is localized with respect to the listener at the position of the dummy head DH) The actual speakers SP1 to SP5 are actually installed at positions where the speakers are assumed to be). Then, a transfer function (HRTF) to the left and right ears of the dummy head DH of the sound emitted from each of the real speakers SP1 to SP5 is measured in advance.
[0105]
As shown in FIG. 7, in the second embodiment, the transfer function of the sound from the real speaker SP1 to the left ear of the dummy head DH is N11, and the sound from the real speaker SP1 to the right ear of the dummy head DH. The transfer function is N12. The transfer function of the sound from the real speaker SP2 to the left ear of the dummy head DH is N21, and the transfer function of the sound from the real speaker SP2 to the right ear of the dummy head DH is N22.
[0106]
Similarly, the transfer functions of the sound from the real speaker SP3 to the left and right ears of the dummy head DH are N31 and N32, respectively, and the transfer function of the sound from the real speaker SP4 to the left and right ears of the dummy head DH is N41 and N42. The transfer functions of the sound from the real speaker SP5 to the left and right ears of the dummy head DH are N51 and N52.
[0107]
Then, as described with reference to FIG. 7, the audio signal input from each of the input terminals i1 to i5 is processed using the corresponding transfer function measured in advance, and the simplified transoral system filter unit 70 The correction process is performed, and the sound based on the processed sound signal is supplied to the left and right speakers SL and SR of the headrest unit 30, and the sound is emitted.
[0108]
As a result, the sound emitted from the speakers SL and SR of the headrest 30 is felt as if the viewer feels as if the sound is emitted from the positions indicated by the virtual speakers VS1 to VS5 indicated by dotted lines in FIG. Sound image can be localized.
[0109]
In this way, in order to localize the sound image, the part that performs processing based on the sound transfer function measured in advance is the sound image localization processing filter unit 80 shown in FIG. As described above, the sound image localization filter processing unit 80 according to this embodiment can process a 5-channel audio signal, and includes ten filters 81 to 90 and two addition units 91 and 92. It consists of
[0110]
The filter 81 processes the audio signal supplied through the terminal i1 with the transfer function N11, and supplies the processed audio signal to the adder 91 for the left channel. The filter 82 processes the audio signal supplied through the terminal i2 with the transfer function N12, and supplies the processed audio signal to the right channel adder 92.
[0111]
The filter 83 processes the audio signal supplied through the terminal i2 with the transfer function N21, and supplies the processed audio signal to the adder 91 for the left channel. The filter 84 processes the audio signal supplied through the terminal i2 with the transfer function N22, and supplies the processed audio signal to the right channel adder 92.
[0112]
The filter 85 processes the audio signal supplied through the terminal i3 with the transfer function N31, and supplies the processed audio signal to the adder 91 for the left channel. Further, the filter 86 processes the audio signal supplied through the terminal i3 with the transfer function N32, and supplies the processed audio signal to the right channel adding unit 92.
[0113]
The filter 87 processes the audio signal supplied through the terminal i4 with the transfer function N41, and supplies the processed audio signal to the adder 91 for the left channel. The filter 88 processes the audio signal supplied through the terminal i4 with the transfer function N42, and supplies the processed audio signal to the right channel adding unit 92.
[0114]
The filter 89 processes the audio signal supplied through the terminal i5 with the transfer function N51, and supplies the processed audio signal to the adder 91 for the left channel. The filter 90 processes the audio signal supplied through the terminal i5 with the transfer function N52, and supplies the processed audio signal to the right channel adding unit 92.
[0115]
Thereby, the sound based on the output sound signal from the left channel adder 91 and the sound based on the output sound signal from the right channel adder 92 are the positions of the virtual speakers VS1 to VS5 indicated by dotted lines in FIG. The sound image is localized so that sound is emitted from the sound source.
[0116]
And also in the case of the sound processing apparatus 3 of this 2nd Embodiment, the left speaker SL provided in the headrest part 30, right like the case of the sound processing apparatuses 1 and 2 of 1st Embodiment. Even if the sound emitted from the speaker SR is subjected to sound image localization processing, the sound image of the reproduced sound can be localized at the target virtual speaker position under the influence of the transfer function in the actual reproduced sound field. It may be impossible.
[0117]
Therefore, also in the sound processing device 3 of the second embodiment, sound is emitted from the left and right speakers SL and SR of the headrest unit 30 by using the simplified transoral system filter unit 70 that does not consider the crosstalk component. The sound image of the sound to be performed is accurately localized at each position of each virtual speaker VS1 to VS5.
[0118]
As described above, media having a multi-channel sound source such as a DVD have become widespread. However, as in the sound processing device 3 of the second embodiment, it is possible to process a 5-channel audio signal. Thus, a virtual five-channel sound image can be obtained through the two speakers SL and SR of the headrest unit 30 to enjoy powerful reproduced sound.
[0119]
Further, even when the position of the listener's head relative to the headrest portion 30 is changed due to the movement of the listener's head, the case of the sound processing apparatuses 1 and 2 according to the first embodiment described above. Similarly, by detecting the position of the listener's head relative to the headrest unit 30 and changing the functions and parameters of the filters 71 and 72 of the simplified transoral system filter unit 70 according to the position, The sound emitted from the left and right speakers SL and SR can be localized at the virtual speaker position.
[0120]
That is, also in the second embodiment, ultrasonic waves are transmitted from the super tweeters of the left and right speakers SL and SR of the headrest unit 30 as in the case of the sound processing apparatuses 1 and 2 of the first embodiment. Then, the super tweeter receives the reflected wave from the head of the listener of the transmitted ultrasonic wave, and based on this, the detection unit 40 detects the position of the head of the listener and the transfer function at that position is detected. The sound image can be localized at a predetermined virtual speaker position by performing correction processing in the simple transoral system filter unit 70 so as to remove the influence.
[0121]
In the second embodiment, the simplified transoral system filter unit 70 is used. However, as in the case of the sound processing apparatus 1 of the first embodiment shown in FIG. A trans-oral system filter 20 that also considers the talk component may be used.
[0122]
Further, by providing all of the sound processing devices shown in FIG. 2, FIG. 4, and FIG. 5 on the headrest portion 30 side, like the headrest portion 30 of the sound processing device of the first embodiment described above. By configuring the headrest part so that it can be removed from the backrest part, even when the headrest part is attached to the backrest part of another chair, the sound image is always localized at a predetermined position, Audio can be heard.
[0123]
Moreover, the adapter which consists of each part other than a right-and-left speaker can be comprised, and the sound processing apparatus by this invention can also be comprised by this adapter and the headrest part which provided the speaker. Also, the sound processing apparatus of the present invention can be configured by providing each part other than the left and right speakers SL and SR, for example, on the backrest part of the chair or on the playback device side of the audio signal.
[0124]
In the acoustic processing apparatuses of the first and second embodiments described above, the ultrasonic tweeter for detecting the position of the listener's head using the super tweeters of the speakers SL and SR mounted on the headrest unit 30 is used. The transmitter is used as a transmitter and also as a receiver for receiving a reflected wave that is transmitted back from the listener's head.
[0125]
Therefore, since it is not necessary to newly provide an ultrasonic transmitter and receiver, it is possible to realize an acoustic processing device equipped with a function for detecting the position of the listener's head at a relatively low cost.
[0126]
In the case of the first and second embodiments described above, the position of the listener's head with respect to the headrest portion 30 is measured constantly or at any time, and a transfer function corresponding to the measured position is obtained. By performing appropriate correction processing (trans-oral processing), avoiding the situation of lack of virtual speaker localization effect due to the incorrect measurement position of the listener's head and the listening position as in the past, the position of the listener's head Therefore, it is possible to realize the effects such as the front localization of the sound image as in the first embodiment and the all-round localization of the sound image as in the second embodiment.
[0127]
[Third Embodiment]
By the way, in order to realize a sound processing device capable of providing higher-quality sound, the detection accuracy of the position of the listener's head relative to the headrest portion is increased, and the correction processing by the transoral system for the sound signal is more strictly performed. There is a demand to be able to do it.
[0128]
Therefore, also in the sound processing apparatus of the third embodiment, the ultrasonic waves for detecting the position of the listener's head are used in the case of the sound processing apparatuses of the first and second embodiments described above. Similarly, transmission is performed from the super tweeters of the speakers SL and SR provided in the headrest unit 30.
[0129]
However, in the acoustic processing apparatus of the third embodiment, the reflected ultrasonic wave transmitted is received by the headrest unit 30 or a plurality of ultrasonic receiving elements provided in the vicinity thereof, and more The position of the listener's head can be detected with high accuracy.
[0130]
FIG. 8 is a block diagram for explaining the sound processing apparatus 4 of the third embodiment. As shown in FIG. 8, the sound processing device 4 of the third embodiment includes a headrest 90 provided with left and right two-channel speakers SL and SR, and a plurality of ultrasonic receiving elements, and a plurality of Except for the head position detection unit 40A that receives the detection output from the receiving element, the configuration is the same as that of the sound processing apparatus of the first embodiment shown in FIG.
For this reason, in the sound processing apparatus 4 of the third embodiment shown in FIG. 8, the parts configured similarly to the sound processing apparatus 1 of the first embodiment shown in FIG. The same reference numerals as those of the sound processing apparatus 1 of the form are attached, and the description thereof is omitted.
[0131]
As described above, in the case of the acoustic processing device 4 according to the third embodiment shown in FIG. 8, six ultrasonic receiving elements (ultrasonic sensing elements) SS <b> 1 to SS <b> 6 are provided on the headrest 90. It is provided in an array. Then, ultrasonic waves having different frequencies are transmitted from the super tweeter of the left channel SL and the super tweeter of the right channel SR, and the reflected waves are received by the ultrasonic receiving elements (hereinafter simply referred to as receiving elements) SS1 to SS6. Based on the detection output, the detection unit 40A can detect the position of the listener's head more accurately.
[0132]
FIG. 9 is a diagram for explaining the process of detecting the position of the listener's head performed in the sound processing apparatus according to the third embodiment. As shown in FIG. 9, ultrasonic waves having different frequencies are transmitted from the left and right speakers SL, SR whose sound emitting surfaces are originally directed in the direction in which the listener's head is located, and the listener of the transmitted ultrasonic waves The reflected waves from the head of the receiver are received by the receiving elements SS1 to SS6.
[0133]
In the example shown in FIG. 9, an ultrasonic wave with a frequency of 40 kHz is transmitted from the super tweeter of the left speaker SL, and an ultrasonic wave with a frequency of 50 kHz is transmitted from the super tweeter of the right speaker SR. . By doing so, the accuracy of position detection is further improved.
[0134]
As shown in FIG. 9A, when none of the receiving elements SS1 to SS6 provided in the headrest unit 90 can receive the reflected wave of the ultrasonic wave transmitted from the left and right speakers SL and SR super tweeters. The position of the listener's head can be detected as being at a position away from the headrest 90 by a predetermined distance or more.
[0135]
Further, as shown in FIG. 9B, the reflected wave from the listener's head transmitted from the super tweeter of the left speaker SL, that is, a 40 kHz ultrasonic wave is received by the receiving element SS3, and the right speaker SR. When a reflected wave from the listener's head transmitted from the super tweeter, that is, an ultrasonic wave of 50 kHz is received by the receiving element SS1, the position of the listener's head is the position of the headrest 90. It can be detected that the position is on the left speaker SL side.
[0136]
Although not shown, contrary to the case of FIG. 9B, the reflected wave from the listener's head transmitted from the super tweeter of the left speaker SL, that is, a 40 kHz ultrasonic wave is received by the receiving element SS6. When the reception element SS4 receives the reflected wave from the listener's head transmitted from the super tweeter of the right speaker SR, that is, the ultrasonic wave of 50 kHz, the position of the listener's head is It can be detected that the headrest 90 is in the position on the right speaker SL side.
[0137]
Further, as shown in FIG. 9C, the reflected wave from the listener's head transmitted from the super tweeter of the left speaker SL, that is, a 40 kHz ultrasonic wave is received by the receiving element SS3, and the right speaker SR. When the reception element SS4 receives an ultrasonic wave reflected from the head of the listener transmitted from the super tweeter, that is, an ultrasonic wave of 50 kHz, the position of the head of the listener is the left and right of the headrest unit 90. It can be detected that the speaker is located at an intermediate position between the speakers SL and SR.
[0138]
As described above, depending on which receiving element of the six receiving elements provided in an array on the headrest 90 receives ultrasonic waves having different frequencies transmitted from the super tweeters of the left and right speakers SL and SR. Thus, an offset (shift) of the listener's head relative to the headrest portion 90 can be detected.
[0139]
Further, for the ultrasonic waves transmitted from the super tweeters of the left and right speakers, by measuring the time from the transmission to reception by the receiving element, the headrest portion is determined according to the time and the ultrasonic velocity. The distance from 90 to the listener's head can be detected. Based on the offset of the listener's head relative to the headrest 90 and the distance, the position of the listener's head relative to the headrest 90 can be detected more accurately.
[0140]
And 40 A of detection parts detect the exact position of a listener's head based on the detection output from each receiving element provided in the headrest part 90 at the array form. That is, as described above, the detection unit 40A determines which receiving element has received the ultrasonic wave transmitted from the super tweeter of each of the left and right speakers, and further, the ultrasonic wave transmitted from the super tweeter of each of the left and right speakers. The position of the listener's head is detected in consideration of the time from transmission to reception.
[0141]
Then, as in the case of the CPU 50 of the sound processing apparatus 1 of the first embodiment described above, the CPU 50 stores data corresponding to the current position of the listener's head relative to the headrest unit 90 from the detection unit 40A. The data read from 60 and the read data (coefficient data, function data, parameters, etc.) are supplied to the intended filters 21, 22, 23, 24 of the transoral system filter unit 20.
[0142]
Thereby, in the trans-oral system unit 20, a correction process is performed on the audio signal after the sound image localization process according to the current position of the head of the listener with respect to the headrest unit 90, and the corrected audio signal is Even if the position of the listener's head changes with respect to the headrest unit 90, the sound image of the sound emitted from the left and right speakers can be localized at the virtual speaker position.
[0143]
In the case of the acoustic processing apparatuses 1, 2, 3, and 4 of the first to third embodiments described above, ultrasonic waves are used to detect the position of the listener's head. Since the ultrasonic waves cannot be heard as sounds by human ears, the listener does not notice that the head is being detected.
[0144]
In addition, in the case of a normal music component, an ultrasonic component that is related to detection accuracy (measurement accuracy) is not included, so that there is no problem of interference with reproduced sound (music signal) for listening purposes. That is, during music playback, the position of the listener relative to the speaker can be measured and detected without deteriorating the reproduced sound and without being noticed by the listener.
[0145]
In the acoustic processing apparatus 4 of the third embodiment described above, six ultrasonic receiving elements are provided in the headrest portion 90, but the present invention is not limited to this, and more ultrasonic receiving elements are provided. Of course, a plurality of receiving elements may be provided in a plurality of rows. Further, the interval between the receiving elements and the direction of the sound emitting surface of the left and right speakers SL and SR can be appropriately adjusted.
[0146]
Further, the position where the ultrasonic receiving element is provided may be provided in an arbitrary place where reflection from the head of the listener can be received, in addition to the headrest 90 and its vicinity.
[0147]
Further, instead of the trans-oral system filter unit 20, a simplified trans-oral system unit 70 used in the modification of the first embodiment shown in FIG. 5 may be used. Further, instead of the 2-channel sound image localization processing filter unit 10, a multi-channel, for example, 5-channel sound image localization processing filter 80 may be used.
[0148]
Therefore, also in the case of the sound processing device of the third embodiment described above, as in the case of the sound processing device of the first and second embodiments described above, the head of the listener with respect to the headrest portion 90 is The measurement position and listening position of the listener's head as in the past by measuring the position always or as needed and performing correction processing (transoral processing) according to the transfer function according to the measured position. Thus, it is possible to avoid the lack of the virtual speaker localization effect due to the inaccuracy of the sound and to achieve the effects such as the front localization of the sound image and the all-round localization of the sound image without being influenced by the position of the listener's head.
[0149]
[Fourth Embodiment]
In the first to third embodiments described above, the position of the listener's head relative to the headrest portion provided with the speaker is detected by transmitting ultrasonic waves and receiving the reflected waves. However, detection of the position of the listener's head is not limited to using ultrasonic waves.
[0150]
For example, videophones capable of transmitting and receiving not only voice but also images have been used at home. Therefore, for example, as shown in FIG. 10, a so-called home theater system is formed by a TV set (TV set) 200 and a chair on which a sound processing device having a headrest portion 30 provided with left and right two-channel speakers SR and SL is mounted. In such a case, the CCD camera 210 that is usually used for a videophone can be used for detecting the position of the listener's head relative to the headrest 30.
[0151]
Also, it is often the case that sound such as music is listened to in a car (vehicle interior). Therefore, as shown in FIG. 11, it is conceivable to configure the sound processing apparatus by providing a headrest portion on which two left and right channel speakers (SL1, SR1 or SL2, SR2) are mounted on a seat in the automobile. In such a case, by mounting, for example, a videophone CCD camera 310 in the car, the videophone CCD camera 310 can be used to detect the position of the listener's head relative to the headrest portion. .
[0152]
Even in the present situation, in some types of automobiles, in order to eliminate blind spots, a CCD camera is provided outside the automobile, and an image captured through the CCD camera is displayed on a display inside the automobile for viewing. What can be done is also provided, and it is possible to mount a CCD camera for in-car imaging on a car.
[0153]
Therefore, the acoustic processing apparatus according to the fourth embodiment uses a CCD camera (CCD apparatus) provided in the home or in the car to determine the position of the listener's head relative to the headrest portion provided with the speaker. You can enjoy the virtual speaker localization effect in a more free posture by grasping in real time how much your head is sitting with respect to the speaker and using a transfer function suitable for that position in the system It is something that can be done.
[0154]
Note that the sound processing device 5 of the fourth embodiment can also process left and right two-channel audio signals, as in the case of the sound processing device 1 of the first embodiment described above. In addition, the sound image of the sound emitted from the left and right two-channel speakers provided in the headrest portion can be localized in the forward direction of the listener. That is, the sound processing device 5 can localize the sound image as if the sound emitted from the left and right two-channel speakers provided in the headrest portion is emitted from the virtual speakers VSL and VSR.
[0155]
FIG. 12 is a block diagram for explaining the sound processing apparatus 5 according to the fourth embodiment. As described with reference to FIGS. 10 and 11, the sound processing apparatus 5 shown in FIG. 12 is provided in a home room or an automobile. The sound processing device 5 shown in FIG. 12 analyzes the CCD camera 210 and the image captured by the CCD camera 210, and detects the position of the listener's head relative to the headrest 30. Except for the section 40D, the configuration is the same as that of the sound processing apparatus 1 of the first embodiment shown in FIG.
[0156]
For this reason, in the sound processing apparatus 5 of the fourth embodiment shown in FIG. 12, the same reference numerals are used for the parts configured similarly to the sound processing apparatus 1 of the first embodiment shown in FIG. The description of the portion is omitted.
[0157]
In the acoustic processing apparatus 5 of the fourth embodiment, the CCD camera 210 is set so as to be directed toward the listener, and can always take an image in the listener direction. Then, for example, the CCD camera 210 captures an image in the direction of the listener while the sound processing device 5 is operating under control of the CPU 50 or at predetermined timings, and performs image analysis on the captured image. To the unit 40D.
[0158]
The image analysis unit 40D performs an analysis process of the image data from the CCD camera 210, detects the position of the listener's head with respect to the headrest unit 30, and notifies the CPU 50 of this. Specifically, the position of the speaker of the headrest 30 can be confirmed by image processing by marking a predetermined position such as a chair on which a listener sits or a headrest portion of the seat.
[0159]
Since the listener always moves a little while sitting on the chair, the edge portion of the listener can be extracted by using this and taking the time axis difference of the still image. The positional relationship between the listener's head and the speakers SL and SR of the headrest 30 can be understood from the edge portion of the listener and the position of the speaker.
[0160]
The CPU 50 reads the coefficient data stored in the database 60 based on the detection result (the position of the listener's head) from the image analysis unit 40D, and supplies this to the corresponding filter of the transoral system filter unit 20. To do.
[0161]
Thereby, in the trans-oral system filter unit 20, the sound signal subjected to the sound image localization process is corrected according to the position of the listener's head, and the position of the listener's head with respect to the headrest unit 30 is determined. Even in the case of a change, the sound image of the sound emitted from the left and right speakers SL, SR of the headrest unit 30 can be localized so that the sound is emitted from the virtual speakers VSL, VSR.
[0162]
Note that when analyzing an image captured by the CCD camera 210, a case where the head moves in the vertical direction, which is a direction orthogonal to the head contact surface of the headrest unit 30, and a case where the head contact of the headrest unit 30 occurs. When the head moves in the horizontal direction, which is a direction parallel to the surface, the latter horizontal movement can be detected more easily.
[0163]
Originally, since the speaker is provided in the headrest portion 30 and is located in the vicinity of the listener's ear, even if the listener's head moves by the same amount, the speaker is orthogonal to the head contact surface of the headrest portion 30. Direction when the head moves in the vertical direction, which is the direction of the head, and when the head moves in the horizontal direction, which is the direction parallel to the head contact surface of the headrest portion 30, Change of transfer function from speaker to listener's ear is important.
[0164]
For this reason, in the sound processing apparatus 5 of the fourth embodiment, the horizontal position (offset) of the listener's head is sensed by analyzing the image captured by the CDD camera 210, and Accordingly, by using an appropriate filter coefficient for each filter of the transoral system fill unit 20, the sound image of the sound emitted from the left and right speakers SL, SR of the headrest 30 can be accurately set at a predetermined position. To be localized.
[0165]
In the acoustic processing apparatus 5 of the fourth embodiment, the simplified transoral is used in the modification of the first embodiment shown in FIG. 5 instead of the transoral system filter unit 20. The system unit 70 can also be used. Further, instead of the 2-channel sound image localization processing filter unit 10, a multi-channel, for example, 5-channel sound image localization processing filter 80 may be used.
[0166]
Therefore, in the case of the sound processing apparatus according to the fourth embodiment, as in the case of the sound processing apparatuses according to the first, second, and third embodiments described above, the listener's head with respect to the headrest portion 30 is used. By measuring the position of the part constantly or at any time and performing correction processing (trans-oral processing) according to the transfer function according to the measured position, Avoiding the lack of virtual speaker localization due to incorrect listening position, and achieving effects such as sound image localization and sound image all-around localization without being affected by the position of the listener's head .
[0167]
In the first, second, and fourth embodiments described above, the sound emitting surface of the speaker provided in the headrest portion is parallel to the surface that the head of the headrest portion contacts. Although shown, it is also possible to make appropriate corrections such as tilting the sound emitting surface of the speaker provided in the headrest portion toward the listener.
[0168]
In the above-described embodiment, an example in which the left speaker SL and the right speaker SR are provided in the headrest portion has been described. However, the number of speakers is not necessarily two, and 1 There may be one or more than two. It goes without saying that a so-called HiFi-oriented speaker device equipped with a twitter or the like can be used.
[0169]
Further, the sound processing device shown in FIGS. 1, 5, 6, 8, and 12 is all provided on the headrest side so that the headrest portion can be removed from the backrest portion. The headrest part can be used by being mounted on the backrest part of another chair.
[0170]
Moreover, in the sound processing apparatus shown in FIG. 1, FIG. 5, FIG. 6, FIG. 8, and FIG. 12, an adapter composed of each part other than the left and right speakers is configured, The sound processing apparatus according to the present invention can also be configured. Also, the sound processing apparatus of the present invention can be configured by providing each part other than the left and right speakers SL and SR, for example, on the backrest part of the chair or on the playback device side of the audio signal.
[0171]
【The invention's effect】
As described above, the position of the listener's head relative to the speaker can be detected, and the sound signal subjected to the sound image localization processing can be corrected according to the actual position of the listener's head. As a result, the degree of freedom of the position of the listener's head relative to the speaker is increased, and a highly reliable acoustic processing device is provided that does not reduce the effect of sound image localization due to slight movement of the listener's head. be able to.
[Brief description of the drawings]
FIG. 1 is a block diagram for explaining a first embodiment of a sound processing apparatus according to the present invention;
FIG. 2 is a diagram for explaining an appearance of a chair on which the sound processing apparatus according to the first embodiment is mounted.
FIG. 3 is a diagram for explaining the principle of sound image localization processing performed in the sound processing apparatus according to the first embodiment shown in FIG. 1;
4 is a diagram for explaining processing for detecting the position of a listener's head performed in the sound processing apparatus according to the first embodiment shown in FIG. 1; FIG.
FIG. 5 is a block diagram for explaining a modification of the sound processing apparatus according to the first embodiment shown in FIG. 1;
FIG. 6 is a block diagram for explaining a second embodiment of the sound processing apparatus according to the present invention;
7 is a diagram for explaining the principle of sound image localization processing performed in the sound processing apparatus according to the second embodiment shown in FIG. 6; FIG.
FIG. 8 is a block diagram for explaining a third embodiment of the sound processing apparatus according to the present invention;
FIG. 9 is a diagram for explaining the process of detecting the position of the listener's head performed in the sound processing apparatus according to the third embodiment shown in FIG. 8;
FIG. 10 is a diagram for explaining an example of a usage mode of the sound processing apparatus according to the fourth embodiment of the invention;
FIG. 11 is a diagram for explaining another example of a usage mode of the sound processing apparatus according to the fourth embodiment of the invention;
FIG. 12 is a block diagram for explaining a sound processing apparatus according to a fourth embodiment of the present invention;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Sound image localization process filter part, 11-14 ... Filter, 15, 16 ... Adder part, 20 ... Trans-oral system filter part, 21-24 ... Filter, 25, 26 ... Adder part, 30 ... Headrest part, SL ... Left Speaker, SR ... Right speaker, VSL ... Virtual left speaker, VSR ... Virtual right speaker, 40 ... Head position detection unit, 50 ... CPU, 60 ... Database, 70 ... Simplified transoral system filter unit, 41, 42 ... Filter , 80 ... Sound image localization processing filter unit, 81-90 ... Filter, 91, 92 ... Adder, SS1-SS6 ... Ultrasonic wave receiving element, 210, 310 ... CCD camera

Claims (2)

スピーカデバイスと、
前記スピーカデバイスに供給するようにする音声信号に対して、前記音声信号による音声の音像を所定の位置に定位させるようにする処理を行なう音像定位処理部と、
前記音像定位処理部からの音声信号に対して、前記スピーカデバイスに対する聴取者の頭部の位置に応じた補正処理を行なうようにする補正処理部と、
超音波を送信する超音波送信手段と、前記超音波送信手段から送信され、聴取者の頭部により反射される反射超音波を受信する超音波受信手段と、前記超音波受信手段による反射超音波の受信の有無、および、前記超音波受信手段により反射超音波を受信した場合には超音波の速度と超音波を送信してから反射超音波として受信するまでの時間とに基づいて聴取者の頭部の前記スピーカに対する位置を特定する頭部位置特定手段とを備える頭部位置検出部と、
前記頭部位置検出部からの検出結果に応じて、前記補正処理部を制御するようにする制御部と
を備え
前記超音波送信手段と、前記超音波受信手段とは、前記スピーカデバイスの高音域スピーカである
音響処理装置。
A speaker device;
A sound image localization processing unit that performs processing to localize a sound image of the sound by the sound signal to a predetermined position with respect to the sound signal to be supplied to the speaker device;
A correction processing unit configured to perform a correction process according to the position of the listener's head relative to the speaker device with respect to the audio signal from the sound image localization processing unit;
Ultrasonic transmitting means for transmitting ultrasonic waves, ultrasonic receiving means for receiving reflected ultrasonic waves transmitted from the ultrasonic transmitting means and reflected by the listener's head, and reflected ultrasonic waves by the ultrasonic receiving means Of the listener, and when the reflected ultrasonic wave is received by the ultrasonic wave receiving means, based on the speed of the ultrasonic wave and the time from transmission of the ultrasonic wave until reception of the reflected ultrasonic wave, A head position detection unit comprising head position specifying means for specifying the position of the head relative to the speaker ;
A control unit configured to control the correction processing unit according to a detection result from the head position detection unit ,
The ultrasonic transmission unit and the ultrasonic reception unit are acoustic processing apparatuses that are high-frequency speakers of the speaker device.
スピーカデバイスと、
前記スピーカデバイスに供給するようにする音声信号に対して、前記音声信号による音声の音像を所定の位置に定位させるようにする処理を行なう音像定位処理部と、
前記音像定位処理部からの音声信号に対して、前記スピーカデバイスに対する聴取者の頭部の位置に応じた補正処理を行なうようにする補正処理部と、
超音波を送信する超音波送信手段と、前記超音波送信手段から送信され、聴取者の頭部により反射される反射超音波を受信する超音波受信手段と、前記超音波受信手段による反射超音波の受信の有無、および、前記超音波受信手段により反射超音波を受信した場合には超音波の速度と超音波を送信してから反射超音波として受信するまでの時間とに基づいて聴取者の頭部の前記スピーカに対する位置を特定する頭部位置特定手段とを備える頭部位置検出部と、
前記頭部位置検出部からの検出結果に応じて、前記補正処理部を制御するようにする制御部と
を備え、
前記超音波送信手段は、左右2チャンネルの前記スピーカデバイスの高音域スピーカであり、
前記超音波受信手段は、所定の位置に並べられた複数個の超音波感知素子からなるものであり、
左右2チャンネルのそれぞれの前記高音域スピーカからは、異なる周波数の超音波を送信する
音響処理装置。
A speaker device;
A sound image localization processing unit that performs processing to localize a sound image of the sound by the sound signal to a predetermined position with respect to the sound signal to be supplied to the speaker device;
A correction processing unit configured to perform a correction process according to the position of the listener's head relative to the speaker device with respect to the audio signal from the sound image localization processing unit;
Ultrasonic transmitting means for transmitting ultrasonic waves, ultrasonic receiving means for receiving reflected ultrasonic waves transmitted from the ultrasonic transmitting means and reflected by the listener's head, and reflected ultrasonic waves by the ultrasonic receiving means Of the listener, and when the reflected ultrasonic wave is received by the ultrasonic wave receiving means, based on the speed of the ultrasonic wave and the time from transmission of the ultrasonic wave until reception of the reflected ultrasonic wave, A head position detection unit comprising head position specifying means for specifying the position of the head relative to the speaker;
A control unit configured to control the correction processing unit according to a detection result from the head position detection unit;
With
The ultrasonic transmission means is a high-frequency speaker of the speaker device with two channels on the left and right,
The ultrasonic receiving means comprises a plurality of ultrasonic sensing elements arranged in a predetermined position,
An acoustic processing apparatus that transmits ultrasonic waves of different frequencies from the high-frequency speakers of the two left and right channels .
JP2001283020A 2001-09-18 2001-09-18 Sound processor Expired - Fee Related JP4735920B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001283020A JP4735920B2 (en) 2001-09-18 2001-09-18 Sound processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001283020A JP4735920B2 (en) 2001-09-18 2001-09-18 Sound processor

Publications (2)

Publication Number Publication Date
JP2003092799A JP2003092799A (en) 2003-03-28
JP4735920B2 true JP4735920B2 (en) 2011-07-27

Family

ID=19106579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001283020A Expired - Fee Related JP4735920B2 (en) 2001-09-18 2001-09-18 Sound processor

Country Status (1)

Country Link
JP (1) JP4735920B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9088842B2 (en) 2013-03-13 2015-07-21 Bose Corporation Grille for electroacoustic transducer
US9327628B2 (en) 2013-05-31 2016-05-03 Bose Corporation Automobile headrest
US9699537B2 (en) 2014-01-14 2017-07-04 Bose Corporation Vehicle headrest with speakers

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005236502A (en) 2004-02-18 2005-09-02 Yamaha Corp Sound system
JP2007214897A (en) * 2006-02-09 2007-08-23 Kenwood Corp Sound system
KR100718160B1 (en) 2006-05-19 2007-05-14 삼성전자주식회사 Apparatus and method for crosstalk cancellation
JP4924119B2 (en) * 2007-03-12 2012-04-25 ヤマハ株式会社 Array speaker device
JP2010016525A (en) * 2008-07-02 2010-01-21 Sony Corp Sound processing apparatus and sound processing method
JP5597975B2 (en) * 2009-12-01 2014-10-01 ソニー株式会社 Audiovisual equipment
JP5488732B1 (en) * 2013-03-05 2014-05-14 パナソニック株式会社 Sound playback device
IL243513B2 (en) 2016-01-07 2023-11-01 Noveto Systems Ltd System and method for audio communication
WO2018127901A1 (en) 2017-01-05 2018-07-12 Noveto Systems Ltd. An audio communication system and method
US11388541B2 (en) 2016-01-07 2022-07-12 Noveto Systems Ltd. Audio communication system and method
JP6629625B2 (en) * 2016-02-19 2020-01-15 学校法人 中央大学 Work environment improvement system
EP3280154B1 (en) * 2016-08-04 2019-10-02 Harman Becker Automotive Systems GmbH System and method for operating a wearable loudspeaker device
US10764704B2 (en) 2018-03-22 2020-09-01 Boomcloud 360, Inc. Multi-channel subband spatial processing for loudspeakers
WO2021010006A1 (en) * 2019-07-17 2021-01-21 パナソニックIpマネジメント株式会社 Sound control device, sound control system, and sound control method
US10841728B1 (en) 2019-10-10 2020-11-17 Boomcloud 360, Inc. Multi-channel crosstalk processing

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2568742B2 (en) * 1990-09-07 1997-01-08 松下電器産業株式会社 Audio / video control unit
DE69434887T2 (en) * 1993-10-04 2007-07-12 Sony Corp. AUDIO PLAYBACK DEVICE
JPH07193900A (en) * 1993-12-24 1995-07-28 Aqueous Res:Kk Head position detector for generating stereoscopic sound field
JP3207666B2 (en) * 1994-03-15 2001-09-10 株式会社ケンウッド In-car audio equipment
JP3431756B2 (en) * 1996-05-13 2003-07-28 三菱電機株式会社 Detection device and detection method
JP3502524B2 (en) * 1997-02-19 2004-03-02 日本碍子株式会社 Transducer array
JPH10230899A (en) * 1997-02-24 1998-09-02 Motoya Takeyama Man-machine interface of aerospace aircraft
JP2001057699A (en) * 1999-06-11 2001-02-27 Pioneer Electronic Corp Audio system
US7016504B1 (en) * 1999-09-21 2006-03-21 Insonus Medical, Inc. Personal hearing evaluator

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9088842B2 (en) 2013-03-13 2015-07-21 Bose Corporation Grille for electroacoustic transducer
US9327628B2 (en) 2013-05-31 2016-05-03 Bose Corporation Automobile headrest
US9699537B2 (en) 2014-01-14 2017-07-04 Bose Corporation Vehicle headrest with speakers

Also Published As

Publication number Publication date
JP2003092799A (en) 2003-03-28

Similar Documents

Publication Publication Date Title
JP4692803B2 (en) Sound processor
JP4735920B2 (en) Sound processor
US8787602B2 (en) Device for and a method of processing audio data
AU2001239516B2 (en) System and method for optimization of three-dimensional audio
JP3435156B2 (en) Sound image localization device
US6975731B1 (en) System for producing an artificial sound environment
JP3435141B2 (en) SOUND IMAGE LOCALIZATION DEVICE, CONFERENCE DEVICE USING SOUND IMAGE LOCALIZATION DEVICE, MOBILE PHONE, AUDIO REPRODUCTION DEVICE, AUDIO RECORDING DEVICE, INFORMATION TERMINAL DEVICE, GAME MACHINE, COMMUNICATION AND BROADCASTING SYSTEM
AU2001239516A1 (en) System and method for optimization of three-dimensional audio
JP3920404B2 (en) Audio playback module
EP1562401A2 (en) Sound reproduction apparatus and sound reproduction method
JP2010034755A (en) Acoustic processing apparatus and acoustic processing method
JP2004135023A (en) Sound outputting appliance, system, and method
WO2019198314A1 (en) Audio processing device, audio processing method, and program
US20240107232A1 (en) Directional sound recording and playback
KR20200021854A (en) Electronic apparatus, method for controlling thereof and recording media thereof
JP2010016525A (en) Sound processing apparatus and sound processing method
US20230199426A1 (en) Audio signal output method, audio signal output device, and audio system
JP2023092961A (en) Audio signal output method, audio signal output device, and audio system
JPH11127500A (en) Bi-noral reproducing device, headphone for binaural reproduction and sound source evaluating method
JP2006157106A (en) Apparatus and system for reproducing sound
JP2006080709A (en) Audio reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080826

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090825

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110413

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees