Nothing Special   »   [go: up one dir, main page]

JP4973919B2 - 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム - Google Patents

出力制御システムおよび方法、出力制御装置および方法、並びにプログラム Download PDF

Info

Publication number
JP4973919B2
JP4973919B2 JP2006287741A JP2006287741A JP4973919B2 JP 4973919 B2 JP4973919 B2 JP 4973919B2 JP 2006287741 A JP2006287741 A JP 2006287741A JP 2006287741 A JP2006287741 A JP 2006287741A JP 4973919 B2 JP4973919 B2 JP 4973919B2
Authority
JP
Japan
Prior art keywords
audio signal
output
speaker
output control
speakers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006287741A
Other languages
English (en)
Other versions
JP2008109209A5 (ja
JP2008109209A (ja
Inventor
哲二郎 近藤
哲彦 有光
淳一 嶋
拓郎 江間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006287741A priority Critical patent/JP4973919B2/ja
Priority to US11/872,954 priority patent/US8295516B2/en
Priority to KR1020070106080A priority patent/KR20080036531A/ko
Priority to CNA200710181726XA priority patent/CN101175337A/zh
Priority to EP07119055A priority patent/EP1919259A2/en
Publication of JP2008109209A publication Critical patent/JP2008109209A/ja
Publication of JP2008109209A5 publication Critical patent/JP2008109209A5/ja
Application granted granted Critical
Publication of JP4973919B2 publication Critical patent/JP4973919B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • Television Receiver Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、出力制御システムおよび方法、出力制御装置および方法、並びにプログラムに関し、特に、マルチディスプレイ装置に応じた音声信号処理を行うことができるようにした出力制御システムおよび方法、出力制御装置および方法、並びにプログラムに関する。
従来から、複数のスピーカを用いて聴衆者を取り囲む位置に仮想音源を形成する技術が提案されている(例えば、特許文献1)。
また、近年、テレビジョン受像機を同じ向きに左右または上下に並べて、これらのテレビジョン受像機に、それぞれ個別の画像を表示させるだけでなく、全体として、1つの画像を拡大して表示させたり、所望の大きさで画像を分割して表示させたりするスケーラブルテレビジョン受像機の技術が利用されるようになってきた。
例えば、特許文献2には、親機としてのテレビジョン受像機で、テレビジョン放送番組が表示されている場合、親機に表示された画像データにシーンチェンジが生じると、そのシーンチェンジ直後のフレームの画像データが、子機としてのテレビジョン受像機で表示され、その後、さらに、親機に表示された画像データにシーンチェンジが生じると、そのシーンチェンジ直後のフレームの画像データが、子機において、いままで表示されていた画像データに代えて表示されることが提案されている。
このように、従来においては、スケーラブルテレビジョン受像機での画像表示に関する提案が多くなされている。
特開2005−64746号公報 特開2004−289866号公報
しかしながら、例えば、特許文献2には、各テレビジョン受像機の画像表示面の左右に設けられているスピーカから、いずれかのテレビジョン受像機で表示されている番組の音声が出力されることが記載されているだけであり、従来のスケーラブルテレビジョン受像機の提案においては、複数のスピーカは搭載されているものの、例えば、特許文献1のような仮想音源を形成する技術など、複数のスピーカによる音声出力について言及するものが殆どなかった。
したがって、早急に、スケーラブルテレビジョン受像機における、複数のスピーカによる音声出力に関する提案が要求されていた。
本発明は、このような状況に鑑みてなされたものであり、マルチディスプレイ装置に表示される画像に応じて、その画像が対応する音声の音声信号処理を行うことができるようにするものである。
本発明の第1の側面の出力制御システムは、複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力をそれぞれ制御する複数の出力制御装置で構成される出力制御システムにおいて、前記複数の出力制御装置それぞれは、他の出力制御装置の状態または処理結果などの情報を相互に送受信する通信手段と、前記通信手段により受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行う信号処理手段と、前記対象のスピーカに出力される音声信号が入力される第1の信号入力手段と、前記対象のスピーカに出力される音声信号以外の音声信号が入力される第2の信号入力手段と、前記第2の信号入力手段から入力される前記音声信号の特徴を検出する検出手段とを備え、前記信号処理手段は、前記検出手段により検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理を行い、前記対象のスピーカに出力する。
前記多画面表示装置を構成する前記複数の表示装置への表示をそれぞれ制御する複数の表示制御装置をさらに有し、前記通信手段は、さらに、前記複数の表示制御装置から、前記複数の表示装置の状態または処理結果などの情報を受信し、前記信号処理手段は、前記通信手段により受信された前記複数の表示装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行うことができる。
前記通信手段は、さらに、前記検出手段により検出された前記音声信号の特徴の検出結果を、前記複数の表示制御装置に送信することができる。
前記信号処理手段は、前記多画面表示装置に表示される画像に対応する音声の音像を、前記多画面表示装置の表示面上の任意の位置へ定位させるように、前記対象のスピーカに出力される音声信号の処理を行うことができる。
前記信号処理手段は、前記多画面表示装置を構成する前記複数の表示装置のうちの1の表示装置に表示される画像に対応する音声の音像を、前記表示面上における前記多画面表示装置の中央位置、または、前記中央位置を中心とした円周上に定位させるように、前記対象のスピーカに出力される音声信号の処理を行うことができる。
前記信号処理手段は、前記多画面表示装置を構成する前記複数の表示装置のうちの2以上の表示装置に表示される画像に対応する音声の音像を、前記2以上の表示装置に表示される画像のサイズに応じた定位位置に定位させるように、前記対象のスピーカに出力される音声信号の処理を行うことができる。
前記スピーカそれぞれには、前記多画面表示装置に表示される画像に対応する音声の音像に対して異なる効果を与える役割が設定され、前記信号処理手段は、前記対象のスピーカに設定された役割に応じて、前記対象のスピーカに出力される音声信号の処理を行うことができる。
前記対象のスピーカには、音像を引き締める効果を与える役割が設定されることができる。
前記対象のスピーカには、音像を拡げる効果を与える役割が設定されることができる。
前記対象のスピーカには、残響効果を与える役割が設定されることができる。
本発明の第1の側面の出力制御方法は、複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力をそれぞれ制御する複数の出力制御装置で構成される出力制御システムの出力制御方法において、前記複数の出力制御装置それぞれの出力制御方法は、通信手段が、他の出力制御装置の状態または処理結果などの情報を相互に送受信し、信号処理手段が、受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行い、第1の信号入力手段が、前記対象のスピーカに出力される音声信号を入力し、第2の信号入力手段が、前記対象のスピーカに出力される音声信号以外の音声信号を入力し、検出手段が、前記第2の信号入力手段から入力される前記音声信号の特徴を検出するステップを含み、前記信号処理手段が、前記検出手段により検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理を行い、前記対象のスピーカに出力する。
本発明の第2の側面の出力制御装置は、複数の出力制御装置で構成される出力制御システムを構成し、複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力を制御する出力制御装置において、他の出力制御装置の状態または処理結果などの情報を相互に送受信する通信手段と、前記通信手段により受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行う信号処理手段と、前記対象のスピーカに出力される音声信号が入力される第1の信号入力手段と、前記対象のスピーカに出力される音声信号以外の音声信号が入力される第2の信号入力手段と、前記第2の信号入力手段から入力される前記音声信号の特徴を検出する検出手段とを備え、前記信号処理手段は、前記検出手段により検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理を行い、前記対象のスピーカに出力する。
本発明の第2の側面の出力制御方法は、複数の出力制御装置で構成される出力制御システムを構成し、複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力を制御する出力制御装置の出力制御方法において、通信手段が、他の出力制御装置の状態または処理結果などの情報を相互に送受信し、信号処理手段が、受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行い、第1の信号入力手段が、前記対象のスピーカに出力される音声信号を入力し、第2の信号入力手段が、前記対象のスピーカに出力される音声信号以外の音声信号を入力し検出手段が、前記第2の信号入力手段から入力される前記音声信号の特徴を検出するステップを含み、前記信号処理手段が、前記検出手段により検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理を行い、前記対象のスピーカに出力する。
本発明の第2の側面のプログラムは、複数の出力制御装置で構成される出力制御システムを構成する出力制御装置に、複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力を制御する処理を行わせるプログラムであって、他の出力制御装置の状態または処理結果などの情報を相互に送受信し、受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行い、前記対象のスピーカに出力される音声信号が第1の信号入力手段に入力され、前記対象のスピーカに出力される音声信号以外の音声信号が第2の信号入力手段に入力され、前記第2の信号入力手段から入力される前記音声信号の特徴を検出するステップを含み、検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理を行い、前記対象のスピーカに出力する。
本発明の第1の側面においては、複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力をそれぞれ制御する複数の出力制御装置それぞれにより、他の出力制御装置の状態または処理結果などの情報が相互に送受信され、受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理が行われる。また、前記対象のスピーカに出力される音声信号が第1の信号入力手段に入力され、前記対象のスピーカに出力される音声信号以外の音声信号が第2の信号入力手段に入力され、前記第2の信号入力手段から入力される前記音声信号の特徴が検出される。そして、検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理が行われ、前記対象のスピーカに出力される。
本発明の第2の側面においては、他の出力制御装置の状態または処理結果などの情報が相互に送受信され、受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理が行われる。また、前記対象のスピーカに出力される音声信号が第1の信号入力手段に入力され、前記対象のスピーカに出力される音声信号以外の音声信号が第2の信号入力手段に入力され、前記第2の信号入力手段から入力される前記音声信号の特徴が検出される。そして、検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理が行われ、前記対象のスピーカに出力される。
本発明の第1の側面によれば、多画面表示装置に表示される画像に応じて、その画像が対応する音声の音声信号処理を行うことができる。
本発明の第2の側面によれば、スケーラブルに出力数の変更を行うことができる。また、各出力に対して個別の処理を行うことができる。
以下、図を参照して本発明の実施の形態について説明する。
図1は、本発明を適用したマルチスピーカシステム(システムとは、複数の装置が論理的に集合したものをいい、各構成の装置が同一筐体中にあるか否かは問わない)の実施の形態の構成を示す図である。
図1の例において、マルチスピーカシステムは、9個のディスプレイ11−1乃至11−9からなるマルチディスプレイ装置1、並びに、9対のスピーカ12L−1乃至12L−9およびスピーカ12R−1乃至12R−9(L:左用とR:右用で1対)からなるマルチスピーカ2により構成されており、マルチディスプレイ装置1に表示される画像に対応する音声の出力を制御するシステムである。なお、以下、説明の便宜上、マルチスピーカシステムの正面に向かって左側に配置されるスピーカを左用スピーカとし、右側に配置されるスピーカを右用スピーカとして説明する。
マルチディスプレイ装置1は、例えば、それらの表示面が3行×3列のアレイ状(行列状)に配置される各ディスプレイ11−1乃至11−9にそれぞれ異なる番組の画像を表示したり、9台のディスプレイ11−1乃至11−9や、そのうち、少なくとも2台のディスプレイで1つの拡大画像として番組を表示したりする。
ディスプレイ11−1乃至11−9の筐体は、各表示面が3行×3列のアレイ状になるように配置されている。すなわち、上段には、左からディスプレイ11−1乃至11−3の筐体が配置され、中段には、左からディスプレイ11−4乃至11−6の筐体が配置され、下段には、左からディスプレイ11−7乃至11−9の筐体が配置されている。なお、ディスプレイ11−1乃至11−9について、それぞれ区別する必要がない場合、単にディスプレイ11と称するものとする。また、これらのディスプレイ11の台数は、何台であってもよく、ディスプレイ11の筐体を、横方向に何列、縦方向に何段で配置するようにしてもよい。
マルチスピーカシステムにおいて、複数、あるいは1のディスプレイ11に表示される画像(以下、ディスプレイ11の画面とも称する)のうち、ユーザが操作可能な画面(以下、アクティブ画面と称する)は、1つとされる。ユーザは、図示せぬリモートコントローラを操作することで、複数の画面の中からアクティブ画面を選択したり、アクティブ画面に対して、音量や選局、ズームなどの指示を行うことができる。そして、このアクティブ画面が、マルチスピーカ2における音声出力の対象の画面とされる。
マルチスピーカ2は、アクティブ画面に対応する音声が、マルチディスプレイ装置1の表示面上のアクティブ画面の辺りから聞こえてくるように、換言するに、その音声の音像を、アクティブ画面に定位させるように、9対のスピーカ12L−1乃至12L−9およびスピーカ12R−1乃至12R−9の音声出力を制御する。すなわち、マルチスピーカ2は、アクティブ画面に対応する音声を、9対のスピーカ12L−1乃至12L−9およびスピーカ12R−1乃至12R−9のうち、アクティブ画面の位置やサイズに応じた位置に配置されるスピーカから出力させる。
なお、左用のスピーカ12L−1乃至12L−9および右用のスピーカ12R−1乃至12R−9をそれぞれ区別する必要がない場合、スピーカ12Lおよびスピーカ12Rとも称し、さらに、それらをまとめて、単にスピーカ12とも称する。また、これらのスピーカ12の数は、何対であってもよく、ディスプレイ11の数と対応させる必要はない。
9対のスピーカ12L−1乃至12L−9およびスピーカ12R−1乃至12R−9は、3行×3列のアレイ状になるように配置されているディスプレイ11−1乃至11−9を取り囲むように、ディスプレイ11−1乃至11−9の表示面に、スピーカ12の筐体の前面を合わせて、ディスプレイ11−1乃至11−9の上下側に、それぞれ6つ並んで、かつ、ディスプレイ11−1乃至11−9の左右側にそれぞれ3つ並んで、2次元配置されている。
すなわち、スピーカ12L−1および12R−1は、上段、左端のディスプレイ11−1の上部に並んでそれぞれ配置されており、スピーカ12L−2および12R−2は、上段、中央のディスプレイ11−2の上部に並んでそれぞれ配置されており、スピーカ12L−3および12R−3は、上段、右端のディスプレイ11−3の上部に並んでそれぞれ配置されている。スピーカ12L−4および12R−4は、上段のディスプレイ11−1乃至11−3を挟んだ左右の位置にそれぞれ配置されており、スピーカ12L−5および12R−5は、中段のディスプレイ11−4乃至11−6を挟んだ左右の位置にそれぞれ配置されており、スピーカ12L−6および12R−6は、下段のディスプレイ11−7乃至11−9を挟んだ左右の位置にそれぞれ配置されている。
また、スピーカ12L−7および12R−7は、下段、左端のディスプレイ11−7の下部に並んでそれぞれ配置されており、スピーカ12L−8および12R−8は、下段、中央のディスプレイ11−8の下部に並んでそれぞれ配置されており、スピーカ12L−9および12R−9は、下段、右端のディスプレイ11−9の下部に並んでそれぞれ配置されている。なお、スピーカ12の配置も、図1の場合に限らず、少なくとも上下2つ以上、かつ左右2つ以上に2次元配置されていればよい。
そして、各スピーカ12は、アクティブ画面の位置や画面のサイズ、および自分の配置位置に応じて信号処理されたアクティブ画面に対応する音声を出力する。
以上のように、マルチスピーカシステムにおいては、マルチディスプレイ装置1の周囲(上下左右)を取り囲むように配置された各スピーカ12により、マルチディスプレイ装置1の表示面(すなわち、マルチスピーカ2が2次元配置される平面)上のアクティブ画面の位置やサイズ、および自分の配置位置に応じて信号処理された音声が出力される。これにより、アクティブ画面の音声の音像を、上下左右任意の位置のアクティブ画面に定位させることができるので、ユーザに対して、アクティブ画面の位置を直感的に認識させることができる。
図2は、図1のマルチスピーカシステムの電気的な構成例を示す図である。なお、図2の例においては、左用のスピーカ12L−1乃至12L−9、右用のスピーカ12R−1乃至12R−9、および、低音用のスピーカ12B−1乃至12B−9でそれぞれ1対として構成されている。これらのスピーカ12B−1乃至スピーカ12B−9も区別する必要がない場合、スピーカ12Bと称し、さらに、スピーカ12L,12R,および12Bをまとめて、スピーカ12とも称する。
図2の例においては、マルチスピーカシステムは、チューナ部31、メイン制御部32、9対のスピーカ12L−1乃至12L−9,スピーカ12R−1乃至12R−9,およびスピーカ12B−1乃至12B−9のうち、対応する1対のスピーカ12L,12R,および12Bに出力する音声の信号処理を行うスピーカエンジン部33−1乃至33−9、並びに、ディスプレイ11−1乃至11−9のうち、対応するディスプレイ11に出力する画像の信号処理を行う映像エンジン部34−1乃至34−9により構成されている。
なお、以下、スピーカエンジン部33−1乃至33−9および映像エンジン部34−1乃至34−9を個々に区別する必要がない場合、それぞれ、スピーカエンジン部33および映像エンジン部34とも称する。
チューナ部31は、複数(例えば、9個)のチューナで構成されている。チューナ部31の複数のチューナは、それぞれ、図示せぬアンテナより受信される放送局からの放送信号の受信帯域を選択し、選択した受信帯域の放送信号を所定の方式で復調し、復調された信号のうちの画像信号および音声信号を、メイン制御部32に出力する。
メイン制御部32は、MPU(Multi Processor Unit)などで構成され、マルチスピーカシステムに接続されている複数のスピーカエンジン部33および映像エンジン部34をまとめるための制御を行う。すなわち、メイン制御部32には、図示せぬリモートコントローラからのユーザの指示信号、映像エンジン部34からの状態や処理結果などの情報、およびスピーカエンジン部33からの状態や処理結果などの情報が入力される。
メイン制御部32は、ユーザの指示信号を、必要に応じて、映像エンジン部34およびスピーカエンジン部33に供給する。メイン制御部32は、また、映像エンジン部34からの情報を、他の映像エンジン部34およびスピーカエンジン部33に供給し、スピーカエンジン部33からの情報を、他のスピーカエンジン部33および映像エンジン部34に供給する。すなわち、映像エンジン部34の状態や処理結果などの情報、並びに、スピーカエンジン部33の状態や処理結果などの情報は、メイン制御部32を介して、相互に共有される。
また、メイン制御部32は、リモートコントローラからのユーザの指示信号に応じて、チューナ部31からの画像信号を、映像エンジン部34に出力し、チューナ部31からの音声信号を、スピーカエンジン部33に出力する。
例えば、各ディスプレイ11にそれぞれ異なる番組の画像を出力する場合には、各映像エンジン部34に、異なる番組の画像信号が出力される。また、例えば、ディスプレイ11−1乃至11−3で同じ番組の画像を出力する場合には、ディスプレイ11−1乃至11−3に対応する映像エンジン部34−1乃至34−3に、同じ番組の画像信号、それ以外のディスプレイ11に、異なる番組の画像信号が出力される。
一方、メイン制御部32は、スピーカエンジン部33に、ユーザにより設定されたアクティブ画面の音声信号を出力するとともに、複数系統、または、少なくとも1系統の他の番組の音声信号も出力する。
スピーカエンジン部33および映像エンジン部34は、それぞれ、マルチスピーカシステムに着脱可能に構成されており、装着(接続)されたスピーカエンジン部33および映像エンジン部34は、メイン制御部32を介して、相互に情報の受け渡しを行うことができる。
スピーカエンジン部33は、映像エンジン部34の状態や、他のスピーカエンジン部33の状態に基づいて、マルチディスプレイ装置1およびマルチスピーカ2の構成、すなわち、マルチディスプレイ装置1を構成するディスプレイ11の数やその配置、およびマルチスピーカ2を構成するスピーカ12の数やその配置などを確認することで、マルチスピーカ2における、対応するスピーカ12L,12R,および12BのID(Identification)番号を取得する。なお、ID番号は、DIP(dual in-line package)スイッチなどを予め設定しておき、それを確認することでも取得できる。
さらに、スピーカエンジン部33は、対応するスピーカ12のID番号と、映像エンジン部34から処理結果(例えば、アクティブ画面信号や画面サイズ信号)などに基づいて、対応するスピーカ12L,12R,および12Bの音声信号処理に関するパラメータを選択し、選択したパラメータに基づいて、メイン制御部32から入力される音声信号の信号処理を行う。
ここで、スピーカエンジン部33には、アクティブ画面に対応する音声信号が、スピーカ12に出力する音声信号(以下、スピーカ出力信号とも称する)として入力され、それ以外の少なくとも1系統の音声信号が、裏音声信号として入力されている。
スピーカエンジン部33は、スピーカ出力信号の音声信号処理を行って、対応するスピーカ12に出力するとともに、裏音声信号を監視しており、監視結果に基づいて、例えば、スピーカ出力信号に代えて、裏音声信号の音声信号処理を行うなど、監視結果に基づく処理を実行する。なお、このスピーカエンジン部33の処理結果も、メイン制御部32を介して、他のスピーカエンジン部33や、映像エンジン部34に供給される。
映像エンジン部34も、他の映像エンジン部34の状態や、必要であれば、スピーカエンジン部33の状態に基づいて、マルチディスプレイ装置1およびマルチスピーカ2の構成などを確認することで、マルチディスプレイ装置1における、対応するディスプレイ11のID番号を認識する。また、映像エンジン部34は、メイン制御部32からのユーザの指示信号に応じて、自分が表示する画像(画面)をアクティブ画面に設定したり、その設定を解除する。
映像エンジン部34は、メイン制御部32からのユーザの指示信号に応じて、メイン制御部32から入力されてくる画像信号に対して、他の映像エンジン部34と連動して、1つの拡大画像を表示するための画像処理を行ったり、個々の番組の画像を表示するための画像処理を行い、処理後の画像信号を、ディスプレイ11に出力する。そして、映像エンジン部34の処理結果(例えば、アクティブ画面信号、画面サイズ信号、チャンネル番号、またはズームサイズなど)は、メイン制御部32を介して、スピーカエンジン部33や、他の映像エンジン部34に供給される。
以上のように、マルチスピーカステムにおいては、スピーカエンジン部33および映像エンジン部34により、メイン制御部32を介して、相互に情報の受け渡しが行われるので、任意の数の映像エンジン部34やスピーカエンジン部33を追加して、出力数を自在に変更することも可能である。
また、マルチスピーカシステムにおいては、個々のスピーカエンジン部33および映像エンジン部34が個別に処理を行うので、各出力に対して個別の音声信号処理や画像信号処理を追加することも可能である。
なお、図2の例においては、スピーカエンジン部33および映像エンジン部34における相互の情報の受け渡しを、メイン制御部32を介して行う例が示されているが、スピーカエンジン部33および映像エンジン部34を、有線または無線により、互いに(電気的に)接続して、メイン制御部32を介さずに、情報の受け渡しを行うように構成することもできる。
図3は、図2のスピーカエンジン部の構成例を示す図である。なお、図3の例においては、スピーカエンジン部33とスピーカ12L、12R、および12Bとの間には、それぞれ、スピーカエンジン部33からの音声信号を増幅するためのアンプ41L、41R、および41Bが備えられている。
図3のスピーカエンジン部33は、音声入力部51−1および音声入力部51−2、AD(Analog to Digital)変換部52−1および52−2、音声信号処理部53、監視処理部53a、DA(Digital to Analog)変換部55−1および55−2、並びに、音量制御部56−1および56−2により構成されている。
音声入力部51−1は、メイン制御部32からのアクティブ画面に対応する音声信号(左音声信号および右音声信号)を、スピーカ出力信号(スピーカ左出力信号およびスピーカ右出力信号)として入力し、AD変換部52−1に出力する。AD変換部52−1は、音声入力部51−1からのスピーカ左出力信号およびスピーカ右出力信号に対して、AD変換を行い、デジタル化されたスピーカ左出力信号およびスピーカ右出力信号を、音声信号処理部53に出力する。
音声入力部51−2は、メイン制御部32からのアクティブ画面に対応する音声信号以外の1系統の音声信号(左音声信号および右音声信号)を、裏音声信号(裏左音声信号および裏右音声信号)として入力し、AD変換部52−2に出力する。AD変換部52―2は、音声入力部51−2からの裏左音声信号および裏右音声信号に対して、AD変換を行い、デジタル化された裏左音声信号および裏右音声信号を、音声信号処理部53に出力する。
音声信号処理部53は、マルチディスプレイ装置1およびマルチスピーカ2の多種の構成における各スピーカ12に応じたパラメータ群を有している。このパラメータ群は、さらに、後述する音像定位や音表現に基づき、マルチディスプレイ装置1におけるアクティブ画面の位置やサイズに応じて予め設定されたパラメータで構成されている。
音声信号処理部53は、制御部54から供給される映像エンジン部34の状態や他のスピーカエンジン部33の状態に応じて、パラメータ群を選択し、さらに、制御部54から供給される映像エンジン部34やスピーカエンジン部33の処理結果(例えば、マルチディスプレイ装置1におけるアクティブ画面の位置やサイズ)に応じて、選択したパラメータ群の中から用いるパラメータを選択する。そして、音声信号処理部53は、AD変換部52−1からのスピーカ出力信号に対して、選択したパラメータに基づく音声処理を行う。音声処理後のフルレンジ(Full Range)の左音声信号および右音声信号は、DA変換部55−1に出力され、音声処理後の低周波数帯域(Bass)の音声信号は、DA変換部55−2に出力される。
また、音声信号処理部53は、裏音声信号を監視する監視処理部53aを内蔵している。監視処理部53aは、AD変換部52−2から入力される裏音声信号を解析し、解析することで抽出した情報を音声信号処理部53に供給する。音声信号処理部53は、監視処理部53aにより抽出された情報に基づく処理を行い、その処理結果を、制御部54およびメイン制御部32を介して、他のスピーカエンジン部33や映像エンジン部34に供給する。
例えば、監視処理部53aは、裏音声信号において、緊急放送や速報の特徴(すなわち、緊急放送や速報の特有の音声信号)を監視し、緊急放送や速報特有の音声信号が含まれていた場合、その緊急放送や速報の音声信号を抽出し、抽出結果を音声信号処理部53に供給してくる。これに対応して、音声信号処理部53は、その抽出結果を、制御部54およびメイン制御部32を介して、他のスピーカエンジン部33や映像エンジン部34に供給するとともに、例えば、スピーカ12に出力する音声信号を、裏音声信号に切り替えて音声処理を行う。
制御部54は、スピーカエンジン部33の状態(例えば、メイン制御部32に接続され、マルチスピーカ2を構成している状態)や、音声信号処理部53の処理結果などを、メイン制御部32に送信することで、それらの情報を、他のスピーカエンジン部33や映像エンジン部34に供給する。また、制御部54は、メイン制御部32を介して送信されてくる、ユーザの指示信号、または、他のスピーカエンジン部33や映像エンジン部34の状態や処理結果などの情報を受信し、それらの情報に基づいて、音声信号処理部53または音量制御部56−1および56−2を制御する。
DA変換部55−1は、音声信号処理部53からの音声処理後のフルレンジの左音声信号および右音声信号に対して、DA変換を行い、アナログの左音声信号および右音声信号を、それぞれ、音量制御部56−1に出力する。DA変換部55−2は、音声信号処理部53からの音声処理後の低周波数帯域の音声信号に対して、DA変換を行い、アナログの低周波数帯域の音声信号を、音量制御部56−2に出力する。
音量制御部56−1は、制御部54の制御のもと、DA変換部55−1からのアナログの左音声信号および右音声信号の音量を制御し、それぞれ、アンプ41Lおよび41Rを介して、スピーカ12Lおよび12Rに出力する。これにより、スピーカ12Lおよび12Rからは、それぞれ、信号処理が施された左音声信号および右音声信号に対応する左音声および右音声が出力される。
音量制御部56−2は、制御部54の制御のもと、DA変換部55−2からのアナログの低周波数帯域の音声信号の音量を制御し、アンプ41Bを介して、スピーカ12Bに出力する。これにより、スピーカ12Bからは、信号処理が施された低周波数帯域の音声信号に対応する低周波数帯域の音声が出力される。
なお、図3の例においては、裏音声信号として、1系統の音声信号しか入力されていないが、複数系統の音声信号を入力し、1系統の場合と同様に処理することも可能である。
図4は、図1のマルチディスプレイ装置におけるアクティブ画面の例を示す図である。
図4の例において、各表示面が3行×3列のアレイ状になるように配置されているディスプレイ11−1乃至11−9には、それぞれ異なる番組の画像が表示されている。すなわち、図4のマルチディスプレイ装置1においては、9個の画面が構成されており、9個の画面のうち、上段の左側のディスプレイ11−1の画面(ディスプレイ11−1に表示されている顔の画像)GG1がアクティブ画面として設定されている。
マルチスピーカ2は、アクティブ画面である、ディスプレイ11−1の画面GG1に音像を定位させるように、ディスプレイ11−1の画面GG1に対応する音声を、例えば、ディスプレイ11−1の真上に配置されるスピーカ12L−1および12R−1、ディスプレイ11−1の真下に配置されるスピーカ12L−7および12R−7、ディスプレイ11−1の左右に配置されるスピーカ12L−4および12R−4からのみ出力させる。なお、ハッチングがなされたスピーカ12は、他のスピーカ12よりも使用重要度が高いことを表しており、図4の例においては、使用重要度が高いスピーカ12からのみ、音声が出力される例が示されている。
その際、マルチスピーカ2においては、ディスプレイ11−1の左右に配置されるスピーカ12L−4および12R−4に出力させる音声の音声信号に対して遅延操作を行い、ディスプレイ11−1の上下に配置されるスピーカ12L−1および12R−1並びにスピーカ12L−7および12R−7に出力させる音声の音声信号に対して音量操作を行うことで、ディスプレイ11−1に対する上下左右の音像定位が実現されている。
すなわち、人間の耳の配置などの聴覚的な特性より、人間においては、上下方向の知覚よりも左右方向の知覚のほうが優れており、このことが、音の方向を知覚する上で非常に顕著にあらわれることは過去の解析により自明となっている。したがって、遅延操作は、左右方向への音像定位に効果的であるが、上下方向にはさほど効果的ではない。
そこで、マルチスピーカ2においては、上下方向への音像定位を実現するために、上下に配置されたスピーカの音量操作を有効的に用いることで、上下方向へのロバストな音像定位が実現される。具体的には、マルチスピーカ2においては、各スピーカ12(に出力される音声信号)に対して、アクティブ画面(図4の場合、画面GG1)への上下左右の音像定位に対応して設定された遅延操作および音量操作のパラメータが割り当てられる。
図5は、図4の場合のスピーカに割り当てられるパラメータの例を示している。
図5の例においては、図4の例におけるディスプレイ11−1の左右に配置されるスピーカ12L−4および12R−4、ディスプレイ11−1の真上に配置されるスピーカ12L−1および12R−1、並びに、ディスプレイ11−1の真下に配置されるスピーカ12L−7および12R−7の音量パラメータおよび遅延パラメータが示されている。なお、図示せぬその他のスピーカ12の音量パラメータおよび遅延パラメータは「0」とされている。
スピーカ12L−4には、「0.5」の音量パラメータと「0」の遅延パラメータが割り当てられ、スピーカ12R−4には、「0.5」の音量パラメータと「50」の遅延パラメータが割り当てられる。
また、スピーカ12L−1および12R−1には、「0.9」の音量パラメータと「0」の遅延パラメータが割り当てられ、スピーカ12L−7および12R−7には、「0.4」の音量パラメータと「0」の遅延パラメータが割り当てられる。
ここで、音量パラメータは、最大値を1とした場合の値が示されており、遅延パラメータは、サンプリング周波数48kHzの音声に対する遅延サンプル量とされる。
すなわち、図4の例の場合、左右方向に対しては、スピーカ12L−4よりも、ディスプレイ11−1の画面GG1からの距離が離れているスピーカ12R−4を50サンプル遅延させることで、ディスプレイ11−1の画面GG1への音像定位がなされている。
上下方向に対しては、例えば、左右のスピーカ12L−4および12R−4の音量パラメータ「0.5」を基準にすると、ディスプレイ11−1の画面GG1からの距離が離れているスピーカ12L−1および12R−1の音量パラメータを「0.9」と基準よりも大きくさせ、スピーカ12L−7および12R−7の音量パラメータを「0.4」と基準よりも小さくさせることで、ディスプレイ11−1の画面GG1への音像定位がなされている。
以上のように、マルチスピーカ2における音像定位は、両耳への時間到達差を利用した遅延操作と両耳へ到達する音声の音量差を用いた音量操作によって実現される。
図6は、図1のマルチディスプレイ装置におけるアクティブ画面の他の例を示す図である。
図6の例において、各表示面が3行×3列のアレイ状になるように配置されているディスプレイ11−1乃至11−9には、図4の例の場合と同様に、それぞれ異なる番組の画像が表示されている。すなわち、図6のマルチディスプレイ装置1においても、9個の画面が構成されており、9個の画面のうち、中段の左から2番目(すなわち、マルチディスプレイ装置1の中央)のディスプレイ11−5の画面(ディスプレイ11−5に表示されている顔の画像)GG2がアクティブ画面として設定されている。
マルチスピーカ2は、アクティブ画面である、ディスプレイ11−5の画面GG2に音像を定位させるように、ディスプレイ11−5の画面GG2に対応する音声を、例えば、ディスプレイ11−5の真上に配置されるスピーカ12L−2および12R−2、ディスプレイ11−5の真下に配置されるスピーカ12L−8および12R−8、ディスプレイ11−5の左右に配置されるスピーカ12L−5および12R−5からのみ出力させる。
その際、マルチスピーカ2においては、ディスプレイ11−5の左右に配置されるスピーカ12L−5および12R−5に出力させる音声の音声信号に対して遅延操作を行い、ディスプレイ11−5の上下に配置されるスピーカ12L−2および12R−2並びにスピーカ12L−8および12R−8に出力させる音声の音声信号に対して音量操作を行うことで、上下左右の音像定位を実現している。
すなわち、図6の例の場合、スピーカ12L−5および12R−5は、ディスプレイ11−5の画面G2からの距離が同じであり、スピーカ12L−2および12R−2と、スピーカ12L−8および12R−8も、ディスプレイ11−5の画面G2からの距離が同じであるので、実際には、左右同等の遅延操作や音量操作を行うことで、ディスプレイ11−5に対する上下左右の音像定位がなされている。
なお、図示は省略するが、図6のマルチスピーカ2においても、各スピーカ12に対して、アクティブ画面(図6の場合、画面GG2)への上下左右の音像定位に対応して設定された、図5のような音量パラメータおよび遅延パラメータが割り当てられている。
図7は、図1のマルチディスプレイ装置におけるアクティブ画面の他の例を示す図である。
図7の例において、各表示面が3行×3列のアレイ状になるように配置されているディスプレイ11−1乃至11−9のうち、上中下段の右側のディスプレイ11−3,11−6,および11−9には、1つの番組の拡大画像が表示されており、その他のディスプレイ11には、それぞれ異なる番組の画像が表示されている。すなわち、図7のマルチディスプレイ装置1においては、7個の画面が構成されており、7個の画面のうち、ディスプレイ11−3,11−6,および11−9の拡大画面(ディスプレイ11−3,11−6,および11−9に表示されている顔の画像)GG3がアクティブ画面として設定されている。
なお、以下、図7の例の拡大画面GG3のように、複数のディスプレイ11に表示される1つの拡大画像をズーム時の画面とも称する。
マルチスピーカ2は、アクティブ画面である、ディスプレイ11−3,11−6,および11−9の拡大画面GG3に音像を定位させるように、例えば、ディスプレイ11−3,11−6,および11−9の拡大画面GG3に対応する音声を、ディスプレイ11−3,11−6,および11−9の真上に配置されるスピーカ12L−3および12R−3、ディスプレイ11−3,11−6,および11−9の真下に配置されるスピーカ12L−9および12R−9、ディスプレイ11−3,11−6,および11−9の左右に配置されるスピーカ12L−4乃至12L−6および12R−4乃至12R−6からのみ出力させる。
その際、マルチスピーカ2においては、ディスプレイ11−3,11−6,および11−9の左右に配置されるスピーカ12L−4乃至12L−6および12R−4乃至12R−6に出力させる音声に対して遅延操作を行い、ディスプレイ11−5の上下に配置されるスピーカ12L−3および12R−3並びにスピーカ12L−9および12R−9の音声信号に対して音量操作を行うことで、上下左右の音像定位を実現している。
すなわち、図7の例の場合、例えば、左右方向に対しては、スピーカ12−4乃至12−6よりも、ディスプレイ11−3,11−6,および11−9の画面GG3からの距離が離れているスピーカ12−4乃至12−6を数サンプル遅延させることで、ディスプレイ11−3,11−6,および11−9の拡大画面GG3への音像定位がなされている。また、上下方向に対しては、スピーカ12L−3および12R−3と、スピーカ12L−9および12R−9は、ディスプレイ11−3,11−6,および11−9の画面GG3からの距離が同じであるので、実際には、左右同等の遅延操作や音量操作を行うことで、ディスプレイ11−3,11−6,および11−9の拡大画面GG3への音像定位がなされている。
なお、図示は省略するが、図7のマルチスピーカ2においても、各スピーカ12に対して、アクティブ画面(図7の場合、拡大画面GG3)への上下左右の音像定位に対応して設定された、図5のような音量パラメータおよび遅延パラメータが割り当てられている。
図8は、図1のマルチディスプレイ装置におけるアクティブ画面の他の例を示す図である。すなわち、図8の例は、図4のアクティブ画面の他の例である。
図8の例においては、各表示面が3行×3列のアレイ状になるように配置されているディスプレイ11−1乃至11−9のうち、中下段の左から1および2番目のディスプレイ11−4,11−5,11−7,および11−8に表示されている顔の画像(すなわち、ディスプレイ11−4,11−5,11−7,および11−8の拡大画面)GG4がアクティブ画面として設定されている。
マルチスピーカ2は、アクティブ画面である、ディスプレイ11−4,11−5,11−7,および11−8の拡大画面GG4に音像を定位させるように、例えば、ディスプレイ11−4,11−5,11−7,および11−8の拡大画面GG4に対応する音声を、ディスプレイ11−4,11−5,11−7,および11−8の真上に配置されるスピーカ12L−1,12R−1,12L−2,および12R−2、ディスプレイ11−4,11−5,11−7,および11−8の真下に配置されるスピーカ12L−7,12R−7,12L−8,および12R−8、ディスプレイ11−4,11−5,11−7,および11−8の左右に配置されるスピーカ12L−5,12R−5,12L−6,および12R−6からのみ出力させる。
その際、マルチスピーカ2においては、ディスプレイ11−4,11−5,11−7,および11−8の左右に配置されるスピーカ12L−5,12R−5,12L−6,および12R−6に出力させる音声に対して遅延操作を行い、ディスプレイ11−4,11−5,11−7,および11−8の上下に配置されるスピーカ12L−1,12R−1,12L−2,および12R−2並びに12L−7,12R−7,12L−8,および12R−8の音声信号に対して音量操作を行うことで、上下左右の音像定位を実現している。
すなわち、図8の例の場合、例えば、左右方向に対しては、スピーカ12L−5および12L−6よりも、ディスプレイ11−4,11−5,11−7,および11−8の画面GG4の中心からの距離が離れているスピーカ12R−5、および12R−6を数サンプル遅延させることで、ディスプレイ11−3,11−6,および11−9の拡大画面GG4への音像定位がなされる。また、上下方向に対しては、スピーカ12L−7,12R−7,12L−8,および12R−8よりも、ディスプレイ11−4,11−5,11−7,および11−8の拡大画面GG4中心からの距離が離れているスピーカ12L−1,12R−1,12L−2,および12R−2を小さい音量にさせることで、ディスプレイ11−4,11−5,11−7,および11−8の拡大画面GG4への音像定位がなされる。
なお、図示は省略するが、図8のマルチスピーカ2においても、各スピーカ12に対して、アクティブ画面(図8の場合、拡大画面GG4)への上下左右の音像定位に対応して設定された、図5のような音量パラメータおよび遅延パラメータが割り当てられている。
以上のように、マルチスピーカシステムにおいては、マルチスピーカ2を構成するスピーカ12を、マルチディスプレイ装置1の上下左右に配置するようにしたので、マルチディスプレイ装置1の表示面上、上下左右任意の位置に設定され得るアクティブな画面に音像を定位させることができる。
これにより、従来においては、例えば、アクティブな画面に目印などをつけておき、ユーザに全画面を目でスキャンさせて認識させていたアクティブな画面を、直感的に認識させることができる。
ここで、マルチスピーカ2においては、ある点に対してではなく、上述したように、面(画面)に対しての音像定位が重要となる。
一般に、近接した場所への音像定位を聞き分けるための精度を得るために、音像の場所が変化した瞬間にそれが以前の定位位置と場所が違うことを認識させなければならない。しかしながら、マルチディスプレイ装置1のディスプレイ11同士は、近接して配置されているので、音像の場所が変化した瞬間にそれが以前の定位位置と場所が違うことを認識させることが難しい。
そこで、マルチスピーカ2においては、両耳への到達時間差より計算された遅延操作だけではなく、アクティブ画面が切り替わったことを、認識させやすくするために、より隣接する画面との差分が大きくなるよう、各ディスプレイ11の画面がアクティブ画面に設定された場合に、各アクティブ画面に対応する音声の音像が、図9に示されるように、円周上に定位させるようにする。
図9は、音像定位位置の例を示す図である。なお、図9の例においては、各ディスプレイ11およびスピーカ12の符号の図示は省略されており、画面G1乃至G9は、それぞれ、異なる画像が表示されるディスプレイ11−1乃至11−9の画面を示し、P1乃至P9は、それぞれ、ディスプレイ11−1乃至11−9の画面G1乃至G9がアクティブ画面に設定された場合の音像定位位置を示している。
すなわち、ディスプレイ11−1乃至11−4の画面G1乃至G4およびディスプレイ11−6乃至11−9の画面G6乃至G9がアクティブ画面に設定された場合の音像定位位置P1乃至P4および音像定位位置P6乃至P9は、各画面ではなく、点線で示されるように、マルチディスプレイ装置1の中央位置を中心とした、マルチディスプレイ装置1の表示面(全画面G1乃至G9)よりもひと回り大きい円の円周M1上の位置に配置される。また、図9の例において、円周M1上の各音像定位位置は、それぞれ等間隔に配置されている。
具体的には、ディスプレイ11−1の画面G1がアクティブ画面に設定された場合の音像定位位置P1は、マルチディスプレイ装置1の中央位置から、ディスプレイ11−1の画面G1を通る直線が、円周M1と交わる位置に配置される。ディスプレイ11−2の画面G2がアクティブ画面に設定された場合の音像定位位置P2は、マルチディスプレイ装置1の中央位置から、ディスプレイ11−2の画面G2を通る直線が、円周M1と交わる位置に配置される。ディスプレイ11−3の画面G3がアクティブ画面に設定された場合の音像定位位置P3は、マルチディスプレイ装置1の中央位置から、ディスプレイ11−3の画面G3を通る直線が、円周M1と交わる位置に配置される。ディスプレイ11−4の画面G4がアクティブ画面に設定された場合の音像定位位置P4は、マルチディスプレイ装置1の中央位置から、ディスプレイ11−4の画面G4を通る直線が、円周M1と交わる位置に配置される。
ディスプレイ11−6の画面G6がアクティブ画面に設定された場合の音像定位位置P6は、マルチディスプレイ装置1の中央位置から、ディスプレイ11−6の画面G6を通る直線が、円周M1と交わる位置に配置される。ディスプレイ11−7の画面G7がアクティブ画面に設定された場合の音像定位位置P7は、マルチディスプレイ装置1の中央位置から、ディスプレイ11−7の画面G7を通る直線が、円周M1と交わる位置に配置される。ディスプレイ11−8の画面がアクティブ画面に設定された場合の音像定位位置P8は、マルチディスプレイ装置1の中央位置から、ディスプレイ11−8の画面G8を通る直線が、円周M1と交わる位置に配置される。ディスプレイ11−9の画面G9がアクティブ画面に設定された場合の音像定位位置P9は、マルチディスプレイ装置1の中央位置から、ディスプレイ11−9の画面G9を通る直線が、円周M1と交わる位置に配置される。
なお、マルチディスプレイ装置1の中央に配置されるディスプレイ11−5については、その画面G5がアクティブ画面に設定された場合の音像定位位置P5は、マルチディスプレイ装置1の中央位置に配置される。
以上のように、個々のディスプレイの画面に音像を定位させる場合には、ディスプレイの個数、画面の大きさに関係なく、すべてのディスプレイを囲む円の円周上、または、その円の中心に配置されるように、各スピーカの音量操作や遅延操作のパラメータを設定する。これにより、ディスプレイ同士が近接する場合でも、音像の場所が変化した瞬間にそれが以前の定位位置と場所が違うこと、すなわち、アクティブ画面が変化したことをユーザに認識させることができる。
なお、図9の例においては、円周M1は楕円で示されているが、すべてのディスプレイの表示面を囲む円であれば、正円でも楕円であってもよい。
また、図9の例においては、各ディスプレイ11−1乃至11−9の画面G1乃至G9には、それぞれ異なる画像が表示されており、マルチディスプレイ装置1において、9個の画面が構成される例を説明したが、図10および図11に示されるように、ズーム時の画面が構成される場合にも、それぞれ異なる画像が表示される画面は、すべてのディスプレイを囲む円の円周上に配置される。
図10の例においては、拡大画面GA1は、1つの拡大画像が表示されるディスプレイ11−1,11−2,11−4,および11−5の画面を示し、画面G3,画面G6,および画面G7乃至G9は、それぞれ、異なる画像が表示されるディスプレイ11−3,11−6,および11−7乃至11−9の画面を示し、PA1,P3,P6,およびP7乃至P9は、それぞれ、拡大画面GA1,画面G3,画面G6,および画面G7乃至G9がアクティブ画面に設定された場合の音像定位位置を示している。
すなわち、ディスプレイ11−3,11−6,および11−7乃至11−9の画面G3,画面G6,および画面G7乃至G9がアクティブ画面に設定された場合の音像定位置P3,P6,およびP7乃至P9は、図9の例の場合と同様に、マルチディスプレイ装置1の中央位置を中心とした、マルチディスプレイ装置1の表示面よりもひと回り大きい円の円周M1上の位置に配置されるように、各スピーカ12の音量操作や遅延操作のパラメータが設定される。
これにより、ズーム時の画面があり、かつ、ディスプレイ同士が近接する場合でも、音像の場所が変化した瞬間にそれが以前の定位位置と場所が違うこと、すなわち、アクティブ画面が変化したことをユーザに認識させることができる。
一方、ディスプレイ11−1,11−2,11−4,および11−5の拡大画面GA1がアクティブ画面に設定された場合の音像定位置PA1は、拡大画面GA1の中央位置ではなく、拡大画面GA1の中央位置よりも、他の画面G3,画面G6,および画面G7乃至G9とは反対方向に寄ったディスプレイ11−1の位置に配置されるように、各スピーカ12の音量操作や遅延操作のパラメータが設定される。
これにより、他の画面G3,画面G6,および画面G7乃至G9から、拡大画面GA1に音像が移動した場合に、その移動をユーザに認識させやすくすることができる。
図11の例においては、拡大画面GB1は、1つの拡大画像が表示されるディスプレイ11−1,11−4,および11−7の画面を示し、画面G2,画面G3,画面G5,画面G6,画面G8,および画面G9は、それぞれ、異なる画像が表示されるディスプレイ11−2,11−3,11−5,11−6,11−8,および11−9の画面を示し、PB1,P2,P3,P5,P6,P8,およびP9は、それぞれ、拡大画面GB1,画面G2,画面G3,画面G5,画面G6,画面G8,および画面G9がアクティブ画面に設定された場合の音像定位位置を示している。
すなわち、ディスプレイ11−2,11−3,11−6,11−8,および11−9の画面G2,画面G3,画面G6,画面G8,および画面G9がアクティブ画面に設定された場合の音像定位置P2,P3,P6,P8,およびP9は、図9の例の場合と同様に、マルチディスプレイ装置1の中央位置を中心とした、マルチディスプレイ装置1の表示面よりもひと回り大きい円の円周M1上の位置に配置されるように、各スピーカ12の音量操作や遅延操作のパラメータが設定される。また、マルチディスプレイ装置1の中央に配置されるディスプレイ11−5の画面G5がアクティブ画面に設定された場合の音像定位位置P5は、マルチディスプレイ装置1の中央位置に配置されるように、各スピーカ12の音量操作や遅延操作のパラメータが設定される。
これにより、ズーム時の画面があり、かつ、ディスプレイ同士が近接する場合でも、音像の場所が変化した瞬間にそれが以前の定位位置と場所が違うこと、すなわち、アクティブ画面が変化したことをユーザに認識させることができる。
一方、ディスプレイ11−1,11−4,および11−7の拡大画面GB1がアクティブ画面に設定された場合の音像定位置PB1は、拡大画面GB1の中央位置ではなく、中央位置よりも、他の画面G2,画面G3,画面G5,画面G6,画面G8,および画面G9とは反対方向(すなわち、図中左側)に寄った位置に配置されるように、各スピーカ12の音量操作や遅延操作のパラメータが設定される。
これにより、他の画面G2,画面G3,画面G5,画面G6,画面G8,および画面G9から、音像が拡大画面GB1に移動した場合に、その移動をユーザに認識させやすくすることができる。
次に、図12を参照して、ズーム時の画面(拡大画面)がアクティブ画面に設定された場合の音表現について詳しく説明する。
図12の例においては、マルチディスプレイ装置1の9個のディスプレイ11−1乃至11−9で協調して表示される1つの番組の拡大画像(拡大画面)GC1(図中ハッチング部分)が示されている。この拡大画面GC1は、図11の画面GB1や画面G2など比較して、画面の大きさ、表示されている画像の大きさなどが異なっており、音声もその画像の変化に応じた音表現を行う必要がある。
実際には、音像は、しっかり引き締めることで、拡大画面GC1の中心に定位させつつ、画面や表示される画像の大きさに応じて音に拡がりを持たせる必要がある。そこで、マルチスピーカシステムにおいては、本来相反するこの2つの要素を複数のスピーカ12を用いて役割分担し、分担された役割に応じたパラメータを設定することで実現する。
具体的に説明する。図12の例の場合、拡大画面GC1の周囲の実線の丸は、スピーカ12の配置位置を表し、その大きさは、基準となる音の大きさを表している。また、矢印は遅延の大きさを表し、点線は遅延された音を表し、その大きさは、調整後の音の大きさを表している。また、拡大画面GC1の上部には、スピーカ12−1乃至12−3が左から順に並んで配置されており、拡大画面GC1の下部には、スピーカ12−7乃至12−9が左から順に並んで配置されており、拡大画面GC1の左側には、スピーカ12L−4乃至12L−6が上から順に並んで配置されており、拡大画面GC1の右側には、スピーカ12R−4乃至12R−6が上から順に並んで配置されている。
なお、図12の例においては、説明の便宜上、スピーカ12L−1および12R−1はスピーカ12−1とされ、スピーカ12L−2および12R−2はスピーカ12−2とされ、スピーカ12L−3および12R−3はスピーカ12−3とされ、スピーカ12L−7および12R−7はスピーカ12−7とされ、スピーカ12L−8および12R−8はスピーカ12−8とされ、スピーカ12L−9および12R−9はスピーカ12−9とされている。
図12の例のスピーカシステムにおいては、これらのスピーカのうち、上下に配置されるスピーカ12−1および12−7のペア並びにスピーカ12−3および12−9のペアには、Aの円に示されるように、拡大画面GC1に対応する音声を、基準となる音の大きさで出力させることで、音像を引き締め、拡大画面GC1の中心に定位させている。
上下左右の十字に配置されるスピーカ12−2および12−8のペア、並びに12L−5および12R−5のペアには、短い矢印に示されるように、拡大画面GC1に対応する音声に対して、少しの遅延操作を行わせ、Bの円に示されるように、拡大画面GC1に対応する音声を、基準よりも大きな音の大きさで出力させることで、音像が画面GC1の大きさを表すよう、音に拡がりを持たせている。
さらに、左右に配置されるスピーカ12L−4および12R−4のペア、並びにスピーカ12L−6および12R−6のペアには、Cの円に示されるように、拡大画面GC1に対応する音声を、基準と同じ大きさで出力させ、長い矢印に示されるように、拡大画面GC1に対応する音声に対して、過剰な遅延操作を行わせることで、音に大きな拡がり、すなわち、残響(エコー)を持たせている。
すなわち、図12の例の場合、上下に配置されたスピーカペアの一方(スピーカ12−1および12−7、並びにスピーカ12−3および12−9)には、音像を引き締め、基準となる役割および拡大画面GC1の中心に定位させる役割が割り当てられ、上下に配置されたスピーカペアの他方(スピーカ12−2および12−8)と、左右に配置されたスピーカペアの一方(スピーカ12L−5および12R−5)には、拡大画面GC1の大きさに応じた音に拡がりを持たせる役割が割り当てられ、左右に配置されたスピーカペアの他方(スピーカ12L−4および12R−4、並びにスピーカ12L−6および12R−6)には、音にさらなる拡がり、すなわち、残響を持たせる役割が割り当てられている。
以上のように、ズーム時の画面がアクティブ画面に設定される場合、複数のスピーカに役割分担させる、すなわち、役割分担に応じたパラメータによる音声処理を行わせることで、画面の大きさ、および表示されている画像の大きさなどに応じた音声を出力させることができる。
図13は、図12の音表現の他の例を示している。図13の例においては、9個のディスプレイ11−1乃至11−9のうち、4個のディスプレイ11−1,11−2,11−4,および11−5で協調して表示される1つの番組の拡大画像(拡大画面)GC2(図中ハッチング部分)が示されている。
図13の例のスピーカシステムにおいては、これらのスピーカのうち、拡大画面GC2以外の画面の上下または左右に配置されるスピーカ12−3および12−9のペア、並びにスピーカ12L−6および12R−6のペアには、Aの円に示されるように、基準となる音の大きさで出力させている。
拡大画面GC2の上下に配置されるスピーカ12−1および12−7、並びにスピーカ12−2および12−8のペアには、Bの円に示されるように、拡大画面GC2に対応する音声を、基準よりも大きな音の大きさで出力させることで、マルチディスプレイ装置1の左寄りに位置する拡大画面GC2の中心に定位させている。スピーカ12−1には、さらに、短い矢印に示されるように、拡大画面GC2に対応する音声に対して、少しの遅延操作を行わせることで、音像が拡大画面GC2の大きさを表すよう、音に拡がりを持たせている。
拡大画面GC2の左右に配置されるスピーカ12L−4および12R−4のペアのうち、スピーカ12R−4には、C2の円に示されるように、拡大画面GC2に対応する音声を、基準となる音の大きさで出力させ、スピーカ12L−4には、短い矢印に示されるように、拡大画面GC2に対応する音声に対して、少しの遅延操作を行わせ、C1の円に示されるように、拡大画面GC2に対応する音声を、基準よりも大きな音の大きさで出力させることで、音像が、マルチディスプレイ装置1の左寄りに位置する拡大画面GC2の大きさを表すよう、音に拡がりを持たせている。
さらに、拡大画面GC2の左右に配置されるスピーカ12L−5および12R−5のペアのうち、スピーカ12R−5には、D2の円に示されるように、拡大画面GC2に対応する音声を、基準となる音の大きさで出力させ、スピーカ12L−5には、D1の円に示されるように、拡大画面GC2に対応する音声を、基準と同じ大きさで出力させ、長い矢印に示されるように、拡大画面GC2に対応する音声に対して、過剰な遅延操作を行わせることで、音に大きな拡がり、すなわち、残響(エコー)を持たせている。
すなわち、図13の例において、画面の上下左右以外に配置されたスピーカのペア(スピーカ12−3および12−9、並びにスピーカ12L−6および12R−6)には、音像を引き締め、基準となる役割が割り当てられ、画面の上下に配置されたスピーカのペア(スピーカ12−1および12−7、並びに、スピーカ12−2および12−8)には、画面の中心に音像を定位させる役割が割り当てられ、左右に配置されたスピーカペアの一方(スピーカ12L−4および12R−4)には、音に拡がりを持たせる役割が割り当てられ、左右に配置されたスピーカペアの他方(スピーカ12L−5および12R−5)には、音にさらなる拡がり、すなわち、残響を持たせる役割が割り当てられている。
以上のように、図13の例の場合も、複数のスピーカに役割分担させる、すなわち、役割分担に応じたパラメータによる音声処理が行われることで、画面の大きさ、および表示されている画像の大きさなどに応じた音声を出力させることができる。
図14は、図12の音表現のさらに他の例を示している。図14の例においては、9個のディスプレイ11−1乃至11−9のうち、3個のディスプレイ11−1,11−4,および11−7で協調して表示される1つの番組の拡大画像(拡大画面)GC3(図中ハッチング部分)が示されている。
図14の例のスピーカシステムにおいては、拡大画面GC3以外の画面の上下に配置されるスピーカ12−2および12−8のペア、並びにスピーカ12−3および12−9のペアには、Aの円に示されるように、拡大画面GC3に対応する音声を、基準となる音の大きさで出させている。
拡大画面GC3の上下に配置されるスピーカ12−1および12−7のペアには、Bの円に示されるように、拡大画面GC3に対応する音声を、基準よりも大きな音の大きさで出力させ、さらに、短い矢印に示されるように、拡大画面GC3に対応する音声に対して、少しの遅延操作を行わせ、マルチディスプレイ装置1の左寄りに位置する拡大画面GC3の中心に定位させつつ、音像が拡大画面GC3の大きさを表すよう、音に拡がりを持たせている。
拡大画面GC3の左右に配置されるスピーカ12L−5および12R−5のペアのうち、スピーカ12R−5には、C2の円に示されるように、拡大画面GC3に対応する音声を、基準となる音の大きさで出力させ、スピーカ12L−5には、短い矢印に示されるように、拡大画面GC3に対応する音声に対して、少しの遅延操作を行わせ、C1の円に示されるように、拡大画面GC3に対応する音声を、基準よりも大きな音の大きさで出力させることで、音像が、マルチディスプレイ装置1の左寄りに位置する拡大画面GC3の大きさを表すよう、音に拡がりを持たせている。
拡大画面GC3の左右に配置されるスピーカ12L−4および12R−4のペア、並びに、スピーカ12L−6および12R−6のペアのうち、スピーカ12R−4および12R−6には、D2の円に示されるように、拡大画面GC3に対応する音声を、基準となる音の大きさで出力させ、スピーカ12L−4および12R−6には、D1の円に示されるように、拡大画面GC3に対応する音声を、基準と同じ大きさで出力させ、短い矢印に示されるように、拡大画面GC3に対応する音声に対して、少しの遅延操作を行わせることで、音像が、マルチディスプレイ装置1の左寄りに位置する拡大画面GC3の大きさを表すよう、音に拡がりを持たせている。
すなわち、図14の例において、画面以外の上下に配置されたスピーカのペア(スピーカ12−2および12−8、並びにスピーカ12−3および12−9)には、音を引き締め、基準となる役割が割り当てられ、画面の上下に配置されたスピーカのペア(スピーカ12−1および12−7)には、画面の中心に音像を定位させる役割が割り当てられ、左右に配置されたスピーカペア(スピーカ12L−4および12R−4,12L−5および12R−5,並びに12L−6および12R−6)には、音に拡がりを持たせる役割が割り当てられいる。なお、この場合、画面GC3が細長いので残響は持たせていない。
以上のように、図14の例の場合も、複数のスピーカに役割分担させる、すなわち、役割分担に応じたパラメータによる音声処理が行われることで、画面の大きさ、および表示されている画像の大きさなどに応じた音声を出力させることができる。
次に、図15のフローチャートを参照して、スピーカエンジン部33による音声出力制御処理を詳しく説明する。
制御部54は、ステップS11において、自己の情報として、スピーカエンジン部33の状態(例えば、メイン制御部32に接続され、マルチスピーカ2を構成している状態)をメイン制御部32に送信するとともに、他のエンジン部(他のスピーカエンジン部33や映像エンジン部34)からの情報を、メイン制御部32を介して受信する。制御部54は、音声信号処理部53に他のエンジン部からの情報を供給する。
音声信号処理部53は、ステップS12において、他のエンジン部からの情報に基づいて、対応するスピーカ12L,12R,および12Bの音声信号処理に関するパラメータ群を選択する。
すなわち、音声信号処理部53は、例えば、受信した映像エンジン部34の状態や、他のスピーカエンジン部33の状態に基づいて、マルチディスプレイ装置1およびマルチスピーカ2の構成(マルチディスプレイ装置1を構成するディスプレイ11の数やその配置、およびマルチスピーカ2を構成するスピーカ12の数やその配置)などを確認することで、マルチスピーカ2における、対応するスピーカ12L,12R,および12BのID番号を取得し、そのID番号に基づいて、マルチディスプレイ装置1およびマルチスピーカ2の多種の構成、並びに、それらの構成における対応するスピーカ12L,12R,および12BのID番号に応じた音声処理に関するパラメータ群を選択する。
このパラメータ群は、上述した音像定位や音表現に基づき、様々なアクティブ画面や画面サイズ毎に予め設定されているものである。なお、図15のステップS11およびS12は、スピーカエンジン部33または映像エンジン部34が新しく接続されたとき、あるいは、外されたときのみ行われるようにすることもできる。
一方、チューナ部31の複数のチューナは、それぞれ、図示せぬアンテナより受信される放送局からの放送信号の受信帯域を選択し、選択した受信帯域の放送信号を所定の方式で復調し、復調された信号のうちの画像信号および音声信号を、メイン制御部32に出力しており、メイン制御部32は、スピーカエンジン部33に、ユーザにより設定されたアクティブ画面の音声信号を出力するとともに、例えば、1系統の他の番組の音声信号も出力している。
ステップS13において、音声入力部51−1は、メイン制御部32からのアクティブ画面に対応する音声信号(左音声信号および右音声信号)を、スピーカ出力信号(スピーカ左出力信号およびスピーカ右出力信号)として入力し、AD変換部52−1に出力する。音声入力部51−1からのスピーカ左出力信号およびスピーカ右出力信号は、AD変換部52−1により、デジタル化されて、音声信号処理部53に出力される。
ステップS14において、音声入力部51−2は、メイン制御部32からのアクティブ画面に対応する音声信号以外の1系統の音声信号(左音声信号および右音声信号)を、裏音声信号(裏左音声信号および裏右音声信号)として入力し、AD変換部52−2に出力する。音声入力部51−2からの裏左音声信号および裏右音声信号は、AD変換部52―2により、デジタル化されて、音声信号処理部53に出力される。
ステップS15において、監視処理部53aは、AD変換部52−2から入力される裏音声信号を解析し、裏音声信号において、緊急放送の音声信号を監視し、緊急放送が検出されたか否かを判定する。緊急放送が検出されていないと判定された場合、処理は、ステップS16に進み、音声信号処理部53は、AD変換部52−1からのスピーカ出力信号の音声信号処理を実行する。この音声信号処理の詳細は、図16を参照して後述する。
ステップS16のスピーカ出力信号の音声信号処理により、映像エンジン部34やスピーカエンジン部33の処理結果(例えば、マルチディスプレイ装置1におけるアクティブ画面の位置やサイズ)に応じて、パラメータ群の中から用いるパラメータが選択され、AD変換部52−1からのスピーカ出力信号に対して、選択したパラメータに基づく音声処理が行われる。
音声処理後のフルレンジ(Full Range)の左音声信号および右音声信号は、DA変換部55−1に出力され、音声処理後の低周波数帯域(Bass)の音声信号は、DA変換部55−2に出力される。DA変換部55−1は、音声信号処理部53からの音声処理後のフルレンジの左音声信号および右音声信号に対して、DA変換を行い、アナログの左音声信号および右音声信号を、それぞれ、音量制御部56−1に出力する。DA変換部55−2は、音声信号処理部53からの音声処理後の低周波数帯域の音声信号に対して、DA変換を行い、アナログの低周波数帯域の音声信号を、音量制御部56−2に出力する。
ステップS17において、音量制御部56−1は、制御部54の制御のもと、DA変換部55−1からのアナログの左音声信号および右音声信号の音量を制御し、それぞれ、アンプ41Lおよび41Rを介して、スピーカ12Lおよび12Rに出力する。これにより、スピーカ12Lおよび12Rからは、それぞれ、信号処理が施されたスピーカ出力信号の左音声信号および右音声信号に対応する左音声および右音声が出力される。
また、音量制御部56−2は、制御部54の制御のもと、DA変換部55−2からのアナログの低周波数帯域の音声信号の音量を制御し、アンプ41Bを介して、スピーカ12Bに出力する。これにより、スピーカ12Bからは、信号処理が施されたスピーカ出力信号の低周波数帯域の音声信号に対応する低周波数帯域の音声が出力される。
一方、緊急放送などは、特徴的な効果音とともに送出されるため、裏音声信号から、緊急放送用の特徴的な効果音が検出された場合、緊急放送が検出されたと判定されて、処理は、ステップS18に進む。
ステップS18において、音声信号処理部53は、緊急放送をユーザに通知するための所定の音声を、スピーカ12L,12R,および12Bから出力させる。
すなわち、音声信号処理部53は、緊急放送をユーザに通知するための所定の音声に対応する音声信号(左音声信号、右音声信号、および低周波数帯域の音声信号)を生成し、DA変換部55−1および音量制御部56−1を介して、生成した左音声信号および右音声信号を、スピーカ12Lおよび12Rに出力させ、DA変換部55−2および音量制御部56−2を介して、生成した低周波数帯域の音声信号を、スピーカ12Bに出力させる。
ステップS19において、音声信号処理部53は、緊急放送の検出結果を、制御部54およびメイン制御部32を介して、他のスピーカエンジン部33や映像エンジン部34に供給する。
この緊急放送の検出結果により、例えば、他のスピーカエンジン部33において緊急放送が検出されていなかったとしても、他のスピーカエンジン部33においても、同様に、次のステップS20以降の処理が行われる。または、映像エンジン部34により、緊急放送が検出された番組の画像がディスプレイ11に表示されるように構成することも可能である。さらに、この緊急放送の検出結果に基づいて、映像エンジン部34に、「緊急放送の番組に切り替えるか否か」をユーザに選択させるための画像を表示させ、ユーザの選択に応じて、次のステップS20の処理を行うようにすることもできる。
ステップS20において、音声信号処理部53は、スピーカ出力信号の代わりに、裏音声信号の音声信号処理を実行する。なお、この裏音声信号の音声信号処理は、処理対象の音声信号が異なるだけであり、図16を参照して後述する(ステップS16の)音声信号処理と基本的に同様の処理を行うため、その説明は繰り返しになるので省略する。
ステップS20の裏音声信号の音声信号処理により、映像エンジン部34やスピーカエンジン部33の処理結果(例えば、マルチディスプレイ装置1におけるアクティブ画面の位置やサイズ)に応じて、パラメータ群の中から用いるパラメータが選択され、AD変換部52−2から裏音声信号に対して、選択したパラメータに基づく音声処理が行われる。
音声処理後のフルレンジ(Full Range)の左音声信号および右音声信号は、DA変換部55−1に出力され、音声処理後の低周波数帯域(Bass)の音声信号は、DA変換部55−2に出力される。DA変換部55−1は、音声信号処理部53からの音声処理後のフルレンジの左音声信号および右音声信号に対して、DA変換を行い、アナログの左音声信号および右音声信号を、それぞれ、音量制御部56−1に出力する。DA変換部55−2は、音声信号処理部53からの音声処理後の低周波数帯域の音声信号に対して、DA変換を行い、アナログの低周波数帯域の音声信号を、音量制御部56−2に出力する。
ステップS17において、音量制御部56−1は、制御部54の制御のもと、DA変換部55−1からのアナログの左音声信号および右音声信号の音量を制御し、それぞれ、アンプ41Lおよび41Rを介して、スピーカ12Lおよび12Rに出力する。これにより、スピーカ12Lおよび12Rからは、それぞれ、信号処理が施された裏音声信号の左音声信号および右音声信号に対応する左音声および右音声が出力される。
また、音量制御部56−2は、制御部54の制御のもと、DA変換部55−2からのアナログの低周波数帯域の音声信号の音量を制御し、アンプ41Bを介して、スピーカ12Bに出力する。これにより、スピーカ12Bからは、信号処理が施された裏音声信号の低周波数帯域の音声信号に対応する低周波数帯域の音声が出力される。
すなわち、検出された緊急放送の裏音声信号が、スピーカ12L,12R,および12Bから出力される。
以上のように、スピーカエンジン部33に、スピーカ出力信号以外の裏音声信号を入力するようにしたので、裏音声信号を用いた処理を行い、その処理結果を音声出力処理に反映することができる。
なお、図15の例においては、スピーカエンジン部33において、処理対象の音声信号を、スピーカ出力信号から、裏音声に切り替える例を説明したが、ステップS19において供給される検出結果に基づいて、メイン制御部32により、緊急放送が検出された番組の音声信号を、スピーカ出力信号として、各スピーカエンジン部33に出力するようにすることも可能である。この場合、スピーカエンジン部33においては、スピーカ出力信号を処理することで、緊急放送が検出された番組の音声がスピーカ12から出力される。
また、図15の例においては、裏音声信号から、緊急放送や速報などを検出する例を説明したが、それらに限らず、例えば、その他にも、特徴的な効果音を検出することによる臨時ニュースの検出や、音量変化を監視することによるCMや、盛り上がりシーンの検出、さらに、予め登録された音声パターン(例えば、番組のオープニング、番組内の所定のコーナの開始、特定の話者による台詞など)とのマッチングによる検出なども、同様に行うことができる。
さらに、上記説明においては、裏音声信号を入力して監視する例を説明したが、入力される音声は、番組などの音声に限らず、例えば、マイクロフォンを備えて、マイクロフォンから入力される音声をセンシングすることも可能である。
次に、図16のフローチャートを参照して、図15のステップS16の音声信号処理を説明する。なお、この処理は、図9に示されるマルチディスプレイ装置1において9個の画面が構成され、その1つの画面がアクティブ画面に設定される場合の処理である。また、図16の音声信号処理は、図17に示される音声信号処理部53により実行される。
図17は、図16の音声信号処理を実行する音声信号処理部の詳細な構成例を示す図である。なお、図17の例において、実線は、入力信号(スピーカ出力信号または裏音声信号)の流れを示し、点線は、指示信号や制御信号の流れを示している。また、実線が1本しか示されていないが、実際には、左右の音声信号が入力され、左右の音声信号および低周波数帯域の音声信号が音声信号処理部53から出力される。
図17の音声信号処理部53は、周波数解析部101、パラメータ格納部102、遅延操作部103、および音量操作部104により構成されている。AD変換部52−1からの入力信号(音声信号)は、周波数解析部101および遅延操作部103に入力される。また、アクティブ画面を表示している映像エンジン部34からのアクティブ画面識別信号は、メイン制御部32および制御部54を介して、パラメータ格納部102に供給される。
周波数解析部101は、入力信号の周波数成分を検出し、検出した周波数成分を、パラメータ格納部102に供給する。
パラメータ格納部102には、マルチディスプレイ装置1およびマルチスピーカ2の多種の構成における各スピーカ12に応じたパラメータ群が記憶されている。また、このパラメータ群は、さらに、上述した音像定位や音表現に基づいて設定されたものであり、マルチディスプレイ装置1におけるアクティブ画面の位置やサイズ、そして、低周波数域成分および高周波数域成分の割合に応じたパラメータで構成されている。
パラメータ格納部102は、制御部54から供給される映像エンジン部34の状態や他のスピーカエンジン部33の状態に応じて、パラメータ群を選択し、さらに、選択したパラメータ群の中から、制御部54から供給されるアクティブ画面識別信号と、周波数解析部101からの周波数成分に含まれる低周波数域成分および高周波数域成分の割合に応じたパラメータ(遅延操作量や音量操作量)を選択し、選択したパラメータに応じて、遅延操作部103および音量操作部104を制御する。
すなわち、マルチスピーカシステムにおける入力音声信号には、音楽、テレビジョン音声信号、およびラジオ音声信号などさまざまなものが考えられる。また、図6などを参照して上述したように、遅延操作や音量操作それぞれの音像定位への寄与は、入力信号に含まれる周波数に大きく依存する。これは、それぞれの操作の特性によるもので、人間が遅延を感じ取るにはある程度長い波長を必要とするため、入力信号に含まれる低周波数域成分が大きく影響してくるためである。一方、高周波数域成分は、元々指向性が高いため音量操作が効果的に働く。
したがって、パラメータ格納部102においては、周波数解析部101により検出される周波数成分に含まれる低周波数域成分および高周波数域成分の割合で、最適なパラメータ(遅延操作量や音量操作量)を決定することで、入力信号に影響されない音像定位を実現している。
遅延操作部103は、パラメータ格納部102の制御のもと、入力信号に対して遅延操作を行い、遅延操作された音声信号を、音量操作部104に出力する。音声操作部104は、パラメータ格納部102の制御のもと、遅延操作部103からの音声信号に対して音量を大きくしたり、小さくしたりする音量操作を行い、音量操作された音声信号を、DA変換部55−1や55−2に出力する。
図16に戻り、図17の音声信号処理部53による音声信号処理を説明する。AD変換部52−1からの入力信号(音声信号)は、周波数解析部101および遅延操作部103に入力される。
ステップS31において、周波数解析部101は、入力信号の周波数を解析し、解析した周波数成分をパラメータ格納部102に供給する。なお、常に解析することもできるが、実際には、例えば、ユーザがチャンネルボタンを押した瞬間に入力される入力信号の周波数が解析される。また、この検出の際の解析対象は、周波数に限ったものではなく、時間域信号の解析、すなわち、ある時間に何回所定の周波数を交差するかを利用することも可能である。
ステップS32において、パラメータ格納部102は、アクティブ画面を表示している映像エンジン部34からのアクティブ画面識別信号を、メイン制御部32および制御部54を介して入力する。
ステップS33において、パラメータ格納部102は、図15のステップS12において選択されたパラメータ群の中から、さらに、周波数解析部101からの周波数の解析結果、およびアクティブ画面識別信号に対応するパラメータを選択する。例えば、図4の例の場合、すなわち、ディスプレイ11−1の画面G1がアクティブ画面である場合には、図5のパラメータが選択される。
ステップS34において、パラメータ格納部102は、遅延操作部103を制御し、選択されたパラメータに応じて、入力信号を遅延させる。例えば、図4のスピーカ12L−4およびスピーカ12R−4の場合、図5に示されるように、遅延操作部103は、スピーカ12R−4に出力する右音声信号のみを50遅延させる。遅延操作された音声信号は、音量操作部104に出力される。
ステップS35において、パラメータ格納部102は、音量操作部104を制御し、選択されたパラメータに応じて、遅延された信号の音量を操作させ、DA変換部55−1や55−2に出力させる。例えば、図4のスピーカ12L−4およびスピーカ12R−4の場合、図5に示されるように、音量操作部104は、スピーカ12R−4に出力する右音声信号およびスピーカ12L−4に出力する左音声信号の音量を、0.5の割合で操作する。
この後、処理は、図15のステップS17に進み、ステップS17においては、入力信号の周波数およびアクティブ画面に最適なパラメータで遅延や音量が操作された信号に対応する音声が対応するスピーカ12L,12R,および12Bから出力される。
すなわち、図19の処理が、すべてのスピーカ12に対応するスピーカエンジン部33−1乃至33−9により行われる。したがって、ディスプレイ11−1の画面G1がアクティブ画面に設定されている場合には、画面G1に対応する音声の音像が、図9のP1に定位するように音声信号の遅延や音量が操作された音声が、各スピーカ12から出力される。これにより、図4のディスプレイ11−1の画面G1の音声の音像が、画面G1に定位するように聞こえてくる。
次に、図18のフローチャートを参照して、図15のステップS16の音声信号処理の他の例を説明する。なお、この処理は、例えば、図12乃至図14に示されるズーム時の画面がアクティブ画面に設定される場合の処理である。また、図18の音声信号処理は、図19に示される音声信号処理部53により実行される。
図19は、図18の音声信号処理を実行する音声信号処理部の詳細な構成例を示す図である。なお、図19の例においては、パラメータ格納部102がパラメータ格納部151に入れ替わっている点が、図17の音声信号処理部53と異なるだけであり、周波数解析部101、遅延操作部103、および音量操作部104が備えられている点は共通している。
すなわち、図19のパラメータ格納部151には、メイン制御部32および制御部54を介して、アクティブ画面を表示している映像エンジン部34からのアクティブ画面識別信号だけでなく、画面サイズ信号も供給される。
パラメータ格納部151は、パラメータ格納部102と同様に構成されており、制御部54から供給される映像エンジン部34の状態や他のスピーカエンジン部33の状態に応じて、パラメータ群を選択し、さらに、選択したパラメータ群の中から、制御部54から供給されるアクティブ画面識別信号および画面サイズ信号と、周波数解析部101からの周波数成分に含まれる低周波数域成分および高周波数域成分の割合に応じたパラメータ(遅延操作量や音量操作量)を選択し、選択したパラメータに応じて、遅延操作部103および音量操作部104を制御する。
図18に戻り、図19の音声信号処理部53による音声信号処理を説明する。なお、図18のステップS51,S54,およびS55は、図16のステップS31,S34,およびS35と基本的に同様な処理を行うため、繰り返しになるので、その詳細な説明は適宜省略する。
AD変換部52−1からの入力信号(音声信号)は、周波数解析部101および遅延操作部103に入力される。ステップS51において、周波数解析部101は、入力信号の周波数を解析し、解析した周波数成分をパラメータ格納部151に供給する。
ステップS52において、パラメータ格納部151は、アクティブ画面を表示している映像エンジン部34からのアクティブ画面識別信号および画面サイズ信号を、メイン制御部32および制御部54を介して入力する。
ステップS53において、パラメータ格納部151は、図15のステップS12において選択されたパラメータ群の中から、さらに、周波数解析部101からの周波数の解析結果、アクティブ画面識別信号、および画面サイズ信号に対応するパラメータを選択する。例えば、図12の例の場合、すなわち、ディスプレイ11−1乃至11−9の拡大画面GC1がアクティブ画面である場合には、拡大画面GC1に対応したパラメータが選択される。
ステップS54において、パラメータ格納部151は、遅延操作部103を制御し、選択されたパラメータに応じて、入力信号を遅延させる。例えば、図12のスピーカ12L−5およびスピーカ12R−5の場合、遅延操作部103は、スピーカ12R−4に出力する右音声信号およびスピーカ12L−4に出力する左音声信号を少し遅延させる。
ステップS55において、パラメータ格納部151は、音量操作部104を制御し、選択されたパラメータに応じて、遅延された信号の音量を操作させ、DA変換部55−1や55−2に出力させる。例えば、図12のスピーカ12L−5およびスピーカ12R−5の場合、音量操作部104は、スピーカ12R−4に出力する右音声信号およびスピーカ12L−4に出力する左音声信号の音量を基準に比して大きくなるように操作する。
この後、処理は、図15のステップS17に進み、ステップS17においては、入力信号の周波数、アクティブ画面、および画面サイズに最適なパラメータで遅延や音量が操作された信号に対応する音声が対応するスピーカ12L,12R,および12Bから出力される。
すなわち、図19の処理が、すべてのスピーカ12に対応するスピーカエンジン部33−1乃至33−9により行われる。したがって、図12のディスプレイ11−1乃至11−9の拡大画面GC1がアクティブ画面に設定されている場合には、拡大画面GC1に対応する音声の音像が、拡大画面GC1の中央位置および大きさに応じて音声信号の遅延や音量が操作された音声が、各スピーカ12から出力される。これにより、図12のディスプレイ11−1乃至11−9の拡大画面GC1の音声の音像が、拡大画面GC1に定位するように聞こえてくる。
以上のように、マルチスピーカシステムにおいては、各スピーカエンジン部が、情報を相互に送受信し、受信された情報に基づいて個々に音声処理を行うようにしたので、スケーラブルに出力数の変更を行うことができたり、各出力に対する音声処理に、個別の処理を加えることができる。
また、スピーカエンジン部に、出力する音声信号とは異なる裏音声信号を入力するようにしたので、裏音声信号を処理した処理結果を、音声処理に反映させることができる。これにより、例えば、上述したように、裏番組において速報があった場合に、すぐに、その裏番組に、音声を切り替えることができる。さらに、この処理結果も、映像エンジン部に送信することで、すぐに、裏番組に画像を切り替えることも可能である。
さらに、マルチスピーカシステムにおいては、マルチスピーカ2を構成するスピーカ12を、マルチディスプレイ装置1の表示面上の、上下左右に配置するようにしたので、アクティブ画面がどの位置へ移動しても、上下左右任意の位置への音像定位を行うことができる。これにより、ユーザに対して、アクティブ画面の位置を直感的に認識させることができる。
また、マルチスピーカシステムにおいては、ディスプレイの画面ではなく、マルチディスプレイ装置1の表示面(全画面G1乃至G9)よりもひと回り大きい円の中心または、円周上の位置に音像を配置するようにしたので、ディスプレイ同士が近接していても、ユーザに対して、アクティブ画面の移動を直感的に認識させることができる。
さらに、マルチスピーカシステムにおいては、各スピーカに、音像を引き締める役割、音像を拡げる役割、残響を与える役割などの役割を割り当て(設定し)、使用されているディスプレイ数や画像のズーム倍率(アクティブ画面サイズ)に対応した遅延および音量操作を行うようにしたので、使用されているディスプレイ数や画像のズーム倍率によらず、映像の中心に音像を定位させることができる。
また、マルチスピーカシステムにおいては、入力信号の周波数特性を解析し、それに適切な遅延および音量操作を行うようにしたので、音像定位が入力信号に依存してしまうことを抑制することができる。
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図20は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ301の構成の例を示すブロック図である。CPU(Central Processing Unit)311は、ROM(Read Only Memory)312、または記憶部318に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)313には、CPU311が実行するプログラムやデータなどが適宜記憶される。これらのCPU311、ROM312、およびRAM313は、バス314により相互に接続されている。
CPU311にはまた、バス314を介して入出力インタフェース315が接続されている。入出力インタフェース315には、上述したセンサ21、キーボード、マウス、マイクロフォンなどよりなる入力部316、ディスプレイ、スピーカなどよりなる出力部317が接続されている。CPU311は、入力部316から入力される指令に対応して各種の処理を実行する。そして、CPU311は、処理の結果を出力部317に出力する。
入出力インタフェース315に接続されている記憶部318は、例えばハードディスクからなり、CPU311が実行するプログラムや各種のデータを記憶する。通信部319は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部319を介してプログラムを取得し、記憶部318に記憶してもよい。
入出力インタフェース315に接続されているドライブ320は、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどのリムーバブルメディア321が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部318に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図20に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア321、または、プログラムが一時的もしくは永続的に格納されるROM312や、記憶部318を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部319を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用したマルチスピーカシステムの実施の形態の構成例を示すブロック図である。 図1のマルチスピーカシステムの電気的な構成例を示すブロック図である。 図2のスピーカエンジン部の構成例を示すブロック図である。 図1のマルチディスプレイ装置におけるアクティブ画面の例を示す図である。 図4の場合の各スピーカに割り当てられるパラメータの例を示す図である。 図1のマルチディスプレイ装置におけるアクティブ画面の他の例を示す図である。 図1のマルチディスプレイ装置におけるアクティブ画面のさらに他の例を示す図である。 図1のマルチディスプレイ装置におけるアクティブ画面の他の例を示す図である。 9個の画面を有するマルチディスプレイ装置における音像定位位置の例を示す図である。 1個の拡大画面と5個の画面を有するマルチディスプレイ装置における音像定位位置の例を示すである。 1個の拡大画面と6個の画面を有するマルチディスプレイ装置における音像定位位置の例を示すである。 拡大画面がアクティブ画面に設定された場合の音表現を説明する図である。 拡大画面がアクティブ画面に設定された場合の音表現の他の例を説明する図である。 拡大画面がアクティブ画面に設定された場合の音表現のさらに他の例を説明する図である。 図2のスピーカエンジン部の音声出力制御処理を説明するフローチャートである。 図15のステップS16の音声信号処理を説明するフローチャートである。 図16の処理を実行する図3の音声信号処理部の構成例を示すブロック図である。 図15のステップS16の音声信号処理の他の例を説明するフローチャートである。 図18の処理を実行する図3の音声信号処理部の構成例を示すブロック図である。 本発明を適用したパーソナルコンピュータの構成例を示すブロック図である。
符号の説明
1 マルチディスプレイ装置, 2 マルチスピーカ, 11−1乃至11−9 ディスプレイ, 12L−1乃至12L−9,12R−1乃至12R−9 スピーカ, 32 メイン制御部, 33−1乃至33−9 スピーカエンジン部, 34−1乃至34−9 映像エンジン部, 51−1,51−2 音声入力部, 53 音声信号処理部, 53a 監視処理部, 54 制御部, 101 周波数解析部, 102 パラメータ格納部, 103 遅延操作部, 104 音量操作部, 151 パラメータ格納部

Claims (14)

  1. 複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力をそれぞれ制御する複数の出力制御装置で構成される出力制御システムにおいて、
    前記複数の出力制御装置それぞれは、
    他の出力制御装置の状態または処理結果などの情報を相互に送受信する通信手段と、
    前記通信手段により受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行う信号処理手段と
    前記対象のスピーカに出力される音声信号が入力される第1の信号入力手段と、
    前記対象のスピーカに出力される音声信号以外の音声信号が入力される第2の信号入力手段と、
    前記第2の信号入力手段から入力される前記音声信号の特徴を検出する検出手段と
    を備え、
    前記信号処理手段は、前記検出手段により検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理を行い、前記対象のスピーカに出力する
    出力制御システム。
  2. 前記多画面表示装置を構成する前記複数の表示装置への表示をそれぞれ制御する複数の表示制御装置をさらに有し、
    前記通信手段は、さらに、前記複数の表示制御装置から、前記複数の表示装置の状態または処理結果などの情報を受信し、
    前記信号処理手段は、前記通信手段により受信された前記複数の表示装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行う
    請求項1に記載の出力制御システム。
  3. 前記通信手段は、さらに、前記検出手段により検出された前記音声信号の特徴の検出結果を、前記複数の表示制御装置に送信する
    請求項2に記載の出力制御システム。
  4. 前記信号処理手段は、前記多画面表示装置に表示される画像に対応する音声の音像を、前記多画面表示装置の表示面上の任意の位置へ定位させるように、前記対象のスピーカに出力される音声信号の処理を行う
    請求項1に記載の出力制御システム。
  5. 前記信号処理手段は、前記多画面表示装置を構成する前記複数の表示装置のうちの1の表示装置に表示される画像に対応する音声の音像を、前記表示面上における前記多画面表示装置の中央位置、または、前記中央位置を中心とした円周上に定位させるように、前記対象のスピーカに出力される音声信号の処理を行う
    請求項4に記載の出力制御システム。
  6. 前記信号処理手段は、前記多画面表示装置を構成する前記複数の表示装置のうちの2以上の表示装置に表示される画像に対応する音声の音像を、前記2以上の表示装置に表示される画像のサイズに応じた定位位置に定位させるように、前記対象のスピーカに出力される音声信号の処理を行う
    請求項4に記載の出力制御システム。
  7. 前記スピーカそれぞれには、前記多画面表示装置に表示される画像に対応する音声の音像に対して異なる効果を与える役割が設定され、
    前記信号処理手段は、前記対象のスピーカに設定された役割に応じて、前記対象のスピーカに出力される音声信号の処理を行う
    請求項4に記載の出力制御システム。
  8. 前記対象のスピーカには、音像を引き締める効果を与える役割が設定される
    請求項7に記載の出力制御システム。
  9. 前記対象のスピーカには、音像を拡げる効果を与える役割が設定される
    請求項7に記載の出力制御システム。
  10. 前記対象のスピーカには、残響効果を与える役割が設定される
    請求項7に記載の出力制御システム。
  11. 複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力をそれぞれ制御する複数の出力制御装置で構成される出力制御システムの出力制御方法において、
    前記複数の出力制御装置それぞれの出力制御方法は、
    通信手段が、他の出力制御装置の状態または処理結果などの情報を相互に送受信し、
    信号処理手段が、受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行い、
    第1の信号入力手段が、前記対象のスピーカに出力される音声信号を入力し、
    第2の信号入力手段が、前記対象のスピーカに出力される音声信号以外の音声信号を入力し、
    検出手段が、前記第2の信号入力手段から入力される前記音声信号の特徴を検出する
    ステップを含み、
    前記信号処理手段が、前記検出手段により検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理を行い、前記対象のスピーカに出力する
    出力制御方法。
  12. 複数の出力制御装置で構成される出力制御システムを構成し、複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力を制御する出力制御装置において、
    他の出力制御装置の状態または処理結果などの情報を相互に送受信する通信手段と、
    前記通信手段により受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行う信号処理手段と
    前記対象のスピーカに出力される音声信号が入力される第1の信号入力手段と、
    前記対象のスピーカに出力される音声信号以外の音声信号が入力される第2の信号入力手段と、
    前記第2の信号入力手段から入力される前記音声信号の特徴を検出する検出手段と
    を備え、
    前記信号処理手段は、前記検出手段により検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理を行い、前記対象のスピーカに出力する
    出力制御装置。
  13. 複数の出力制御装置で構成される出力制御システムを構成し、複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力を制御する出力制御装置の出力制御方法において、
    通信手段が、他の出力制御装置の状態または処理結果などの情報を相互に送受信し、
    信号処理手段が、受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行い、
    第1の信号入力手段が、前記対象のスピーカに出力される音声信号を入力し、
    第2の信号入力手段が、前記対象のスピーカに出力される音声信号以外の音声信号を入力し、
    検出手段が、前記第2の信号入力手段から入力される前記音声信号の特徴を検出する
    ステップを含み、
    前記信号処理手段が、前記検出手段により検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理を行い、前記対象のスピーカに出力する
    出力制御方法。
  14. 複数の出力制御装置で構成される出力制御システムを構成する出力制御装置に、複数の表示装置がアレイ状に配置されてなる多画面表示装置に表示される画像に対応する音声を、スピーカが少なくとも上下2つ以上、かつ左右2つ以上に2次元配置される2次元配置スピーカのうち、対象のスピーカへの出力を制御する処理を行わせるプログラムであって、
    他の出力制御装置の状態または処理結果などの情報を相互に送受信し、
    受信された前記他の出力制御装置の情報に基づいて、前記対象のスピーカに出力される音声信号の処理を行い、
    前記対象のスピーカに出力される音声信号が第1の信号入力手段に入力され、
    前記対象のスピーカに出力される音声信号以外の音声信号が第2の信号入力手段に入力され、
    前記第2の信号入力手段から入力される前記音声信号の特徴を検出する
    ステップを含み、
    検出された前記音声信号の特徴の検出結果に応じて、前記第2の信号入力手段から入力される前記音声信号の処理を行い、前記対象のスピーカに出力する
    プログラム。
JP2006287741A 2006-10-23 2006-10-23 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム Expired - Fee Related JP4973919B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006287741A JP4973919B2 (ja) 2006-10-23 2006-10-23 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム
US11/872,954 US8295516B2 (en) 2006-10-23 2007-10-16 System, apparatus, method and program for controlling output
KR1020070106080A KR20080036531A (ko) 2006-10-23 2007-10-22 출력 제어 시스템 및 방법, 출력 제어 장치 및 방법, 및프로그램
CNA200710181726XA CN101175337A (zh) 2006-10-23 2007-10-23 输出控制系统和方法、输出控制装置和方法、程序
EP07119055A EP1919259A2 (en) 2006-10-23 2007-10-23 System, apparatus, method and program for controlling output

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006287741A JP4973919B2 (ja) 2006-10-23 2006-10-23 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2008109209A JP2008109209A (ja) 2008-05-08
JP2008109209A5 JP2008109209A5 (ja) 2009-12-03
JP4973919B2 true JP4973919B2 (ja) 2012-07-11

Family

ID=38969860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006287741A Expired - Fee Related JP4973919B2 (ja) 2006-10-23 2006-10-23 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム

Country Status (5)

Country Link
US (1) US8295516B2 (ja)
EP (1) EP1919259A2 (ja)
JP (1) JP4973919B2 (ja)
KR (1) KR20080036531A (ja)
CN (1) CN101175337A (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
UA99649C2 (ru) 2008-04-07 2012-09-10 Косс Корпорейшн Беспроводной наушник, осуществляющий переход между беспроводными сетями, система и способ его реализации
JP2009283997A (ja) * 2008-05-19 2009-12-03 Sharp Corp 音声出力装置、プログラム、および記録媒体
JP5215077B2 (ja) * 2008-08-07 2013-06-19 シャープ株式会社 コンテンツ再生装置、コンテンツ再生方法、プログラムおよび記録媒体
CN102119531A (zh) * 2008-08-13 2011-07-06 惠普开发有限公司 音频/视频系统
KR101542233B1 (ko) 2008-11-04 2015-08-05 삼성전자 주식회사 화면음원 정위장치, 화면음원 정위를 위한 스피커 셋 정보 생성방법 및 정위된 화면음원 재생방법
KR101517592B1 (ko) * 2008-11-11 2015-05-04 삼성전자 주식회사 고분해능을 가진 화면음원 위치장치 및 재생방법
JP2010281911A (ja) * 2009-06-02 2010-12-16 Seiko Epson Corp 電気光学装置
JP5448611B2 (ja) * 2009-07-02 2014-03-19 キヤノン株式会社 表示制御装置及び制御方法
US20110123030A1 (en) * 2009-11-24 2011-05-26 Sharp Laboratories Of America, Inc. Dynamic spatial audio zones configuration
US20110123055A1 (en) * 2009-11-24 2011-05-26 Sharp Laboratories Of America, Inc. Multi-channel on-display spatial audio system
KR101632572B1 (ko) 2009-11-25 2016-07-01 삼성전자 주식회사 비디오 월 디스플레이시스템
JP5597975B2 (ja) * 2009-12-01 2014-10-01 ソニー株式会社 映像音響装置
US20110162031A1 (en) * 2009-12-24 2011-06-30 Jong-Chul Weon Apparatus for generating multi video
JP2011166691A (ja) * 2010-02-15 2011-08-25 Toshiba Corp 電子機器
US10158958B2 (en) 2010-03-23 2018-12-18 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
KR101038099B1 (ko) * 2010-03-23 2011-06-01 박승민 2차원 어레이 스피커를 위한 오디오 정보 생성 방법 및 이를 위한 기록매체
WO2011119401A2 (en) 2010-03-23 2011-09-29 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
KR101038101B1 (ko) * 2010-03-23 2011-06-01 박승민 2차원 어레이 스피커를 위한 오디오 정보 생성 방법 및 이를 위한 기록매체
KR101038102B1 (ko) * 2010-03-23 2011-06-01 박승민 2차원 어레이 스피커를 위한 오디오 정보 생성 방법 및 이를 위한 기록매체
JP2011250113A (ja) * 2010-05-26 2011-12-08 Sharp Corp 表示システム、表示制御方法及びコンピュータプログラム
US20120020483A1 (en) * 2010-07-23 2012-01-26 Deshpande Sachin G System and method for robust audio spatialization using frequency separation
JP5857674B2 (ja) * 2010-12-22 2016-02-10 株式会社リコー 画像処理装置、及び画像処理システム
JP2013051686A (ja) * 2012-09-18 2013-03-14 Sharp Corp 映像提示装置、映像提示方法、映像提示プログラム、記憶媒体
US9368117B2 (en) 2012-11-14 2016-06-14 Qualcomm Incorporated Device and system having smart directional conferencing
CN103067681B (zh) * 2012-11-29 2016-03-16 青岛海信电器股份有限公司 音频处理方法和电视机
CN105210387B (zh) * 2012-12-20 2017-06-09 施特鲁布韦克斯有限责任公司 用于提供三维增强音频的系统和方法
KR102014982B1 (ko) * 2013-03-15 2019-08-27 삼성전자주식회사 시각 청각 다중 분할 디스플레이 장치
JP2014188303A (ja) * 2013-03-28 2014-10-06 Nintendo Co Ltd ゲームシステム、ゲームプログラム、ゲーム処理方法、およびゲーム装置
WO2014159272A1 (en) 2013-03-28 2014-10-02 Dolby Laboratories Licensing Corporation Rendering of audio objects with apparent size to arbitrary loudspeaker layouts
KR20240127481A (ko) 2013-04-05 2024-08-22 돌비 인터네셔널 에이비 인터리브된 파형 코딩을 위한 오디오 인코더 및 디코더
WO2015011758A1 (ja) * 2013-07-22 2015-01-29 株式会社 東芝 表示システム
KR102226420B1 (ko) * 2013-10-24 2021-03-11 삼성전자주식회사 다채널 오디오 신호 생성 방법 및 이를 수행하기 위한 장치
KR102168911B1 (ko) * 2014-03-26 2020-10-22 삼성전자 주식회사 디스플레이장치 및 그 제어방법과, 디스플레이 시스템
GB2532034A (en) * 2014-11-05 2016-05-11 Lee Smiles Aaron A 3D visual-audio data comprehension method
CN105989845B (zh) 2015-02-25 2020-12-08 杜比实验室特许公司 视频内容协助的音频对象提取
US20190058950A1 (en) * 2015-11-25 2019-02-21 Thomas Mitchell Dair Surround sound applications and devices for vertically-oriented content
CN108601450A (zh) * 2015-11-25 2018-09-28 托马斯·米切尔·戴尔 用于垂直定向内容的环绕立体声应用及装置
CN105677287B (zh) * 2015-12-30 2019-04-26 苏州佳世达电通有限公司 显示装置的控制方法以及主控电子装置
US9703523B1 (en) * 2016-01-05 2017-07-11 International Business Machines Corporation Adjusting audio volume based on a size of a display area
WO2018070564A1 (ko) * 2016-10-13 2018-04-19 라인 가부시키가이샤 다중 디스플레이를 위한 사운드 출력 방법 및 장치
US10499178B2 (en) * 2016-10-14 2019-12-03 Disney Enterprises, Inc. Systems and methods for achieving multi-dimensional audio fidelity
JP2020037767A (ja) * 2018-08-31 2020-03-12 株式会社小松製作所 バケット高さ通知装置およびバケット高さ通知方法
KR20200027394A (ko) * 2018-09-04 2020-03-12 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
CN113261309B (zh) * 2019-01-09 2023-11-24 索尼集团公司 声音输出设备和声音输出方法
CN113678469A (zh) * 2019-04-16 2021-11-19 索尼集团公司 显示装置、控制方法和程序
CN110602316B (zh) * 2019-09-05 2021-04-13 Oppo广东移动通信有限公司 电子设备及其控制方法
CN110554647A (zh) * 2019-09-10 2019-12-10 广州安衡电子科技有限公司 一种移动图像与声像同步的处理方法及系统
TWI742689B (zh) * 2020-05-22 2021-10-11 宏正自動科技股份有限公司 影音處理裝置、影音播放系統及其影音處理方法
CN112153538B (zh) * 2020-09-24 2022-02-22 京东方科技集团股份有限公司 显示装置及其全景声实现方法、非易失性存储介质
CN114915812B (zh) * 2021-02-08 2023-08-22 华为技术有限公司 一种拼接屏音频的分配方法及其相关设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0638122A (ja) * 1992-07-15 1994-02-10 Sanyo Electric Co Ltd 画像分割表示システムの音声処理装置
CN1500345B (zh) * 2001-12-28 2010-06-02 索尼公司 显示设备和控制方法
JP3700649B2 (ja) * 2001-12-28 2005-09-28 ソニー株式会社 表示装置および制御方法、プログラムおよび記録媒体、並びに表示システム
JP4016251B2 (ja) * 2002-02-19 2007-12-05 ソニー株式会社 コンテンツ運用管理システム
JP4127156B2 (ja) 2003-08-08 2008-07-30 ヤマハ株式会社 オーディオ再生装置、ラインアレイスピーカユニットおよびオーディオ再生方法
JP4618768B2 (ja) * 2003-12-10 2011-01-26 ソニー株式会社 音響システム、サーバ装置、スピーカ装置および音響システムにおける音像定位確認方法
JP3969401B2 (ja) 2004-05-17 2007-09-05 ソニー株式会社 表示装置および方法、並びにプログラム
JP2006042191A (ja) * 2004-07-29 2006-02-09 Sony Corp 表示装置および方法、表示システム、並びにプログラム
JP3915804B2 (ja) * 2004-08-26 2007-05-16 ヤマハ株式会社 オーディオ再生装置
JP2006262416A (ja) * 2005-03-18 2006-09-28 Yamaha Corp 音響システム、音響システムの制御方法および音響機器

Also Published As

Publication number Publication date
US20080165992A1 (en) 2008-07-10
KR20080036531A (ko) 2008-04-28
EP1919259A2 (en) 2008-05-07
US8295516B2 (en) 2012-10-23
JP2008109209A (ja) 2008-05-08
CN101175337A (zh) 2008-05-07

Similar Documents

Publication Publication Date Title
JP4973919B2 (ja) 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム
US11265653B2 (en) Audio system with configurable zones
US10645516B2 (en) Variable acoustic loudspeaker system and control
USRE45251E1 (en) Audio output adjusting device of home theater system and method thereof
US10009687B2 (en) Audio system, method of outputting audio, and speaker apparatus
US7606380B2 (en) Method and system for sound beam-forming using internal device speakers in conjunction with external speakers
EP2823650A1 (en) Audio rendering system
KR102081336B1 (ko) 오디오 시스템, 오디오 장치 및 오디오 장치의 채널 맵핑 방법
US20170325028A1 (en) Method and device for outputting audio signal on basis of location information of speaker
US10104490B2 (en) Optimizing the performance of an audio playback system with a linked audio/video feed
JP2007060253A (ja) スピーカ配置の判定システム
US8953826B2 (en) System, method and apparatus for television speaker configuration
JP2006109241A (ja) 音声出力装置、映像表示装置
JP4961813B2 (ja) オーディオ再生装置
AU2018214059B2 (en) Audio system with configurable zones
US20230239646A1 (en) Loudspeaker system and control
JP6716636B2 (ja) 設定可能なゾーンを有するオーディオシステム
GB2607885A (en) Audio configuration
KR20240055377A (ko) 스테레오 마이크를 이용한 스피커 튜닝 방법
KR20150079514A (ko) 오디오 장치 및 이의 오디오 신호 전송 방법, 그리고 오디오 시스템
JP2007036614A (ja) 低音再生装置及び音響再生システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120315

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120328

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees