Nothing Special   »   [go: up one dir, main page]

JP6956354B2 - 映像信号出力装置、制御方法、及び、プログラム - Google Patents

映像信号出力装置、制御方法、及び、プログラム Download PDF

Info

Publication number
JP6956354B2
JP6956354B2 JP2018160910A JP2018160910A JP6956354B2 JP 6956354 B2 JP6956354 B2 JP 6956354B2 JP 2018160910 A JP2018160910 A JP 2018160910A JP 2018160910 A JP2018160910 A JP 2018160910A JP 6956354 B2 JP6956354 B2 JP 6956354B2
Authority
JP
Japan
Prior art keywords
output
audio signal
video signal
unit
output device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018160910A
Other languages
English (en)
Other versions
JP2020036178A (ja
Inventor
俊明 植村
森家 睦拡
信治 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018160910A priority Critical patent/JP6956354B2/ja
Priority to US17/055,087 priority patent/US11134178B2/en
Priority to PCT/JP2019/014844 priority patent/WO2020044644A1/ja
Priority to EP19856151.6A priority patent/EP3846486A4/en
Publication of JP2020036178A publication Critical patent/JP2020036178A/ja
Application granted granted Critical
Publication of JP6956354B2 publication Critical patent/JP6956354B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/055Time compression or expansion for synchronising with other signals, e.g. video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4392Processing of audio elementary streams involving audio buffer management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/607Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for more than one sound signal, e.g. stereo, multilanguages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Otolaryngology (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、映像信号出力装置、制御方法、及び、プログラムに関する。
特許文献1は、複数の再生装置が出力する映像及び音声の出力タイミングを合わせる方法を開示している。
特許文献1が開示する方法では、第一の再生装置と第二の再生装置とがスピーカにより音声を出力したタイミングをマイクで収音することで時間差を検出し、検出した時間差に基づいて、第一の再生装置又は第二の再生装置の音声出力タイミングを制御する。また、第一の再生装置と第二の再生装置との位置関係に基づいて、音声出力タイミングの制御を実行するか、又は、実行しないかを切り替える。これにより、第一の再生装置又は第二の再生装置の出力タイミングを合わせる。
特開2013−115782号公報
本開示は、複数の出力装置による映像の出力タイミングを制御する映像信号出力装置を提供する。
本開示における映像信号出力装置は、映像を表示するための映像信号処理、及び、音声を出力するための音声信号処理をそれぞれが行う複数の出力装置に接続される映像信号出力装置であって、映像信号及び第一音声信号を前記複数の出力装置それぞれに出力する出力部と、前記出力部が出力した前記第一音声信号に対して、前記複数の出力装置それぞれが前記音声信号処理をすることで生成された第二音声信号を受信する受信部と、前記複数の出力装置それぞれによる前記映像信号処理に要する時間と前記音声信号処理に要する時間との時間差を示す同期情報を取得する取得部と、前記受信部が前記複数の出力装置それぞれから前記第二音声信号を受信したタイミングと、前記取得部が取得した前記同期情報とを用いて、前記複数の出力装置それぞれが映像を表示するタイミングの時間差を小さくする遅延時間を算出する遅延算出部と、前記遅延算出部が算出した前記遅延時間で、前記出力部が出力する映像信号及び第一音声信号を遅延させる遅延部とを備える。
また、本開示における制御方法は、映像を表示するための映像信号処理、及び、音声を出力するための音声信号処理をそれぞれが行う複数の出力装置に接続される映像信号出力装置の制御方法であって、映像信号及び第一音声信号を前記複数の出力装置それぞれに出力し、出力した前記第一音声信号に対して、前記複数の出力装置それぞれが前記音声信号処理をすることで生成された第二音声信号を受信し、前記複数の出力装置それぞれによる前記映像信号処理に要する時間と前記音声信号処理に要する時間との時間差を示す同期情報を取得し、前記複数の出力装置それぞれから前記第二音声信号を受信したタイミングと、取得した前記同期情報とを用いて、前記複数の出力装置それぞれが映像を表示するタイミングの時間差を小さくする遅延時間を算出し、算出した前記遅延時間で、映像信号及び第一音声信号を遅延させる。
また、本開示におけるプログラムは、上記の制御方法をコンピュータに実行させるためのプログラムである。
本開示におけるデータ生成装置は、複数の出力装置による映像の出力タイミングを制御することができる。
図1は、実施の形態に係る映像出力システムの概略構成図である。 図2は、実施の形態に係る映像信号出力装置の機能構成を示すブロック図である。 図3は、実施の形態に係る出力装置の機能構成を示すブロック図である。 図4は、実施の形態に係る映像信号出力装置及び出力装置の処理タイミングを示す第一のシーケンス図である。 図5は、実施の形態に係る映像信号出力装置及び出力装置の処理タイミングを示す第二のシーケンス図である。 図6は、実施の形態に係る映像信号出力装置及び出力装置の処理タイミングを示す第三のシーケンス図である。 図7は、実施の形態に係る映像信号出力装置の制御方法を示すフロー図である。
本開示の一態様に係る映像信号出力装置は、映像を表示するための映像信号処理、及び、音声を出力するための音声信号処理をそれぞれが行う複数の出力装置に接続される映像信号出力装置であって、映像信号及び第一音声信号を前記複数の出力装置それぞれに出力する出力部と、前記出力部が出力した前記第一音声信号に対して、前記複数の出力装置それぞれが前記音声信号処理をすることで生成された第二音声信号を受信する受信部と、前記複数の出力装置それぞれによる前記映像信号処理に要する時間と前記音声信号処理に要する時間との時間差を示す同期情報を取得する取得部と、前記受信部が前記複数の出力装置それぞれから前記第二音声信号を受信したタイミングと、前記取得部が取得した前記同期情報とを用いて、前記複数の出力装置それぞれが映像を表示するタイミングの時間差を小さくする遅延時間を算出する遅延算出部と、前記遅延算出部が算出した前記遅延時間で、前記出力部が出力する映像信号及び第一音声信号を遅延させる遅延部とを備える。
上記態様によれば、映像信号出力装置は、複数の出力装置間の音声信号処理に要する時間の差の実測値、及び、各出力装置による映像信号処理と音声信号処理との時間差を用いて、複数の出力装置それぞれに出力する映像信号を遅延させる。ここで、複数の出力装置が映像信号に基づいて映像を表示するタイミングは用いられない。これにより、映像信号出力装置は、出力装置が映像を表示するタイミングに関する情報を用いることなく、各出力装置が映像信号処理の後に映像を表示するタイミングの時間差を小さくすることができる。複数の出力装置が表示する映像を見るユーザにとっては、複数の出力装置が映像を表示する時間差が比較的小さいので、上記時間差が比較的大きい場合に比べて、映像を見るときに感じる違和感が低減され、より高い視聴効果が得られる。このように、映像信号出力装置は、複数の出力装置による映像の出力タイミングを制御する。
また、前記遅延算出部は、前記タイミングと前記同期情報とを用いて、前記複数の出力装置が映像を表示するタイミングの時間差をゼロにするように、前記遅延時間を算出してもよい。
上記態様によれば、映像信号出力装置は、複数の出力装置それぞれに出力する映像信号を遅延させることで、各出力装置が映像を表示するタイミングの時間差をゼロにする。ユーザにとっては、複数の出力装置が映像を表示する時間差がゼロであるので、上記時間差がある場合に比べて、映像を見ることで感じる違和感がより一層低減され、より一層高い視聴効果が得られる。
また、前記出力部は、前記複数の出力装置それぞれに出力する前記映像信号及び前記第一音声信号を、出力先の出力装置の表示モードに適した形式に変換し、変換した前記映像信号及び前記第一音声信号を出力し、前記遅延算出部は、前記出力部による変換に係る形式が変化した場合に、前記遅延の時間を算出してもよい。
上記態様によれば、映像信号出力装置は、出力装置の表示モードが変更された場合に、出力部が出力する映像信号を遅延させる遅延時間を算出し更新する。これにより、出力装置の表示モードが変更された場合にも、変更後の表示モードに適した遅延時間を用いて映像信号を遅延させ、複数の出力装置が映像を表示する時間差を小さくすることができる。このように、映像信号出力装置は、出力装置の表示モードが変更された場合でも、複数の出力装置による映像の出力タイミングを制御する。
また、前記映像信号出力装置は、さらに、前記複数の出力装置のうちから選択される一の出力装置から前記受信部が受信した前記第二音声信号を、前記一の出力装置の前記同期情報に示される前記時間差に相当する遅延時間で遅延させて外部に出力する音声出力部を備えてもよい。
上記態様によれば、映像信号出力装置は、出力装置から受信した第二音声信号をスピーカなどにより音声として出力する。複数の出力装置が映像を表示する時間差が比較的小さく制御されているので、選択される一の出力装置が映像を表示するタイミングに合わせて音声信号を遅延させて出力することで、各出力装置が表示する映像に同期させて音声を出力することができる。
また、前記出力部は、HDMI(登録商標)(High−Definition Multimedia Interface)規格に従って前記映像信号及び前記第一音声信号を出力し、前記受信部は、HDMI(登録商標)規格におけるARC(Audio Return Channel)によって前記第二音声信号を受信してもよい。
上記態様によれば、映像信号出力装置は、各出力装置と1本のHDMI(登録商標)ケーブルで接続され得る。これにより、映像信号出力装置は、1本のHDMI(登録商標)ケーブル以外のケーブル又は他の通信手段を要せずに、複数の出力装置による映像の出力タイミングを制御することができる。
また、本開示の一態様に係る制御方法は、映像を表示するための映像信号処理、及び、音声を出力するための音声信号処理をそれぞれが行う複数の出力装置に接続される映像信号出力装置の制御方法であって、映像信号及び第一音声信号を前記複数の出力装置それぞれに出力し、出力した前記第一音声信号に対して、前記複数の出力装置それぞれが前記音声信号処理をすることで生成された第二音声信号を受信し、前記複数の出力装置それぞれによる前記映像信号処理に要する時間と前記音声信号処理に要する時間との時間差を示す同期情報を取得し、前記複数の出力装置それぞれから前記第二音声信号を受信したタイミングと、取得した前記同期情報とを用いて、前記複数の出力装置それぞれが映像を表示するタイミングの時間差を小さくする遅延時間を算出し、算出した前記遅延時間で、映像信号及び第一音声信号を遅延させる。
上記態様によれば、上記映像信号出力装置と同様の効果を奏する。
また、本開示の一態様に係る制御方法は、上記の制御方法をコンピュータに実行させるためのプログラムである。
上記態様によれば、上記映像信号出力装置と同様の効果を奏する。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態)
本実施の形態において、複数の出力装置による映像の出力タイミングを制御する映像信号出力装置などについて説明する。
図1は、本実施の形態に係る映像出力システム1の概略構成図である。
図1に示されるように、映像出力システム1は、映像信号出力装置10と、出力装置A1、A2及びA3と、スピーカ20とを備える。なお、出力装置A1、A2及びA3を、「出力装置A1等」ともいう。
映像信号出力装置10は、コンテンツの映像信号及び音声信号を出力する装置である。映像信号出力装置10は、出力装置A1等に接続されており、出力装置A1等それぞれに適切なタイミングで映像信号及び音声信号を出力する。また、映像信号出力装置10は、スピーカ20に接続されており、スピーカ20に音声信号を出力する。映像信号出力装置10と出力装置A1等それぞれとは、映像信号及び音声信号を伝送する規格のケーブルで接続される。ここでは、上記ケーブルが、HDMI(登録商標)(High−Definition Multimedia Interface)規格に従った通信で映像信号及び音声信号を送受信するHDMI(登録商標)ケーブルである場合を説明するが、これに限られない。
出力装置A1は、コンテンツの映像信号及び音声信号を取得し、映像信号に基づく映像を表示する出力装置である。出力装置A1は、表示画面と映像信号処理回路と音声信号処理回路とを備える。出力装置A1は、取得した映像信号に映像信号処理を施すことで表示画面に表示可能な形式の映像信号を生成し、表示画面に映像を表示する。表示画面は、所定の表示モードで映像を表示し得る。表示モードとは、表示画面の表示の態様を示す情報であり、解像度及びリフレッシュレートなどの複数のパラメータで規定される。
また、出力装置A1は、取得した音声信号に音声信号処理を施すことで、スピーカにより出力可能な形式の音声信号を生成し、生成した音声信号を映像信号出力装置10に送信する。この音声信号は、例えば、HDMI(登録商標)規格におけるARC(Audio Return Channel)により、出力装置A1から映像信号出力装置10へ送信される。この場合、映像信号出力装置10と出力装置A1等とを接続するHDMI(登録商標)ケーブルを利用して上記音声信号が伝送されうる。なお、上記音声信号は、光オーディオケーブル又はRCAなどで伝送されてもよい。
出力装置A2及びA3は、それぞれ、出力装置A1と同じ機能を備える出力装置である。出力装置A2及びA3は、それぞれ、出力装置A1とは独立の表示モードで映像を表示し得る。つまり、出力装置A1、A2及びA3は、同一の表示モードで映像を表示してもよいし、そのうちの一部が他と異なる表示モードで映像を表示してもよい。また、出力装置A1等の映像信号処理及び音声信号処理に係る処理能力は、それぞれ異なっていてよい。
なお、出力装置A1等の個数が3である場合を一例として説明するが、2又は4以上であっても同様の説明が成立する。
スピーカ20は、音声を出力するスピーカである。スピーカ20は、映像信号出力装置10から出力される音声信号を取得し、取得した音声信号に基づいて空気中に音声を出力する。なお、映像信号出力装置10がスピーカ20を備えてもよいし、出力装置A1等がスピーカ20を備えてもよい。また、スピーカ20は必須の構成要素ではない。
出力装置A1等は、それぞれ独立の表示モードで映像を表示し、また、処理能力が互いに異なることもあるので、仮に映像信号出力装置10が同時に映像信号を出力したとしても、映像の表示タイミングが異なる。その時間差は、例えば100msec〜1sec程度であり得る。映像信号出力装置10は、出力装置A1等に同じタイミングで映像を表示させるべく、出力装置A1等に出力する映像の出力タイミングを制御する。具体的には、映像信号出力装置10は、出力装置A1等に出力する映像信号などを適切な遅延時間で遅延させてから出力することで、出力装置A1等による映像の表示タイミングを同期させる。
図2は、本実施の形態に係る映像信号出力装置10の機能構成を示すブロック図である。
図2に示されるように、映像信号出力装置10は、信号取得部101と、デコーダ102と、遅延部103と、出力部104と、受信部105と、同期情報取得部106と、遅延算出部107と、音声出力部109とを備える。
信号取得部101は、映像信号及び音声信号を取得する取得部である。信号取得部101は、例えば、演算処理によってコンテンツに係るデータを生成する、映像信号出力装置10の外部からコンテンツを含む放送波を受信する、又は、映像信号出力装置10の内部の記憶装置に記憶されているコンテンツに係るデータを読み出すことで、映像信号及び音声信号を取得する。信号取得部101が取得する映像信号及び音声信号は、エンコードされたものであってもよいし、そうでなくてもよい。
信号取得部101は、取得した映像信号及び音声信号をデコーダ102に提供する。より詳細には、信号取得部101は、映像信号及び音声信号を複製して、デコーダ102が有するデコーダ102A等それぞれに提供する。
デコーダ102は、信号取得部101が取得した映像信号及び音声信号をデコードする信号処理部である。デコーダ102は、出力装置A1等それぞれに対応するデコーダ102A、102B及び102C(「デコーダ102A等」ともいう)を有する。デコーダ102A等は、デコード回路により、又は、プロセッサが所定のプログラムを実行することにより、実現される。
デコーダ102A等は、信号取得部101が取得した映像信号及び音声信号がエンコードされている場合に、信号取得部101が取得した映像信号及び音声信号をデコードする。なお、信号取得部101が取得した映像信号及び音声信号がエンコードされていない場合には、デコーダ102は不要である。
遅延部103は、出力部104が出力する映像信号及び音声信号を、出力先ごとに遅延させる処理部である。遅延部103は、出力装置A1等それぞれに対応する遅延部103A、103B及び103C(「遅延部103A等」ともいう)を有する。遅延部103A等は、専用回路により、又は、プロセッサが所定のプログラムを実行することにより、実現される。
遅延部103A等が上記信号を遅延させる時間(遅延時間ともいう)は、遅延部103A等ごとに独立な値が遅延算出部107により算出され、設定される。遅延部103A等の遅延時間は、当初はゼロに設定され、その後、遅延算出部107により設定されることで変更され得る。
出力部104は、出力装置A1等に接続され、出力装置A1等に映像信号及び音声信号を出力する処理部である。出力部104は、出力装置A1等それぞれに対応する出力部104A、104B及び104C(「出力部104A等」ともいう)を有する。
出力部104A等が出力装置A1等に映像信号及び音声信号を出力するタイミングは、遅延部103Aなどにより遅延され得る。具体的には、出力部104A等は、遅延部103A等による遅延の時間がゼロである場合には、出力装置A1等に映像信号及び音声信号を同時に出力する。また、出力部104A等は、遅延部103A等による遅延の時間がゼロより大きい場合には、その遅延の時間の分だけ遅延したタイミングで映像信号及び音声信号を出力する。出力部104A等が出力する音声信号を第一音声信号ともいう。
出力部104A等は、接続された出力装置A1等が対応している表示モードのうちの1つの表示モードを選択し、選択した表示モードに相当する形式に、デコーダ102がデコードした映像信号を変換して出力する。
ここでは、出力部104A等がHDMI(登録商標)規格に対応した通信インタフェース装置を有する場合を一例として説明するが、出力部104A等は、他の通信規格に対応したものであってもよい。出力部104A等がHDMI(登録商標)規格に対応している場合、出力装置A1等が対応している表示モードは、出力装置A1等との接続が確立した時点で、出力装置A1等からEDID(Extended Display Identification Data)を取得することで得られる。出力部104A等は、HDMI(登録商標)規格の他にも、例えば、IEEE802.11a、b、g、n規格などの無線LANの通信規格、又は、IEEE802.3規格などの有線LANの通信規格等であってもよい。
なお、接続先の出力装置A1等の表示モードが変化した場合には、出力部104A等は、新たな表示モードのうちの1つの表示モードを選択する。
受信部105は、出力装置A1等から音声信号を受信する処理部である。受信部105は、出力装置A1等それぞれに対応する受信部105A、105B及び105C(「受信部105A等」ともいう)を有する。受信部105A等が受信する音声信号は、出力部104A等が出力した第一音声信号が出力装置A1等に受信され、その後に出力装置A1等が送信した音声信号である。受信部105A等が受信する音声信号は、出力部104A等が出力した第一音声信号に対して、出力装置A1等それぞれが音声信号処理をすることで生成された音声信号であってもよい。このように受信部105A等が受信した音声信号を第二音声信号ともいう。
同期情報取得部106は、出力装置A1等それぞれによる映像信号処理に要する時間と音声信号処理に要する時間との時間差を示す同期情報を取得する処理部である。同期情報取得部106は、例えばプロセッサが所定のプログラムを実行することにより実現される。同期情報取得部106は、同期情報を出力装置A1等それぞれから取得してもよいし、他の情報源(例えばインターネット上のサーバ)から取得してもよい。一般に、映像信号処理に要する時間は、音声信号処理に要する時間より長い。よって、同期情報は、出力装置A1等それぞれによる映像信号処理に要する時間から、音声信号処理に要する時間を差し引いた差分時間に相当する。同期情報は、出力装置A1等が現時点で採用している表示モードに対応して定められている情報であり、出力装置A1等それぞれに固有の情報である。同期情報は、例えば100msec〜1sec程度の値であり、一般にリップシンク情報ともよばれる。
遅延算出部107は、遅延部103の遅延時間を算出する処理部である。遅延算出部107は、例えばプロセッサが所定のプログラムを実行することにより実現される。遅延算出部107は、受信部105A等が出力装置A1等それぞれから第二音声信号を受信したタイミングと、同期情報取得部106が取得した同期情報とを用いて、出力装置A1等それぞれが映像を出力するタイミングの時間差を小さくするように、上記遅延時間を算出する。
より具体的には、遅延算出部107は、タイマ108A、108B及び108Cを有する。タイマ108Aは、出力部104Aが映像信号及び第一音声信号を出力装置A1に出力したタイミングと、受信部105Aが出力装置A1から第二音声信号を受信したタイミングとを取得し、これらのタイミングの時間差を算出する。タイマ108B及び108Cは、出力装置A2及びA3に関してタイマ108Aと同様の処理をする。
遅延算出部107は、タイマ108A等を用いて、出力部104A等が映像信号及び第一音声信号を出力した時刻を起点として、受信部105A等が第二音声信号を受信したタイミングまでの時間を計測する。そして、遅延算出部107は、タイマ108A等が計測した時間と、同期情報とを用いて、出力装置A1等が映像を出力するタイミングの時間差を小さく、より特定的にはゼロにするように、遅延時間を算出する。
なお、遅延算出部107は、出力部104A等による変換に係る形式が変化した場合に、遅延時間を算出するようにしてもよい。遅延算出部107は、このように遅延時間を算出することで、この算出より前に設定されていた遅延時間を更新する。
音声出力部109は、出力装置A1等から受信した第二音声信号に基づいて音声を出力するための処理部である。音声出力部109は、出力装置A1等のうちから選択される一の出力装置から受信部105A等が受信した第二音声信号を、上記一の出力装置の同期情報に示される時間差に相当する遅延時間で遅延させて外部に出力する。第二音声信号の出力先は、例えばスピーカ20である。
例えば、音声出力部109は、出力装置A1等のうち出力装置A2を選択したとすると、出力装置A2から第二音声信号を受信した時刻から、出力装置A2の同期情報に示される時間差の分の遅延時間だけ、出力装置A2から受信した第二音声信号を遅延させて、スピーカ20に出力する。なお、映像出力システム1がスピーカ20を備えない場合には、音声出力部109は不要である。
なお、信号取得部101が提供する映像信号及び音声信号は、ユーザが視聴するための視聴用のコンテンツに係る映像信号及び音声信号であってもよい。一方、信号取得部101が提供する映像信号及び音声信号は、当初、言い換えれば信号取得部101が提供した映像信号等に基づいて遅延算出部107によって算出される遅延時間が遅延部103に設定されるまでの間は、タイミング調整用の試験的なコンテンツ(つまり視聴用ではないコンテンツ)であってよい。そして、遅延時間が遅延部103に設定された後に、視聴用のコンテンツに切り替えるようにしてもよい。
図3は、本実施の形態に係る出力装置A1の機能構成を示すブロック図である。
図3に示されるように、出力装置A1は、入力部201と、信号処理部202と、表示画面203とを備える。出力装置A1は、映像を表示するための映像信号処理、及び、音声を出力するための音声信号処理を行う出力装置である。
入力部201は、映像信号出力装置10に接続され、映像信号出力装置10が出力する映像信号及び第一音声信号が入力される処理部である。入力部201は、映像信号出力装置10の出力部104と同じ通信規格に対応した通信インタフェース装置を有し、当該通信規格に従う信号を送受信する。出力部104がHDMI(登録商標)規格に対応している場合、入力部201もHDMI(登録商標)規格に対応している。また、入力部201は、出力装置A1による映像信号処理に要する時間と音声信号処理に要する時間との時間差を示す同期情報を、映像信号出力装置10に提供する。同期情報の提供は、例えば、映像信号出力装置10との接続が確立したときになされる。
信号処理部202は、入力部201に入力される映像信号及び第一音声信号それぞれに対して、映像信号処理及び音声信号処理を施す処理部である。信号処理部202は、映像信号処理回路を備えており、映像信号処理回路を用いて映像を表示するための映像信号処理を行う。また、信号処理部202は、音声信号処理回路を備えており、音声信号処理回路を用いて音声を出力するための音声信号処理を行う。信号処理部202は、映像信号処理を終えると、映像信号処理を施した後の映像信号を表示画面203に提供し、表示画面203に画像を表示させる。また、信号処理部202は、音声信号処理を終えると、音声信号処理を施した後の第二音声信号を映像信号出力装置10に送信する。第二音声信号は、例えばHDMI(登録商標)規格におけるARCにより送信される。
表示画面203は、画像を表示する表示装置である。表示画面203は、信号処理部202から提供される映像信号に基づいて、コンテンツに係る画像を表示する。
なお、入力部201に映像信号が入力されてから、入力された映像信号に係る映像が表示画面203に表示されるまでの時間を「映像信号処理に要する時間」ともいう。また、入力部201に第一音声信号が入力されてから、入力された第一音声信号から変換された第二音声信号が信号処理部202により出力されるまでの時間を「音声信号処理に要する時間」ともいう。
なお、出力装置A2及びA3の機能構成は、出力装置A1の機能構成と同様であるので説明を省略する。
図4は、本実施の形態に係る映像信号出力装置10及び出力装置A1等の処理タイミングを示す第一のシーケンス図である。図4では、遅延部103A等に設定されている遅延時間がゼロである場合を示している。
図4において、映像信号出力装置10の出力部104が、時刻t0に、出力装置A1等それぞれに対して映像信号及び第一音声信号を出力した場合を示している。
出力装置A1等それぞれは、出力部104が映像信号及び第一音声信号を出力すると、その映像信号及び第一音声信号を入力部201により入力する。信号処理部202は、入力された第一音声信号に対して音声信号処理を施すことで第二音声信号を生成して映像信号出力装置10に送信する。また、信号処理部202は、入力された映像信号に対して映像信号処理を施し、映像を表示画面203に表示する。
映像信号出力装置10は、時刻t0を起点として、出力装置A1、A2及びA3それぞれから第二音声信号を受信するまでの時間を計測し、時間R1、R2及びR3を得る。
また、映像信号出力装置10は、出力装置A1、A2及びA3それぞれの同期情報として、時間L1、L2及びL3を取得する。
遅延算出部107は、上記時間R1等及び時間L1などを用いて、遅延部103A等による遅延の時間を算出する。具体的には、遅延算出部107は、以下(式1)のように、遅延部103A、103B及び103Cそれぞれの遅延時間D1、D2及びD3を、時間R1等と、時間L1等と、遅延時間D1等との和が等しくなるように決定する。遅延算出部107は、算出した遅延時間を遅延部103A等に設定する。
R1+L1+D1=R2+L2+D2=R3+L3+D3 (式1)
図5は、本実施の形態に係る映像信号出力装置10及び出力装置A1等の処理タイミングを示す第二のシーケンス図である。図5では、遅延算出部107により算出された遅延時間が遅延部103A等に設定されている場合の各処理のタイミングが示されている。
図5において、映像信号出力装置10は、出力装置A1等それぞれに送信する映像信号及び第一音声信号を、遅延部103Aそれぞれにより遅延時間D1等だけ遅延させてから出力する。このようにすると、出力装置A1等は、映像信号及び第一音声信号を受信してから映像信号処理及び音声信号処理を行うことで、映像を表示画面203に表示するタイミングを時刻t1に揃えることができる。
なお、(式1)を満たす遅延時間D1、D2及びD3の組は、無数に存在する。一組の遅延時間D1、D2及びD3それぞれに同じ値を加算又は減算した組もまた、上記(式1)を満たすからである。ここで、遅延算出部107は、(R1+L1)、(R2+L2)及び(R3+L3)のうちの最大のものに対応する遅延時間をゼロに設定するようにしてもよい。例えば、図4の例では、上記のうち(R3+L3)が最大であるので、(式2)のようにD3をゼロに設定してもよい。
R1+L1+D1=R2+L2+D2=R3+L3 (式2)
これは、出力部104A等が同時に映像信号及び第一音声信号を出力した場合に映像を表示するのが最も遅い出力装置A3の表示のタイミングに合わせて、他の出力装置A1及びA2の映像の表示を行うようにすることに相当する。
このように遅延時間D1等を設定する場合に映像信号出力装置10及び出力装置A1の処理タイミングを示すシーケンス図を図6に示す。図6のように処理タイミングを設定すれば、(式1)を満たす無数の遅延時間D1、D2及びD3の組のうち、出力装置A1等の全てが最も早く映像を表示できる時刻t2に、出力装置A1等が同時に映像を表示できる利点がある。
次に、本実施の形態に係る映像信号出力装置10の制御方法を説明する。
図7は、本実施の形態に係る映像信号出力装置10の制御方法を示すフロー図である。
ステップS101において、出力部104A等は、映像信号及び第一音声信号を複製して出力装置A1等それぞれに同時に出力する。出力部104A等による出力が同時になされるのは、遅延部103A等に設定されている遅延時間がいずれもゼロであることによる。
ステップS102において、受信部105A等は、ステップS101で出力部104Aが出力した第一音声信号に対して、出力装置A1等それぞれが音声信号処理をすることで生成された第二音声信号を受信する。
ステップS103において、同期情報取得部106は、出力装置A1等それぞれに固有の映像信号処理と音声信号処理との時間差を示す同期情報を取得する。
ステップS104において、遅延算出部107は、ステップS102で受信部105Aが出力装置A1等それぞれから第二音声信号を受信したタイミングと、ステップS103で同期情報取得部106が取得した同期情報とを用いて、出力装置A1等それぞれが映像を出力するタイミングの時間差を小さくするように、遅延部103A等による遅延の時間を算出する。
ステップS105において、遅延部103Aは、ステップS104で遅延算出部107が算出した遅延時間の分だけ、出力部104Aが出力する映像信号及び第一音声信号を出力先ごとに遅延させる。出力部104A等は、遅延部103A等により遅延された映像信号及び第一音声信号を出力する。
なお、上記では、デコーダ102が、内部にデコーダ102A等を有する構成を説明したが、デコーダ102が内部の構成をもたないものであってもよい。その場合、信号取得部101は、取得した映像信号及び音声信号を複製することなくデコーダ102に提供する。デコーダ102は、信号取得部101が取得した映像信号及び音声信号をデコードし、デコード後の映像信号及び音声信号を複製して、遅延部103A等それぞれに提供する。この構成でも、上記と同様の効果を奏する。
上記の一連の処理により、映像信号出力装置10は、出力装置A1等に同時に映像を出力させることができる。
なお、映像信号出力装置10が、遅延部103A等の遅延時間がゼロである状態で出力する映像信号及び第一音声信号は、後に遅延算出部107が遅延時間を算出するために用いられるものであるので、試験的な映像信号及び第一音声信号が用いられてもよい。試験的な映像信号とは、例えば所定の色の図形が所定の態様で配置された映像などであり、試験的な第一音声信号とは、例えば所定の単一の音階の音を有する音声などである。
以上のように、本実施の形態の映像信号出力装置は、複数の出力装置間の音声信号処理に要する時間の差の実測値、及び、各出力装置による映像信号処理と音声信号処理との時間差を用いて、複数の出力装置それぞれに出力する映像信号を遅延させる。ここで、複数の出力装置が映像信号に基づいて映像を表示するタイミングは用いられない。これにより、映像信号出力装置は、出力装置が映像を表示するタイミングに関する情報を用いることなく、各出力装置が映像信号処理の後に映像を表示するタイミングの時間差を小さくすることができる。複数の出力装置が表示する映像を見るユーザにとっては、複数の出力装置が映像を表示する時間差が比較的小さいので、上記時間差が比較的大きい場合に比べて、映像を見るときに感じる違和感が低減され、より高い視聴効果が得られる。このように、映像信号出力装置は、複数の出力装置による映像の出力タイミングを制御する。
また、映像信号出力装置は、複数の出力装置それぞれに出力する映像信号を遅延させることで、各出力装置が映像を表示するタイミングの時間差をゼロにする。ユーザにとっては、複数の出力装置が映像を表示する時間差がゼロであるので、上記時間差がある場合に比べて、映像を見ることで感じる違和感がより一層低減され、より一層高い視聴効果が得られる。
また、映像信号出力装置は、出力装置の表示モードが変更された場合に、出力部が出力する映像信号を遅延させる遅延時間を算出し更新する。これにより、出力装置の表示モードが変更された場合にも、変更後の表示モードに適した遅延時間を用いて映像信号を遅延させ、複数の出力装置が映像を表示する時間差を小さくすることができる。このように、映像信号出力装置は、出力装置の表示モードが変更された場合でも、複数の出力装置による映像の出力タイミングを制御する。
また、映像信号出力装置は、出力装置から受信した第二音声信号をスピーカなどにより音声として出力する。複数の出力装置が映像を表示する時間差が比較的小さく制御されているので、選択される一の出力装置が映像を表示するタイミングに合わせて音声信号を遅延させて出力することで、各出力装置が表示する映像に同期させて音声を出力することができる。
また、映像信号出力装置は、各出力装置と1本のHDMI(登録商標)ケーブルで接続され得る。これにより、映像信号出力装置は、1本のHDMI(登録商標)ケーブル以外のケーブル又は他の通信手段を要せずに、複数の出力装置による映像の出力タイミングを制御することができる。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記実装を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、複数の出力装置による映像の出力タイミングを制御する映像信号出力装置に適用可能である。
1 映像出力システム
10 映像信号出力装置
20 スピーカ
101 信号取得部
102、102A、102B、102C デコーダ
103、103A、103B、103C 遅延部
104、104A、104B、104C 出力部
105、105A、105B、105C 受信部
106 同期情報取得部
107 遅延算出部
108A、108B、108C タイマ
109 音声出力部
201 入力部
202 信号処理部
203 表示画面
A1、A2、A3 出力装置
D1、D2、D3 遅延時間
L1、L2、L3、R1、R2、R3 時間
t0、t1、t2 時刻

Claims (7)

  1. 映像を表示するための映像信号処理、及び、音声を出力するための音声信号処理をそれぞれが行う複数の出力装置に接続される映像信号出力装置であって、
    映像信号及び第一音声信号を前記複数の出力装置それぞれに出力する出力部と、
    前記出力部が出力した前記第一音声信号に対して、前記複数の出力装置それぞれが前記音声信号処理をすることで生成された第二音声信号を受信する受信部と、
    前記複数の出力装置それぞれによる前記映像信号処理に要する時間と前記音声信号処理に要する時間との時間差を示す同期情報を取得する取得部と、
    前記受信部が前記複数の出力装置それぞれから前記第二音声信号を受信したタイミングと、前記取得部が取得した前記同期情報とを用いて、前記複数の出力装置それぞれが映像を表示するタイミングの時間差を小さくする遅延時間を算出する遅延算出部と、
    前記遅延算出部が算出した前記遅延時間で、前記出力部が出力する映像信号及び第一音声信号を遅延させる遅延部とを備える
    映像信号出力装置。
  2. 前記遅延算出部は、前記タイミングと前記同期情報とを用いて、前記複数の出力装置が映像を表示するタイミングの時間差をゼロにするように、前記遅延時間を算出する
    請求項1に記載の映像信号出力装置。
  3. 前記出力部は、前記複数の出力装置それぞれに出力する前記映像信号及び前記第一音声信号を、出力先の出力装置の表示モードに適した形式に変換し、変換した前記映像信号及び前記第一音声信号を出力し、
    前記遅延算出部は、
    前記出力部による変換に係る形式が変化した場合に、前記遅延の時間を算出する
    請求項1又は2に記載の映像信号出力装置。
  4. 前記映像信号出力装置は、さらに、
    前記複数の出力装置のうちから選択される一の出力装置から前記受信部が受信した前記第二音声信号を、前記一の出力装置の前記同期情報に示される前記時間差に相当する遅延時間で遅延させて外部に出力する音声出力部を備える
    請求項1〜3のいずれか1項に記載の映像信号出力装置。
  5. 前記出力部は、HDMI(登録商標)(High−Definition Multimedia Interface)規格に従って前記映像信号及び前記第一音声信号を出力し、
    前記受信部は、HDMI(登録商標)規格におけるARC(Audio Return Channel)によって前記第二音声信号を受信する
    請求項1〜4のいずれか1項に記載の映像信号出力装置。
  6. 映像を表示するための映像信号処理、及び、音声を出力するための音声信号処理をそれぞれが行う複数の出力装置に接続される映像信号出力装置の制御方法であって、
    映像信号及び第一音声信号を前記複数の出力装置それぞれに出力し、
    出力した前記第一音声信号に対して、前記複数の出力装置それぞれが前記音声信号処理をすることで生成された第二音声信号を受信し、
    前記複数の出力装置それぞれによる前記映像信号処理に要する時間と前記音声信号処理に要する時間との時間差を示す同期情報を取得し、
    前記複数の出力装置それぞれから前記第二音声信号を受信したタイミングと、取得した前記同期情報とを用いて、前記複数の出力装置それぞれが映像を表示するタイミングの時間差を小さくする遅延時間を算出し、
    算出した前記遅延時間で、映像信号及び第一音声信号を遅延させる
    制御方法。
  7. 請求項6に記載の制御方法をコンピュータに実行させるためのプログラム。
JP2018160910A 2018-08-30 2018-08-30 映像信号出力装置、制御方法、及び、プログラム Active JP6956354B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018160910A JP6956354B2 (ja) 2018-08-30 2018-08-30 映像信号出力装置、制御方法、及び、プログラム
US17/055,087 US11134178B2 (en) 2018-08-30 2019-04-03 Video signal output apparatus, control method, and recording medium
PCT/JP2019/014844 WO2020044644A1 (ja) 2018-08-30 2019-04-03 映像信号出力装置、制御方法、及び、プログラム
EP19856151.6A EP3846486A4 (en) 2018-08-30 2019-04-03 DEVICE FOR THE OUTPUT OF VIDEO PICTURE SIGNALS, CONTROL PROCEDURES AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018160910A JP6956354B2 (ja) 2018-08-30 2018-08-30 映像信号出力装置、制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2020036178A JP2020036178A (ja) 2020-03-05
JP6956354B2 true JP6956354B2 (ja) 2021-11-02

Family

ID=69645141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018160910A Active JP6956354B2 (ja) 2018-08-30 2018-08-30 映像信号出力装置、制御方法、及び、プログラム

Country Status (4)

Country Link
US (1) US11134178B2 (ja)
EP (1) EP3846486A4 (ja)
JP (1) JP6956354B2 (ja)
WO (1) WO2020044644A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11159785B1 (en) 2021-01-13 2021-10-26 Google Llc Testing platform for HDMI enhanced audio return channel
CN113453052B (zh) * 2021-06-22 2022-11-08 Vidaa(荷兰)国际控股有限公司 音画同步方法及显示设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0000874D0 (en) * 2000-01-14 2000-03-08 Koninkl Philips Electronics Nv Latency handling for interconnected devices
US8451375B2 (en) * 2005-04-28 2013-05-28 Panasonic Corporation Lip-sync correcting device and lip-sync correcting method
JP4544190B2 (ja) * 2006-03-31 2010-09-15 ソニー株式会社 映像音声処理システム、映像処理装置、音声処理装置、映像音声の出力装置および映像と音声の同期処理方法
JP4965957B2 (ja) * 2006-10-03 2012-07-04 キヤノン株式会社 表示制御装置、表示システム、及び表示制御方法
JP5050807B2 (ja) * 2007-11-22 2012-10-17 ソニー株式会社 再生装置、表示装置、再生方法および表示方法
JP2010011274A (ja) 2008-06-30 2010-01-14 Toshiba Corp 映像音声出力装置及び映像音声出力方法
US9237324B2 (en) * 2010-10-22 2016-01-12 Phorus, Inc. Playback synchronization
JP5623551B2 (ja) * 2010-12-10 2014-11-12 三菱電機株式会社 マルチ画面表示システム
GB2486425A (en) * 2010-12-13 2012-06-20 Sivapathalingham Sivavakeesar Rendering multimedia content from a mobile device onto an external display device
JP5877351B2 (ja) * 2010-12-15 2016-03-08 パナソニックIpマネジメント株式会社 通信装置および通信方法
JP5284451B2 (ja) 2011-11-30 2013-09-11 株式会社東芝 電子機器及び音声出力方法
KR102140612B1 (ko) * 2013-09-13 2020-08-11 삼성전자주식회사 오디오 신호의 출력을 지연시키는 a/v 수신 장치 및 그 방법, 그리고, a/v 신호 처리 시스템
KR20150057421A (ko) * 2013-11-19 2015-05-28 한국전자통신연구원 다중화면 디스플레이 시스템 및 이를 위한 영상신호 보정방법
KR102201617B1 (ko) * 2014-01-07 2021-01-12 삼성전자 주식회사 Av기기 및 그 제어방법
JP6721510B2 (ja) * 2014-01-31 2020-07-15 インターデジタル シーイー パテント ホールディングス 2つの電子デバイスにおいて再生を同期させるための方法及び装置
WO2016013074A1 (ja) * 2014-07-23 2016-01-28 日立マクセル株式会社 映像表示システム、映像表示装置、および映像供給装置
CN104954882A (zh) 2015-06-16 2015-09-30 腾讯科技(北京)有限公司 一种消息共享方法及客户端
JP2017063392A (ja) 2015-09-25 2017-03-30 ブラザー工業株式会社 映像処理装置及び映像処理システム
US20170289609A1 (en) * 2016-03-31 2017-10-05 Le Holdings(Beijing)Co., Ltd. Method and device for playing multimedia data synchronously

Also Published As

Publication number Publication date
US20210127039A1 (en) 2021-04-29
EP3846486A1 (en) 2021-07-07
WO2020044644A1 (ja) 2020-03-05
JP2020036178A (ja) 2020-03-05
US11134178B2 (en) 2021-09-28
EP3846486A4 (en) 2021-08-18

Similar Documents

Publication Publication Date Title
US10992451B2 (en) Audio and video playback system and method for playing audio data applied thereto
US9521503B2 (en) Audio player with bluetooth function and audio playing method thereof
CN1901656B (zh) 视频和音频重放设备及方法、输出时刻改变设备及方法
CN101204081B (zh) 用于自动音频和视频同步的方法及系统
KR100902013B1 (ko) 타일드 디스플레이 시스템 및 상기 시스템에서의 동기화방법
TWI294085B (en) Method and apparatus for synchronizing multimedia data stream
US10098080B2 (en) Device, method and computer readable medium
JP2007533189A (ja) ビデオ・オーディオ同期
JP2004193868A (ja) 無線送受信システム及び無線送受信方法
JP2015130662A (ja) Av機器及びその制御方法
JP6956354B2 (ja) 映像信号出力装置、制御方法、及び、プログラム
KR101888464B1 (ko) 다중 동기화를 지원하는 멀티비전 시스템
TW200806050A (en) Method and system for synchronizing audio and video data signals
JP2004282667A (ja) 再生同期ずれ補正機能を備えた送信機及び受信機、並びにそれらを有する伝送装置
JP2018074480A (ja) 受信端末及びプログラム
JP2004320424A (ja) Av伝送方法及びav伝送装置、並びにav送信装置及びav受信装置
US20200007306A1 (en) Virtual reality viewing system, reproduction synchronizing method, and virtual reality viewing program
JP2007081780A (ja) 再生制御装置、表示装置および再生システム
WO2017148178A1 (zh) 一种音视频处理方法以及相关设备
US10917465B2 (en) Synchronization setting device and distribution system
US10209952B2 (en) Content reproduction device, content reproduction system, and control method for a content reproduction device
JP2011004015A (ja) 再生装置およびコンテンツ再生方法
JP6647241B2 (ja) Mmt受信システム、同期制御装置、同期制御方法および同期制御プログラム
JP5735360B2 (ja) 情報端末、情報機器及びこれらからなるシステム
US11838673B2 (en) Video processing apparatus, video processing system and video processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210915

R151 Written notification of patent or utility model registration

Ref document number: 6956354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151