KR102306226B1 - Method of video/audio playback synchronization of digital contents and apparatus using the same - Google Patents
Method of video/audio playback synchronization of digital contents and apparatus using the same Download PDFInfo
- Publication number
- KR102306226B1 KR102306226B1 KR1020190171055A KR20190171055A KR102306226B1 KR 102306226 B1 KR102306226 B1 KR 102306226B1 KR 1020190171055 A KR1020190171055 A KR 1020190171055A KR 20190171055 A KR20190171055 A KR 20190171055A KR 102306226 B1 KR102306226 B1 KR 102306226B1
- Authority
- KR
- South Korea
- Prior art keywords
- audio
- playback
- delay time
- video
- delay
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43076—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/43615—Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/323—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for loudspeakers
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
본 발명은 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법에 관한 것으로서, 네트워크에 연결된 복수의 커넥티드 장치가 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 마스터 장치로 전송하는 단계, 비디오 재생 듀티 사이클 동안 비디오 재생 지연 시간 리스트 또는 비디오 재생 싱크 타임스탬프를 수신하는 단계, 오디오 재생 듀티 사이클 동안 가상 동기화 오디오 지연거리, 커넥티드 장치들의 오디오 지연거리, 스윗 스팟 위치, 오디오 재생 지연 시간 리스트 또는 오디오 재생 싱크 타임스탬프 중 적어도 하나 이상을 수신하는 단계, 상기 비디오 재생 듀티 사이클 동안 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간 보정량을 결정하고, 상기 비디오 재생 지연 시간 보정량을 고려하여 상기 비디오 재생 싱크 타임스탬프를 보정하는 단계, 및 상기 오디오 재생 듀티 사이클 동안 상기 가상 동기화 오디오 지연거리, 상기 커텍티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 상기 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정하는 단계를 포함하는 것을 특징으로 하며, 슬레이브 장치와 마스터 장치를 포함한 커넥티드 장치들이 스윗 스팟으로부터 각각 다른 거리만큼 떨어져 있는 경우에도 시청자가 커넥티드 장치들로부터 같은 비디오와 오디오를 시청할 수 있다.The present invention relates to a method for synchronizing video and audio playback of digital content, comprising the steps of: a plurality of connected devices connected to a network transmit video playback delay time, audio playback delay time and location information to a master device; Receiving a video playback latency list or video playback sync timestamp during a cycle, virtual sync audio latency during an audio playback duty cycle, audio latency of connected devices, sweet spot location, audio playback latency list or audio playback sync receiving at least one or more of the timestamps, determining a video playback delay time correction amount from the video playback delay time list during the video playback duty cycle, and correcting the video playback sync timestamp in consideration of the video playback delay time correction amount and an audio reproduction delay time determined using at least one of the virtual synchronization audio delay distance, the audio delay distance of the connected devices, the sweet spot location, or the audio reproduction delay time list during the audio reproduction duty cycle. and correcting the audio reproduction sync timestamp by a correction amount, wherein even when connected devices, including a slave device and a master device, are separated by different distances from the sweet spot, the viewer can view the same from the connected devices. You can watch video and audio.
Description
본 발명은 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법에 관한 것으로서, 더욱 상세하게는 슬레이브 장치와 마스터 장치를 포함한 커넥티드 장치들이 스윗 스팟으로부터 각각 다른 거리만큼 떨어져 있는 경우에도 시청자가 커넥티드 장치들로부터 같은 비디오와 오디오를 시청할 수 있는, 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법 및 이를 이용한 장치에 관한 것이다.The present invention relates to a method of synchronizing video and audio playback of digital content, and more particularly, even when connected devices including a slave device and a master device are separated by different distances from a sweet spot, a viewer can It relates to a method for synchronizing video and audio reproduction of digital content, which allows users to watch the same video and audio from the same, and an apparatus using the same.
일반적으로 오디오 콘텐츠 및 비디오 콘텐츠의 재생 싱크(playback synchronization)를 맞추기 위해서는 마스터 장치(master device)의 마스터 클락(master clock) 및 재생 지연 시간(playback delay time)이 조절되어야 한다. 종래에는 마스터 클락을 기준으로, 모든 슬레이브 장치(slave devices)의 로컬 클락(local clock)의 동기화가 이루어졌다. In general, in order to synchronize playback of audio content and video content, a master clock and a playback delay time of a master device must be adjusted. Conventionally, synchronization of the local clocks of all slave devices is performed based on the master clock.
이러한 경우, 마스터 클락과 클락 편차(drift)가 큰 슬레이브 장치의 경우이거나 기계사양이 낮고 가용 리소스가 작은 슬레이브 장치는 한정된 재생 듀티 사이클 내에서 상대적으로 재생 싱크 가능한 시간이 짧아지게 된다. 이러한 문제점의 해결을 위해서 슬레이브 장치의 상태를 고려하여, 슬레이브 장치마다 서로 다른 기준으로, 마스터 장치와 함께 재생 지연 시간을 조절하여, 재생 동기화 수행이 필요하다.In this case, in the case of a slave device having a large clock drift from the master clock, or a slave device having low mechanical specifications and small available resources, the time available for regeneration sync is relatively short within a limited regeneration duty cycle. In order to solve this problem, it is necessary to perform playback synchronization by adjusting the playback delay time together with the master device based on different standards for each slave device in consideration of the state of the slave device.
선행특허 1(KR 10-2017-0016413 A, 2017.02.13. 공개)는 재생 동기화 방법에 관한 선행기술로서, 제1 디바이스가 재생 스케줄에 따라 컨텐츠를 재생하고, 제2 디바이스도 재생 스케줄에 따른 재생이 가능하도록 제2 디바이스에 재생 스케줄을 전송하는 것이다. Prior Patent 1 (KR 10-2017-0016413 A, published on February 13, 2017) is a prior art relating to a reproduction synchronization method, wherein a first device reproduces content according to a reproduction schedule, and a second device also reproduces contents according to the reproduction schedule To make this possible, the playback schedule is transmitted to the second device.
선행특허 2(KR 10-2017-0044922 A, 2017.04.26)는 멀티스크린 장치간 콘텐츠 동기화 재생 방법에 관한 선행기술로서, 제 1 멀티 스크린 장치가 제 2 멀티 스크린 장치로 동기화를 위한 콘텐츠를 요청하고, 상기 제 2 멀티 스크린 장치가 제 1 멀티 스크린 장치로 콘텐츠 및 동기정보를 제공하면, 상기 동기정보를 이용하여 상기 제 1 멀티 스크린 장치에서 콘텐츠 동기화 재생을 수행하는 것이 개시되어 있다. Prior Patent 2 (KR 10-2017-0044922 A, 2017.04.26) relates to a method for synchronizing content between multi-screen devices, in which a first multi-screen device requests content for synchronization to a second multi-screen device and , when the second multi-screen device provides content and synchronization information to the first multi-screen device, the first multi-screen device performs synchronized reproduction of content by using the synchronization information.
그러나 선행특허 1과 2를 살펴보면, 종래와 같이 어느 하나의 장치가 동기화 정보를 다른 장치로 전송함으로써, 복수의 장치가 콘텐츠 동기화를 하고 있을 뿐, 각 장치별로 서로 다른 기계사양과 가용 리소스와 같은 특성을 반영하면서 복수의 장치의 지연시간을 줄이고 있지는 못하는 실정이다.However, looking at
따라서, 본 발명이 해결하고자 하는 첫 번째 과제는 슬레이브 장치와 마스터 장치를 포함한 커넥티드 장치들이 스윗 스팟으로부터 각각 다른 거리만큼 떨어져 있는 경우에도 시청자가 커넥티드 장치들로부터 같은 비디오와 오디오를 시청할 수 있는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법을 제공하는 것이다.Therefore, the first problem to be solved by the present invention is a digital method that allows a viewer to watch the same video and audio from the connected devices even when the connected devices including the slave device and the master device are separated by different distances from the sweet spot. It is to provide a way to synchronize the video and audio playback of content.
본 발명이 해결하고자 하는 두 번째 과제는 커넥티드 장치의 이동 속도를 고려하여 디지털 콘텐츠의 샘플링 레이트를 동적으로 조정함으로써, 스윗 스팟까지의 오디오 도달시간에 영향을 미치는 도플러 효과를 제거할 수 있는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치를 제공하는 것이다.The second problem to be solved by the present invention is digital content that can remove the Doppler effect that affects the audio arrival time to the sweet spot by dynamically adjusting the sampling rate of the digital content in consideration of the moving speed of the connected device. to provide a connected device that synchronizes video and audio playback of
또한, 상기된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.Another object of the present invention is to provide a computer-readable recording medium in which a program for executing the above-described method is recorded on a computer.
본 발명은 상기 첫 번째 과제를 달성하기 위하여, 네트워크에 연결된 복수의 커넥티드 장치가 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 마스터 장치로 전송하는 단계; 비디오 재생 듀티 사이클 동안 비디오 재생 지연 시간 리스트 또는 비디오 재생 싱크 타임스탬프를 수신하는 단계; 오디오 재생 듀티 사이클 동안 가상 동기화 오디오 지연거리, 커넥티드 장치들의 오디오 지연거리, 스윗 스팟 위치, 오디오 재생 지연 시간 리스트 또는 오디오 재생 싱크 타임스탬프 중 적어도 하나 이상을 수신하는 단계; 상기 비디오 재생 듀티 사이클 동안 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간 보정량을 결정하고, 상기 비디오 재생 지연 시간 보정량을 고려하여 상기 비디오 재생 싱크 타임스탬프를 보정하는 단계; 및 상기 오디오 재생 듀티 사이클 동안 상기 가상 동기화 오디오 지연거리, 상기 커텍티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 상기 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정하는 단계를 포함하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법을 제공한다.In order to achieve the first object of the present invention, a plurality of connected devices connected to the network transmit video playback delay time, audio playback delay time and location information to a master device; receiving a video playback delay time list or a video playback sync timestamp during a video playback duty cycle; receiving at least one of a virtual synchronization audio delay distance, an audio delay distance of connected devices, a sweet spot location, an audio playback delay time list, or an audio playback sync timestamp during an audio playback duty cycle; determining a video reproduction delay time correction amount from the video reproduction delay time list during the video reproduction duty cycle, and correcting the video reproduction sync timestamp in consideration of the video reproduction delay time correction amount; and an audio reproduction delay time correction amount determined using at least one of the virtual synchronization audio delay distance, the audio delay distance of the connected devices, the sweet spot location, and the audio reproduction delay time list during the audio reproduction duty cycle. A method of synchronizing video and audio playback of digital content is provided, comprising correcting an audio playback sync timestamp.
본 발명의 일 실시 예에 의하면, 상기 가상 동기화 오디오 지연거리는 적어도 하나 이상의 스윗 스팟 위치와 복수의 커넥티드 장치들의 상대적인 위치차의 합을 최소로 만드는 거리를 고려하여 상기 스윗 스팟 위치 별로 결정되는 것이 바람직하다.According to an embodiment of the present invention, the virtual synchronization audio delay distance is preferably determined for each sweet spot position in consideration of a distance that minimizes the sum of the relative position differences between at least one or more sweet spot positions and a plurality of connected devices. do.
또한, 상기 복수의 커넥티드 장치들 또는 상기 마스터 장치 중 적어도 하나의 장치에 포함된 지향성 서브 스피커들을 활성화시키는 단계를 더 포함하고, 상기 지향성 서브 스피커들은 상기 적어도 하나 이상의 스윗 스팟 위치들 중 적어도 하나의 방향으로 배치될 수 있다.The method may further include activating directional sub-speakers included in at least one of the plurality of connected devices or the master device, wherein the directional sub-speakers are selected from at least one of the at least one or more sweet spot positions. direction can be placed.
상기 복수의 커넥티드 장치들 또는 상기 마스터 장치와 각 스윗 스팟 위치 간의 상대적인 거리 변화가 있는 경우, 오디오의 동기화를 위해 상기 복수의 커넥티드 장치들 또는 상기 마스터 장치가 출력하는 오디오 콘텐츠의 주파수를 조정하는 단계를 더 포함하는 것이 바람직하다.When there is a change in the relative distance between the plurality of connected devices or the master device and each sweet spot location, adjusting the frequency of audio content output by the plurality of connected devices or the master device for audio synchronization It is preferred to further include a step.
본 발명의 다른 실시 예에 의하면, 네트워크에 연결된 마스터 장치가 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 커넥티드 장치들로부터 수신하는 단계; 상기 커넥티드 장치들로부터 수신한 비디오 재생 지연 시간의 리스트 및 상기 비디오 재생 지연 시간 리스트로부터 생성된 비디오 재생 싱크 타임스탬프를 상기 커넥티드 장치들로 전송하는 단계; 및 상기 커넥티드 장치들로부터 수신한 위치 정보를 이용하여 생성된 가상 동기화 오디오 지연거리, 오디오 재생 싱크 타임스탬프, 각 커넥티드 장치의 오디오 지연거리, 스윗 스팟 위치, 또는 오디오 재생 지연시간 리스트를 상기 커넥티드 장치들로 전송하는 단계를 포함하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법을 제공한다.According to another embodiment of the present invention, the method comprising: receiving, by a master device connected to a network, video playback delay time, audio playback delay time, and location information from the connected devices; transmitting a list of video playback delay times received from the connected devices and a video playback sync timestamp generated from the list of video playback delay times to the connected devices; and a virtual synchronization audio delay distance, audio playback sync timestamp, audio delay distance, sweet spot location, or audio playback delay time list of each connected device generated using the location information received from the connected devices to the connected device. A method of synchronizing video and audio playback of digital content is provided, comprising the step of transmitting to digital devices.
본 발명의 또 다른 실시 예에 의하면, 네트워크에 연결된 복수의 슬레이브 장치가 각각의 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 마스터 장치로 전송하는 단계; 상기 마스터 장치는 상기 슬레이브 장치들로부터 수신한 비디오 재생 지연 시간을 이용하여 비디오 재생 지연 시간 리스트를 생성하고, 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 싱크 타임스탬프를 생성하는 단계; 상기 마스터 장치는 상기 슬레이브 장치들로부터 수신한 위치 정보를 이용하여 가상 동기화 오디오 지연거리를 생성하고, 상기 생성된 가상 동기화 오디오 지연거리를 이용하여 오디오 재생 싱크 타임스탬프를 생성하는 단계; 상기 슬레이브 장치들이 상기 마스터 장치로부터 비디오 재생 듀티 사이클마다 상기 비디오 재생 지연 시간 리스트 또는 상기 비디오 재생 싱크 타임스탬프를 수신하는 단계; 상기 슬레이브 장치들이 상기 마스터 장치로부터 상기 가상 동기화 오디오 지연거리, 상기 오디오 재생 싱크 타임스탬프, 각 장치의 오디오 지연거리, 스윗 스팟 위치, 또는 오디오 재생 지연시간 리스트 중 적어도 하나를 수신하는 단계; 상기 슬레이브 장치들은 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간 보정량을 각각 결정하고, 상기 비디오 재생 지연 시간 보정량을 고려하여 각각의 비디오 재생 싱크 타임스탬프를 보정하는 단계; 및 상기 가상 동기화 오디오 지연거리, 마스터 장치와 슬레이브 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정하는 단계를 포함하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법을 제공한다.According to another embodiment of the present invention, the method comprising: transmitting, by a plurality of slave devices connected to a network, respective video playback delay time, audio playback delay time, and location information to the master device; generating, by the master device, a video playback delay time list using the video playback delay times received from the slave devices, and generating a video playback sync timestamp from the video playback delay time list; generating, by the master device, a virtual synchronization audio delay distance using the location information received from the slave devices, and generating an audio reproduction sync timestamp using the generated virtual synchronization audio delay distance; receiving, by the slave devices, the video playback delay time list or the video playback sync timestamp for each video playback duty cycle from the master device; receiving, by the slave devices, at least one of the virtual synchronization audio delay distance, the audio playback sync timestamp, the audio delay distance of each device, a sweet spot location, and an audio playback delay time list from the master device; determining, by the slave devices, a video reproduction delay time correction amount from the video reproduction delay time list, and correcting each video reproduction sync timestamp in consideration of the video reproduction delay time correction amount; and an audio reproduction delay time correction amount determined using at least one of the virtual synchronization audio delay distance, the audio delay distance between the master device and the slave devices, the sweet spot location, or the audio reproduction delay time list. A method of synchronizing video and audio playback of digital content is provided, comprising the step of calibrating.
한편, 상기 스윗 스팟이 하나 이상 존재하는 경우, 모든 스윗 스팟이 일정 반경내에 오디오 반사파가 발생할 수 있는 위치로 결정되거나, 일정 반경내에 오디오 반사파가 발생할 수 없는 위치로 결정되는 것이 바람직하다.On the other hand, when one or more sweet spots exist, it is preferable that all sweet spots are determined as positions where audio reflection waves can be generated within a certain radius, or locations where audio reflection waves cannot be generated within a certain radius.
본 발명은 상기 두 번째 과제를 달성하기 위하여, 네트워크에 연결된 커넥티드 장치가 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 마스터 장치로 전송하는 전송부; 비디오 재생 듀티 사이클 동안 비디오 재생 지연 시간 리스트 또는 비디오 재생 싱크 타임스탬프를 수신하고, 오디오 재생 듀티 사이클 동안 가상 동기화 오디오 지연거리, 커넥티드 장치들의 오디오 지연거리, 스윗 스팟 위치, 오디오 재생 지연 시간 리스트 또는 오디오 재생 싱크 타임스탬프 중 적어도 하나 이상을 수신하는 수신부; 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간 보정량을 결정하는 비디오 재생 지연시간 보정량 결정부; 상기 비디오 재생 지연 시간 보정량을 고려하여 상기 비디오 재생 싱크 타임스탬프를 보정하는 비디오 타임스탬프 보정부; 및 상기 오디오 재생 듀티 사이클 동안 상기 가상 동기화 오디오 지연거리, 상기 커텍티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정하는 오디오 타임스탬프 보정부를 포함하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치를 제공한다.In order to achieve the second object of the present invention, the connected device connected to the network transmits the video playback delay time, audio playback delay time and location information to the master device; Receive video playback latency list or video playback sync timestamp during video playback duty cycle, virtual sync audio latency during audio playback duty cycle, audio latency of connected devices, sweet spot location, audio playback latency list or audio a receiving unit for receiving at least one of reproduction sync timestamps; a video reproduction delay time correction amount determining unit for determining a video reproduction delay time correction amount from the video reproduction delay time list; a video timestamp correcting unit for correcting the video reproduction sync timestamp in consideration of the video reproduction delay time correction amount; and an audio reproduction delay time correction amount determined using at least one of the virtual synchronization audio delay distance, the audio delay distance of the connected devices, the sweet spot location, and the audio reproduction delay time list during the audio reproduction duty cycle. Provided is a connected device for synchronizing video and audio playback of digital content, including an audio timestamp corrector for correcting a playback sync timestamp.
상기 가상 동기화 오디오 지연거리는 적어도 하나 이상의 스윗 스팟 위치와 커넥티드 장치들의 상대적인 위치를 고려하여 상기 스윗 스팟 위치 별로 결정되는 것이 바람직하다.Preferably, the virtual synchronization audio delay distance is determined for each sweet spot position in consideration of the relative positions of at least one or more sweet spot positions and connected devices.
상기 커넥티드 장치에 포함된 지향성 서브 스피커들은 상기 적어도 하나 이상의 스윗 스팟 위치들 중 적어도 하나의 방향으로 배치될 수 있다.The directional sub-speakers included in the connected device may be disposed in at least one direction among the one or more sweet spot positions.
또한, 상기 커넥티드 장치와 각 스윗 스팟 위치 간의 상대적인 거리 변화가 있는 경우, 각 스윗 스팟에서 듣는 오디오의 동기화를 위해 상기 커넥티드 장치가 출력하는 오디오 콘텐츠의 주파수를 조정하는 오디오 샘플링 레이트 결정부를 더 포함할 수 있다.In addition, when there is a change in the relative distance between the connected device and each sweet spot location, the audio sampling rate determining unit further includes an audio sampling rate determining unit that adjusts the frequency of the audio content output by the connected device to synchronize the audio heard at each sweet spot. can do.
본 발명의 다른 실시 예에 의하면, 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 네트워크에 연결된 커넥티드 장치들로부터 수신하는 수신부; 상기 커넥티드 장치들로부터 수신한 비디오 재생 지연 시간의 리스트 및 상기 재생 지연 시간 리스트로부터 생성된 비디오 재생 싱크 타임스탬프를 상기 커넥티드 장치들로 전송하는 전송부; 상기 커넥티드 장치들로부터 수신한 위치 정보를 이용하여 가상 동기화 오디오 지연거리를 생성하는 가상 동기화 지연거리 생성부; 및 상기 생성된 가상 동기화 오디오 지연거리를 이용하여 오디오 재생 싱크 타임스탬프를 생성하는 오디오 재생싱크 타임스탬프 생성부; 상기 전송부는 상기 가상 동기화 오디오 지연거리, 상기 오디오 재생 싱크 타임스탬프, 각 장치의 오디오 지연거리, 스윗 스팟 위치, 또는 오디오 재생 지연시간 리스트를 상기 커넥티드 장치들로 전송하는 것을 특징으로 하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치를 제공한다.According to another embodiment of the present invention, a receiving unit for receiving video playback delay time, audio playback delay time, and location information from connected devices connected to a network; a transmitter configured to transmit a list of video playback delay times received from the connected devices and a video playback sync timestamp generated from the list of playback delay times to the connected devices; a virtual synchronization delay distance generator for generating a virtual synchronization audio delay distance by using the location information received from the connected devices; and an audio playback sync timestamp generator for generating an audio playback sync timestamp by using the generated virtual synchronization audio delay distance. The transmitting unit transmits the virtual synchronization audio delay distance, the audio reproduction sync timestamp, the audio delay distance of each device, the sweet spot location, or the audio reproduction delay time list to the connected devices. Provides connected devices to synchronize video and audio playback.
본 발명의 또 다른 실시 예에 의하면, 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 마스터 장치로 전송하는 전송부; 상기 마스터 장치로부터 비디오 재생 듀티 사이클 동안 상기 비디오 재생 지연 시간 리스트 또는 상기 비디오 재생 싱크 타임스탬프를 수신하고, 오디오 재생 듀티 사이클 동안 상기 마스터 장치로부터 가상 동기화 오디오 지연거리가상 동기화 오디오 지연거리, 커넥티드 장치들의 오디오 지연거리, 스윗 스팟 위치, 오디오 재생 지연 시간 리스트 또는 오디오 재생 싱크 타임스탬프 중 적어도 하나를 수신하는 수신부; 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간 보정량을 결정하는 비디오 재생지연시간 보정량 결정부; 상기 비디오 재생 지연 시간 보정량을 고려하여 상기 비디오 재생 싱크 타임스탬프를 보정하는 비디오 타임스탬부 보정부; 및 상기 오디오 재생 듀티 사이클 동안 상기 가상 동기화 오디오 지연거리, 상기 커텍티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정하는 오디오 타임스탬프 보정부를 포함하는 적어도 하나 이상의 커넥티드 장치; 및 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 상기 적어도 하나 이상의 커넥티드 장치로부터 수신하는 수신부; 상기 적어도 하나 이상의 커넥티드 장치들로부터 수신한 비디오 재생 지연 시간으로부터 비디오 재생 지연 시간 리스트를 생성하는 재생지연시간 리스트 생성부; 상기 생성된 비디오 재생 지연 시간 리스트로부터 비디오 재생 싱크 타임스탬프를 생성하는 비디오 재생싱크 타임스탬프 생성부; 상기 적어도 하나 이상의 커넥티드 장치들로부터 수신한 위치 정보와 상기 스윗 스팟 위치를 이용하여 가상 동기화 오디오 지연거리를 생성하는 가상 동기화 지연거리 생성부; 상기 생성된 가상 동기화 오디오 지연거리를 이용하여 오디오 재생 싱크 타임스탬프를 생성하는 오디오 재생싱크 타임스탬프 생성부; 및 상기 생성된 비디오 재생 싱크 타임스탬프 및 상기 오디오 재생 싱크 타임스탬프를 상기 적어도 하나 이상의 커넥티드 장치로 전송하는 전송부를 포함하는 마스터 장치를 포함하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 시스템을 제공한다.According to another embodiment of the present invention, a transmission unit for transmitting a video reproduction delay time, an audio reproduction delay time and location information to the master device; Receive the video playback delay time list or the video playback sync timestamp from the master device during video playback duty cycle, virtual sync audio delay distance from the master device during audio playback duty cycle, virtual sync audio latency distance, of connected devices a receiver for receiving at least one of an audio delay distance, a sweet spot location, an audio reproduction delay time list, and an audio reproduction sync timestamp; a video reproduction delay time correction amount determining unit for determining a video reproduction delay time correction amount from the video reproduction delay time list; a video timestamp correction unit for correcting the video playback sync timestamp in consideration of the video playback delay time correction amount; and an audio reproduction delay time correction amount determined using at least one of the virtual synchronization audio delay distance, the audio delay distance of the connected devices, the sweet spot location, and the audio reproduction delay time list during the audio reproduction duty cycle. at least one connected device including an audio timestamp corrector for correcting a reproduction sync timestamp; and a receiving unit for receiving video reproduction delay time, audio reproduction delay time, and location information from the at least one or more connected devices. a reproduction delay time list generator for generating a video reproduction delay time list from the video reproduction delay times received from the at least one or more connected devices; a video playback sync timestamp generator for generating a video playback sync timestamp from the generated video playback delay time list; a virtual synchronization delay distance generator for generating a virtual synchronization audio delay distance using the location information received from the at least one or more connected devices and the location of the sweet spot; an audio playback sync timestamp generator for generating an audio playback sync timestamp by using the generated virtual synchronization audio delay distance; and a transmission unit configured to transmit the generated video playback sync timestamp and the audio playback sync timestamp to the at least one or more connected devices. .
상기 다른 기술적 과제를 해결하기 위하여, 본 발명은 상기된 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.In order to solve the other technical problem, the present invention provides a computer-readable recording medium in which a program for executing the above-described method for synchronizing video and audio reproduction of digital content is recorded in a computer.
본 발명에 따르면, 슬레이브 장치와 마스터 장치를 포함한 커넥티드 장치들이 스윗 스팟으로부터 각각 다른 거리만큼 떨어져 있는 경우에도 시청자가 커넥티드 장치들로부터 같은 비디오와 오디오를 시청할 수 있다.According to the present invention, even when the connected devices including the slave device and the master device are separated by different distances from the sweet spot, the viewer can watch the same video and audio from the connected devices.
또한, 본 발명에 따르면, 커넥티드 장치의 이동 속도를 고려하여 디지털 콘텐츠의 샘플링 레이트를 동적으로 조정함으로써, 스윗 스팟까지의 오디오 도달시간에 영향을 미치는 도플러 효과를 제거할 수 있다.In addition, according to the present invention, the Doppler effect affecting the audio arrival time to the sweet spot can be removed by dynamically adjusting the sampling rate of the digital content in consideration of the moving speed of the connected device.
도 1은 본 발명의 일 실시예에 따른 커넥티드 장치 간 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 과정을 도시한 것이다.
도 2는 네트워크로 연결된 마스터 장치와 슬레이브 장치들 간의 클락 정보를 도시한 것이다.
도 3은 본 발명의 바람직한 일 실시 예에 따른 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치를 나타낸 블록도이다.
도 4는 본 발명의 바람직한 일 실시 예에 따른 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 마스터 장치를 나타낸 블록도이다.
도 5는 복수의 커넥티드 장치에서 스윗 스팟 위치를 기준으로 비디오 및 오디오 동기화를 수행하는 경우를 도시한 것이다.
도 6은 커넥티드 장치와 스윗 스팟의 상대적인 움직임에 따른 주파수 변화를 도시한 것이다.
도 7은 음원이 이동함에 따른 파장의 길이변화를 나타낸 것이다.
도 8은 본 발명의 바람직한 일 실시 예에 따른 슬레이브 장치에서 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법의 흐름도이다.
도 9는 본 발명의 바람직한 일 실시 예에 따른 마스터 장치가 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법의 흐름도이다.
도 10은 본 발명의 바람직한 다른 실시 예에 따른 슬레이브 장치에서 디지털 콘텐츠의 비디오 재생 동기화를 맞추는 방법의 흐름도이다.
도 11은 본 발명의 바람직한 다른 실시 예에 따른 마스터 장치에서 디지털 콘텐츠의 비디오 재생 동기화를 맞추는 방법의 흐름도이다.
도 12는 스윗 스팟 주변의 재생 사운드 환경을 고려하는 경우이다. 1 illustrates a process of synchronizing video and audio reproduction of digital content between connected devices according to an embodiment of the present invention.
2 illustrates clock information between a master device and slave devices connected through a network.
3 is a block diagram illustrating a connected device for synchronizing video and audio reproduction of digital content according to an exemplary embodiment of the present invention.
4 is a block diagram illustrating a master device for synchronizing video and audio reproduction of digital content according to an exemplary embodiment of the present invention.
5 is a diagram illustrating a case in which video and audio synchronization is performed based on a sweet spot location in a plurality of connected devices.
6 illustrates a frequency change according to the relative movement of the connected device and the sweet spot.
7 shows the change in the length of the wavelength as the sound source moves.
8 is a flowchart of a method for synchronizing video and audio reproduction of digital content in a slave device according to an exemplary embodiment of the present invention.
9 is a flowchart of a method for a master device to synchronize video and audio reproduction of digital content according to an exemplary embodiment of the present invention.
10 is a flowchart of a method of synchronizing video playback of digital content in a slave device according to another preferred embodiment of the present invention.
11 is a flowchart of a method for synchronizing video playback of digital content in a master device according to another preferred embodiment of the present invention.
12 is a case in which a reproduction sound environment around a sweet spot is considered.
복수의 커넥티드 장치에서 동일한 오디오를 재생하는 경우, 청취자에 위치에 따라서 오디오 재생 지연이 발생하고, 결과적으로 오디오 하울링(sound howling, 동기화가 맞지 않아 발생하는 잡음)이 발생한다. 따라서 이러한 오디오 하울링을 제거하기 위해서는, 모든 커넥티드 장치간의 오디오 재생시간 동기화가 필요하다. When the same audio is reproduced by a plurality of connected devices, an audio reproduction delay occurs depending on the position of the listener, and as a result, audio howling (noise generated due to out of synchronization) occurs. Therefore, in order to eliminate such audio howling, it is necessary to synchronize audio playback time between all connected devices.
오디오 하울링이 제거된 청취자의 위치인 스윗 스팟(sweet spot)이 선정되면, 모든 오디오 재생기기의 위치와 스윗 스팟까지의 오디오가 도달하는 시간을 고려하여 인위적인 오디오 재생 지연을 생성하는 것이 바람직하다. When a sweet spot, which is the position of the listener from which the audio howling is removed, is selected, it is preferable to generate an artificial audio reproduction delay in consideration of the positions of all audio reproducing devices and the arrival time of audio to the sweet spot.
결과적으로 영상 시청자에게 다수의 커넥티드 장치에서 동일한 비디오를 보여주고, 영상 시청자와 커넥티드 장치의 위치정보를 고려하여 오디오 지연시간(audio delay time)을 조정함으로써, 시청자가 잡음없는 오디오를 들을 수 있도록 할 필요가 있다. As a result, by showing the same video on multiple connected devices to the video viewer and adjusting the audio delay time in consideration of the location information of the video viewer and the connected device, the viewer can hear noise-free audio. Needs to be.
또한 최근에는 AI 스피커와 같이 하나의 스피커에 다수의 방향성 스피커(directional speaker)가 내장되어 있는 스피커가 출시되고 있다. 따라서 상기 방향성 스피커를 이용하면 하나의 스피커에서도 복수의 스윗 스팟을 고려하여 오디오 동기화가 가능하다. 또한 커넥티드 장치가 모바일 장치인 경우, 움직임을 고려해야 하므로, 상호 움직임을 고려하여, 도플러 효과(Doppler-effect)를 고려하여 오디오 동기화가 필요하다.Also, recently, a speaker in which a plurality of directional speakers are built in one speaker, such as an AI speaker, has been released. Therefore, if the directional speaker is used, audio synchronization is possible in consideration of a plurality of sweet spots even in one speaker. In addition, when the connected device is a mobile device, since movement must be considered, audio synchronization is required in consideration of mutual movement and the Doppler-effect.
이하 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 바람직한 실시 예를 상세히 설명한다. 그러나 이들 실시 예는 본 발명을 보다 구체적으로 설명하기 위한 것으로, 본 발명의 범위가 이에 의하여 제한되지 않는다는 것은 당업계의 통상의 지식을 가진 자에게 자명할 것이다. Hereinafter, with reference to the accompanying drawings, a preferred embodiment in which a person of ordinary skill in the art to which the present invention pertains can easily practice the present invention will be described in detail. However, these examples are for explaining the present invention in more detail, it will be apparent to those skilled in the art that the scope of the present invention is not limited thereby.
본 발명이 해결하고자 하는 과제의 해결 방안을 명확하게 하기 위한 발명의 구성을 본 발명의 바람직한 실시 예에 근거하여 첨부 도면을 참조하여 상세히 설명하되, 도면의 구성요소들에 참조번호를 부여함에 있어서 동일 구성요소에 대해서는 비록 다른 도면상에 있더라도 동일 참조번호를 부여하였으며 당해 도면에 대한 설명시 필요한 경우 다른 도면의 구성요소를 인용할 수 있음을 미리 밝혀둔다. 아울러 본 발명의 바람직한 실시 예에 대한 동작 원리를 상세하게 설명함에 있어 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명 그리고 그 이외의 제반 사항이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The configuration of the invention for clarifying the solution of the problem to be solved by the present invention will be described in detail with reference to the accompanying drawings based on a preferred embodiment of the present invention, but the same in assigning reference numbers to the components of the drawings For the components, even if they are on different drawings, the same reference numbers are given, and it is noted in advance that the components of other drawings can be cited when necessary in the description of the drawings. In addition, when it is determined that detailed descriptions of well-known functions or configurations related to the present invention and other matters may unnecessarily obscure the gist of the present invention in explaining the operating principle of the preferred embodiment of the present invention in detail, A detailed description thereof will be omitted.
도 1은 본 발명의 일 실시예에 따른 커넥티드 장치 간 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 과정을 도시한 것이다.1 illustrates a process of synchronizing video and audio reproduction of digital content between connected devices according to an embodiment of the present invention.
도 1을 참조하면, 마스터 장치(100)와 복수의 슬레이브 장치(200, 제1 슬레이브 장치~제n 슬레이브 장치) 간에 네트워크로 연결되어 있는 상태에서 동기화를 위한 정보를 송수신하고 있다.Referring to FIG. 1 , information for synchronization is transmitted and received in a state in which a
110 단계에서 복수의 슬레이브 장치(200)는 네트워크로 연결된 마스터 장치(100)로 비디오 재생 지연 시간 정보와 오디오 재생 지연 시간 정보를 전송한다. 네트워크를 통해 슬레이브 장치와 슬레이브 장치, 슬레이브 장치와 마스터 장치 사이에 무선 연결되어 있으므로, 복수의 슬레이브 장치(200)는 커넥티드 장치가 될 수 있다. 또한, 상기 커넥티드 장치는 마스터 장치를 포함할 수 있다. 각각의 슬레이브 장치의 비디오 또는 오디오 재생 듀티 사이클은 재생하는 콘텐츠의 프레임 레이트를 고려하여 결정되는 것이 바람직하다.In
120 단계에서 복수의 슬레이브 장치(200)는 각 슬레이브 장치의 위치 정보를 마스터 장치로 전송한다.In step 120, the plurality of
130 단계에서 마스터 장치(100)는 110 단계에서 수신한 비디오 재생 지연 시간 정보를 이용하여 전체 슬레이브 장치(200)의 비디오 재생 지연 시간 리스트 정보 및 비디오 재생 싱크 타임스탬프를 생성한다.In step 130 , the
135 단계에서 마스터 장치(100)는 120 단계에서 수신한 위치 정보와 오디오 재생 지연 시간을 이용하여 가상 동기화 오디오 지연거리, 스윗 스팟 위치, 각 슬레이브 장치의 오디오 지연거리, 오디오 재생 지연 시간 리스트 또는 오디오 재생 싱크 타임스탬프를 생성한다.In step 135, the
140 단계에서 각 슬레이브 장치(200)는 마스터 장치(100)로부터 상기 생성된 비디오 재생 지연 시간 리스트 정보 및 비디오 재생 싱크 타임스탬프를 수신한다.In step 140 , each
150 단계에서 각 슬레이브 장치(200)는 마스터 장치(100)로부터 상기 생성된 가상 동기화 오디오 지연거리, 스윗 스팟 위치, 각 슬레이브 장치의 오디오 지연거리, 오디오 재생 지연 시간 리스트 또는 오디오 재생 싱크 타임스탬프를 수신한다.In step 150, each
160 단계에서 각 슬레이브 장치(200)는 마스터 장치(100)에서 수신한 비디오 재생 지연 시간 리스트 및 비디오 재생 듀티 사이클을 이용하여, 비디오 재생 지연 시간 보정량을 상기 비디오 재생 듀티 사이클 내에서 결정한다. 상기 비디오 재생 지연 시간 리스트로부터 리스트에 있는 마스터 장치의 재생 지연 시간과 각각의 슬레이브 재생 지연 시간의 차이를 나타내는 델타 재생 지연 시간 리스트가 생성될 수 있다.In step 160 , each
170 단계에서 각 슬레이브 장치(200)는 상기 비디오 재생 지연 시간 보정량을 고려하여 상기 비디오 재생 싱크 타임스탬프를 보정 한다. 비디오 재생 싱크 타임스탬프를 보정한이후에도 각 슬레이브 장치의 재생 지연 시간의 시간 차이는 재생 듀티 사이클 내에서 이루어지는 것이 바람직하다.In step 170, each
180 단계에서 각 슬레이브 장치(200)는 상기 오디오 재생 듀티 사이클 동안 가상 동기화 오디오 지연거리, 상기 커텍티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정한다.In step 180, each
비디오 데이터를 포함한 디지털 콘텐츠가 특정 비디오 타임스탬프에 비디오가 동기화되어 재생되도록 설정되면, 상기 비디오 타임스탬프, 왓쳐(watcher)의 위치, 또는 각 슬레이브 장치의 위치를 고려하여, 오디오 재생 시간을 결정하는 것이 바람직하다. 이때 각 슬레이브 장치는 오디오 지연 시간(audio-delay-time)을 적용함으로써, 리스너에게 전달되는 오디오 도달시간의 차이를 제거할 수 있다.When digital content including video data is set to be played in synchronization with video to a specific video timestamp, determining the audio playback time in consideration of the video timestamp, the position of a watcher, or the position of each slave device desirable. In this case, each slave device may remove a difference in arrival time of audio delivered to a listener by applying an audio-delay-time.
190 단계에서 각 슬레이브 장치(200)는 도플러 효과를 고려하여 오디오 샘플링 레이트를 결정한다.In step 190, each
오디오 도달시간에 영향을 미치는 도플러 효과를 제거하기 위해, 현재 슬레이브 장치의 이동 속도를 고려하여 디지털 콘텐츠의 샘플링 레이트를 동적으로 조정하는 것이 바람직하다. 상기 샘플링 레이트의 조정은 이동하는 슬레이브 장치의 위치 변화에 따른 오디오 주파수의 변화를 보정할 수 있다.In order to remove the Doppler effect affecting the audio arrival time, it is desirable to dynamically adjust the sampling rate of the digital content in consideration of the moving speed of the current slave device. The adjustment of the sampling rate may correct a change in an audio frequency according to a change in a position of a moving slave device.
한편, 마스터 장치와 슬레이브 장치간에 디지털 콘텐츠의 재생 동기화 이후, 사용자의 피드백 신호를 수신하고, 재생 듀티 사이클 동안 피드백 신호의 송신이 이루어지면, 다수의 장치에서 발생할 수 있는 시간 지연없이 사용자 피드백을 효과적으로 처리할 수 있다.On the other hand, after the reproduction of digital content is synchronized between the master device and the slave device, the user's feedback signal is received and the feedback signal is transmitted during the reproduction duty cycle, and the user feedback is effectively processed without a time delay that may occur in multiple devices. can do.
도 2는 네트워크로 연결된 마스터 장치와 슬레이브 장치들 간의 클락 정보를 도시한 것이다. 2 illustrates clock information between a master device and slave devices connected through a network.
도 2를 참조하면, 마스터 장치는 마스터 클락(110)에 따라 디지털 콘텐츠를 재생하고, 슬레이브 장치는 각 슬레이브 로컬 클락(210, 220, 230, 및 240)에 따라 디지털 콘텐츠를 재생한다.Referring to FIG. 2 , the master device reproduces digital content according to the
마스터 장치의 마스터 클락(110)에서 특정 디지털 콘텐츠가 재생되는 시점을 111로 표시하고, 각 슬레이브 장치의 슬레이브 로컬 클락(210 내지 240)을 기준으로 특정 디지털 콘텐츠가 재생되는 시점을 211, 221, 231, 241로 표시하기로 한다.The time point at which a specific digital content is reproduced in the
도 2에 도시된 클락 정보를 참조하면, 마스터 장치보다 제1 슬레이브 장치와 제4 슬레이브 장치는 특정 디지털 콘텐츠가 빨리 재생되고, 제2 슬레이브 장치와 제3 슬레이브 장치는 늦게 재생되는 것을 나타낸다.Referring to the clock information shown in FIG. 2 , the first slave device and the fourth slave device reproduce specific digital content earlier than the master device, and the second slave device and the third slave device reproduce later.
비디오 재생 지연 시간은 마스터 장치 및 슬레이브 장치들에서 비디오 재생 듀티 사이클 동안 재생된 디지털 콘텐츠의 타임스탬프 정보를 고려하여 계산되는 것이 바람직하다. 즉, 마스터 장치 및 슬레이브 장치들은 각각의 클락 정보(210 내지 240)를 고려하여 비디오 재생 듀티 사이클 동안 재생된 디지털 콘텐츠의 타임스탬프의 차이를 계산하여 비디오 재생 지연 시간을 계산한다. The video reproduction delay time is preferably calculated in consideration of timestamp information of digital content reproduced during the video reproduction duty cycle in the master device and the slave devices. That is, the master device and the slave devices calculate the video playback delay time by calculating the difference in timestamps of digital content reproduced during the video playback duty cycle in consideration of the
즉, 비디오 재생 지연 시간은 하나의 비디오 재생 듀티 사이클 내에 존재하는, 또는 서로 다른 비디오 재생 듀티 사이클에 존재하는 디지털 콘텐츠의 두 개의 타임 스탬프 (A), (B)를 고려하여 아래와 같이 정의할 수 있다. 서로 다른 재생 듀티 사이클에 타임 스탬프가 존재하는 경우에는, 타임 스탬프 (A), (B) 차이값으로 어떤 재생 듀티 사이클에서 디지털 콘텐츠 재생 동기화가 이루어져야 하는지 계산될 수 있다.That is, the video playback delay time can be defined as follows in consideration of two time stamps (A) and (B) of digital content that exist within one video playback duty cycle or exist at different video playback duty cycles. . When time stamps exist at different reproduction duty cycles, the difference between time stamps (A) and (B) may be used to calculate at which reproduction duty cycle digital content reproduction synchronization should be performed.
재생 지연 시간 = ((제n 슬레이브 로컬 클락(디지털 콘텐츠의 타임 스탬프(B) - 제n 슬레이브 로컬 클락(디지털 콘텐츠의 타임 스탬프(A)) - ((디지털 콘텐츠의 타임스탬프(B) - 디지털 콘텐츠의 타임스탬프(A))가 된다.Playback delay time = ((nth slave local clock (time stamp (B) of digital content - nth slave local clock (time stamp (A) of digital content)) - ((time stamp (B) of digital content - digital content timestamp (A)).
상기 타임 스탬프(A), (B)는 하나의 재생 듀티 사이클 내에 존재하며, B가 A보다 큰 값을 갖는 경우이다.The time stamps (A) and (B) exist within one reproduction duty cycle, and B has a value greater than A.
타임 스탬프는 디지털 콘텐츠에 포함된 시간으로, 비디오 디지털 콘텐츠의 경우 특정 프레임을 재생하는 시간을 의미한다.A time stamp is a time included in digital content, and in the case of video digital content, it means a time to play a specific frame.
제n 슬레이브 로컬 클락(디지털 콘텐츠의 타임 스탬프(B)는 디지털 콘텐츠의 타임 스탬프 (B)가 재생되는 로컬 클락을 의미하므로, 제n 슬레이브 로컬 클락(디지털 콘텐츠의 타임 스탬프(B) - 제n 슬레이브 로컬 클락(디지털 콘텐츠의 타임 스탬프(A)는 제n 슬레이브 장치에서 타임 스탬프(B)와 타임스탬프(A)를 재생한 로컬 클락의 차를 나타낸다.The nth slave local clock (time stamp (B) of digital content means the local clock at which the timestamp (B) of digital content is reproduced, so the nth slave local clock (time stamp (B) of digital content - nth slave) The local clock (time stamp (A) of digital content indicates the difference between the time stamp (B) and the local clock reproduced from the timestamp (A) in the n-th slave device.
또한, 디지털 콘텐츠의 타임스탬프(B) - 디지털 콘텐츠의 타임스탬프(A)는 타임스탬프(B)와 타임스탬프(A)의 절대적 시간 차이를 나타낸다.In addition, timestamp (B) of digital content - timestamp (A) of digital content represents the absolute time difference between timestamp (B) and timestamp (A).
따라서, 재생 지연 시간은 두 개의 타임스탬프의 로컬 클럭의 차에 타임스탬프의 차를 반영함으로써, 계산될 수 있다.Accordingly, the reproduction delay time can be calculated by reflecting the difference of the timestamps to the difference of the local clocks of the two timestamps.
마스터 장치는 일정한 재생 듀티 사이클마다 슬레이브 장치에서 수신한 비디오 재생 지연 시간 리스트, 비디오 재생 지연 시간들 간의 시간 차이, 또는 델타 비디오 재생 지연 시간 리스트(마스터 비디오 재생 지연 시간과 각각의 슬레이브 비디오 재생 지연 시간의 차이를 말한다. 또는 각 장치 간의 재생 지연 시간의 차이의 합을 가장 작게 만드는 버추얼 마스터 장치를 선정하고, 버추얼 마스터 장치의 재생 지연 시간과 각 슬레이브 장치의 재생 지연 시간의 차이로 계산된 재생 지연 시간 리스트 말한다. 이러한 경우, 재생 지연 시간을 보정하기 위한 버추얼 마스터 장치는 듀티 사이클 마다 변경될 수 있다.) 중 적어도 하나 이상을 생성한 후, 모든 슬레이브 장치로 브로드캐스팅한다. 이때, 브로드캐스팅은 재생 듀티 사이클마다 반복적으로 이루어지는 것이 바람직하다.The master device receives the video playback delay time list, the time difference between the video playback delay times, or the delta video playback delay time list (the master video playback delay time and each slave video playback delay time Or, the virtual master device that minimizes the sum of the difference in playback delay time between each device is selected, and the playback delay time list calculated by the difference between the playback delay time of the virtual master device and the playback delay time of each slave device In this case, the virtual master device for correcting the playback delay time may be changed every duty cycle.) After generating at least one or more of the following, broadcast to all slave devices. In this case, it is preferable that the broadcasting is repeatedly performed for every reproduction duty cycle.
마스터 장치는 비디오 재생 지연 시간 리스트 정보를 이용하여 네트워크에 연결된 슬레이브 장치들이 재생 듀티 사이클 동안 재생 동기화의 문제가 없도록 비디오 재생 싱크 타임스탬프(playback sync timestamp)를 계산하여 브로드캐스팅하는 것이 바람직하다.Preferably, the master device calculates and broadcasts a video playback sync timestamp using the video playback delay time list information so that the slave devices connected to the network do not have a problem of playback synchronization during the playback duty cycle.
상기 브로드캐스팅된 비디오 재생 싱크 타임스탬프는 다음 재생 듀티 사이클 동안 디지털 콘텐츠에 재생 지연 시간을 적용하는 기준이 된다.The broadcast video playback sync timestamp is the basis for applying a playback delay time to digital content during the next playback duty cycle.
마스터 장치가 재생 싱크 타임 스탬프를 브로드캐스팅하는 이유는 각 슬레이브 장치의 재생 지연 시간 정보를 이용하여 몇 번의 재생 듀티 사이클 이후에 싱크를 맞추는 것이 효율적인지 확인할 수 있기 때문이다. 따라서, 마스터 장치가 모든 슬레이브 장치들의 재생 지연 시간을 이용하여 모든 장치의 재생 지연 시간 차이를 계산하고, 계산된 재생 지연 시간 차이가 하나의 재생 듀티 사이클 내에 포함되는 경우에는 추가적인 재생 지연 시간 보정이 필요하지 않으므로 마스터 장치가 재생 싱크 타임 스탬프를 브로드캐스팅할 필요가 없게 된다.The reason why the master device broadcasts the playback sync timestamp is that it can be checked whether it is efficient to synchronize after several playback duty cycles using playback delay time information of each slave device. Therefore, when the master device calculates the difference between the playback delay times of all devices using the playback delay times of all the slave devices, and the calculated playback delay time difference is included within one playback duty cycle, additional playback delay time correction is required. This eliminates the need for the master device to broadcast the playback sync timestamp.
그러나 마스터 장치가 재생 싱크 타임 스탬프를 브로드캐스팅할 필요가 없다고 할지라도 슬레이브 장치들은 각자의 재생 지연 시간을 스트로브 신호를 통해 마스터 장치로 보내 마스터 장치가 모니터링할 수 있도록 할 수 있다.However, even if the master device does not need to broadcast the playback sync timestamp, the slave devices can send their respective playback delay times to the master device via a strobe signal for monitoring by the master device.
반면, 슬레이브 장치는 수신한 비디오 재생 지연 시간 리스트 또는 델타 비디오 재생 지연 시간 리스트를 이용하여 슬레이브 장치의 비디오 재생 지연 시간 보정량을 계산할 수 있다.On the other hand, the slave device may calculate the video reproduction delay time correction amount of the slave device using the received video reproduction delay time list or delta video reproduction delay time list.
슬레이브 장치의 비디오 재생 지연 시간 보정량의 계산은 마스터 장치로부터 전달되는 비디오 재생 지연 시간 보정량이 아니라 각 슬레이브 장치에서 계산되는 것이 바람직하나, 마스터 장치로부터 비디오 재생 지연 시간 보정량이 전달되는 것도 가능하다.Calculation of the video reproduction delay time correction amount of the slave device is preferably calculated from each slave device rather than the video reproduction delay time correction amount transmitted from the master device, but it is also possible to transmit the video reproduction delay time correction amount from the master device.
도 2의 제3 슬레이브 로컬 클락(230)을 통해 비디오 재생 지연 시간, 및 비디오 재생 지연 시간 보정량을 보다 상세히 살펴보기로 한다.A video reproduction delay time and a video reproduction delay time correction amount through the third slave
제3 슬레이브 장치의 제3 슬레이브 로컬 클락(230)을 살펴보면, 비디오 재생 지연 시간(232)이 해당 듀티 사이클을 벗어나 있다.Looking at the third slave
이때, 제3 슬레이브 장치는 마스터 장치의 비디오 재생 지연 시간을 고려하여 비디오 재생 지연 시간 보정량을 계산하지 않고, 네트워크에 연결된 마스터 장치와 슬레이브 장치의 비디오 재생 지연 시간 차이 리스트 또는 델타 비디오 재생 지연 시간 리스트의 평균값을 이용하여 평균 재생 지연 시간을 계산할 수 있다. 상기 계산된 평균 재생 지연 시간(233)과 각 장치의 재생 지연 시간(232)과의 차(234)가 제3 슬레이브 장치의 재생 지연 시간 보정량(235)으로 적용될 수 있다.At this time, the third slave device does not calculate the video playback delay time correction amount in consideration of the video playback delay time of the master device, and does not calculate the video playback delay time difference list or delta video playback delay time list between the master device and the slave device connected to the network. An average playback delay time can be calculated using the average value. A
각 슬레이브 장치에서는 상기 재생 지연 시간 보정량 만큼 재생해야할 타임스탬프 정보를 보정해야 한다. 재생 시간 보정량이 큰 경우는, 재생 지연 시간이 큰 경우이므로, 다른 슬레이브 기기보다 이전의 디지털 컨텐츠의 타임 스탬프를 재생하고 있는 경우이다. 따라서 이러한 경우에는 재생할 디지털 컨텐츠를 다른 기기보다 미리 재생하는 것이 필요하다. 따라서 현재의 디지털 컨텐츠의 재생 위치, 즉 타임스탬프를 변경하여 저장한 후, 재생한다. Each slave device needs to correct timestamp information to be reproduced by the amount of the reproduction delay time correction amount. When the reproduction time correction amount is large, since the reproduction delay time is large, the time stamp of the digital content earlier than that of another slave device is being reproduced. Therefore, in this case, it is necessary to reproduce the digital content to be reproduced in advance than other devices. Therefore, the current playback position of digital content, that is, the timestamp is changed, stored, and then played.
그리고 일정 듀티 사이클마다, 이전에 계산된 타임스탬프와 현재 타임스탬프를 이용한 재생 로컬 클락을 계산하고, 재생 지연 시간을 계산하여 마스터 기기에 송신한다. 마스터 기기는 수신한 재생 지연 시간의 크기를 모니터링하여, 재생 동기화를 위한 브로드캐스팅 신호를 송신 여부를 결정할 수 있다.Then, every predetermined duty cycle, a reproduction local clock using the previously calculated timestamp and the current timestamp is calculated, and the reproduction delay time is calculated and transmitted to the master device. The master device may monitor the size of the received reproduction delay time and determine whether to transmit a broadcasting signal for reproduction synchronization.
다른 실시 예로서, 상기 평균 재생 지연 시간이 재생 지연 시간 보정량(235)으로 적용될 수 있다.As another embodiment, the average reproduction delay time may be applied as the reproduction delay
이 경우 마스터 장치도 슬레이브 장치에 적용된 비디오 재생 지연 시간 보정량과 동일한 보정량을 적용하게 되므로, 네트워크에 연결된 마스터 장치와 슬레이브 장치의 재생 시간 차이는 줄어들게 된다.In this case, the master device also applies the same correction amount as the video playback delay time correction amount applied to the slave device, so that the difference in playback time between the master device and the slave device connected to the network is reduced.
또한 이렇게 조정된 네트워크에 연결된 마스터 장치와 슬레이브 장치의 델타 비디오 재생 지연 시간 리스트에 있는 값들간의 모든 차이는 재생 듀티 사이클보다 보다 작아야 하고, 재생 듀티 사이클 내에서 조정되어야 한다. 따라서 재생 듀티 사이클 동안, 마스터 장치와 슬레이브 장치들간에 비동기적으로 비디오 재생시간의 시간 차이를 상대적으로 조정하므로, 다음 재생 듀티 사이클에서는 상대적인 시간 차이가 줄어들게 되고, 모든 장치들 간에 안정적으로 비디오 재생 동기화 수행이 가능하다. In addition, any difference between the values in the delta video playback delay time list of the master device and the slave device connected to this adjusted network must be less than the playback duty cycle and must be adjusted within the playback duty cycle. Therefore, during the playback duty cycle, since the time difference of the video playback time is adjusted asynchronously between the master device and the slave devices, the relative time difference is reduced in the next playback duty cycle, and video playback synchronization is stably performed between all devices. This is possible.
이러한 조건을 이용하여, 마스터 장치는 비디오 재생 싱크 타임스탬프(playback sync timestamp)를 설정할 수 있다. Using this condition, the master device may set a video playback sync timestamp.
제3 슬레이브 장치는 다른 장치들보다 긴 비디오 재생 지연 시간(232)을 가지므로, 마스터 장치가 설정한 비디오 재생 싱크 타임스탬프에 콘텐츠 프레임을 동기화하여 재생할 수 있는 가능성이 가장 낮다. 따라서 다수의 장치들에서 콘텐츠 재생 동기화 가능성을 높이기 위해, 비디오 재생 지연 시간 보정량을 최소화하기 위한 방법으로, 전체 재생 지연 시간 리스트의 시간 차이의 평균값을 사용하여 각각의 슬레이브 장치마다 비디오 재생 지연 시간 보정량을 계산하고, 또한 계산된 값이 재생 듀티 사이클 내에서 비디오 재생 지연 시간에 반영되도록 한다. 제3 슬레이브 로컬 클락(230)의 비디오 재생 지연 시간 보정량(235)이 재생 듀티 사이클을 벗어나는 경우, 재생 듀티 사이클 범위로 다시 조정된 것을 확인할 수 있다.Since the third slave device has a longer video
마스터 장치는 상기 비디오 재생 지연 시간 보정량 조건을 반영하여, 미리 정의된 재생 듀티 사이클 내에서 비디오 재생 싱크 타임스탬프를 선정할 수 있다. 제3 슬레이브 로컬 클락(230)의 비디오 재생 지연 시간(232) 보다 작은 비디오 재생 지연 시간 보정량(235)이 적용되었고, 상기 비디오 재생 지연 시간 보정량(235)은 재생 듀티 사이클 내로 조정된 경우이다. The master device may select a video reproduction sync timestamp within a predefined reproduction duty cycle by reflecting the video reproduction delay time correction amount condition. The video reproduction delay
따라서 제3 슬레이브 로컬 클락(230)의 경우 비디오 재생 듀티 사이클의 비디오 재생 싱크 타임스탬프로 재생하는 경우, 비디오 재생 지연 시간(235)이 발생하게 된다. 또한 마스터 장치의 경우에도 비디오 재생 지연 시간 보정량을 적용하였으므로, 전체적인 델타 비디오 재생 지연 시간 리스트의 평균값은 줄어들게 된다. Accordingly, in the case of the third slave
재생 듀티 사이클은 재생할 콘텐츠의 해상도 및 채널 정보를 이용하여 듀티 사이클을 조절할 수 있다. 콘텐츠의 해상도가 높고, 많은 채널 정보를 포함한 경우, 네트워크 장치마다 특정 재생시간에 콘텐츠를 재생할 수 있는 확률은 상대적으로 낮아진다. 따라서 재생 콘텐츠의 해상도가 높고, 채널수가 많을수록 재생 듀티 사이클은 상대적으로 길게 마스터 장치에서 설정할 수 있다. 도 2에서는 제2 재생 듀티 사이클은 제1 재생 듀티 사이클보다 길게 설정된 것이 도시되어 있다. 이러한 재생 듀티 사이클 정의는 재생 콘텐츠의 프레임 레이트 및 채널 정보를 이용하여 마스터 장치에서 설정될 수 있다.The reproduction duty cycle may be adjusted using the resolution and channel information of the content to be reproduced. When the resolution of the content is high and includes a lot of channel information, the probability that the content can be reproduced at a specific playback time for each network device is relatively low. Therefore, the higher the resolution of the reproduced content and the greater the number of channels, the longer the reproduction duty cycle can be set in the master device. 2 shows that the second regeneration duty cycle is set longer than the first regeneration duty cycle. Such a reproduction duty cycle definition may be set in the master device using the frame rate and channel information of the reproduction content.
비디오 재생 싱크 타임스탬프는 비디오 재생 지연 시간을 고려하여 마스터 장치(100)가 설정한 각 슬레이브 장치의 재생 동기화 시간이다.The video playback sync timestamp is a playback synchronization time of each slave device set by the
비디오 재생 지연 시간 보정량이 정해지면, 수신한 디지털 콘텐츠의 비디오 타임스탬프 값의 조정이 필요하고, 제3 슬레이브 장치는 비디오 재생 지연 시간 보정량(235)만큼 조정되어도, 다른 슬레이브 장치의 재생 지연 시간과의 차이가 발생한다. When the video playback delay time correction amount is determined, it is necessary to adjust the video timestamp value of the received digital content, and even if the third slave device is adjusted by the video playback delay
그러나 비디오 재생 듀티 사이클에서의 비디오 재생 지연 시간(235)은 이전의 재생 듀티 사이클에서 발생한 비디오 재생 지연 시간(232)보다 줄어들게 된다. 또한 비디오 재생 지연 시간 리스트에서의 시간 차이도 줄어들게 된다. 이후 상기 과정을 반복하면서 시간 차이가 일정 임계값을 만족하는 경우, 비디오 재생 동기화를 위한 트레이닝을 종료하거나 유보할 수 있다.However, the video
상기의 네트워크에 연결된 마스터 장치 또는 슬레이브 장치들 간의 비디오 재생 지연 시간 보정량 및 비디오 재생 싱크 타임스탬프 보정은 지속적으로 재생 듀티 사이클마다 이루어져야 하는데, 동기화를 위해서는 모든 장치간에 상기 비디오 재생 지연 시간 보정량을 계산하기 위한 트레이닝 기간이 필요하다. The video playback delay time correction amount and the video playback sync timestamp correction between the master device or slave devices connected to the network should be continuously performed every playback duty cycle. For synchronization, it is necessary to calculate the video playback delay time compensation amount between all devices training period is required.
이후에 마스터 장치는 재트레이닝이 필요한 경우에만 재생 듀티 사이클마다 수집하는 비디오 재생 지연 시간 리스트 또는 델타 비디오 재생 지연 시간 리스트를 선택적으로 브로드캐스팅할 수 있고, 슬레이브 장치는 비디오 재생 지연 시간 리스트 또는 델타 비디오 재생 지연 시간 리스트를 수신하는 경우에 비디오 재생 지연 시간 보정량 및 비디오 재생 싱크 타임스탬프 보정을 적용할 수 있다. Afterwards, the master device can selectively broadcast the video playback latency list or delta video playback latency list, which it collects every playback duty cycle only when retraining is required, and the slave device can play the video playback latency list or delta video playback When a delay time list is received, a video reproduction delay time correction amount and a video reproduction sync timestamp correction may be applied.
마스터 장치가 선택적으로 트레이닝 기간에 비디오 재생 지연 시간 리스트 또는 델타 비디오 재생 지연 시간 리스트를 브로드캐스팅을 결정하는 경우는, 모든 장치의 델타 비디오 재생 지연 시간 리스트의 시간 차이들 중 적어도 하나의 시간 차이가 재생 듀티 사이클을 초과하는 경우이다. 이러한 경우 마스터 장치는 수신한 비디오 재생 지연 시간 리스트와 새로운 비디오 재생 싱크 타임스탬프를 브로드캐스팅하여, 슬레이브 장치의 콘텐츠 재생을 다시 동기화하도록 할 수 있다. When the master device optionally decides to broadcast the video playback delay time list or the delta video playback delay time list in the training period, at least one time difference among the time differences of the delta video playback delay time list of all devices is played back If the duty cycle is exceeded. In this case, the master device may broadcast the received video playback delay time list and a new video playback sync timestamp to resynchronize the content playback of the slave device.
또한 슬레이브 장치는 항상 미리 정해진 재생 듀티 사이클동안 슬레이브 장치에서 발생된 비디오 재생 지연 시간 또는 델타 비디오 재생 지연 시간 정보를 스트로브 신호로 마스터 장치에게 송신할 수 있다.Also, the slave device may always transmit video playback delay time or delta video playback delay time information generated in the slave device during a predetermined playback duty cycle to the master device as a strobe signal.
마스터 장치가 비디오 재생 지연 시간 리스트 또는 델타 비디오 재생 지연 시간 리스트를 선택적으로 브로드캐스팅을 결정하는 또 다른 경우는 콘텐츠 프레임 레이트가 변경되는 경우이다. 통신상태가 좋지 않거나 인위적으로 콘텐츠 프레임 레이트가 조정되는 경우, 재생 듀티 사이클이 조정되어야 하고, 따라서 다수의 장치들간의 콘텐츠 재생 동기화를 위한 트레이닝이 수행되는 것이 바람직하다.Another case in which the master device decides to selectively broadcast a video playback latency list or a delta video playback latency list is when the content frame rate is changed. When the communication condition is poor or the content frame rate is artificially adjusted, the reproduction duty cycle must be adjusted, so it is preferable to perform training for content reproduction synchronization between multiple devices.
도 3은 본 발명의 바람직한 일 실시 예에 따른 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치를 나타낸 블록도이다.3 is a block diagram illustrating a connected device for synchronizing video and audio reproduction of digital content according to an exemplary embodiment of the present invention.
도 3을 참조하면, 본 발명의 바람직한 일 실시 예에 따른 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치는 수신부(300), 비디오 재생지연시간 보정량 결정부(310), 비디오 타임스탬프 결정부(320), 비디오 재생부(330), 오디오 타임스탬프 보정부(340), 오디오 샘플링레이트 결정부(350), 오디오 재생부(360), 및 전송부(370)를 포함하여 구성된다.Referring to FIG. 3 , a connected device for synchronizing video and audio reproduction of digital content according to an exemplary embodiment of the present invention includes a receiving
수신부(300)는 비디오 재생 듀티 사이클 동안 마스터 장치로부터 비디오 재생 지연 시간 리스트 또는 비디오 재생 싱크 타임스탬프를 수신한다. 상기 수신된 비디오 재생 지연 시간 리스트는 마스터 장치가 상기 복수의 커넥티드 장치들 각각으로부터 수신한 비디오 재생 지연 시간을 이용하여 생성한 것이다. 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간들 간의 시간 차이, 또는 델타 재생 지연 시간 리스트(마스터 재생 지연 시간과 각각의 슬레이브 재생 지연 시간의 차이를 말한다) 등이 생성될 수 있다.The
수신부(300)는 마스터 장치로부터 오디오 재생 듀티 사이클 동안 가상 동기화 오디오 지연거리, 커넥티드 장치들의 오디오 지연거리, 또는 스윗 스팟 위치, 오디오 재생 지연 시간 리스트 또는 오디오 재생 싱크 타임스탬프를 수신할 수 있다.The
비디오 재생지연시간 보정량 결정부(310)는 상기 마스터 장치와 복수의 커넥티드 장치들 간의 재생 동기화를 맞추기 위해 상기 비디오 재생 지연 시간 리스트를 참조하여 비디오 재생 지연 시간 보정량을 결정한다. 본 발명의 실시예에 따르면, 복수의 커넥티드 장치들이 마스터 장치의 비디오 재생 지연 시간을 이용하여 재생 지연 시간 보정량을 보정하는 것이 아니라, 네트워크에 연결된 마스터 장치와 슬레이브 장치의 재생 지연 시간 차이 리스트 또는 델타 재생 지연 시간 리스트의 평균값을 이용하여 비디오 재생 지연 시간 보정량를 적용하는 것이 바람직하다. 본 발명의 실시에에서는 평균값을 이용하였으나 다른 통계값으로 대체될 수 있을 것이다.The video reproduction delay time correction
비디오 타임스탬프 보정부(320)는 상기 비디오 재생 지연 시간 보정량을 고려하여 상기 비디오 재생 싱크 타임스탬프를 보정한다.The
비디오 재생부(330)는 상기 결정된 비디오 재생 싱크 타임스탬프에 따라 디지털 콘텐츠를 재생한다.The
오디오 재생지연시간 보정량 결정부(335)는 상기 오디오 재생 듀티 사이클 동안 상기 가상 동기화 오디오 지연거리, 상기 커텍티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 오디오 재생 지연 시간 보정량을 결정한다. The audio reproduction delay time correction
상기 가상 동기화 오디오 지연거리, 상기 커텍티드 장치들의 오디오 지연거리, 또는 상기 스윗 스팟 위치를 이용하여 계산된 보정량은 도 5에서 상세히 설명하기로 한다.A correction amount calculated using the virtual synchronization audio delay distance, the audio delay distance of the connected devices, or the sweet spot position will be described in detail with reference to FIG. 5 .
또한, 도 2에서 개시한 비디오 재생 지연 시간 리스트에서 비디오 재생지연시간 보정량을 계산한 방법과 같은 방법으로 오디오 재생 지연 시간 리스트로부터 오디오 재생지연시간 보정량을 계산할 수 있다.In addition, the amount of correction of the audio reproduction delay time may be calculated from the audio reproduction delay time list in the same way as the method of calculating the video reproduction delay time correction amount in the video reproduction delay time list disclosed in FIG. 2 .
오디오 타임스탬프 보정부(340)는 상기 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정한다.The
오디오 샘플링레이트 결정부(350)는 상기 커넥티드 장치와 각 스윗 스팟 위치 간의 상대적인 거리 변화가 있는 경우, 각 스윗 스팟에서 듣는 오디오의 동기화를 위해 오디오 재생부(360)가 출력하는 오디오 콘텐츠의 주파수를 결정한다.When there is a change in the relative distance between the connected device and the location of each sweet spot, the audio sampling
오디오 재생부(360)는 상기 결정된 오디오 재생 싱크 타임스탬프 및 오디오 콘텐츠의 주파수에 따라 오디오를 재생한다.The
전송부(370)는 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 마스터 장치로 전송한다.The transmission unit 370 transmits the video reproduction delay time, audio reproduction delay time, and location information to the master device.
도 4는 본 발명의 바람직한 일 실시 예에 따른 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 마스터 장치를 나타낸 블록도이다.4 is a block diagram illustrating a master device for synchronizing video and audio reproduction of digital content according to an exemplary embodiment of the present invention.
도 4를 참조하면, 본 발명의 바람직한 일 실시 예에 따른 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 마스터 장치는 수신부(400), 비디오 재생지연시간 리스트 생성부(410), 비디오 재생지연시간 보정량 계산부(420), 비디오 재생싱크 타임스탬프 생성부(430), 가상 동기화 지연거리 생성부(440), 오디오 재생싱크 타임스탬프 생성부(450), 비디오 타임스탬프 보정부(460), 비디오 재생부(470), 오디오 타임스탬프 보정부(480), 오디오 샘플링레이트 결정부(485), 오디오 재생부(490), 및 전송부(495)를 포함하여 구성된다.Referring to FIG. 4 , the master device for synchronizing video and audio reproduction of digital content according to an embodiment of the present invention includes a
수신부(400)는 재생 듀티 사이클 내에 복수의 커넥티드 장치들로부터 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 주기적으로 수신한다. The
비디오 재생지연시간 리스트 생성부(410)는 상기 복수의 커넥티드 장치들 각각으로부터 수신한 재생 지연 시간을 이용하여 비디오 재생 지연 시간 리스트를 생성한다.The video reproduction delay
상기 비디오 재생 지연 시간 리스트로부터 재생 지연 시간들 간의 시간 차이, 또는 델타 재생 지연 시간 리스트(마스터 재생 지연 시간과 각각의 슬레이브 재생 지연 시간의 차이를 말한다) 등이 생성될 수 있다.A time difference between playback delay times or a delta playback delay time list (referring to the difference between the master playback delay time and each slave playback delay time) may be generated from the video playback delay time list.
비디오 재생지연시간 보정량 계산부(420)는 상기 복수의 커넥티드 장치들 간의 재생 동기화를 맞추기 위해 상기 재생 지연 시간 리스트를 참조하여 비디오 재생 지연 시간 보정량을 계산한다. 본 발명의 실시예에 따르면, 복수의 커넥티드 장치들이 마스터 장치의 재생 지연 시간을 이용하여 재생 지연 시간 보정량을 조정하지 않는 것이 아니라, 네트워크에 연결된 마스터 장치와 슬레이브 장치의 재생 지연 시간 차이 리스트 또는 델타 재생 지연 시간 리스트의 평균값을 이용하여 재생 지연 시간 보정량를 적용하는 것이 바람직하다.The video reproduction delay time correction
비디오 재생싱크 타임스탬프 생성부(430)는 상기 비디오 재생 지연 시간에 따라 상기 재생 동기화에 사용되는 비디오 재생 싱크 타임스탬프를 생성한다.The video playback
가상 동기화 지연거리 생성부(440)는 상기 슬레이브 장치들로부터 수신한 위치 정보를 이용하여 가상 동기화 오디오 지연거리를 생성한다.The virtual synchronization
오디오 재생싱크 타임스탬프 생성부(450)는 상기 생성된 가상 동기화 오디오 지연거리를 이용하여 오디오 재생 싱크 타임스탬프를 생성한다.The audio reproduction
비디오 재생싱크 타임스탬프 보정부(460)는 상기 비디오 재생 지연 시간 보정량를 고려하여 상기 비디오 재생싱크 타임스탬프를 보정한다.The video playback
비디오 재생부(470)는 상기 보정된 비디오 재생싱크 타임스탬프에 따라 디지털 콘텐츠를 재생한다.The
오디오 재생지연시간 보정량 결정부(475)는 상기 오디오 재생 듀티 사이클 동안 상기 가상 동기화 오디오 지연거리, 상기 커텍티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 오디오 재생 지연 시간 보정량을 결정한다. The audio reproduction delay time correction
상기 가상 동기화 오디오 지연거리, 상기 커텍티드 장치들의 오디오 지연거리, 또는 상기 스윗 스팟 위치를 이용하여 계산된 보정량은 도 5에서 설명하기로 한다.A correction amount calculated using the virtual synchronization audio delay distance, the audio delay distance of the connected devices, or the sweet spot position will be described with reference to FIG. 5 .
또한, 도 2에서 개시한 비디오 재생 지연 시간 리스트에서 비디오 재생지연시간 보정량을 계산한 방법과 같은 방법으로 오디오 재생 지연 시간 리스트로부터 오디오 재생지연시간 보정량을 계산할 수 있다.In addition, the amount of correction of the audio reproduction delay time may be calculated from the audio reproduction delay time list in the same way as the method of calculating the video reproduction delay time correction amount in the video reproduction delay time list disclosed in FIG. 2 .
오디오 타임스탬프 보정부(340)는 상기 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정한다.The
오디오 샘플링레이트 결정부(485)는 상기 커넥티드 장치와 각 스윗 스팟 위치 간의 상대적인 거리 변화가 있는 경우, 각 스윗 스팟에서 듣는 오디오의 동기화를 위해 오디오 재생부(490)가 출력하는 오디오 콘텐츠의 주파수를 결정한다.When there is a change in the relative distance between the connected device and each sweet spot location, the audio sampling
오디오 재생부(490)는 상기 보정된 오디오 재생 싱크 타임스탬프 및 오디오 콘텐츠의 주파수에 따라 오디오를 재생한다.The
전송부(495)는 상기 슬레이브 장치들로부터 수신한 비디오 재생 지연 시간의 리스트 및 상기 재생 지연 시간 리스트로부터 생성된 비디오 재생 싱크 타임스탬프를 상기 슬레이브 장치들로 전송한다.The
또한, 전송부(495)는 오디오 재생싱크 타임스탬프 생성부(450)에서 생성된 오디오 재생싱크 타임스탬프, 가상 동기화 오디오 지연거리, 상기 커텍티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 오디오 재생 지연 시간 리스트를 상기 슬레이브 장치들로 전송할 수 있다.In addition, the
도 5는 복수의 커넥티드 장치에서 스윗 스팟 위치를 기준으로 비디오 및 오디오 동기화를 수행하는 경우를 도시한 것이다.5 is a diagram illustrating a case in which video and audio synchronization is performed based on a sweet spot location in a plurality of connected devices.
복수의 커넥티드 장치는 이동이 가능한 모바일 장치를 포함하는 장치이며, 자동차, 오토바이, 자전거, 모바일 폰, 웨어러블 디바이스 등을 포함할 수 있다.The plurality of connected devices is a device including a mobile device capable of moving, and may include a car, a motorcycle, a bicycle, a mobile phone, a wearable device, and the like.
복수의 커넥티드 장치는 무선통신으로 연결되어 있으며, 자동차의 경우 V2X를 위한 통신 표준 기술로서 DSRC방식의 WAVE(Wireless Access in Vehicular Environment)와 cellular V2X 방식의 LTE V2X를 사용하는 것이 바람직하다.A plurality of connected devices are connected by wireless communication, and in the case of automobiles, it is preferable to use DSRC-type WAVE (Wireless Access in Vehicular Environment) and cellular V2X-type LTE V2X as communication standard technologies for V2X.
또한, 와이파이, 블루투스, 지그비, LTE, 5G, LTE-M, LPWAN, Z-WAVE 등과 같은 IoT 무선 통신 기술이 복수의 커넥티드 장치에 사용될 수 있다.In addition, IoT wireless communication technologies such as Wi-Fi, Bluetooth, Zigbee, LTE, 5G, LTE-M, LPWAN, Z-WAVE, etc. may be used for a plurality of connected devices.
도 5를 참조하면, 복수의 커넥티드 장치 중 마스터 장치(511)가 다수의 스윗 스팟 위치(510, 520)를 선정하여 슬레이브 장치(512, 513, 514, 515)에 전송할 수 있다. 이러한 스윗 스팟 위치는 주요 관심지역에 해당되는 POI(point-of-interest) 및 실시간 이미지 분석을 통해, 이동인구밀도가 높은 지역으로 선정하는 것이 바람직하다.Referring to FIG. 5 , the
도 5에서는 스윗 스팟 위치가 510과 520으로 선정된 경우이다. 이러한 경우, 커넥티드 장치(511, 512, 513, 514, 515)는 대형 디스플레이 장치와 다수의 지향성 스피커가 내장된 장치이며, 해당 커넥티드 장치는 위치변화가 없이 고정되어 있을 수도 있고, 차량과 같이 움직이는 모바일 장치에 포함될 수 있다.In FIG. 5 , the
또한 각 커넥티드 장치에 다수의 지향성 스피커가 내장되어 있으므로, 다수의 스윗 스팟 위치에 대해, 지향성 스피커를 작동시켜, 여러 스윗 스팟 위치에 대해 멀티 채널 오디오 동기화 수행이 가능할 것이다.In addition, since multiple directional speakers are built-in to each connected device, multi-channel audio synchronization will be possible for multiple sweet spot positions by activating the directional speaker for multiple sweet spot positions.
도 5를 참조하면, 스윗 스팟(510)을 기준으로 5개의 커넥티드 장치가 배치된 경우이다. 이 때, 스윗 스팟(510)을 기준으로 5대의 커넥티드 장치를 이용하여 비디오/오디오 동기화를 수행하는 경우, 스윗 스팟(510)과 모든 커넥티드 장치들(511, 512, 513, 514, 415)은 서로 다른 거리에 위치하므로 오디오 하울링(audio howling)이 발생하게 된다. 이러한 오디오 하울링의 발생 차이는 각 커넥티드 장치와 스윗 스팟 위치간의 편차에 기인한다.Referring to FIG. 5 , a case in which five connected devices are disposed based on the
하울링 발생은 스윗 스팟(510)으로부터 가장 멀리 위치한 커넥티드 장치(515)와 스윗 스팟(510) 사이의 거리에서 스윗 스팟(510)으로부터 가장 가까운 위치에 있는 커넥티드 장치(512)와 스윗 스팟(510) 사이의 거리를 뺀 값에서 오디오 속도를 나눈 값만큼 발생할 수 있다. Howling occurs in the distance between the
오디오 하울링의 발생은 줄이기 위해서는 각 커넥티드 장치와 스윗 스팟 위치 사이의 거리 차이를 고려할 필요가 있다.In order to reduce the occurrence of audio howling, it is necessary to consider the distance difference between each connected device and the location of the sweet spot.
이를 위해서 모든 커넥티드 장치(511, 512, 513, 514, 515)를 스윗 스팟 위치(510)와의 동일한 거리를 갖도록 가상 동기화 위치 A(virtual-sync-position A)에 위치하도록 배치하였다고 가정하고 오디오를 출력하면, 스윗 스팟 위치(510)에서는 오디오 하울링이 최소화된 오디오 동기화가 이루어진 오디오를 들을 수 있다. 스윗 스팟 위치(510)를 고려한 가상 동기화 위치 A는 아래와 같이 계산할 수 있다. For this purpose, it is assumed that all the
커넥티드 장치 j와 스윗 스팟 i 사이의 오디오 지연거리는 제i 스윗 스팟과 제j 커넥티드 장치 간의 거리이다. 상기 스윗 스팟과 커넥티드 장치 간의 위치정보로 지연거리정보를 알 수 있다.The audio delay distance between the connected device j and the sweet spot i is the distance between the i-th sweet spot and the j-th connected device. The delay distance information can be known as the location information between the sweet spot and the connected device.
여기서, i는 스윗 스팟 위치 색인, j는 커넥티드 장치 위치색인을 나타낸다. 는 다수의 커넥티드 장치와 스윗 스팟(i)간의 오디오 지연거리 중, 가장 작은 거리값을 나타낸다.Here, i represents the sweet spot location index, and j represents the connected device location index. represents the smallest distance value among audio delay distances between a plurality of connected devices and the sweet spot (i).
도 5를 참조하면, 가상동기화 오디오 지연거리i는 가상 동기화 위치 A와 가상 동기화 위치 B를 정의할 수 있다. 가상동기화 오디오 지연거리(530)는 가상 동기화 위치 A를 정의하는데 사용된다.Referring to FIG. 5 , the virtual synchronization audio delay distance i may define a virtual synchronization location A and a virtual synchronization location B. The virtual synchronization
수학식 1과 같이 가상동기화 오디오 지연거리i는 커넥티드 장치 j의 위치에서 스윗스팟 i의 거리차를 최소화하기 위한 거리 조정값이다. 또한 상기 가상 동기화 오디오 지연거리i 계산시에, 의 적용없이 가상 동기화 오디오 지연거리i의 적용도 가능하며, 이러한 경우에는 오디오 지연거리ij의 평균값을 적용하는 경우이다.As shown in
한편, 보정 오디오 지연거리ij를 음파 속도로 나누면 특정 오디오 동기화를 위한 최적의 오디오 지연 시간i를 계산할 수 있다.Meanwhile, by dividing the corrected audio delay distance ij by the sound wave velocity, it is possible to calculate the optimal audio delay time i for specific audio synchronization.
여기서, i는 스윗 스팟 위치의 갯수이고, j는 커넥티드 장치의 갯수이다.Here, i is the number of sweet spot locations and j is the number of connected devices.
상기 보정 오디오 지연 시간ij를 이용하여 각 커넥티드 장치에서 오디오 동기화를 수행할 수 있고, 상기 오디오 지연 시간ij를 고려하여, 오디오 동기화를 위한 오디오 재생 싱크 타임스탬프를 마스터 장치(511)에서 브로드캐스팅 할 수 있다. Audio synchronization may be performed in each connected device using the corrected audio delay time ij , and an audio reproduction sync timestamp for audio synchronization is broadcast from the
비디오 동기화와 무관하게 오디오 동기화는 커넥티드 장치의 위치와 스윗 스팟 위치 간의 거리차를 고려하여 각 커넥티드 장치마다 서로 다른 오디오 지연 시간을 적용해야 한다. Irrespective of video synchronization, audio synchronization must apply a different audio delay time to each connected device, taking into account the distance difference between the location of the connected device and the location of the sweet spot.
따라서 상기에서 결정된 오디오 재생 싱크 타임스탬프에서 상기에서 결정된 보정 오디오 지연시간ij를 고려하여, 각 커넥티드 장치의 오디오 재생 싱크 타임스탬프를 조정할 수 있다. Accordingly, in consideration of the corrected audio delay time ij determined above in the audio reproduction sync timestamp determined above, the audio reproduction sync timestamp of each connected device may be adjusted.
나아가 비디오와 오디오의 재생 시간의 차가 발생되는데 이러한 차이에도 스윗 스팟 위치에서 비디오/오디오의 재생이 자연스럽게 인식되도록 조정되는 것이 바람직하다.Furthermore, there is a difference between the video and audio playback times, and it is desirable to adjust the video/audio playback time so that playback of the video/audio is naturally recognized even at the sweet spot position despite this difference.
비디오/오디오가 비동기화된 경우, 일반적으로 영상보다 늦게 도착한 소리보다, 먼저 도착한 소리에 더욱 민감하게 인식된다. 이러한 비디오/오디오 비동기화에 대해 사람이 인지 못하는 수준의 범위는 아래와 같은 예로 제시할 수 있다When video/audio is unsynchronized, it is generally recognized more sensitively to a sound arriving earlier than to a sound arriving later than the video. The range of the level that humans are not aware of for such video/audio asynchronization can be presented as an example as follows.
따라서, 상기 표 1의 비디오/오디오 비동기화 수준을 만족하는 범위에서 가상 동기화 오디오 지연거리의 조정이 필요하다. 표 1의 지연 임계값의 최대값인 -60ms와 선행 임계값의 최대값인 +40ms를 고려하여 해당 비디오/오디오 비동기화 범위를 거리로 환산하면, -20.58m(-0.060s*343m/s)와 13.73m(+0.040s*343m/s)로 계산된다.Therefore, it is necessary to adjust the virtual synchronization audio delay distance within a range that satisfies the video/audio unsynchronization level of Table 1. If the corresponding video/audio unsynchronization range is converted to a distance, -20.58m (-0.060s*343m/s) considering the maximum value of the delay threshold of -60ms in Table 1 and the maximum value of the leading threshold of +40ms. and 13.73m (+0.040s*343m/s).
따라서 상기 계산에 따른 비동기화 범위를 적용하면, 가상 동기화 오디오 지연거리의 최대 조정 범위는 -20.58 ~ 13.73m 로, 모든 커넥티드 장치들이 위치 정보 오차를 포함하여, 누적된 오디오 지연에 따른 타이밍 오차범위가 약 34m 위치정확도 보다 양호한 경우, 비디오/오디오 재생시간의 비동기화에 따른 부작용을 최소화할 수 있다. Therefore, if the desynchronization range according to the above calculation is applied, the maximum adjustment range of the virtual synchronization audio delay distance is -20.58 ~ 13.73m, and the timing error range according to the accumulated audio delay including the location information error of all connected devices. If is better than the position accuracy of about 34m, it is possible to minimize the side effects due to the unsynchronization of the video/audio playback time.
한편, 가상 동기화 오디오 지연거리는 오디오 재생 동기화를 위해 계산되는 값이다. 따라서 가상 동기화 오디오 지연거리를 계산하는 오디오 재생 듀티 사이클이 필요하며, 이러한 비디오/오디오 동기화를 위한 가상 동기화 오디오 지연거리 결정을 위한 오디오 재생 듀티 사이클은 비디오 재생 동기화를 위한 비디오 재생 듀티 사이클 보다 긴 주기를 갖는다. Meanwhile, the virtual synchronization audio delay distance is a value calculated for audio reproduction synchronization. Therefore, an audio playback duty cycle for calculating the virtual synchronization audio delay distance is required, and the audio playback duty cycle for determining the virtual synchronization audio delay distance for video/audio synchronization is longer than the video playback duty cycle for video playback synchronization. have
가상 동기화 오디오 지연거리의 오디오 재생 듀티 사이클은 리스너(listener)의 신체상태에 따라 결정될 수 있으며, 긴장상태에서 24ms 보다 작은 주기를 갖는 오디오에 대해서는 인지 못하는 것으로 알려져 있다. The audio reproduction duty cycle of the virtual synchronization audio delay distance may be determined according to the physical condition of a listener, and it is known that audio having a period less than 24 ms is not recognized in a tense state.
따라서, 상기 계산에 따른 비동기화 범위를 적용하는 경우, 가상 동기화 오디오 지연거리를 결정하는 오디오 재생 듀티 사이클은 24ms 보다 짧은 주기내에서 결정되어야 하고, 가상 동기화 오디오 지연거리의 결정을 위해서는 스윗 스팟 위치를 기준으로 각 커넥티드 장치간의 거리 오차(position accuracy)가 34m 이내에서 결정되어야 한다. Therefore, when the asynchronous range according to the calculation is applied, the audio reproduction duty cycle for determining the virtual synchronization audio delay distance must be determined within a period shorter than 24 ms, and the sweet spot position is selected for the determination of the virtual synchronization audio delay distance. As a standard, the position accuracy between each connected device should be determined within 34m.
또한 이러한 조건을 만족하기 위해서 스윗 스팟 위치를 오디오 재생 듀티 사이클 동안 변경할 수도 있다. 이러한 경우, 커넥티드 장치 위치와 스윗 스팟 위치가 동시에 변경되는 경우를 고려하여 도플러 효과(Doppler-effect)를 고려해야 한다. In addition, to satisfy this condition, the sweet spot position may be changed during the audio reproduction duty cycle. In this case, the Doppler-effect should be considered in consideration of the case where the connected device position and the sweet spot position are changed at the same time.
이러한 경우, 실제 스윗 스팟 위치가 변경되더라도, 스윗 스팟 위치가 고정되었다고 가정하고, 스윗 스팟 위치를 기준으로, 커넥티드 장치의 상대적인 속도변화값을 반영하여 도플러 효과를 적용할 수 있다.In this case, even if the actual sweet spot position is changed, it is assumed that the sweet spot position is fixed, and the Doppler effect may be applied by reflecting the relative speed change value of the connected device based on the sweet spot position.
커넥티드 장치의 위치나 스윗 스팟 위치가 변경되는 경우에는 도플러 효과를 고려하여 한다. 예를 들면 스윗 스팟 위치가 결정된 상태에서 커넥티드 장치는 일정방향으로 움직일 수 있다. 이러한 경우 도플러 효과에 의해 오디오 주파수의 변화가 발생한다. When the location of the connected device or the location of the sweet spot is changed, the Doppler effect should be considered. For example, in a state in which the sweet spot position is determined, the connected device may move in a certain direction. In this case, a change in audio frequency occurs due to the Doppler effect.
도 6은 커넥티드 장치와 스윗 스팟의 상대적인 움직임에 따른 주파수 변화를 도시한 것이다.6 illustrates a frequency change according to the relative movement of the connected device and the sweet spot.
도 6을 참조하면, 커넥티드 장치의 움직임이 없는 경우에는 스윗 스팟 위치에서 측정된 오디오의 주파수가 502로 도시된 것과 같이 측정될 수 있다. 그러나 일정 속도로 커넥티드 장치가 스윗 스팟 위치로부터 멀어지는 경우(501), 정지된 스윗 스팟 위치에서 측정된 오디오의 주파수는 낮아지고, 커넥티드 장치가 스윗 스팟 위치로부터 가까워지는 경우(503), 정지된 스윗 스팟 위치에서 측정된 오디오의 주파수는 높아지는 것을 알 수 있다. Referring to FIG. 6 , when there is no movement of the connected device, the frequency of the audio measured at the sweet spot position may be measured as shown at 502 . However, when the connected device moves away from the sweet spot position at a constant speed (501), the frequency of the audio measured at the stationary sweet spot position is lowered, and when the connected device approaches the sweet spot position (503), the stopped It can be seen that the frequency of the audio measured at the sweet spot position increases.
도 7은 음원이 이동함에 따른 파장의 길이변화를 나타낸 것이다.7 shows the change in the length of the wavelength as the sound source moves.
도 7(a)를 참조하면, 커넥티드 장치가 정지한 경우, 음원(S)의 거리에 따른 파장의 길이는 모두 동일하다. 그러나 도 7(b)에서와 같이 음원이 관찰자 A로 이동하는 경우(S1→S2→S3→S4), 이동 속도만큼 측정된 음원의 파장의 길이는 짧아지고, 동시에 오디오 주파수는 커지게 된다. 반면, 관찰자 C는 음원이 멀어지게 되므로 파장의 길이는 길어지고 오디오 주파수는 작아지게 된다.Referring to FIG. 7A , when the connected device is stopped, the length of the wavelength according to the distance of the sound source S is the same. However, as in FIG. 7(b), when the sound source moves to the observer A (S 1 →S 2 →S 3 →S 4 ), the wavelength of the sound source measured as much as the moving speed is shortened, and the audio frequency is increased at the same time. will lose On the other hand, observer C moves away from the sound source, so the wavelength becomes longer and the audio frequency becomes smaller.
도플러 효과에 의해서 관찰자에게 관측되는 주파수는 아래와 같다.The frequency observed by the observer by the Doppler effect is as follows.
여기서, fobs는 관찰자에게 관측되는 주파수, fs는 음원의 주파수, vw는 오디오의 속도, vs는 음원의 속도이다.Here, f obs is the frequency observed by the observer, f s is the frequency of the sound source, v w is the speed of the audio, and v s is the speed of the sound source.
따라서 스윗 스팟 위치에서 들리는 복수의 커넥티드 장치로부터의 오디오를 동기화시키기 위해서는 디지털 콘텐츠의 샘플링 레이트를 도플러 효과를 고려하여 미리 선정하는 것이 바람직하다. 이동하는 커넥티드 장치와 스윗 스팟 위치 간의 위치변화와 커넥티드 장치의 이동속도를 반영하여, 커넥티드 장치에서 디지털 콘텐츠의 샘플링 레이트를 조정하고, 도플러 효과에 따른 오디오 주파수 변화를 보정하는 것이 바람직하다.Therefore, in order to synchronize the audio from a plurality of connected devices heard at the sweet spot location, it is preferable to select the sampling rate of the digital content in advance in consideration of the Doppler effect. It is desirable to adjust the sampling rate of digital content in the connected device by reflecting the change in position between the moving connected device and the sweet spot position and the moving speed of the connected device, and to correct the change in audio frequency due to the Doppler effect.
예를 들어, vw를 340m/s로 설정하고, 스윗 스팟 위치에서 수신되어야 하는 오디오 주파수를 150Hz로 정의한 경우에, 커넥티드 장치가 스윗 스팟 위치 방향과 반대방향으로 35m/s이동하는 경우, 커넥티드 장치의 바람직한 재생 오디오 주파수는 165.4Hz에 해당된다. For example, if v w is set to 340 m/s and the audio frequency to be received at the sweet spot position is defined as 150 Hz, if the connected device moves 35 m/s in the opposite direction to the sweet spot position, the The preferred reproduced audio frequency of the video device corresponds to 165.4 Hz.
도 8은 본 발명의 바람직한 일 실시 예에 따른 슬레이브 장치에서 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법의 흐름도이다.8 is a flowchart of a method for synchronizing video and audio reproduction of digital content in a slave device according to an exemplary embodiment of the present invention.
도 8을 참조하면, 본 실시 예에 따른 슬레이브 장치가 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법은 도 3에 도시된 슬레이브 장치에서 시계열적으로 처리되는 단계들로 구성된다. Referring to FIG. 8 , a method for a slave device to synchronize video and audio reproduction of digital content according to the present embodiment includes steps that are time-series processed by the slave device shown in FIG. 3 .
따라서, 이하 생략된 내용이라 하더라도 도 3에 도시된 슬레이브 장치에 관하여 이상에서 기술된 내용은 본 실시 예에 따른 슬레이브 장치가 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법에도 적용된다. Accordingly, even if omitted below, the descriptions of the slave device shown in FIG. 3 are also applied to the method of synchronizing video and audio reproduction of digital content by the slave device according to the present embodiment.
도 8은 비디오 재생 듀티 사이클 및 비디오 재생 듀티 사이클 보다 긴 오디오 재생 듀티 사이클로 비디오 및 오디오 동기화를 수행하는 과정이며, 도 10은 비디오 재생 동기화를 수행하기 위해, 비디오 재생 듀티 사이클동안 비디오 동기화를 수행하는 과정이라는 차이가 있다. 두 과정은 서로 다른 듀티 사이클로 별개로 처리될 수 있고, 도 8의 비디오 및 오디오 동기화 수행시에는 도 10의 비디오 동기화를 생략할 수 있다. 8 is a process of performing video and audio synchronization with a video playback duty cycle and an audio playback duty cycle longer than the video playback duty cycle, and FIG. 10 is a process of performing video synchronization during a video playback duty cycle to perform video playback synchronization. There is a difference. The two processes may be separately processed with different duty cycles, and when the video and audio synchronization of FIG. 8 is performed, the video synchronization of FIG. 10 may be omitted.
800 단계에서 네트워크 상에 연결된 커넥티드 장치들 중에서 마스터 장치가 결정된다.In
810 단계에서 슬레이브 장치는 각각의 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 마스터 장치로 전송한다.In
슬레이브 장치의 위치 정보는 각각의 슬레이브 장치에서 결정될 수도 있고, 마스터 장치에서 결정할 수 있다. 마스터 장치에 장착된 카메라 및 슬레이브 장치에서 수신한 위치정보를 바탕으로 슬레이브 장치 위치 정보를 보정(calibration)할 수 있다. 또한, 마스터 장치에서는 획득된 이미지 정보 및 주변의 정밀맵 정보를 이용하여, 슬레이브 장치에서 수신한 위치 정보를 보정할 수 있다.The location information of the slave device may be determined by each slave device or may be determined by the master device. Slave device location information may be calibrated based on the camera mounted on the master device and location information received from the slave device. In addition, the master device may correct the location information received from the slave device by using the acquired image information and the surrounding precision map information.
820 단계에서 슬레이브 장치는 비디오 재생 듀티 사이클 동안 비디오 재생 지연 시간 리스트 또는 비디오 재생 싱크 타임스탬프를 마스터 장치로부터 수신한다.In
830 단계에서 슬레이브 장치는 가상 동기화 오디오 지연거리(virtual synchronization audio delay distance), 커넥티드 장치들의 오디오 지연거리, 또는 스윗 스팟 위치, 오디오 재생지연 시간 리스트, 오디오 재생 싱크 타임스탬프를 마스터 장치로부터 수신한다.In
이때, 커넥티드 장치의 위치정확도 및 스윗 스팟 위치에서 수신되어야 하는 오디오 주파수를 고려하여 오디오 재생 듀티 사이클이 결정되는 것이 바람직하다.In this case, the audio reproduction duty cycle is preferably determined in consideration of the location accuracy of the connected device and the audio frequency to be received at the sweet spot location.
또한, 위치 정확도가 높은 경우에는 오디오 재생 듀티 사이클을 크게 설정할 수 있고, 위치 정확도가 낮은 경우에는 보다 빈번하게 오디오 재생 듀티 사이클을 작게 설정하여 위치 변화를 모니터링하는 것이 바람직하다.In addition, it is preferable to set a large audio reproduction duty cycle when the positional accuracy is high, and to monitor the position change by setting the audio reproduction duty cycle to be small more frequently when the positional accuracy is low.
상기 가상 동기화 오디오 지연거리와 오디오 재생 싱크 타임스탬프는 각각의 스윗 스팟 위치에 대응된다. 예를 들어, 하나의 스피커에 여러 개의 지향성 스피커가 내장된 경우, 하나의 커넥티드 장치(마스터 장치와 슬레이브 장치들을 포함함)에서 복수의 스윗 스팟 위치들로 오디오 신호를 재생할 수 있다. 따라서 스윗 스팟 위치들의 개수에 따라 가상 동기화 오디오 지연거리와 오디오 재생 싱크 타임스탬프의 개수가 결정된다. The virtual synchronization audio delay distance and audio reproduction sync timestamp correspond to respective sweet spot positions. For example, when a plurality of directional speakers are built in one speaker, one connected device (including a master device and slave devices) may reproduce an audio signal at a plurality of sweet spot positions. Accordingly, the virtual synchronization audio delay distance and the number of audio reproduction sync timestamps are determined according to the number of sweet spot positions.
커넥티드 장치의 위치정보는 마스터 장치의 위치정보와 슬레이브 장치들의 모든 절대 위치정보가 포함된 정보를 수신하거나, 상대적인 거리값(제i 스윗 스팟과 제j 커넥티드 장치 간의 거리)을 수신할 수 있다.The location information of the connected device may receive information including the location information of the master device and all absolute location information of the slave devices, or a relative distance value (the distance between the i-th sweet spot and the j-th connected device). .
840 단계에서 슬레이브 장치는 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간 보정량을 결정한다.In
상기 비디오 재생 지연 시간 보정량으로 비디오 재생 싱크 타임스탬프를 보정하여 각 슬레이브 장치의 비디오 재생 시간 지연을 보정할 수 있다.The video reproduction time delay of each slave device may be corrected by correcting the video reproduction sync timestamp with the video reproduction delay time correction amount.
850 단계에서 슬레이브 장치는 상기 비디오 재생 지연 시간 보정량을 고려하여 비디오 재생 싱크 타임스탬프를 보정한다.In
슬레이브 장치의 비디오 타임스탬프는 슬레이브 장치들의 서로 다른 기계사양 및 가용 리소스(available resource) 상태와 슬레이브 장치와 스윗 스팟의 위치를 고려하여 비디오 타임 스탬프를 결정하는 것이 바람직하다.The video timestamp of the slave device is preferably determined in consideration of different machine specifications and available resource states of the slave devices, and the positions of the slave device and the sweet spot.
860 단계에서 슬레이브 장치는 오디오 지연 시간 보정량을 고려하여 오디오 재생 싱크 타임 스탬프를 보정한다.In
본 발명의 일 실시예로서, 스윗 스팟 위치 및 커넥티드 장치들 간의 상대적인 위치값을 반영하여 비디오 및 오디오 동기화를 위한 사운드 지연 시간을 계산하는 과정을 이하 상세히 살펴보기로 한다.As an embodiment of the present invention, a process of calculating a sound delay time for video and audio synchronization by reflecting a sweet spot position and a relative position value between connected devices will be described in detail below.
실제 커넥티드 장치는 가상 동기화 오디오 지연거리 상에 존재하지 않으므로, 커넥티드 장치가 가상 동기화 오디오 지연거리에서 오디오를 재생하는 것처럼, 오디오 재생 싱크 타임스탬프의 보정이 필요하다. Since the actual connected device does not exist on the virtual synchronization audio delay distance, it is necessary to correct the audio playback sync timestamp just as the connected device plays audio in the virtual synchronization audio delay distance.
예를 들어 도 5에서 커넥티드 장치(515)는 가상 동기화 오디오 지연거리(530)보다 먼거리에 있으므로, 다른 커넥티드 장치보다 먼저 오디오를 재생해야만 한다. 따라서 실제 커넥티드 장치 장치의 위치 정보와 가상 동기화 오디오 지연거리값을 이용하여, 오디오 재생의 오디오 지연 시간을 조정할 수 있다. 해당 계산식은 아래와 같다.For example, in FIG. 5 , the
870 단계에서 슬레이브 장치는 도플러 효과를 고려하여 오디오의 샘플링 레이트를 조정한다. 커넥티드 장치가 스윗 스팟 위치와 멀어지는 경우, 실제 스윗 스팟 위치에 도착한 오디오 주파수는 커넥티드 장치에서 재생한 오디오 주파수보다 작아진다. 또한 반대의 경우에는 오디오 주파수가 커지게 된다. In
따라서 커넥티드 장치와 스윗 스팟의 이동속도 변화에 따른, 도플러 효과의 보정이 필요하다. 이를 위해서 스윗 스팟 위치에 원하는 오디오 샘플링 레이트가 정해지면, 커넥티드 장치와 스윗 스팟 위치의 거리가 멀어지는 경우에는 상대적인 이동속도의 변화를 고려하여, 재생 오디오 샘플링 레이트을 높여서 재생하면, 실제 스윗 스팟 위치로 전달된 오디오 샘플링 레이트은 재생된 오디오 샘플링 레이트보다 작은 값을 갖게 되므로, 최종적으로 원하는 오디오 샘플링 레이트값을 얻을 수 있다. Therefore, it is necessary to correct the Doppler effect according to the change in the moving speed of the connected device and the sweet spot. To this end, when the desired audio sampling rate is determined at the sweet spot location, if the distance between the connected device and the sweet spot location increases, considering the change in relative movement speed, if the playback audio sampling rate is raised and played, it is transmitted to the actual sweet spot location Since the converted audio sampling rate has a smaller value than the reproduced audio sampling rate, a desired audio sampling rate value can be finally obtained.
870 단계 이후 비디오 및 오디오 동기화를 수행하기 위해서 갱신된 커넥티드 장치의 위치 정보를 마스터 장치로 보내는 것이 바람직하다. After
여기에서 위치 정보는 커넥티드 장치의 절대좌표값, 또는 스윗 스팟 위치와 커넥티드 장치의 위치값과의 차이를 나타내는 델타 위치거리(delta position distance)를 비디오 또는 오디오 재생 듀티 사이클 동안 스트로브 신호로 전송할 수 있다. Here, the location information may transmit the absolute coordinate value of the connected device or the delta position distance representing the difference between the sweet spot location and the location value of the connected device as a strobe signal during the video or audio playback duty cycle. have.
비디오 또는 오디오 재생 듀티 사이클은 사람이 오디오 신호의 비동기화(asynchronies)를 느끼지 못하는 주기내에서 수행되거나 비디오/오디오 타이밍 지연을 느끼지 못하는 범위내에서 수행되는 것이 바람직할 것이다. 또한 오디오 재생 듀티 사이클은 커넥티드 장치의 위치 정확도 및 스윗 스팟 위치에서 수신될 오디오 신호의 오디오 샘플링 레이트에 의해서 결정될 수 있다.Preferably, the video or audio reproduction duty cycle is performed within a period in which a person does not feel asynchronies of the audio signal or within a range in which a video/audio timing delay is not felt. In addition, the audio reproduction duty cycle may be determined by the location accuracy of the connected device and the audio sampling rate of the audio signal to be received at the sweet spot location.
도 9는 본 발명의 바람직한 일 실시 예에 따른 마스터 장치가 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법의 흐름도이다.9 is a flowchart of a method for a master device to synchronize video and audio reproduction of digital content according to an exemplary embodiment of the present invention.
도 9을 참조하면, 본 실시 예에 따른 마스터 장치가 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법은 도 4에 도시된 마스터 장치에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 4에 도시된 마스터 장치에 관하여 이상에서 기술된 내용은 본 실시 예에 따른 마스터 장치가 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법에도 적용된다. Referring to FIG. 9 , the method for the master device according to the present embodiment to synchronize video and audio reproduction of digital content includes steps that are time-series processed by the master device shown in FIG. 4 . Therefore, even if omitted below, the descriptions above with respect to the master device shown in FIG. 4 are also applied to the method of synchronizing video and audio reproduction of digital content by the master device according to the present embodiment.
910 단계에서 마스터 장치는 비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 슬레이브 장치들로부터 수신한다.In
920 단계에서 마스터 장치는 상기 슬레이브 장치들로부터 수신한 비디오 재생 지연 시간의 리스트 및 상기 재생 지연 시간 리스트로부터 생성된 비디오 재생 싱크 타임스탬프를 상기 슬레이브 장치들로 전송한다.In
930 단계에서 마스터 장치는 상기 슬레이브 장치들로부터 수신한 위치 정보를 이용하여 가상 동기화 오디오 지연거리를 생성한다.In
도 5의 가상 동기화 오디오 지연거리(530)는 가장 짧은 값을 갖는 슬레이브 장치의 오디오 지연 거리(512)와 가장 긴 값을 갖는 오디오 지연거리(515) 사이에 존재한다. 가상 동기화 오디오 지연거리(530)는 스윗 스팟 위치(510)를 기준으로 모든 커넥티드 장치가 동일한 거리상에 존재하는 것으로 가정하는 가상의 동심원의 반지름이다. 따라서 커넥티드 장치를 가상 동기화 오디오 지연거리를 반지름으로 하는 동심원에 위치하도록 조정하는 것으로 가정하면, 스윗 스팟 위치에서 하울링과 사운드 지연이 최소화된 오디오가 전달될 수 있을 것이다. The virtual synchronization
또한 각 커넥티드 장치와 스윗 스팟 위치 간의 절대적인 거리차에 의한 사운드 지연을 제거하는 것이 아닌, 커넥티드 장치와 스윗 스팟 위치 간의 상대적인 거리를 조절하고, 스윗 스팟 위치와 커넥티드 장치간의 거리차를 모두 동일하게 가정함으로써, 거리차로 발생할 수 있는 하울링을 효과적으로 제거할 수 있다. Also, instead of eliminating the sound delay caused by the absolute distance difference between each connected device and the sweet spot location, it adjusts the relative distance between the connected device and the sweet spot location, and makes the difference between the sweet spot location and the connected device the same. By making the assumption that this is true, it is possible to effectively remove the howling that may occur due to the distance difference.
가상 동기화 오디오 지연거리는 각각의 스윗 스팟 위치에 대응되며, 가상 동기화 오디오 지연거리를 구하는 식은 수학식 1과 같다.The virtual synchronization audio delay distance corresponds to each sweet spot position, and the equation for calculating the virtual synchronization audio delay distance is the same as
상기 수학식 1에서 평균값을 적용하거나 커넥티드 장치의 이동속도의 변화를 추가적으로 고려하여 가상 동기화 오디오 지연거리를 결정할 수 있다.In
940 단계에서 마스터 장치는 상기 슬레이브 장치들로부터 수신한 위치 정보를 이용하여 생성된 가상 동기화 오디오 지연거리, 오디오 재생 싱크 타임스탬프, 각 장치의 오디오 지연거리 , 스윗 스팟 위치, 또는 오디오 재생 지연시간 리스트를 상기 슬레이브 장치들로 전송한다.In
상기 생성된 가상 동기화 오디오 지연거리값을 이용하여 최적의 비디오/오디오 재생 동기화를 위한 비디오 지연 시간을 계산할 수 있고, 해당 계산식은 아래와 같다.A video delay time for optimal video/audio reproduction synchronization may be calculated using the generated virtual synchronization audio delay distance value, and the calculation formula is as follows.
비디오 지연시간i를 이용하여 동기화를 위한 오디오 재생 싱크 타임스탬프를 결정할 수 있다.The audio playback sync timestamp for synchronization may be determined using the video delay time i.
도 10은 본 발명의 바람직한 다른 실시 예에 따른 슬레이브 장치에서 디지털 콘텐츠의 비디오 재생 동기화를 맞추는 방법의 흐름도이다.10 is a flowchart of a method of synchronizing video playback of digital content in a slave device according to another preferred embodiment of the present invention.
도 10을 참조하면, 본 실시 예에 따른 슬레이브 장치가 디지털 콘텐츠의 비디오 재생 싱크를 맞추는 방법은 도 3에 도시된 슬레이브 장치에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 3에 도시된 슬레이브 장치에 관하여 이상에서 기술된 내용은 본 실시 예에 따른 슬레이브 장치가 디지털 콘텐츠의 비디오 재생 싱크를 맞추는 방법에도 적용된다. Referring to FIG. 10 , the method in which the slave device synchronizes video reproduction of digital content according to the present embodiment includes steps that are time-series processed by the slave device shown in FIG. 3 . Therefore, even if omitted below, the descriptions of the slave device shown in FIG. 3 are also applied to the method of synchronizing the video reproduction of digital content by the slave device according to the present embodiment.
1010 단계에서 슬레이브 장치는 네트워크에 연결 요청 신호를 마스터 장치에 요청한다.In
1020 단계에서 슬레이브 장치는 슬레이브 장치의 위치를 결정한다. 슬레이브 장치의 위치 정보는 각각의 슬레이브 장치에서 결정될 수도 있고, 마스터 장치에서 결정할 수 있다. 마스터 장치에 장착된 카메라 및 슬레이브 장치에서 수신한 위치정보를 바탕으로 슬레이브 장치 위치 정보를 보정(calibration)할 수 있다.In
1030 단계에서 슬레이브 장치는 비디오 재생 듀티 사이클 동안 마스터 장치가 수집한 재생 지연 시간 리스트 또는 델타 재생 지연 시간 리스트 정보 및 비디오 재생 싱크 타임스탬프 정보를 수신한다. 상기 비디오 재생 듀티 사이클은 마스터 장치가 재생 콘텐츠의 프레임 레이트를 고려하여 결정하는 것이 바람직하다. 상기 재생 지연 시간 리스트 또는 델타 재생 지연 시간 리스트 정보 외에 로컬 클락 드리프트 리스트 또는 델타 로컬 클락 드리프트 리스트를 더 포함할 수 있다.In
한편, 상기 복수의 슬레이브 장치의 재생 지연 시간 리스트 또는 재생 동기화에 사용되는 비디오 재생 싱크 타임스탬프는 트레이닝 데이터에 포함될 수 있고, 재생 듀티 사이클 내에 디스플레이 재생 동기화에 사용되는 트레이닝 데이터를 주기적으로 수신하는 것이 바람직하다. 1030 단계에서 수신한 재생 싱크 타임스탬프 정보는 도 8의 820 단계에서 수신한 비디오 재생 싱크 타임스탬프 정보에 대응한다.On the other hand, the playback delay time list of the plurality of slave devices or the video playback sync timestamp used for playback synchronization may be included in training data, and it is preferable to periodically receive the training data used for display playback synchronization within the playback duty cycle. do. The playback sync timestamp information received in
1040 단계에서 슬레이브 장치는 재생 지연 시간 보정량(playback-delay-time correction)을 계산한다. 슬레이브 장치들 간의 재생 동기화를 맞추기 위해 상기 트레이닝 데이터에 포함된 재생 지연 시간 리스트를 참조하여 재생 지연 시간 보정량을 계산하는 것이 바람직하다. 한편, 마스터 장치는 마스터 클락 보정량(master-clock correction)을 계산한다.In
1050 단계에서 재생 듀티 사이클(playback-duty-cycle) 내에서 재생 지연 시간 보정량(playback-delay-time correction)을 결정한다. 여기에서 클락 듀티 사이클은 재생 듀티 사이클보다 항상 짧다. 상기 재생 지연 시간 보정량 조건을 이용하여 마스터 장치는 재생 콘텐츠의 재생 싱크 타임스탬프 동기화 정보(playback-timestamp synchronization)를 브로드캐스팅할 수 있다. 1050 단계에서 네트워크에 연결된 모든 슬레이브 장치의 로컬 클락 드리프트 리스트 및 재생 지연 시간 리스트를 이용하여, 슬레이브 장치는 클락 듀티 사이클(clock-duty-cycle) 내에서 로컬 클락 보정량(local-clock correction)을 추가로 조정할 수 있다.In
1060 단계에서 슬레이브 장치는 1050 단계에서 결정된 재생 지연 시간 보정량으로 타이머와 재생 싱크 타임스탬프 동기화 정보를 보정하여, 콘텐츠의 재생을 동기화한다. In
1070 단계는 슬레이브 장치에서 재생 듀티 사이클의 주기로 계산된 재생 지연 시간을 마스터 장치로 송신한다. 재생 지연 시간 보정량으로 보정된 재생 지연 시간을 상기 재생 듀티 사이클에 기초한 스트로브 신호에 포함하여 마스터 장치로 전송하는 것이 바람직하다.In
1080 단계에서 슬레이브 장치는 정해진 임계값의 만족 여부에 따라서, 재생 지연 시간 송신 여부를 결정할 수 있다. 1070 단계에서 계산된 재생 지연 시간이 임계값보다 큰 경우 1020 단계 또는 1030 단계로 진행할 수 있고, 1070 단계에서 계산된 재생 지연 시간이 임계값보다 크지 않은 경우 종료할 수 있다.In
한편, 네트워크에 연결된 다수의 슬레이브 장치에서 사용자 피드백 신호를 마스터 장치에 전송하는 경우, 동일한 재생 듀티 사이클 구간내에서 전송함으로써, 다수의 장치에서 사용자 실시간 신호를 지연없이 효과적으로 처리할 수 있다.On the other hand, when a plurality of slave devices connected to the network transmit a user feedback signal to the master device, by transmitting the user feedback signal within the same reproduction duty cycle period, the plurality of devices can effectively process the user real-time signal without delay.
도 11은 본 발명의 바람직한 다른 실시 예에 따른 마스터 장치에서 디지털 콘텐츠의 비디오 재생 동기화를 맞추는 방법의 흐름도이다.11 is a flowchart of a method for synchronizing video playback of digital content in a master device according to another preferred embodiment of the present invention.
도 11을 참조하면, 본 실시 예에 따른 마스터 장치가 디지털 콘텐츠의 재생 싱크를 맞추는 방법은 도 4에 도시된 마스터 장치에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 4에 도시된 마스터 장치에 관하여 이상에서 기술된 내용은 본 실시 예에 따른 마스터 장치가 디지털 콘텐츠의 비디오 재생 동기화를 맞추는 방법에도 적용된다. Referring to FIG. 11 , the method in which the master device synchronizes reproduction of digital content according to the present embodiment includes steps that are time-series processed by the master device shown in FIG. 4 . Therefore, even if omitted below, the descriptions above with respect to the master device shown in FIG. 4 are also applied to the method of synchronizing video reproduction of digital content by the master device according to the present embodiment.
1110 단계에서 마스터 장치는 네트워크에 연결 요청 신호를 슬레이브 장치로부터 수신한다.In
1120 단계에서 마스터 장치는 슬레이브 장치의 위치를 결정한다. 슬레이브 장치의 위치 정보는 각각의 슬레이브 장치에서 결정될 수도 있고, 마스터 장치에서 결정할 수 있다. 마스터 장치에 장착된 카메라 및 슬레이브 장치에서 수신한 위치정보를 바탕으로 슬레이브 장치 위치 정보를 보정(calibration)할 수 있다.In
1130 단계에서 마스터 장치는 재생 콘텐츠의 프레임 레이트를 고려하여 재생 듀티 사이클을 결정한다. 상기 재생 듀티 사이클은 상기 디지털 콘텐츠의 프레임 레이트 외에 채널 정보를 고려하여 결정되는 것이 바람직하다.In
1140 단계는 마스터 장치는 슬레이브 장치로부터 재생 듀티 사이클의 주기로 계산된 재생 지연 시간을 수신한다. In
1150 단계에서 마스터 장치는 슬레이브 장치로 재생 듀티 사이클 마다 수집한 재생 지연 시간 리스트 또는 델타 재생 지연 시간 리스트 정보 및 재생 싱크 타임스탬프 정보를 송신한다. 상기 재생 지연 시간 리스트 또는 델타 재생 지연 시간 리스트 정보는 로컬 클락 드리프트 리스트 또는 델타 로컬 클락 드리프트 리스트를 포함할 수 있다.In
상기 재생 싱크 타임스탬프는 상기 재생 지연 시간 리스트 또는 상기 재생 듀티 사이클 내에 있는 재생 지연 시간들 간의 시간 차이, 즉 델타 재생 지연 시간 리트트에 기초하여 결정될 수 있다.The playback sync timestamp may be determined based on the playback delay time list or a time difference between playback delay times within the playback duty cycle, that is, a delta playback delay time list.
다른 실시 예로서, 재생 싱크 타임스탬프는 재생 지연 시간 리스트 내에 있는 재생 지연 시간 간의 표준편차가 가장 작게 계산되는 타임스탬프를 재생 싱크 타임스탬프로 결정할 수 있다. 1150 단계에서의 재생 싱크 타임스탬프는 도 9의 920 단계에서의 비디오 재생 싱크 타임스탬프에 대응한다.As another embodiment, as the playback sync timestamp, a timestamp calculated with the smallest standard deviation between playback delay times in the playback delay time list may be determined as the playback sync timestamp. The playback sync timestamp in
1160 단계에서 마스터 장치는 비디오 재생 지연 시간 보정량을 계산한다.In
1170 단계에서 마스터 장치는 클락 듀티 사이클(clock-duty-cycle) 내에서 마스터 클락 보정량(local-clock correction)을 조정하거나, 재생 듀티 사이클(playback-duty-cycle) 내에서 비디오 재생 지연 시간 보정량을 결정한다. 여기에서 클락 듀티 사이클은 재생 듀티 사이클보다 항상 짧다. 상기 재생 지연 시간 보정량 조건을 이용하여 마스터 장치는 재생 콘텐츠의 재생 싱크 타임스탬프 동기화 정보(playback-timestamp synchronization)를 브로드캐스팅할 수 있다. In
1180 단계에서 마스터 장치는 1170 단계에서 결정된 재생 지연 시간 보정량으로 타이머를 보정하고, 재생 싱크 타임스탬프 동기화 정보를 보정하여, 콘텐츠의 재생을 동기화한다. In
도 12는 스윗 스팟 주변의 재생 사운드 환경을 고려하는 경우이다. 12 is a case in which a reproduction sound environment around a sweet spot is considered.
첫번째 환경은 스윗 스팟 A(510) 및 스윗 스팟 B(520)에 동일하게 건물(1200, 1300)이 있는 경우이다. The first environment is a case in which
두번째 환경은 스윗 스팟 B(520)의 뒤쪽에 건물(1300)이 없이 빈 공간(free space)이 존재하는 경우이다.The second environment is a case in which a free space exists without the
따라서 첫번째 환경과 두번째 환경은 빈 공간의 유무에 따라서 오디오의 에코(echo) 환경이 달라진다. 이러한 에코는 오디오의 확상 현상이 큰 저주파수에서 더 크게 발생한다. 따라서 다수의 커넥티드 장치에서 오디오를 재생하고 일정 레벨 오디오 사운드를 유지하기 위한 볼륨 컨트롤을 위해서는 오디오 재생 환경을 고려하는 것이 바람직하다.Therefore, in the first environment and the second environment, the echo environment of the audio varies according to the presence or absence of an empty space. These echoes are larger at low frequencies where audio expansion is large. Therefore, it is desirable to consider an audio reproduction environment in order to reproduce audio in a plurality of connected devices and control the volume to maintain a certain level of audio sound.
동일한 재생 환경을 유지하기 위해, 멀티 스윗 스팟 선정시, 빌딩/벽/장애물이 있는 곳으로 스윗 스팟을 선정하거나, 반대로 빈 공간에 멀티 스윗 스팟을 선정할 수 있다. To maintain the same playback environment, when selecting a multi-sweet spot, you can select a sweet spot where there are buildings/walls/obstacles, or, conversely, select a multi-sweet spot in an empty space.
또한 동일한 재생환경에서 일정 수준의 오디오 볼륨 레벨을 유지하기 위해서, 각 커넥티드 장치에 장착된 마이크로폰을 이용하여 오디오 레벨을 결정할 수 있다. 이 때, 각 커넥티드 장치에서 재생 오디오의 저주파수 범위를 반영하여, 측정하는 오디오 주파수 범위를 결정할 수 있다. 또한 오디오 사운드 레벨을 결정하기 위한 측정 인터벌은 단기/장기 인터벌로 구분하여 결정할 수 있다. 예를 들어 단기 인터벌 동안 오디오 레벨 보다 높고, 장기 인터벌 오디오 레벨보다 낮추어 측정 인터벌을 적용할 수 있다. Also, in order to maintain an audio volume level of a certain level in the same playback environment, the audio level may be determined using a microphone installed in each connected device. In this case, the measured audio frequency range may be determined by reflecting the low frequency range of the reproduced audio in each connected device. In addition, the measurement interval for determining the audio sound level may be determined by dividing it into short-term/long-term intervals. For example, the measurement interval may be applied higher than the audio level of the short interval and lower than the audio level of the long interval.
또한 커넥티드 장치에서 측정하는 오디오 볼륨 레벨은 스윗 스팟 거리에 따라 적용 오디오 레벨이 달라질 수 있다. 측정된 오디오 레벨을 만족하지 않는 경우에는 특정 커넥티드 장치의 사운드 재생 볼륨을 조절해야 하는데, 이때, 멀티 스윗 스팟으로 사운드를 재생하는 커넥티드 장치(513)와, 멀티 스윗 스팟을 기준으로 반사되는 사운드에 영향이 큰 위치에 존재하는 커넥티드 장치(511)에 대해 우선적으로 사운드 볼륨을 조정하는 것이 바람직하다.Also, the audio volume level measured by the connected device may vary depending on the sweet spot distance. If the measured audio level is not satisfied, it is necessary to adjust the sound reproduction volume of a specific connected device. At this time, the
본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터,데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~ unit' used in this embodiment means software or hardware components such as field-programmable gate array (FPGA) or ASIC, and '~ unit' performs certain roles. However, '-part' is not limited to software or hardware. The '~ unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.
상술한 모든 기능은 상기 기능을 수행하도록 코딩된 소프트웨어나 프로그램 코드 등에 따른 마이크로프로세서, 제어기, 마이크로제어기, ASIC(Application Specific Integrated Circuit) 등과 같은 프로세서에 의해 수행될 수 있다. 상기 코드의 설계, 개발 및 구현은 본 발명의 설명에 기초하여 당업자에게 자명하다고 할 것이다.All of the above-described functions may be performed by a processor such as a microprocessor, a controller, a microcontroller, an ASIC (Application Specific Integrated Circuit), etc. according to software or program codes coded to perform the functions. The design, development and implementation of the above code will be apparent to those skilled in the art based on the description of the present invention.
이상 본 발명에 대하여 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시켜 실시할 수 있음을 이해할 수 있을 것이다. 따라서 상술한 실시 예에 한정되지 않고, 본 발명은 이하의 특허청구범위의 범위 내의 모든 실시 예들을 포함한다고 할 것이다.Although the present invention has been described with reference to the embodiments, those of ordinary skill in the art can variously modify and change the present invention within the scope without departing from the technical spirit and scope of the present invention. You will understand. Therefore, the present invention is not limited to the above-described embodiments, and it will be said that all embodiments within the scope of the following claims are included.
Claims (14)
비디오 재생 듀티 사이클 동안 비디오 재생 지연 시간 리스트 또는 비디오 재생 싱크 타임스탬프를 수신하는 단계;
오디오 재생 듀티 사이클 동안 가상 동기화 오디오 지연거리, 커넥티드 장치들의 오디오 지연거리, 스윗 스팟 위치, 오디오 재생 지연 시간 리스트 또는 오디오 재생 싱크 타임스탬프 중 적어도 하나 이상을 수신하는 단계;
상기 비디오 재생 듀티 사이클 동안 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간 보정량을 결정하고, 상기 비디오 재생 지연 시간 보정량을 고려하여 상기 비디오 재생 싱크 타임스탬프를 보정하는 단계; 및
상기 오디오 재생 듀티 사이클 동안 상기 가상 동기화 오디오 지연거리, 상기 커넥티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 상기 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정하는 단계를 포함하고,
상기 마스터 장치와 상기 각 커넥티드 장치의 비디오 재생 지연 시간 차이로부터 평균 재생지연 시간을 계산하고, 상기 계산된 평균 재생 지연시간과 상기 각 커넥티드 장치의 재생 지연 시간과의 차를 각 커넥티드 장치의 재생 지연 보정량으로 적용하고,
상기 가상동기화 오디오 지연거리는 각 커넥티드 장치와 스윗 스팟 간의 오디오 지연거리를 고려한 평균값으로 결정되고, 각 커넥티드 장치의 보정 오디오 지연거리는 각 커넥티드 장치의 오디오 지연거리와 상기 가상동기화 오디오 지연거리의 차이로 결정되는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법.transmitting, by a plurality of connected devices connected to the network, video playback delay time, audio playback delay time, and location information to a master device;
receiving a video playback delay time list or a video playback sync timestamp during a video playback duty cycle;
receiving at least one of a virtual synchronization audio delay distance, an audio delay distance of connected devices, a sweet spot location, an audio playback delay time list, or an audio playback sync timestamp during an audio playback duty cycle;
determining a video reproduction delay time correction amount from the video reproduction delay time list during the video reproduction duty cycle, and correcting the video reproduction sync timestamp in consideration of the video reproduction delay time correction amount; and
During the audio reproduction duty cycle, the audio reproduction delay time correction amount is determined using at least one of the virtual synchronization audio delay distance, the audio delay distance of the connected devices, the sweet spot location, or the audio reproduction delay time list. calibrating the playback sync timestamp;
The average playback delay time is calculated from the difference in video playback delay time between the master device and each connected device, and the difference between the calculated average playback delay time and the playback delay time of each connected device Apply as the amount of playback delay correction,
The virtual sync audio delay distance is determined as an average value in consideration of the audio delay distance between each connected device and the sweet spot, and the corrected audio delay distance of each connected device is the difference between the audio delay distance of each connected device and the virtual sync audio delay distance How to synchronize video and audio playback of digital content determined by
상기 가상 동기화 오디오 지연거리는 적어도 하나 이상의 스윗 스팟 위치와 복수의 커넥티드 장치들의 상대적인 위치차의 합을 최소로 만드는 거리를 고려하여 상기 스윗 스팟 위치 별로 결정되는 것을 특징으로 하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법.According to claim 1,
The virtual synchronization audio delay distance is determined for each sweet spot position in consideration of a distance that minimizes the sum of the relative position differences between at least one or more sweet spot positions and a plurality of connected devices. How to get sync.
상기 복수의 커넥티드 장치들 또는 상기 마스터 장치 중 적어도 하나의 장치에 포함된 지향성 서브 스피커들을 활성화시키는 단계를 더 포함하고,
상기 지향성 서브 스피커들은 상기 적어도 하나 이상의 스윗 스팟 위치들 중 적어도 하나의 방향으로 배치되는 것을 특징으로 하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법.According to claim 1,
Further comprising the step of activating directional sub-speakers included in at least one of the plurality of connected devices or the master device,
and said directional sub-speakers are disposed in at least one of said at least one or more sweet spot positions.
상기 복수의 커넥티드 장치들 또는 상기 마스터 장치와 각 스윗 스팟 위치 간의 상대적인 거리 변화가 있는 경우, 오디오의 동기화를 위해 상기 복수의 커넥티드 장치들 또는 상기 마스터 장치가 출력하는 오디오 콘텐츠의 주파수를 조정하는 단계를 더 포함하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법.According to claim 1,
When there is a change in the relative distance between the plurality of connected devices or the master device and each sweet spot location, adjusting the frequency of audio content output by the plurality of connected devices or the master device for audio synchronization A method of synchronizing video and audio playback of digital content, further comprising the steps of:
상기 커넥티드 장치들로부터 수신한 비디오 재생 지연 시간의 리스트 및 상기 비디오 재생 지연 시간 리스트로부터 생성된 비디오 재생 싱크 타임스탬프를 상기 커넥티드 장치들로 전송하는 단계; 및
상기 커넥티드 장치들로부터 수신한 위치 정보를 이용하여 생성된 가상 동기화 오디오 지연거리, 오디오 재생 싱크 타임스탬프, 각 커넥티드 장치의 오디오 지연거리, 스윗 스팟 위치, 또는 오디오 재생 지연시간 리스트를 상기 커넥티드 장치들로 전송하는 단계를 포함하고,
상기 마스터 장치와 상기 각 커넥티드 장치의 비디오 재생 지연 시간 차이로부터 평균 재생지연 시간을 계산하고, 상기 계산된 평균 재생 지연시간과 상기 각 커넥티드 장치의 재생 지연 시간과의 차를 각 커넥티드 장치의 재생 지연 보정량으로 적용하고,
상기 가상동기화 오디오 지연거리는 각 커넥티드 장치와 스윗 스팟 간의 오디오 지연거리를 고려한 평균값으로 결정되고, 각 커넥티드 장치의 보정 오디오 지연거리는 각 커넥티드 장치의 오디오 지연거리와 상기 가상동기화 오디오 지연거리의 차이로 결정되는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법.receiving, by the master device connected to the network, video playback delay time, audio playback delay time, and location information from the connected devices;
transmitting a list of video playback delay times received from the connected devices and a video playback sync timestamp generated from the list of video playback delay times to the connected devices; and
The virtual synchronization audio delay distance, audio playback sync timestamp, audio delay distance, sweet spot location, or audio playback delay time list of each connected device generated using the location information received from the connected devices are displayed in the connected device. transmitting to devices;
The average playback delay time is calculated from the difference in video playback delay time between the master device and each connected device, and the difference between the calculated average playback delay time and the playback delay time of each connected device Apply as the amount of playback delay correction,
The virtual sync audio delay distance is determined as an average value in consideration of the audio delay distance between each connected device and the sweet spot, and the corrected audio delay distance of each connected device is the difference between the audio delay distance of each connected device and the virtual sync audio delay distance How to synchronize video and audio playback of digital content determined by
상기 마스터 장치는 상기 슬레이브 장치들로부터 수신한 비디오 재생 지연 시간을 이용하여 비디오 재생 지연 시간 리스트를 생성하고, 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 싱크 타임스탬프를 생성하는 단계;
상기 마스터 장치는 상기 슬레이브 장치들로부터 수신한 위치 정보를 이용하여 가상 동기화 오디오 지연거리를 생성하고, 상기 생성된 가상 동기화 오디오 지연거리를 이용하여 오디오 재생 싱크 타임스탬프를 생성하는 단계;
상기 슬레이브 장치들이 상기 마스터 장치로부터 비디오 재생 듀티 사이클마다 상기 비디오 재생 지연 시간 리스트 또는 상기 비디오 재생 싱크 타임스탬프를 수신하는 단계;
상기 슬레이브 장치들이 상기 마스터 장치로부터 상기 가상 동기화 오디오 지연거리, 상기 오디오 재생 싱크 타임스탬프, 각 장치의 오디오 지연거리, 스윗 스팟 위치, 또는 오디오 재생 지연시간 리스트 중 적어도 하나를 수신하는 단계;
상기 슬레이브 장치들은 상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간 보정량을 각각 결정하고, 상기 비디오 재생 지연 시간 보정량을 고려하여 각각의 비디오 재생 싱크 타임스탬프를 보정하는 단계; 및
상기 가상 동기화 오디오 지연거리, 마스터 장치와 슬레이브 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정하는 단계를 포함하고,
상기 마스터 장치와 상기 각 슬레이브 장치의 비디오 재생 지연 시간 차이로부터 평균 재생지연 시간을 계산하고, 상기 계산된 평균 재생 지연시간과 상기 각 슬레이브 장치의 재생 지연 시간과의 차를 각 슬레이브 장치의 재생 지연 보정량으로 적용하고,
상기 가상동기화 오디오 지연거리는 각 슬레이브 장치와 스윗 스팟 간의 오디오 지연거리를 고려한 평균값으로 결정되고, 각 슬레이브 장치의 보정 오디오 지연거리는 각 슬레이브 장치의 오디오 지연거리와 상기 가상동기화 오디오 지연거리의 차이로 결정되는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법.transmitting, by a plurality of slave devices connected to the network, respective video playback delay times, audio playback delay times, and location information to the master device;
generating, by the master device, a video playback delay time list using the video playback delay times received from the slave devices, and generating a video playback sync timestamp from the video playback delay time list;
generating, by the master device, a virtual synchronization audio delay distance using the location information received from the slave devices, and generating an audio reproduction sync timestamp using the generated virtual synchronization audio delay distance;
receiving, by the slave devices, the video playback delay time list or the video playback sync timestamp for each video playback duty cycle from the master device;
receiving, by the slave devices, at least one of the virtual synchronization audio delay distance, the audio playback sync timestamp, the audio delay distance of each device, a sweet spot location, and an audio playback delay time list from the master device;
determining, by the slave devices, a video reproduction delay time correction amount from the video reproduction delay time list, and correcting each video reproduction sync timestamp in consideration of the video reproduction delay time correction amount; and
Correcting the audio playback sync timestamp with an audio playback delay time correction amount determined using at least one of the virtual synchronization audio delay distance, the audio delay distance between the master device and the slave devices, the sweet spot location, or the audio playback delay time list comprising the steps of
The average playback delay time is calculated from the difference in video playback delay time between the master device and each slave device, and the difference between the calculated average playback delay time and the playback delay time of each slave device is a playback delay correction amount of each slave device applied as
The virtual sync audio delay distance is determined as an average value in consideration of the audio delay distance between each slave device and the sweet spot, and the corrected audio delay distance of each slave device is determined by the difference between the audio delay distance of each slave device and the virtual sync audio delay distance How to synchronize video and audio playback of digital content.
상기 스윗 스팟이 하나 이상 존재하는 경우, 모든 스윗 스팟이 일정 반경내에 오디오 반사파가 발생할 수 있는 위치로 결정되거나, 일정 반경내에 오디오 반사파가 발생할 수 없는 위치로 결정되는 단계를 더 포함하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 방법.7. The method of claim 6,
The video of digital content further comprising the step of, when one or more sweet spots exist, all sweet spots are determined as positions where audio reflection waves can be generated within a certain radius, or locations where audio reflection waves cannot occur within a certain radius and how to synchronize audio playback.
비디오 재생 듀티 사이클 동안 비디오 재생 지연 시간 리스트 또는 비디오 재생 싱크 타임스탬프를 수신하고, 오디오 재생 듀티 사이클 동안 가상 동기화 오디오 지연거리, 커넥티드 장치들의 오디오 지연거리, 스윗 스팟 위치, 오디오 재생 지연 시간 리스트 또는 오디오 재생 싱크 타임스탬프 중 적어도 하나 이상을 수신하는 수신부;
상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간 보정량을 결정하는 비디오 재생 지연시간 보정량 결정부;
상기 비디오 재생 지연 시간 보정량을 고려하여 상기 비디오 재생 싱크 타임스탬프를 보정하는 비디오 타임스탬프 보정부; 및
상기 오디오 재생 듀티 사이클 동안 상기 가상 동기화 오디오 지연거리, 상기 커넥티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정하는 오디오 타임스탬프 보정부를 포함하고,
상기 마스터 장치와 상기 각 커넥티드 장치의 비디오 재생 지연 시간 차이로부터 평균 재생지연 시간을 계산하고, 상기 계산된 평균 재생 지연시간과 상기 각 커넥티드 장치의 재생 지연 시간과의 차를 각 커넥티드 장치의 재생 지연 보정량으로 적용하고,
상기 가상동기화 오디오 지연거리는 각 커넥티드 장치와 스윗 스팟 간의 오디오 지연거리를 고려한 평균값으로 결정되고, 각 커넥티드 장치의 보정 오디오 지연거리는 각 커넥티드 장치의 오디오 지연거리와 상기 가상동기화 오디오 지연거리의 차이로 결정되는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치.a transmission unit for transmitting video playback delay time, audio playback delay time, and location information by a connected device connected to a network to a master device;
Receive video playback latency list or video playback sync timestamp during video playback duty cycle, virtual sync audio latency during audio playback duty cycle, audio latency of connected devices, sweet spot location, audio playback latency list or audio a receiving unit for receiving at least one of reproduction sync timestamps;
a video reproduction delay time correction amount determining unit for determining a video reproduction delay time correction amount from the video reproduction delay time list;
a video timestamp correcting unit for correcting the video reproduction sync timestamp in consideration of the video reproduction delay time correction amount; and
During the audio reproduction duty cycle, the audio is reproduced with an audio reproduction delay time correction amount determined using at least one of the virtual synchronization audio delay distance, the audio delay distance of the connected devices, the sweet spot location, or the audio reproduction delay time list. Comprising an audio timestamp correction unit for correcting the sync timestamp,
The average playback delay time is calculated from the difference in video playback delay time between the master device and each connected device, and the difference between the calculated average playback delay time and the playback delay time of each connected device Apply as the amount of playback delay correction,
The virtual sync audio delay distance is determined as an average value in consideration of the audio delay distance between each connected device and the sweet spot, and the corrected audio delay distance of each connected device is the difference between the audio delay distance of each connected device and the virtual sync audio delay distance A connected device that synchronizes video and audio playback of digital content determined by
상기 가상 동기화 오디오 지연거리는 적어도 하나 이상의 스윗 스팟 위치와 커넥티드 장치들의 상대적인 위치를 고려하여 상기 스윗 스팟 위치 별로 결정되는 것을 특징으로 하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치.9. The method of claim 8,
and the virtual synchronization audio delay distance is determined for each sweet spot position in consideration of the relative positions of at least one or more sweet spot positions and connected devices.
상기 커넥티드 장치에 포함된 지향성 서브 스피커들은 상기 적어도 하나 이상의 스윗 스팟 위치들 중 적어도 하나의 방향으로 배치되는 것을 특징으로 하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치.9. The method of claim 8,
The connected device for synchronizing video and audio reproduction of digital content, characterized in that the directional sub-speakers included in the connected device are disposed in at least one of the at least one or more sweet spot positions.
상기 커넥티드 장치와 각 스윗 스팟 위치 간의 상대적인 거리 변화가 있는 경우, 각 스윗 스팟에서 듣는 오디오의 동기화를 위해 상기 커넥티드 장치가 출력하는 오디오 콘텐츠의 주파수를 조정하는 오디오 샘플링 레이트 결정부를 더 포함하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치.9. The method of claim 8,
When there is a change in the relative distance between the connected device and each sweet spot location, the digital audio sampling rate determining unit further comprises an audio sampling rate determining unit that adjusts the frequency of audio content output from the connected device to synchronize audio heard at each sweet spot. A connected device that synchronizes video and audio playback of content.
상기 커넥티드 장치들로부터 수신한 비디오 재생 지연 시간의 리스트 및 상기 재생 지연 시간 리스트로부터 생성된 비디오 재생 싱크 타임스탬프를 상기 커넥티드 장치들로 전송하는 전송부;
상기 커넥티드 장치들로부터 수신한 위치 정보를 이용하여 가상 동기화 오디오 지연거리를 생성하는 가상 동기화 지연거리 생성부; 및
상기 생성된 가상 동기화 오디오 지연거리를 이용하여 오디오 재생 싱크 타임스탬프를 생성하는 오디오 재생싱크 타임스탬프 생성부;
상기 전송부는 상기 가상 동기화 오디오 지연거리, 상기 오디오 재생 싱크 타임스탬프, 각 장치의 오디오 지연거리, 스윗 스팟 위치, 또는 오디오 재생 지연시간 리스트를 상기 커넥티드 장치들로 전송하고,
마스터 장치와 상기 각 커넥티드 장치의 비디오 재생 지연 시간 차이로부터 평균 재생지연 시간을 계산하고, 상기 계산된 평균 재생 지연시간과 상기 각 커넥티드 장치의 재생 지연 시간과의 차를 각 커넥티드 장치의 재생 지연 보정량으로 적용하고,
상기 가상동기화 오디오 지연거리는 각 커넥티드 장치와 스윗 스팟 간의 오디오 지연거리를 고려한 평균값으로 결정되고, 각 커넥티드 장치의 보정 오디오 지연거리는 각 커넥티드 장치의 오디오 지연거리와 상기 가상동기화 오디오 지연거리의 차이로 결정되는 것을 특징으로 하는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 커넥티드 장치.a receiving unit for receiving video reproduction delay time, audio reproduction delay time, and location information from connected devices connected to a network;
a transmitter configured to transmit a list of video playback delay times received from the connected devices and a video playback sync timestamp generated from the list of playback delay times to the connected devices;
a virtual synchronization delay distance generator for generating a virtual synchronization audio delay distance by using the location information received from the connected devices; and
an audio playback sync timestamp generator for generating an audio playback sync timestamp by using the generated virtual synchronization audio delay distance;
The transmitter transmits the virtual synchronization audio delay distance, the audio playback sync timestamp, the audio delay distance of each device, the sweet spot location, or the audio playback delay time list to the connected devices,
The average playback delay time is calculated from the difference in video playback delay time between the master device and each connected device, and the difference between the calculated average playback delay time and the playback delay time of each connected device is reproduced by each connected device. Apply the delay correction amount,
The virtual sync audio delay distance is determined as an average value in consideration of the audio delay distance between each connected device and the sweet spot, and the corrected audio delay distance of each connected device is the difference between the audio delay distance of each connected device and the virtual sync audio delay distance A connected device that synchronizes video and audio playback of digital content, characterized in that determined by
상기 마스터 장치로부터 비디오 재생 듀티 사이클 동안 상기 비디오 재생 지연 시간 리스트 또는 비디오 재생 싱크 타임스탬프를 수신하고, 오디오 재생 듀티 사이클 동안 상기 마스터 장치로부터 가상 동기화 오디오 지연거리가상 동기화 오디오 지연거리, 커넥티드 장치들의 오디오 지연거리, 스윗 스팟 위치, 오디오 재생 지연 시간 리스트 또는 오디오 재생 싱크 타임스탬프 중 적어도 하나를 수신하는 수신부;
상기 비디오 재생 지연 시간 리스트로부터 비디오 재생 지연 시간 보정량을 결정하는 비디오 재생지연시간 보정량 결정부;
상기 비디오 재생 지연 시간 보정량을 고려하여 상기 비디오 재생 싱크 타임스탬프를 보정하는 비디오 타임스탬부 보정부; 및
상기 오디오 재생 듀티 사이클 동안 상기 가상 동기화 오디오 지연거리, 상기 커넥티드 장치들의 오디오 지연거리, 상기 스윗 스팟 위치, 또는 오디오 재생 지연 시간 리스트 중 적어도 하나 이상을 이용하여 결정된 오디오 재생 지연 시간 보정량으로 상기 오디오 재생 싱크 타임스탬프를 보정하는 오디오 타임스탬프 보정부를 포함하는 적어도 하나 이상의 커넥티드 장치; 및
비디오 재생 지연 시간, 오디오 재생 지연 시간 및 위치 정보를 상기 적어도 하나 이상의 커넥티드 장치로부터 수신하는 수신부;
상기 적어도 하나 이상의 커넥티드 장치들로부터 수신한 비디오 재생 지연 시간으로부터 비디오 재생 지연 시간 리스트를 생성하는 재생지연시간 리스트 생성부;
상기 생성된 비디오 재생 지연 시간 리스트로부터 비디오 재생 싱크 타임스탬프를 생성하는 비디오 재생싱크 타임스탬프 생성부;
상기 적어도 하나 이상의 커넥티드 장치들로부터 수신한 위치 정보와 상기 스윗 스팟 위치를 이용하여 가상 동기화 오디오 지연거리를 생성하는 가상 동기화 지연거리 생성부;
상기 생성된 가상 동기화 오디오 지연거리를 이용하여 오디오 재생 싱크 타임스탬프를 생성하는 오디오 재생싱크 타임스탬프 생성부; 및
상기 생성된 비디오 재생 싱크 타임스탬프 및 상기 오디오 재생 싱크 타임스탬프를 상기 적어도 하나 이상의 커넥티드 장치로 전송하는 전송부를 포함하는 마스터 장치를 포함하고,
상기 마스터 장치와 상기 각 커넥티드 장치의 비디오 재생 지연 시간 차이로부터 평균 재생지연 시간을 계산하고, 상기 계산된 평균 재생 지연시간과 상기 각 커넥티드 장치의 재생 지연 시간과의 차를 각 커넥티드 장치의 재생 지연 보정량으로 적용하고,
상기 가상동기화 오디오 지연거리는 각 커넥티드 장치와 스윗 스팟 간의 오디오 지연거리를 고려한 평균값으로 결정되고, 각 커넥티드 장치의 보정 오디오 지연거리는 각 커넥티드 장치의 오디오 지연거리와 상기 가상동기화 오디오 지연거리의 차이로 결정되는 디지털 콘텐츠의 비디오 및 오디오 재생 동기화를 맞추는 시스템.a transmission unit for transmitting video playback delay time, audio playback delay time, and location information to the master device;
Receive the video playback delay time list or video playback sync timestamp from the master device during video playback duty cycle, virtual sync audio delay distance from the master device during audio playback duty cycle, virtual sync audio latency distance, audio of connected devices a receiver for receiving at least one of a delay distance, a sweet spot location, an audio reproduction delay time list, and an audio reproduction sync timestamp;
a video reproduction delay time correction amount determining unit for determining a video reproduction delay time correction amount from the video reproduction delay time list;
a video timestamp correction unit for correcting the video playback sync timestamp in consideration of the video playback delay time correction amount; and
During the audio reproduction duty cycle, the audio is reproduced with an audio reproduction delay time correction amount determined using at least one of the virtual synchronization audio delay distance, the audio delay distance of the connected devices, the sweet spot location, or the audio reproduction delay time list. at least one connected device including an audio timestamp corrector for correcting a sync timestamp; and
a receiving unit for receiving video reproduction delay time, audio reproduction delay time, and location information from the at least one or more connected devices;
a reproduction delay time list generator for generating a video reproduction delay time list from the video reproduction delay times received from the at least one or more connected devices;
a video playback sync timestamp generator for generating a video playback sync timestamp from the generated video playback delay time list;
a virtual synchronization delay distance generator for generating a virtual synchronization audio delay distance using the location information received from the at least one or more connected devices and the location of the sweet spot;
an audio playback sync timestamp generator for generating an audio playback sync timestamp by using the generated virtual synchronization audio delay distance; and
a master device including a transmitter for transmitting the generated video playback sync timestamp and the audio playback sync timestamp to the at least one or more connected devices;
The average playback delay time is calculated from the difference in video playback delay time between the master device and each connected device, and the difference between the calculated average playback delay time and the playback delay time of each connected device Apply as the amount of playback delay correction,
The virtual sync audio delay distance is determined as an average value in consideration of the audio delay distance between each connected device and the sweet spot, and the corrected audio delay distance of each connected device is the difference between the audio delay distance of each connected device and the virtual sync audio delay distance A system that synchronizes video and audio playback of digital content determined by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190171055A KR102306226B1 (en) | 2019-12-19 | 2019-12-19 | Method of video/audio playback synchronization of digital contents and apparatus using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190171055A KR102306226B1 (en) | 2019-12-19 | 2019-12-19 | Method of video/audio playback synchronization of digital contents and apparatus using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210079017A KR20210079017A (en) | 2021-06-29 |
KR102306226B1 true KR102306226B1 (en) | 2021-09-29 |
Family
ID=76626746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190171055A KR102306226B1 (en) | 2019-12-19 | 2019-12-19 | Method of video/audio playback synchronization of digital contents and apparatus using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102306226B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022181860A1 (en) * | 2021-02-26 | 2022-09-01 | 애드커넥티드 주식회사 | Method for synchronizing video and audio playback of digital content, and device using same |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100617105B1 (en) * | 2005-02-02 | 2006-08-31 | 엘지전자 주식회사 | An apparatus and method for compensating automatically the time delay between video signal and audio signal |
KR101535827B1 (en) * | 2008-12-05 | 2015-07-27 | 삼성전자주식회사 | Apparatus and method for audio and video synchronization in wireless communication network |
KR20150026069A (en) * | 2013-08-30 | 2015-03-11 | 삼성전자주식회사 | Method for playing contents and an electronic device thereof |
KR102423753B1 (en) * | 2015-08-20 | 2022-07-21 | 삼성전자주식회사 | Method and apparatus for processing audio signal based on speaker location information |
US10158905B2 (en) * | 2016-09-14 | 2018-12-18 | Dts, Inc. | Systems and methods for wirelessly transmitting audio synchronously with rendering of video |
-
2019
- 2019-12-19 KR KR1020190171055A patent/KR102306226B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20210079017A (en) | 2021-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7206362B2 (en) | Over-the-air tuning of audio sources | |
EP2365704B1 (en) | Transmission device and transmission method | |
US8989173B2 (en) | Increased Bluetooth clock accuracy | |
US8111327B2 (en) | Method and apparatus for audio/video synchronization | |
KR102393798B1 (en) | Method and apparatus for processing audio signal | |
JP2009521882A (en) | Media data synchronization in wireless networks | |
CN109429166B (en) | Network and method for measurement and calibration of networked loudspeaker systems | |
JP2004193868A (en) | Wireless transmission and reception system and wireless transmission and reception method | |
KR102566550B1 (en) | Method of display playback synchronization of digital contents in multiple connected devices and apparatus using the same | |
KR20140126788A (en) | Position estimation system using an audio-embedded time-synchronization signal and position estimation method using thereof | |
US20190110153A1 (en) | Environment discovery via time-synchronized networked loudspeakers | |
US20080085098A1 (en) | Method Of And System For Synchronizing Playback Of Audio/Video Signals | |
KR102306226B1 (en) | Method of video/audio playback synchronization of digital contents and apparatus using the same | |
KR20170067726A (en) | Method to handle problematic patterns in a low latency multimedia streaming environment | |
US10741217B2 (en) | Intelligent media synchronization | |
JP2009081654A (en) | Stream synchronous reproduction system and method | |
US20240236399A9 (en) | Method of synchronizing playback of video and audio of digital content and device using the same | |
US9635633B2 (en) | Multimedia synchronization system and method | |
CN115833984A (en) | Clock synchronization method and device, electronic equipment and readable storage medium | |
US20180183870A1 (en) | Synchronization setting device and distribution system | |
CN116634213A (en) | Audio and video synchronous playing method and system | |
WO2024059458A1 (en) | Synchronization of head tracking data | |
KR20190031889A (en) | Sound system based on real-time synchronous ethernet and method thereof | |
CN112235685A (en) | Sound box networking method and sound box system | |
GB2536203A (en) | An apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |