KR20220126534A - Device for outputting content and delay compensation method of content output device - Google Patents
Device for outputting content and delay compensation method of content output device Download PDFInfo
- Publication number
- KR20220126534A KR20220126534A KR1020210030931A KR20210030931A KR20220126534A KR 20220126534 A KR20220126534 A KR 20220126534A KR 1020210030931 A KR1020210030931 A KR 1020210030931A KR 20210030931 A KR20210030931 A KR 20210030931A KR 20220126534 A KR20220126534 A KR 20220126534A
- Authority
- KR
- South Korea
- Prior art keywords
- content
- audio
- video
- data
- display device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 54
- 239000000872 buffer Substances 0.000 claims description 91
- 238000013459 approach Methods 0.000 claims description 19
- 238000012360 testing method Methods 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 7
- 238000001094 photothermal spectroscopy Methods 0.000 description 44
- 238000010586 diagram Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 230000008901 benefit Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 230000001934 delay Effects 0.000 description 6
- 230000006872 improvement Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/02—Diagnosis, testing or measuring for television systems or their details for colour television signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/43615—Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/4363—Adapting the video stream to a specific local network, e.g. a Bluetooth® network
- H04N21/43632—Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
- H04N21/43635—HDMI
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Circuit For Audible Band Transducer (AREA)
- Stereophonic System (AREA)
- Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
본 발명은, 디스플레이 장치 및 콘텐츠의 포맷에 매핑된 지연 시간 정보를 적용하여, 디스플레이 장치에서 출력되는 콘텐츠의 정교한 비디오/오디오 싱크를 지원할 수 있는 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법에 관한 것이다.The present invention relates to a content output apparatus capable of supporting sophisticated video/audio sync of content output from a display apparatus by applying delay time information mapped to a display apparatus and a format of the content, and a method for compensating for delay of the content output apparatus. .
최근 TV는 대형화되고 4K, 8K 및 HDR 등의 고화질을 지원하는 추세이고, 이에 맞추어 각종 OTT(Over The Top) 서비스에서도 고화질 콘텐츠를 제공하고 있다.Recently, TVs have become larger and support high quality such as 4K, 8K, and HDR, and in line with this, various OTT (Over The Top) services are also providing high-definition content.
한편, 보다 선명하고 큰 화면으로 TV를 시청하는 사용자는, 비디오와 오디오 간의 싱크가 어긋난 것을 기존에 비해 쉽게 발견할 수 있다. 따라서 유료 텔레비젼 방송(Pay TV)이나 프리미엄 OTT 서비스 등에서는 보다 강화된 비디오와 오디오 싱크 기준을 요구하고 있으며, 이에 따라 콘텐츠 출력 장치에서는 최대한 싱크 기준을 만족시켜야 하는 실정이다.On the other hand, a user who watches TV on a clearer and larger screen may more easily discover that the synchronization between video and audio is out of sync. Therefore, pay TV broadcasting (Pay TV), premium OTT service, etc. require more enhanced video and audio sync standards, and accordingly, content output devices must satisfy the sync standards as much as possible.
따라서 디스플레이 장치에 콘텐츠를 출력하는 콘텐츠 출력 장치(예를 들어 셋탑 박스)에는 비디오와 오디오간 싱크를 맞추는 기술이 적용되어 있다.Accordingly, a technology for synchronizing video and audio is applied to a content output device (eg, a set-top box) that outputs content to a display device.
다만 셋탑 박스와 연결되어 콘텐츠를 사용자에게 출력(영상의 디스플레이, 음향의 출력)하는 디스플레이 장치(예를 들어 TV)의 경우, 디스플레이 장치 자체에도 비디오의 지연 요소나 오디오의 지연 요소가 존재하게 된다.However, in the case of a display device (eg, a TV) that is connected to a set-top box and outputs content to a user (display of an image, output of sound), a delay element of video or delay element of audio exists in the display device itself.
또한 이러한 지연 요소는 디스플레이 장치의 제조사와 모델에 따라 상이해질 수 있으며, 동일한 지연 요소라고 하더라도 콘텐츠의 포맷이 무엇인지에 따라 지연 시간이 상이해질 수 있다.In addition, the delay factor may be different depending on the manufacturer and model of the display device, and even with the same delay factor, the delay time may be different depending on the format of the content.
따라서 셋탑 박스와 같은 콘텐츠 출력 장치에서 정교한 싱크를 맞추더라도, 실제 디스플레이 장치에서 추가적인 지연이 발생하여 사용자에게 싱크가 맞지 않는 콘텐츠가 제공되는 문제가 발생하게 된다.Therefore, even when a content output device such as a set-top box performs precise synchronization, an additional delay occurs in the actual display device, resulting in a problem in which out-of-sync content is provided to the user.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 디스플레이 장치 및 콘텐츠의 포맷에 매핑된 지연 시간 정보를 적용하여, 디스플레이 장치에서 출력되는 콘텐츠의 정교한 비디오/오디오 싱크를 지원할 수 있는 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법을 제공하기 위함이다.SUMMARY OF THE INVENTION The present invention is to solve the above problems, and an object of the present invention is to apply delay time information mapped to a display device and a format of the content to support sophisticated video/audio sync of content output from the display device. An object of the present invention is to provide an output device and a method for compensating for delay of a content output device.
본 발명에 따른 콘텐츠 출력 장치는, 외부 장치 인터페이스, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 메모리, 및, 상기 외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하고, 상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하고, 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하고, 상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하고, 상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 제어부를 포함한다.The content output device according to the present invention includes an external device interface, a memory for storing a plurality of delay time information mapped to a plurality of compensation sets, and, when a display device is connected to the external device interface, through the external device interface receiving identification data of the display device, generating an identification ID of the display device using the identification data, and outputting content including video data and audio data to the display device through the external device interface; Acquire information on the content format of the content, select an identification ID of the display device and a reward set corresponding to the content format among the plurality of reward sets, and based on the delay time information mapped to the selected reward set and a controller for adjusting a time gap between the video data and the audio data.
이 경우 상기 외부 장치 인터페이스는, HDMI 포트이고, 상기 식별 데이터는, EDID일 수 있다.In this case, the external device interface may be an HDMI port, and the identification data may be EDID.
한편 상기 복수의 보상 셋 각각은, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이할 수 있다.Meanwhile, each of the plurality of reward sets may be different from the other reward sets in at least one of an identification ID and a content format.
한편 상기 콘텐츠 포맷은, 콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분될 수 있다.Meanwhile, the content format may be distinguished from other content formats by the video format, audio format, and frame rate of the content.
한편 상기 제어부는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.Meanwhile, the control unit may repeat or repeat the frame of the video data in the buffer so that a time gap between the video data and the audio data output from the display device approaches 0 based on the mapped delay time information. A discard can be performed.
이 경우 상기 제어부는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.In this case, the control unit repeats the frame of the video data in the buffer so that a time gap between the video data and the audio data output from the buffer approaches a value having a negative sign in the mapped delay time information. ) or discard.
한편 상기 제어부는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 할 수 있다.Meanwhile, the controller remaps the video PTS of the video data or the audio PTS of the audio data so that a time gap between the video data and the audio data output from the display device approaches 0 based on the mapped delay time information. can do.
이 경우 상기 제어부는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더할 수 있다.In this case, the controller adds the negative sign to the video PTS of the video data in the buffer so that a time gap between the video data and the audio data output from the buffer approaches a value having a negative sign in the mapped delay time information. value, or the delay time information may be added to the audio PTS of the audio data in the buffer.
한편 본 발명에 따른 콘텐츠 출력 장치의 지연 보상 방법은, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 단계, 외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하는 단계, 상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하는 단계, 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하는 단계, 상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하는 단계, 및, 상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계를 포함한다.Meanwhile, the method for compensating for delay of a content output device according to the present invention includes the steps of storing a plurality of delay time information mapped to a plurality of compensation sets, respectively, and when a display device is connected to an external device interface, the display through the external device interface Receiving identification data of a device, generating an identification ID of the display device using the identification data, outputting content including video data and audio data to the display device through the external device interface; obtaining information on the content format of the content, and selecting a reward set corresponding to an identification ID of the display device and the content format from among the plurality of reward sets, and a delay time mapped to the selected reward set and adjusting a time gap between the video data and the audio data based on the information.
이 경우 상기 외부 장치 인터페이스는, HDMI 포트이고, 상기 식별 데이터는, EDID일 수 있다.In this case, the external device interface may be an HDMI port, and the identification data may be EDID.
한편 상기 복수의 보상 셋 각각은, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이할 수 있다.Meanwhile, each of the plurality of reward sets may be different from the other reward sets in at least one of an identification ID and a content format.
한편 상기 콘텐츠 포맷은, 콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분될 수 있다.Meanwhile, the content format may be distinguished from other content formats by the video format, audio format, and frame rate of the content.
한편 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계를 포함할 수 있다.Meanwhile, the adjusting of the time gap between the video data and the audio data may include: based on the mapped delay time information, the time gap between the video data and the audio data output from the display device approaches zero in the buffer. The method may include repeating or discarding the frame of the video data.
이 경우 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.In this case, in the step of repeating or discarding the frame of the video data in the buffer, the time gap between the video data and the audio data output from the buffer is negative in the mapped delay time information. To access a value having a sign, it is possible to repeat or discard the frame of the video data in the buffer.
한편 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계를 포함할 수 있다.Meanwhile, the adjusting the time gap between the video data and the audio data may include adjusting the time gap between the video data and the audio data output from the display device based on the mapped delay time information so that the time gap between the video data and the audio data approaches zero. and remapping the video PTS of , or the audio PTS of the audio data.
이 경우 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더할 수 있다.In this case, the step of remapping the video PTS of the video data or the audio PTS of the audio data may include such that a time gap between the video data and the audio data output from the buffer approaches a value having a negative sign in the mapped delay time information. , the negative value may be added to the video PTS of the video data in the buffer, or the delay time information may be added to the audio PTS of the audio data in the buffer.
한편 본 발명에 따른 지연 시간 정보 생성 방법은, 테스트 콘텐츠를 콘텐츠 출력 장치의 외부 장치 인터페이스를 통하여 디스플레이 장치로 출력하는 제1 단계, 상기 디스플레이 장치에 의해 상기 테스트 콘텐츠가 출력되면서 발생하는 비디오 및 오디오 간의 지연 시간 정보를 획득하는 제2 단계, 및, 상기 디스플레이 장치의 식별 ID 및 상기 테스트 콘텐츠의 콘텐츠 포맷을 포함하는 보상 셋에 상기 지연 시간 정보를 매핑하여 저장하는 제3 단계를 포함한다.Meanwhile, in the method for generating delay time information according to the present invention, a first step of outputting test content to a display device through an external device interface of a content output device, and video and audio generated while the test content is output by the display device A second step of obtaining delay time information, and a third step of mapping and storing the delay time information in a compensation set including an identification ID of the display device and a content format of the test content are included.
이 경우 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 서로 다른 디스플레이 장치에 대하여 상기 제1 내지 제3 단계를 반복함으로써, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 복수의 보상 셋 각각에, 상응하는 지연 시간 정보를 매핑하는 단계를 더 포함할 수 있다.In this case, by repeating the first to third steps for different display devices using a plurality of test content having different content formats, at least one of an identification ID and a content format corresponds to each of a plurality of reward sets different from each other. It may further include the step of mapping the delay time information.
이 경우 상기 콘텐츠 포맷은, 콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분될 수 있다.In this case, the content format may be distinguished from other content formats by the video format, audio format, and frame rate of the content.
본 발명에 따르면, 디스플레이 장치 및 콘텐츠 포맷의 특성을 고려하여 비디오 및 오디오 간 싱크를 조절하기 때문에, 사용자가 실제로 시청하는 콘텐츠의 싱크를 최적화 할 수 있는 장점이 있다.According to the present invention, since the sync between the video and audio is adjusted in consideration of the characteristics of the display device and the content format, there is an advantage in that the sync of the content actually viewed by the user can be optimized.
또한 본 발명에 따르면, 다양한 디스플레이 장치 및 다양한 콘텐츠 포맷을 반영한 복수의 보상 셋을 생성하고, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 이용하여 보상을 수행함으로써, 콘텐츠 출력 장치에 어떤 디스플레이 장치가 연결되는지 또는 어떤 포맷의 콘텐츠가 출력되는지에 관계 없이 싱크를 정교하게 맞출 수 있는 장점이 있다.In addition, according to the present invention, by generating a plurality of compensation sets reflecting various display devices and various content formats, and performing compensation using a plurality of delay time information mapped to the plurality of compensation sets, a certain display is displayed on the content output device. It has the advantage of being able to precisely synchronize regardless of whether the device is connected or what format the content is output in.
또한 HDMI는 단방향 인터페이스로써, 디스플레이 장치는 디스플레이 장치에서 발생하는 실제 지연 정보를 콘텐츠 출력 장치에 전송할 수 없다. 다만 본 발명은 미리 시간 지연 정보를 수집하여 보상 셋과 매핑하고, 보상 셋에 매핑된 시간 지연 정보를 콘텐츠 출력 장치에 저장함으로써 디스플레이 장치에서 발생하는 지연을 보상할 수 있는 장점이 있다.Also, since HDMI is a one-way interface, the display device cannot transmit actual delay information generated by the display device to the content output device. However, the present invention has the advantage of compensating for the delay occurring in the display device by collecting the time delay information in advance, mapping it with the compensation set, and storing the time delay information mapped to the compensation set in the content output device.
또한 본 발명에 따르면, 새로운 콘텐츠 포맷이나 새로운 디스플레이 장치가 등장하는 경우, 새로운 보상 셋 및 상응하는 지연 시간 정보를 측정하여 콘텐츠 출력 장치 들에 배포하는 것이 가능하며, 이러한 배포는 펌웨어 또는 소프트웨어 업그레이드 등의 간단한 방식으로 수행되는 장점이 있다. 따라서 본 발명은 이미 사용되고 있는 콘텐츠 출력 장치에 손쉽게 적용될 수 있는 장점이 있다.In addition, according to the present invention, when a new content format or a new display device appears, it is possible to measure a new compensation set and corresponding delay time information and distribute it to the content output devices. It has the advantage of being done in a simple way. Therefore, the present invention has an advantage that can be easily applied to content output devices that are already in use.
도 1은 본 발명에 따른 콘텐츠 출력 장치를 설명하기 위한 블록도이다.
도 2는 본 발명에 따른, 제어부의 세부 구성, 디스플레이 장치의 구성 및 지연 측정 장치의 구성을 설명하기 위한 블록도이다.
도 3은 본 발명에 따른, 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148) 및 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)를 도시한 도면이다.
도 4는 본 발명에 따른, 지연 시간 정보의 생성 방법을 설명하기 위한 도면이다.
도 5는 다양한 콘텐츠 포맷을 도시한 도면이다.
도 6은 복수의 보상 셋을 도시한 도면이다.
도 7은 본 발명에 따른, 콘텐츠 출력 장치의 지연 보상 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 또 다른 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.1 is a block diagram illustrating a content output device according to the present invention.
2 is a block diagram for explaining a detailed configuration of a control unit, a configuration of a display device, and a configuration of a delay measuring apparatus according to the present invention.
3 is a diagram illustrating a video decoder output buffer (VDEC Output Buffer) 148 and an audio decoder output buffer (ADEC Output Buffer) 149 according to the present invention.
4 is a diagram for explaining a method of generating delay time information according to the present invention.
5 is a diagram illustrating various content formats.
6 is a diagram illustrating a plurality of compensation sets.
7 is a diagram for explaining a delay compensation method of a content output device according to the present invention.
8 is a diagram for explaining a method of performing compensation based on delay time information according to an embodiment of the present invention.
9 is a diagram for explaining a method of performing compensation based on delay time information according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다. In implementing the present invention, components may be subdivided for convenience of description, but these components may be implemented in one device or module, or one component may be divided into a plurality of devices or modules. It can also be implemented in
발명의 설명에 앞서, 디스플레이 장치에서 발생할 수 있는 지연 요소를 설명한다.Prior to the description of the invention, a delay element that may occur in the display device will be described.
디스플레이 장치(예를 들어 TV)에는 다양한 지연 요소가 존재하며, 따라서 디스플레이 장치마다 지연이 상이해질 수 있다.Various delay elements exist in a display device (eg, a TV), and thus the delay may be different for each display device.
구체적으로 지연은 디스플레이 장치 제조사들의 제작 방식에 따라 상이해질 수 있다. 또한 사용하는 칩셋이나 적용 기술의 변화로 인하여, 동일한 제조사에서 제작한 디스플레이 장치 들도 모델마다 지연이 상이해질 수 있다.Specifically, the delay may be different according to manufacturing methods of display device manufacturers. Also, due to changes in the chipset used or applied technology, delays may be different for each model of display devices manufactured by the same manufacturer.
또한 디스플레이 장치에서 지연이 발생하는 가장 큰 요인은, 디스플레이 장치에서 자체적으로 보유하고 있는 화질 및 음질 개선 알고리즘일 수 있다.In addition, the biggest factor causing the delay in the display device may be the image quality and sound quality improvement algorithm that the display device owns.
화질의 경우 개선 알고리즘의 경우, 표준, 선명함, 게임, AI 등의 다양한 모드를 가지고 있다. 예를 들어 게임 모드의 경우는 통상적으로 딜레이를 최소화 하여 패널에 화면을 출력한다.In the case of image quality, the improvement algorithm has various modes such as standard, sharp, game, and AI. For example, in the case of game mode, the screen is usually output to the panel by minimizing the delay.
또한 음질 개선 알고리즘의 경우, 영화, 음악 등 특정 장르에 따라 원본 음성 데이터를 가공하여 디스플레이 장치의 스피커를 통하여 출력한다. In addition, in the case of the sound quality improvement algorithm, the original voice data is processed according to a specific genre, such as a movie or music, and outputted through a speaker of the display device.
그리고 화질 또는 음질의 개선을 위하여 비디오 프로세싱 및 오디오 프로세싱을 거칠때마다 지연이 발생하게 된다.In addition, delay occurs whenever video processing and audio processing are performed in order to improve picture quality or sound quality.
또한 동일한 제조사의 동일 모델의 디스플레이 장치에서 동일한 개선 알고리즘을 거치더라도, 콘텐츠의 포맷에 따라 상이한 지연이 발생할 수 있다. 예를 들어 비디오 프로세싱 및 오디오 프로세싱 작업들은 각 단계별로 버퍼를 이용하게 되는데, 버퍼를 거칠 때마다 1/프레임레이트 (60fps의 경우 16.67ms, 30fps의 경우 33.3ms)의 지연이 발생하게 된다. Also, even if a display device of the same model of the same manufacturer goes through the same improvement algorithm, different delays may occur depending on the format of the content. For example, video processing and audio processing tasks use a buffer in each step, and each time the buffer is passed, a delay of 1/frame rate (16.67 ms for 60 fps and 33.3 ms for 30 fps) occurs.
한편 비디오 색공간과 관련해서도 지연이 발생할 수 있다. 구체적으로 TV 패널의 경우 최종적으로 RGB 색 공간(color space)에서 영상을 출력하지만, HDMI를 통하여 디스플레이 장치에 전달되는 데이터는 YUV420, YUV444 등으로써 다른 색공간의 데이터가 디스플레이 장치에 전달될 수 있다. 그리고 이와 같이 색 공간이 다른 경우에는 색상 공간 변환(color space conversion)을 수행하면서 지연이 발생하게 된다.On the other hand, delays may also occur with respect to the video color space. Specifically, in the case of a TV panel, an image is finally output in an RGB color space, but data transmitted to the display device through HDMI is YUV420, YUV444, or the like, and data in a different color space may be transmitted to the display device. Also, when the color spaces are different as described above, a delay occurs while performing color space conversion.
HDR(High Dynamic Range)과 SDR (Standard Dynamic Range)의 관계에서도 지연이 발생할 수 있다. 구체적으로 HDR(High Dynamic Range)의 경우에는 TV 패널의 특징에 맞게 RGB 값의 리매핑이 필요하며, 또한 TV패널이 HDR을 지원하지 않는 경우에는 HDR을 SDR로 변환하는 과정을 거쳐야 한다.A delay may also occur in the relationship between HDR (High Dynamic Range) and SDR (Standard Dynamic Range). Specifically, in the case of HDR (High Dynamic Range), remapping of RGB values is required to match the characteristics of the TV panel. Also, if the TV panel does not support HDR, it is necessary to go through the process of converting HDR to SDR.
비디오 프레임레이트와 관련해서도 지연이 발생할 수 있다. 구체적으로 TV의 경우 원본 콘텐츠의 프레임레이트를 판독하여 고 프레임 레이트의 콘텐츠를 생성 및 출력하는 기능이 존재한다. 그리고 이와 같은 화질 변경 과정은 버퍼를 거치며 버퍼에서의 지연은 프레임레이트에 연관되기 때문에, 지연이 발생하게 된다.There may also be delays with respect to the video frame rate. Specifically, in the case of a TV, there is a function of reading the frame rate of the original content to generate and output high frame rate content. In addition, since the process of changing the picture quality goes through the buffer and the delay in the buffer is related to the frame rate, a delay occurs.
또한 스트리밍 서비스나 VoD의 경우 빨리 감기, 되감기, 건너뛰기, 일시 정지 후 재생 등의 동작에 의해서도 지연이 발생할 수 있다. 구체적으로 빨리 감기, 되감기, 건너뛰기, 일시 정지 후 재생 등의 동작의 경우 화면이 일시적으로 멈추었다가 다시 진행을 하는데, TV에 따라서 해당 버퍼를 비운 후 다시 전송된 데이터를 처리하는지 또는 버퍼 내 데이터를 출력하는지에 따라서 상이한 지연이 발생할 수 있다.Also, in the case of streaming services or VoD, delays may occur due to operations such as fast forward, rewind, skip, and play after pause. Specifically, in the case of operations such as fast forward, rewind, skip, and playback after pause, the screen temporarily stops and then resumes. Different delays may occur depending on output.
또한 오디오의 경우 HDMI로 전송되는 데이터가 비트스트림(Bitstream) 인지 또는 PCM(pulse code modulation)인지에 따라서도 상이한 지연이 발생할 수 있다. 그 이유는 PCM(pulse code modulation)의 경우 오디오 코덱 칩에서 인식하여 바로 DAC(Digital to Analog Converter), 앰프를 거쳐 TV 스피커로 출력할 수 있지만, 돌비 디지털(Dolby Digital) 등의 비트스트림(Bitstream)의 경우에는 TV에서 오디오 디코딩을 수행하는 과정이 추가 되기 때문이다.Also, in the case of audio, a different delay may occur depending on whether data transmitted through HDMI is a bitstream or pulse code modulation (PCM). The reason is that in the case of PCM (pulse code modulation), the audio codec chip recognizes it and outputs it directly to the TV speaker through the DAC (Digital to Analog Converter) and amplifier, but the bitstream such as Dolby Digital This is because, in the case of , the process of performing audio decoding on the TV is added.
위에 언급한 내용 외에도 디스플레이 장치(예를 들어 TV)에는 비디오나 오디오의 지연을 발생시킬 수 있는 다양한 요소가 존재하며, 지연은 디스플레이 장치의 제조사 마다, 동일한 제조사의 제작물임에도 불구하고 제조사의 모델마다, 동일 모델임에도 불구하고 출력되는 콘텐츠의 포맷에 따라 달라질 수 있다.In addition to the above, there are various factors that can cause video or audio delay in display devices (for example, TVs), and the delay varies depending on the manufacturer of the display device, and each manufacturer’s model despite being made by the same manufacturer. Although it is the same model, it may vary depending on the format of the outputted content.
따라서 본 발명에서는, 콘텐츠 출력 장치에서 디스플레이 장치 및 콘텐츠의 포맷에 매핑된 지연 보상 값을 적용함으로써, 디스플레이 장치에서 출력되는 콘텐츠의 정교한 비디오/오디오 싱크를 지원한다.Accordingly, the present invention supports sophisticated video/audio sync of content output from the display device by applying the delay compensation value mapped to the display device and the format of the content in the content output device.
한편 디지털 방송 또는 온라인 스트리밍 서비스가 대중화 되면서 콘텐츠 출력 장치의 칩셋(멀티미디어 프로세서)에는 이미 비디오와 오디오간 싱크를 맞추는 기능이 내장되어 있다. Meanwhile, as digital broadcasting or online streaming services become popular, the chipset (multimedia processor) of the content output device already has a built-in function to synchronize between video and audio.
또한 전송 스트림(Transport Stream) 또는 프로그램 스트림(Program Stream) 내부에는, 디지털 방송 및 스트리밍 서비스에서는 비디오를 출력하는 시간(Video Presentation Time Stamp, 이하 비디오 PTS라 함)과 오디오를 출력하는 시간(Audio Presentation Time Stamp, 이하 오디오 PTS라 함)이 포함되게 된다.In addition, in the transport stream or the program stream, in digital broadcasting and streaming services, video output time (Video Presentation Time Stamp, hereinafter referred to as video PTS) and audio output time (Audio Presentation Time) Stamp, hereinafter referred to as audio PTS) will be included.
그리고 콘텐츠 출력 장치의 칩셋들은 PTS 갭이 일정 범위 내에 있으면, 비디오와 오디오간 싱크 동작을 수행하지 않는다. 본 명세서는 비디오와 오디오간 싱크 동작을 수행하지 않는 범위를 마진 범위라고 명칭하도록 한다.And, when the PTS gap is within a certain range, the chipsets of the content output device do not perform a video-audio sync operation. In this specification, a range in which a video-audio sync operation is not performed is referred to as a margin range.
현재 셋탑 박스 등의 콘텐츠 출력 장치에서 사용하는 칩셋(멀티미디오 프로세서)는, PTS 갭이 마진 범위 밖에 있는 경우 PTS 갭이 마진 범위 이내로 오도록 싱크 동작을 수행하도록 설계되어 있다.A chipset (multimedia processor) currently used in a content output device such as a set-top box is designed to perform a sync operation so that the PTS gap falls within the margin range when the PTS gap is outside the margin range.
도 1은 본 발명에 따른 콘텐츠 출력 장치를 설명하기 위한 블록도이다.1 is a block diagram illustrating a content output device according to the present invention.
콘텐츠 출력 장치(100)는 방송 스트림을 수신하여 디코딩하고, 디코딩된 비디오 데이터 및 오디오 데이터를 디스플레이 장치에 전송하는 장치들을 의미할 수 있다.The
예를 들어 콘텐츠 출력 장치(100)는 셋탑 박스와 같은 영상 처리 장치일 수 있다. 이 경우 영상 처리 장치는 선국된 방송 채널에 대한 콘텐츠 스트림을 수신하고, 수신된 콘텐츠 스트림을 디코딩하여 비디오 데이터 및 오디오 데이터를 출력할 수 있다. 이 경우 출력된 비디오 데이터 및 오디오 데이터는 TV와 같은 디스플레이 장치에 전송되어, 디스플레이 장치에 의해 디스플레이 또는 출력될 수 있다.For example, the
콘텐츠 출력 장치(100)는 통신부(110), 외부 장치 인터페이스(120), 메모리(130) 및 제어부(140)를 포함할 수 있다.The
통신부(110)는 콘텐츠 출력 장치(100)와 다른 장치 사이의 유선 또는 무선 통신을 지원할 수 있다.The
구체적으로 통신부(110)는 콘텐츠 출력 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 통신부(110)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 서버(100)와 데이터를 송신 또는 수신할 수 있다.Specifically, the
한편 통신부(110)는 콘텐츠 스트림을 수신할 수 있다. 여기서 콘텐츠 스트림이란 전송 스트림(Transport Stream)과 프로그램 스트림(Program Stream) 등을 포함할 수 있으며, 콘텐츠 스트림을 통하여 방송 콘텐츠, VOD, 스트리밍 콘텐츠 등이 전송될 수 있다.Meanwhile, the
외부 장치 인터페이스(120)는 디스플레이 장치에 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 전송하기 위한 인터페이스를 포함할 수 있다.The
구체적으로 외부 장치 인터페이스(120)는 HDMI 포트일 수 있다. 이 경우 콘텐츠 출력 장치(100)는 디스플레이 장치와 HDMI 케이블에 의해 연결되어, 디스플레이 장치에 콘텐츠를 전송할 수 있다.Specifically, the
한편 메모리(130)는 제어부(140)의 각종 신호 처리 및 제어를 위한 프로그램, 컨텐츠, 디코딩된 콘텐츠, 기타 데이터 등을 저장할 수 있다.Meanwhile, the
또한 메모리(230)는 콘텐츠 출력 장치(100)의 동작을 위한 응용 프로그램 또는 데이터를 저장할 수 있다.Also, the
한편 제어부(140)는 콘텐츠 출력 장치(100)의 전반적인 동작을 제어할 수 있다.Meanwhile, the
또한 제어부(140)는 콘텐츠 스트림을 디코딩하여 비디오 데이터 및 오디오 데이터를 생성하고, 비디오 데이터의 비디오 PTS 및 오디오 데이터의 오디오 PTS에 기반하여 비디오 데이터 및 오디오 데이터의 시간 갭을 획득하고, 시간 갭이 마진 범위를 벗어나면 싱크 동작을 수행할 수 있다.In addition, the
도 2는 본 발명에 따른, 제어부의 세부 구성, 디스플레이 장치의 구성 및 지연 측정 장치의 구성을 설명하기 위한 블록도이다.2 is a block diagram for explaining a detailed configuration of a control unit, a configuration of a display device, and a configuration of a delay measuring apparatus according to the present invention.
제어부(140)의 세부 구성은, MPEG의 다양한 표준 셋트 중 MPEG2 System 규격을 예시로 설명하기로 한다. 하지만, 본 발명의 기본적인 동작은 다른 동영상의 국내외 표준 또는 De-facto 표준으로 충분한 변형이 가능하므로 본 발명의 범위는 MPEG2 System에 국한하지 않는다.The detailed configuration of the
디먹스(Demux)(141)는 콘텐츠 스트림을 통하여 수신된 콘텐츠(방송 콘텐츠, VOD, 스트리밍 콘텐츠 등)을 분석하여 비디오 콘텐츠, 오디오 콘텐츠 및 데이터를 구분할 수 있다.The
디스크램블버(Descrambler)(142)는 방송 수신제한시스템(CAS)나 디지털 저작권 관리(DRM)에 의해 제한되는 콘텐츠를 구분할 수 있다.The
비디오 디코더 인풋 버퍼(VDEC Input Buffer)(143)와 오디오 디코더 인풋 버퍼(ADEC Input Buffer)는 디코더의 앞단에 존재하는 버퍼일 수 있다. 그리고 비디오 디코더 인풋 버퍼(VDEC Input Buffer)(143)는 콘텐츠 스트림 상에 포함되어 있는 디코딩 타임 스탬프(Decoding Time Stamp, DTS)에 맞추어 비디오 디코더(VDEC)(146)에 비디오 콘텐츠를 전송할 수 있다. 또한 오디오 디코더 인풋 버퍼(ADEC Input Buffer)(144)는 콘텐츠 스트림 상에 포함되어 있는 디코딩 타임 스탬프(Decoding Time Stamp, DTS)에 맞추어 오디오 디코더(ADEC)(147)에 오디오 콘텐츠를 전송할 수 있다.The video decoder input buffer (VDEC Input Buffer) 143 and the audio decoder input buffer (ADEC Input Buffer) may be buffers existing in front of the decoder. In addition, the video decoder input buffer (VDEC Input Buffer) 143 may transmit video content to the video decoder (VDEC) 146 according to a decoding time stamp (DTS) included in the content stream. Also, the audio decoder input buffer (ADEC Input Buffer) 144 may transmit audio content to the audio decoder (ADEC) 147 according to a decoding time stamp (DTS) included in the content stream.
시스템 타임 클럭(System Time Clock)(145)은 콘텐츠 스트림으로부터 PCR(Program Clock Reference) 파싱을 수행하여 기준 클럭을 생성하고, 콘텐츠 출력 장치(100)의 각 구성 요소에 기준 클럭을 제공할 수 있다. 특히 기준 클럭은 디코딩 타임 스탬프(Decoding Time Stamp, DTS) 및 표현 시간 지정 정보(Presentation Time Stamp, PTS)에 대하여 시간 기준 값을 제공할 수 있다.The
비디오 디코더(VDEC)(146)는 비디오 콘텐츠를 디코딩하여 비디오 데이터를 생성하고, 생성된 비디오 데이터를 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)에 전송할 수 있다.The video decoder (VDEC) 146 may decode video content to generate video data, and transmit the generated video data to a video decoder output buffer (VDEC Output Buffer) 148 .
또한 오디오 디코더(ADEC)(147)는 오디오 콘텐츠를 디코딩하여 오디오 데이터를 생성하고, 생성된 오디오 데이터를 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)에 전송할 수 있다.Also, the audio decoder (ADEC) 147 may generate audio data by decoding the audio content, and transmit the generated audio data to an audio decoder output buffer (ADEC Output Buffer) 149 .
비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)는, AV 출력 컨트롤러(AV Output Controller)(150)의 제어 하에, 비디오 데이터를 출력부(120)로 전송할 수 있다.The video decoder output buffer (VDEC Output Buffer) 148 may transmit video data to the
또한 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)는, AV 출력 컨트롤러(AV Output Controller)(150)의 제어 하에, 비디오 데이터를 출력부(120)로 전송할 수 있다.Also, the audio decoder output buffer (ADEC Output Buffer) 149 may transmit video data to the
AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터의 비디오 PTS 및 오디오 데이터의 오디오 PTS에 기반하여 비디오 데이터 및 오디오 데이터의 시간 갭을 획득하고, 시간 갭이 마진 범위를 벗어나면 싱크 동작을 수행할 수 있다.The
한편 본 명세서에서, 용어 PTS 갭은 용어 시간 갭과 혼용되어 사용될 수 있다.Meanwhile, in this specification, the term PTS gap may be used interchangeably with the term time gap.
도 3은 본 발명에 따른, 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148) 및 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)를 도시한 도면이다.3 is a diagram illustrating a video decoder output buffer (VDEC Output Buffer) 148 and an audio decoder output buffer (ADEC Output Buffer) 149 according to the present invention.
비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)는 비디오 데이터의 복수의 프레임을 저장할 수 있다.The video decoder output buffer (VDEC Output Buffer) 148 may store a plurality of frames of video data.
예를 들어 도 3a를 참고하면, 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)는 첫번째 프레임으로부터 N번째 프레임까지의 복수의 프레임을 저장할 수 있으며, 복수의 프레임은 첫번째 프레임부터 순차적으로 출력부(120)에 출력될 수 있다.For example, referring to FIG. 3A , the video decoder output buffer (VDEC Output Buffer) 148 may store a plurality of frames from the first frame to the N-th frame, and the plurality of frames sequentially from the first frame to the output unit ( 120) can be output.
또한 복수의 프레임은, 각각 상응하는 비디오 PTS를 가질 수 있다.Also, a plurality of frames may each have a corresponding video PTS.
한편 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)는 오디오 데이터의 복수의 부분 오디오 데이터를 저장할 수 있다.Meanwhile, the audio decoder output buffer (ADEC Output Buffer) 149 may store a plurality of partial audio data of the audio data.
예를 들어 도 3b를 참고하면, 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)는 첫번째 부분 오디오 데이터로부터 N번째 부분 오디오 데이터까지의 복수의 부분 오디오 데이터를 저장할 수 있으며, 복수의 부분 오디오 데이터는 첫번째 부분 오디오 데이터부터 순차적으로 출력부(120)에 출력될 수 있다.For example, referring to FIG. 3B , the audio decoder output buffer (ADEC Output Buffer) 149 may store a plurality of partial audio data from the first partial audio data to the Nth partial audio data, and the plurality of partial audio data The first partial audio data may be sequentially output to the
또한 복수의 부분 오디오 데이터는, 각각 상응하는 오디오 PTS를 가질 수 있다.Also, each of the plurality of partial audio data may have a corresponding audio PTS.
한편 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148) 내 복수의 프레임에 각각 할당된 복수의 비디오 PTS와, 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149) 내 복수의 부분 오디오 데이터에 각각 할당된 복수의 오디오 PTS를 실시간 모니터링 할 수 있다.Meanwhile, the
한편 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터 및 오디오 데이터의 시간 갭을 획득할 수 있다.Meanwhile, the
구체적으로 AV 출력 컨트롤러(AV Output Controller)(150)는 서로 상응하는 비디오 데이터 및 오디오 데이터의 시간 갭을 획득할 수 있다. 예를 들어 AV 출력 컨트롤러(AV Output Controller)(150)는, 비디오 데이터의 제1 프레임과 오디오 데이터의 제1 부분 오디오 데이터를 비교하여 시간 갭을 획득하고, 비디오 데이터의 제2 프레임과 오디오 데이터의 제2 부분 오디오 데이터를 비교하여 시간 갭을 획득할 수 있다.Specifically, the
이 경우 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터의 비디오 PTS 및 오디오 데이터의 오디오 PTS에 기반하여 비디오 데이터 및 오디오 데이터의 시간 갭을 획득할 수 있다.In this case, the
예를 들어 AV 출력 컨트롤러(AV Output Controller)(150)는, 비디오 데이터의 제1 프레임의 비디오 PTS와 제1 부분 오디오 데이터의 오디오 PTS를 이용하여 비디오 데이터 및 오디오 데이터의 시간 갭(비디오 PTS - 오디오 PTS)을 획득할 수 있다.For example, the
그리고 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터 및 오디오 데이터의 시간 갭에 기초하여, 시간 갭이 마진 범위를 벗어나면 싱크 동작을 수행할 수 있다.In addition, the
다시 도 2로 돌아가서, AV 출력 컨트롤러(AV Output Controller)(150)는 싱크 매니저(152)로부터 수신되는 보상 값에 기초하여 비디오 데이터 및 오디오 데이터의 시간 갭을 조절할 수 있다.Referring back to FIG. 2 , the
한편 디스플레이 장치(200)가 콘텐츠 출력 장치(100)에 연결되면, 외부 장치 인터페이스(120)는 디스플레이 장치(200)로부터 디스플레이 장치(200)의 식별 데이터를 수신할 수 있다. 여기서 식별 데이터는 EDID(Extended Display Identification Data)일 수 있다.Meanwhile, when the
이 경우 외부 장치 인터페이스(120)는 식별 데이터를 싱크 디텍터(sink dector)(151)에 전송할 수 있다.In this case, the
한편 싱크 디텍터(sink dector)(151)는 식별 데이터에 기초하여 콘텐츠 출력 장치(100)에 연결된 디스플레이 장치(200)의 식별 ID를 생성할 수 있다. 이 경우 싱크 디텍터(sink dector)(151)는 디스플레이 장치(200)의 식별 ID를 싱크 매니저(Sync Manager)(152)에 전송할 수 있다.Meanwhile, the
또한 싱크 매니저(Sync Manager)(152)는 현재 외부 장치 인터페이스(120)로 출력되는 콘텐츠의 포맷을 탐지할 수 있다.Also, the
한편 복수의 지연 시간 정보를 획득하는 과정에서, 싱크 매니저(Sync Manager)(152)는 지연 특정 장치(300)와 제1 통신부(110)를 통하여 통신하고, 지연 특정 장치(300)로부터 지연 시간 정보를 수신할 수 있다. 이 경우 싱크 매니저(Sync Manager)(152)는 디스플레이 장치(200)의 식별 ID 및 콘텐츠의 포맷을 포함하는 보상 셋에 지연 시간 정보를 매핑하여 저장할 수 있다.Meanwhile, in the process of acquiring the plurality of delay time information, the
또한 지연 시간 정보에 기초한 보상을 수행하는 과정에서, 싱크 매니저(Sync Manager)(152)는 디스플레이 장치(200)의 식별 ID 및 콘텐츠의 포맷을 포함하는 특정 보상 셋에 매핑된 특정 지연 시간 정보를 획득하고, 획득된 지연 시간 정보에 기반한 보상 값을 AV 출력 컨트롤러(AV Output Controller)(150)에 전송할 수 있다.Also, in the process of performing compensation based on the delay time information, the
한편 디스플레이 장치(200)는 TV 등, 콘텐츠에 포함되는 비디오 데이터를 디스플레이 하고, 콘텐츠에 포함되는 오디오 데이터를 스피커를 통하여 출력하는 장치를 의미할 수 있다.Meanwhile, the
디스플레이 장치(200)는 입력부(210), 비디오 처리부(225) 및 오디오 처리부(230)를 포함하는 제어부(220), 비디오 출력부(240) 및 오디오 출력부(250)를 포함할 수 있다.The
입력부(210)는 콘텐츠 출력 장치(100)의 외부장치 인터페이스(120)와 연결되어, 콘텐츠 출력 장치(100)로부터 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 수신할 수 있다. The
한편 입력부(210)는 HDMI 케이블을 통하여 외부장치 인터페이스(120)와 연결될 수 있으며, 이 경우 입력부(210)는 HDMI 포트를 포함할 수 있다.Meanwhile, the
또한 입력부(210)는 외부장치 인터페이스(120)에 식별 데이터(예를 들어 EDID)를 전송할 수 있다.Also, the
한편 제어부(220)는 수신된 비디오 데이터를 처리하여 비디오 출력부(240)에 전송하고, 수신된 오디오 데이터를 처리하여 오디오 출력부(250)에 전송할 수 있다.Meanwhile, the
한편 디스플레이 장치(200)에서의 지연은 제어부(220), 즉 비디오 처리부(225) 및 오디오 처리부(230) 중 적어도 하나에서 발생할 수 있다.Meanwhile, the delay in the
즉 제어부(220)는 수신된 비디오 데이터를 비디오 출력부(240)에서 출력하기 위한 처리, 수신된 오디오 데이터를 오디오 출력부(250)에서 출력하기 위한 처리, 화질 개선 알고리즘, 음질 개선 알고리즘 및 기타 다양한 처리를 수행하며, 이에 따라 제어부(220)에서는 지연이 발생할 수 있다.That is, the
한편 비디오 출력부(240)는 영상을 디스플레이 하기 위한 디스플레이를 포함하고, 제어부(220)에서 전송되는 데이터를 디스플레이 할 수 있다.Meanwhile, the
또한 오디오 출력부(250)는 오디오를 출력하기 위한 스피커를 포함하고, 제어부(220)에서 전송되는 데이터를 출력할 수 있다.Also, the
한편 지연 측정 장치(300)는 디스플레이 장치(200)에서 테스트 콘텐츠를 재생하는 경우, 디스플레이 장치(200)에서 출력되는 비디오와 오디오 간의 지연 시간(비디오의 출력 시간 - 오디오의 출력 시간)을 산출할 수 있다.On the other hand, the
구체적으로 지연 측정 장치(300)는 비디오 탐지부(310), 오디오 탐지부(320) 및 지연 산출부(330)를 포함할 수 있다.In more detail, the
비디오 탐지부(310)는 빛을 감지하는 센서를 포함하고, 오디오 탐지부(320)는 소리를 감지하는 센서를 포함할 수 있다.The
또한 지연 산출부(330)는 비디오 탐지부(310)에서 감지된 값 및 오디오 탐지부(320)에서 감지된 값을 이용하여, 디스플레이 장치(200)에서 출력되는 비디오와 오디오 간의 지연 시간(비디오의 출력 시간 - 오디오의 출력 시간)을 산출할 수 있다.In addition, the
한편 테스트 콘텐츠는, 비디오 탐지부(310)가 빛을, 오디오 탐지부(320)가 소리를 탐지하기 용이하도록 제작될 수 있다.Meanwhile, the test content may be produced so that the
예를 들어 비디오가 블랙레벨에서 화이트레벨로 서서히 변화하고, 오디오는 휘도가 변경될 때만 일정 톤(tone)이 발생하도록 테스트 콘텐츠를 제작하는 경우, 지연 산출부(330)는 비디오에 대해서 블랙레벨로부터 화이트레벨로 변경되는 중간 지점의 시간을 계산할 수 있고 오디오에 대해서 총 톤(tone)을 출력하는 시간의 중간 지점의 시간을 계산할 수 있다. 그리고 지연 산출부(330)는 이 두 시간의 차를 산출하는 방식으로 비디오와 오디오 간의 지연 시간 정보(비디오의 출력 시간 - 오디오의 출력 시간)를 산출할 수 있다. For example, when test content is produced such that a video gradually changes from a black level to a white level and a certain tone is generated only when the luminance of the audio is changed, the
한편 지연 산출부(330)는 콘텐츠 출력 장치(100)의 싱크 매니저(152)와 통신하고, 싱크 매니저(152)에 지연 시간 정보를 전송할 수 있다.Meanwhile, the
도 4는 본 발명에 따른, 지연 시간 정보의 생성 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method of generating delay time information according to the present invention.
이하에서는 지연 측정 장치(300)로부터 지연 시간 정보를 수신하고 보상 셋에 지연 보상 정보를 매칭하는 주체가 콘텐츠 출력 장치(100)인 것으로 설명하나 이에 한정되지 않으며, 지연 시간 정보를 수신하고 보상 셋에 지연 보상 정보를 매칭하는 주체는 콘텐츠 출력 장치(100)가 아닌 다른 장치(예를 들어 서버)일 수도 있다.Hereinafter, it will be described that the subject receiving the delay time information from the
콘텐츠 출력 장치(100)의 외부 장치 인터페이스(120)는 디스플레이 장치(200)의 입력부(210)와 연결될 수 있다.The
이 경우 콘텐츠 출력 장치(100)의 외부 장치 인터페이스(120)는 디스플레이 장치(200)의 입력부(210)로부터 식별 데이터를 수신할 수 있다(S410).In this case, the
여기서 식별 데이터는 EDID(Extended Display Identification Data)일 수 있다.Here, the identification data may be EDID (Extended Display Identification Data).
셋탑 박스 등의 콘텐츠 출력 장치(100)와 TV 등의 디스플레이 장치는 HDMI에 의해 연결될 수 있다. The
한편, HDMI로 연결된 소스 디바이스(콘텐츠 출력 장치)가 싱크 디바이스(디스플레이 장치)의 정보를 획득하기 위하여, EDID(Extended Display Identification Data)가 사용되고 있다. Meanwhile, EDID (Extended Display Identification Data) is used in order for a source device (content output device) connected through HDMI to acquire information on a sink device (display device).
구체적으로 싱크 디바이스(디스플레이 장치)에서 소스 디바이스(콘텐츠 출력 장치)로 전송하는 EDID 정보의 경우, 기본 정보(제조사, 제품 코드(Product Code), 시리얼 넘버, HDMI 버전정보 등), 비디오 정보(지원하는 비디오 해상도, 색 공간(Color Space), 비트 심도(Bit Depth), 다이나믹 레인지 등), 오디오 정보(지원하는 오디오 비트 심도(Bit Depth), 샘플링 레이트(Sampling Rate), 돌비(Dolby) 지원 유무 등)를 포함할 수 있다.Specifically, in the case of EDID information transmitted from the sink device (display device) to the source device (content output device), basic information (manufacturer, product code, serial number, HDMI version information, etc.), video information (supported Video resolution, color space, bit depth, dynamic range, etc.), audio information (supported audio bit depth, sampling rate, Dolby support, etc.) may include
한편 외부 장치 인터페이스(120)는 싱크 디텍터(151)에 식별 데이터를 전송할 수 있다(S420).Meanwhile, the
그리고 싱크 디텍터(151)는 식별 데이터를 이용하여 디스플레이 장치(200)의 식별 ID를 생성할 수 있다.In addition, the
이 경우 싱크 디텍터(151)는 식별 데이터에 포함되는 하나 이상의 정보를 조합하여 디스플레이 장치(200)의 식별 ID를 생성할 수 있다. In this case, the
예를 들어 싱크 디텍터(151)는 식별 데이터에 포함되는 제조자, 제품 코드, 시리얼 넘버를 조합하여 식별 ID를 생성할 수 있다. 이 경우 식별 ID는 uniqueID=”$ManufacturerName_$ProductCode_$SerialNumber”의 형식을 가질 수 있다.For example, the
그리고 제조자(ManufacturerName)는 GSM, 제품 코드(ProductCode)=1, 시리얼 넘버(SerialNumber)는 16843009인 경우, 디스플레이 장치(200)의 식별 ID(uniqueID)는 GSM_1_16843009이 될 수 있다.And when the manufacturer (ManufacturerName) is GSM, the product code (ProductCode)=1, and the serial number (SerialNumber) is 16843009, the identification ID (uniqueID) of the
한편 싱크 디텍터(151)는 생성된 식별 ID를 싱크 매니저(152)에 전송할 수 있다(S440).Meanwhile, the
한편 싱크 매니저(152)는 식별 ID를 포함하는 데이터베이스를 생성할 수 있다(S450).Meanwhile, the
한편 콘텐츠 출력 장치(100)는 테스트 콘텐츠를 외부 장치 인터페이스(120)를 통하여 디스플레이 장치(200)에 출력할 수 있다.Meanwhile, the
또한 싱크 매니저(152)는 디스플레이 장치(200)에 출력되는 테스트 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득할 수 있다(S460).Also, the
한편 지연 측정 장치(300)는 디스플레이 장치(200)에서 출력되는 비디오와 오디오 간의 지연 시간 정보(비디오의 출력 시간 - 오디오의 출력 시간)을 산출하고, 산출된 지연 시간 정보를 싱크 매니저(152)에 전송할 수 있다.Meanwhile, the
이 경우 지연 측정 장치(300)는 복수의 측정 결과에 기초하여 산출된 복수의 지연 시간 정보의 평균 값을 싱크 매니저(152)에 전송할 수도 있다. In this case, the
또한 지연 측정 장치(300)는 복수의 측정 결과에 기초하여 산출된 복수의 지연 시간 정보를 싱크 매니저(152)에 전송할 수도 있다. 이 경우에는 싱크 매니저(152)가 복수의 지연 시간 정보를 평균하여 평균 값을 산출할 수 있다. 그리고 지연 시간 정보(비디오의 출력 시간 - 오디오의 출력 시간)으로는 상기 평균 값이 사용될 수도 있다.Also, the
한편 싱크 매니저(152)는 지연 측정 장치(300)로부터 지연 시간 정보를 수신함으로써, 디스플레이 장치(200)에 의해 테스트 콘텐츠가 출력되면서 발생하는 비디오 및 오디오 간의 지연 시간 정보를 획득할 수 있다.Meanwhile, the
이와 같은 방식으로, 디스플레이 장치의 식별 ID, 테스트 콘텐츠의 콘텐츠 포맷 및 비디오 및 오디오 간의 지연 시간 정보가 획득될 수 있다.In this way, the identification ID of the display device, the content format of the test content, and the delay time information between video and audio can be obtained.
그리고 싱크 매니저(152)는 식별 ID 및 콘텐츠 포맷을 포함하는 보상 셋을 생성할 수 있다. 또한 싱크 매니저(152)는 식별 ID 및 콘텐츠 포맷을 포함하는 보상 셋에 지연 시간 정보를 매핑하여 데이터베이스에 저장할 수 있다(S490).In addition, the
한편 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 서로 다른 디스플레이 장치에 대하여 위와 같은 과정을 반복함으로써, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 복수의 보상 셋 각각에 상응하는 지연 시간 정보가 매핑될 수 있다.Meanwhile, by repeating the above process for different display devices using a plurality of test content having different content formats, delay time information corresponding to each of a plurality of compensation sets having different at least one of an identification ID and a content format is mapped. can be
이와 관련해서는 도 5 내지 도 6을 참고하여 설명한다.This will be described with reference to FIGS. 5 to 6 .
도 5는 다양한 콘텐츠 포맷을 도시한 도면이다.5 is a diagram illustrating various content formats.
콘텐츠 포맷은, 비디오 포맷, 오디오 포맷 및 프레임레이트를 포함하여 구성될 수 있다.The content format may include a video format, an audio format, and a frame rate.
예를 들어 제1 콘텐츠 포맷(H264_30_PCM)은 H264 YUV420의 비디오 포맷, 30의 프레임레이트, PCM_16BIT_48KHZ의 오디오 포맷을 포함하여 구성될 수 있다.For example, the first content format (H264_30_PCM) may include a video format of H264 YUV420, a frame rate of 30, and an audio format of PCM_16BIT_48KHZ.
다른 예를 들어 제2 콘텐츠 포맷(H264_30_DDP)은 H264 YUV420의 비디오 포맷, 30의 프레임레이트, DDP_16BIT_384KBPS의 오디오 포맷을 포함하여 구성될 수 있다.For another example, the second content format (H264_30_DDP) may include a video format of H264 YUV420, a frame rate of 30, and an audio format of DDP_16BIT_384KBPS.
또한 콘텐츠 포맷은, 비디오 포맷(예를 들어 H264/HEVC/HDR), 오디오 포맷(예를 들어 PCM/DDP) 및 프레임레이트(예를 들어 30FPS/60FPS) 에 의하여 다른 콘텐츠와 구분될 수 있다.In addition, the content format may be distinguished from other content by a video format (eg, H264/HEVC/HDR), an audio format (eg, PCM/DDP), and a frame rate (eg, 30FPS/60FPS).
즉 특정 콘텐츠 포맷은, 다른 콘텐츠 포맷과 비디오 포맷, 오디오 포맷 및 프레임레이트 중 적어도 하나가 상이할 수 있다.That is, the specific content format may be different from other content formats in at least one of a video format, an audio format, and a frame rate.
예를 들어 제1 콘텐츠 포맷(H264_30_PCM)은 제2 콘텐츠 포맷(H264_30_DDP)과 오디오 포맷이 상이하다. 즉 오디오 포맷이 상이하므로, 제1 콘텐츠 포맷(H264_30_PCM)은 제2 콘텐츠 포맷(H264_30_DDP)과 구분될 수 있다.For example, the first content format H264_30_PCM has a different audio format from the second content format H264_30_DDP. That is, since the audio format is different, the first content format H264_30_PCM may be distinguished from the second content format H264_30_DDP.
다른 예를 들어 제1 콘텐츠 포맷(H264_30_PCM)은 제6 콘텐츠 포맷(HEVC_30_DDP)과 비디오 포맷 및 오디오 포맷이 상이하다. 즉 비디오 포맷 및 오디오 포맷이 상이하므로, 제1 콘텐츠 포맷(H264_30_PCM)은 제6 콘텐츠 포맷(HEVC_30_DDP)과 구분될 수 있다.For another example, the first content format (H264_30_PCM) is different from the sixth content format (HEVC_30_DDP) in a video format and an audio format. That is, since the video format and the audio format are different, the first content format H264_30_PCM may be distinguished from the sixth content format HEVC_30_DDP.
도 5에서는 12개의 콘텐츠 포맷을 예시하였으나 이에 한정되지 않으며, 비디오 포맷, 오디오 포맷 및 프레임레이트 중 적어도 하나가 다른 콘텐츠 포맷과 상이한 다양한 콘텐츠 포맷이 존재할 수 있다.Although 12 content formats are exemplified in FIG. 5 , the present invention is not limited thereto, and various content formats in which at least one of a video format, an audio format, and a frame rate are different from other content formats may exist.
한편 디스플레이 장치(200)가 콘텐츠 출력 장치(100)에 연결된 상태에서, 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 도 4에서 설명한 과정을 반복할 수 있다.Meanwhile, while the
따라서 동일한 식별 ID 및 다양한 콘텐츠 포맷을 포함하는 복수의 보상 셋이 생성될 수 있으며, 싱크 매니저(152)는 복수의 보상 셋 각각에 상응하는 지연 시간 정보를 매핑하여 저장할 수 있다.Accordingly, a plurality of reward sets including the same identification ID and various content formats may be generated, and the
또한 다양한 디스플레이 장치를 콘텐츠 출력 장치(100)에 연결해가면서, 도 4 및 도 5에서 설명한 과정이 반복될 수 있다.In addition, the process described with reference to FIGS. 4 and 5 may be repeated while various display devices are connected to the
예를 들어 제1 디스플레이 장치가 콘텐츠 출력 장치(100)에 연결된 상태에서 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 지연 시간 정보를 측정함으로써, 제1 디스플레이 장치의 식별 ID 및 다양한 콘텐츠 포맷을 포함하는 복수의 보상 셋이 생성될 수 있으며, 싱크 매니저(152)는 복수의 보상 셋 각각에 상응하는 지연 시간 정보를 매핑하여 저장할 수 있다.For example, by measuring delay time information using a plurality of test content having different content formats while the first display device is connected to the
그리고나서 제2 디스플레이 장치가 콘텐츠 출력 장치(100)에 연결된 상태에서 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 지연 시간 정보를 측정함으로써, 제2 디스플레이 장치의 식별 ID 및 다양한 콘텐츠 포맷을 포함하는 복수의 보상 셋이 생성될 수 있으며, 싱크 매니저(152)는 복수의 보상 셋 각각에 상응하는 지연 시간 정보를 매핑하여 저장할 수 있다.Then, in a state in which the second display device is connected to the
그리고 이와 같은 과정을 반복함으로써, 도 6과 같은 복수의 보상 셋이 생성될 수 있다.And by repeating this process, a plurality of compensation sets as shown in FIG. 6 may be generated.
도 6은 복수의 보상 셋을 도시한 도면이다.6 is a diagram illustrating a plurality of compensation sets.
하나의 보상 셋은, 디스플레이 장치의 식별 ID 및 콘텐츠 포맷을 포함하여 구성될 수 있다.One reward set may include an identification ID of a display device and a content format.
예를 들어 제1 보상 셋(610)은, GSM_1_16843009의 식별 ID 및 H264_30_PCM의 콘텐츠 포맷을 포함하여 구성될 수 있다.For example, the first compensation set 610 may include an identification ID of GSM_1_16843009 and a content format of H264_30_PCM.
다른 예를 들어 제2 보상 셋(620)은, GSM_1_16843009의 식별 ID 및 H264_30_DDP의 콘텐츠 포맷을 포함하여 구성될 수 있다.As another example, the second compensation set 620 may include an identification ID of GSM_1_16843009 and a content format of H264_30_DDP.
또 다른 예를 들어 제3 보상 셋(630)은, SEC_15360_3355의 식별 ID 및 HDR_60_DDP의 콘텐츠 정보를 포함하여 구성될 수 있다.As another example, the third compensation set 630 may be configured to include an identification ID of SEC_15360_3355 and content information of HDR_60_DDP.
한편 복수의 보상 셋 각각은, 다른 보상 셋과 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이할 수 있다.Meanwhile, each of the plurality of reward sets may be different from other reward sets in at least one of an identification ID and a content format.
예를 들어 제1 보상 셋(610)은 제2 보상 셋(620)과 콘텐츠 포맷이 상이할 수 있다.For example, the first compensation set 610 may have a different content format from the second compensation set 620 .
다른 예를 들어 제1 보상 셋(610)은 제3 보상 셋(630)과 식별 ID 및 콘텐츠 포맷이 상이할 수 있다.As another example, the first compensation set 610 may have a different identification ID and content format from the third compensation set 630 .
한편 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 서로 다른 보상 셋에 복수의 지연 시간 정보가 각각 매핑될 수 있다.Meanwhile, a plurality of delay time information may be respectively mapped to different compensation sets having different at least one of an identification ID and a content format.
예를 들어 제1 보상 셋(610)에는 100ms의 지연 시간 정보가 매핑될 수 있다. 다른 예를 들어 제2 보상 셋(620)에는 50ms의 지연 시간 정보가 매핑될 수 있다. 또 다른 예를 들어 제3 보상 셋(630)에는 -20ms의 지연 시간 정보가 매핑될 수 있다.For example, delay time information of 100 ms may be mapped to the
한편 앞서 설명한 바와 같이, 지연 시간 정보를 생성하는 방법은 서버에 의해 수행될 수 있다. 이 경우 서버는 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 복수의 콘텐츠 출력 장치에 전송할 수 있다.Meanwhile, as described above, the method of generating the delay time information may be performed by the server. In this case, the server may transmit a plurality of delay time information mapped to a plurality of compensation sets, respectively, to a plurality of content output devices.
또한 지연 시간 정보를 생성하는 방법은 콘텐츠 출력 장치에 의해 수행될 수도 있다. 이 경우 콘텐츠 출력 장치는 보상 셋에 매핑된 지연 시간 정보를 서버로 전송할 수 있다. 이 경우 서버는 보상 셋에 매핑된 지연 시간 정보를 복수의 콘텐츠 출력 장치로부터 수집하여 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 획득하고, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 콘텐츠 출력 장치들에 배포할 수 있다.Also, the method of generating the delay time information may be performed by the content output device. In this case, the content output device may transmit delay time information mapped to the compensation set to the server. In this case, the server collects delay time information mapped to the compensation set from a plurality of content output devices to obtain a plurality of delay time information mapped to the plurality of compensation sets, respectively, and a plurality of delay times mapped to the plurality of compensation sets, respectively Information may be distributed to content output devices.
또한 서버는 새로운 콘텐츠 포맷이나 새로운 디스플레이 장치가 등장한 경우, 새로운 보상 셋 및 새로운 보상 셋에 매핑되는 지연 시간 정보를 생성하고, 새로운 보상 셋에 매핑되는 지연 시간 정보를 콘텐츠 출력 장치들에 배포할 수 있다.In addition, when a new content format or a new display device is introduced, the server may generate a new reward set and delay time information mapped to the new reward set, and distribute the delay time information mapped to the new reward set to content output devices. .
도 7은 본 발명에 따른, 콘텐츠 출력 장치의 지연 보상 방법을 설명하기 위한 도면이다.7 is a diagram for explaining a delay compensation method of a content output device according to the present invention.
콘텐츠 출력 장치(100)의 메모리(130)는 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장할 수 있다(S710).The
또한 콘텐츠 출력 장치(100)의 제어부(140)는 새로운 보상 셋에 매핑되는 지연 시간 정보를 서버로부터 수신할 수도 있으며, 이 경우 제어부(140)는 새로운 보상 셋에 매핑되는 지연 시간 정보를 메모리(130)에 저장할 수 있다.Also, the
한편 외부 장치 인터페이스(120)에 디스플레이 장치(200)가 연결되면, 제어부(140)는 외부 장치 인터페이스(120)를 통하여 디스플레이 장치(200)의 식별 데이터를 수신할 수 있다. 여기서 외부 장치 인터페이스(120)는 HDMI 포트일 수 있으며, 식별 데이터는 EDID(Extended Display Identification Data)일 수 있다.Meanwhile, when the
이 경우 제어부(140)는 식별 데이터에 기초하여 콘텐츠 출력 장치(100)에 연결된 디스플레이 장치(200)의 식별 ID를 생성할 수 있다(S730).In this case, the
구체적으로 제어부(140)는 식별 데이터에 포함되는 하나 이상의 정보를 조합하여 디스플레이 장치(200)의 식별 ID를 생성할 수 있다. In more detail, the
또한 제어부(140)는 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 외부 장치 인터페이스를 통하여 디스플레이 장치(200)로 출력할 수 있다(S740). 여기서 콘텐츠는 방송 콘텐츠, VOD, 스트리밍 콘텐츠 등을 포함할 수 있다.Also, the
또한 제어부(140)는 디스플레이 장치(200)로 출력되는 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득할 수 있다(S750).In addition, the
그리고 제어부(140)는 복수의 보상 셋 중 디스플레이 장치의 식별 ID 및 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 선정된 보상 셋에 매핑된 지연 시간 정보를 획득할 수 있다(S760).In addition, the
구체적으로 제어부(140)는 복수의 보상 셋 중 디스플레이 장치(200)의 식별 ID 및 디스플레이 장치(200)로 출력되는 콘텐츠의 콘텐츠 포맷을 가지는 보상 셋을 선정할 수 있다. 그리고 제어부(140)는 선정된 보상 셋에 매핑된 지연 시간 정보를 메모리(130)로부터 독출할 수 있다.Specifically, the
한편 제어부(140)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 비디오 데이터 및 오디오 데이터 간의 시간 갭을 조절할 수 있다(S770).Meanwhile, the
구체적으로 싱크 매니저(152)는 보상 값(지연 시간 정보 또는 지연 시간 정보에 기초하여 생성된 제어 값)을 생성하여 값을 AV 출력 컨트롤러(AV Output Controller)(150)에 전송할 수 있다.Specifically, the
이 경우 AV 출력 컨트롤러(AV Output Controller)(150)는 버퍼(148, 149)를 제어하여 보상 값을 비디오 데이터 및 오디오 데이터에 적용할 수 있다.In this case, the
지연 시간 정보에 기반하여 보상을 수행하는 첫번째 방법에 대하여 도 8을 참고하여 설명한다.A first method of performing compensation based on delay time information will be described with reference to FIG. 8 .
도 8은 본 발명의 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.8 is a diagram for explaining a method of performing compensation based on delay time information according to an embodiment of the present invention.
디스플레이 장치(200)에서 지연이 발생하지 않기 위해서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터가 아니라, 실제 디스플레이 장치(200)에서 출력(비디오의 디스플레이 및 스피커를 통한 오디오의 출력)되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록 보상이 수행되어야 한다.In order not to cause a delay in the
따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 디스플레이 장치(200)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.Accordingly, the
한편 콘텐츠 출력 장치(100)에서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터에 대한 제어만이 가능하다.Meanwhile, in the
따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.Accordingly, the
더욱 구체적으로 선정된 보상 셋에 매핑된 지연 시간 정보가 50ms인 경우, 디스플레이 장치(200)에서는 비디오가 오디오에 비하여 50ms만큼 더 빨리 출력되고 있는 상태이다.More specifically, when the delay time information mapped to the selected compensation set is 50 ms, the
따라서 도 8b를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 매핑된 지연 시간 정보(50ms)에 음의 부호를 가지는 값(-50ms)에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat)을 수행할 수 있다. 즉 AV 출력 컨트롤러(AV Output Controller)(150)는, 오디오 데이터는 그대로 출력하고, 비디오 데이터에 대해서는 현재의 프레임을 출력하되, 출력된 프레임을 버퍼에서 삭제하지 않고 그대로 보관한 후 다시 출력하는 동작을 1회 이상 수행할 수 있다.Therefore, referring to FIG. 8B , the
또한 선정된 보상 셋에 매핑된 지연 시간 정보가 -50ms인 경우, 디스플레이 장치(200)에서는 비디오가 오디오에 비하여 50ms만큼 더 늦게 출력되고 있는 상태이다.Also, when the delay time information mapped to the selected compensation set is -50 ms, the
따라서 도 8c를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 매핑된 지연 시간 정보(-50ms)에 음의 부호를 가지는 값(50ms)에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat)을 수행할 수 있다. 즉 AV 출력 컨트롤러(AV Output Controller)(150)는, 즉 AV 출력 컨트롤러(AV Output Controller)(150)는, 오디오 데이터는 그대로 출력하고, 비디오 데이터에 대해서는 현재의 프레임을 버리고 다음 프레임을 출력하는 동작을 1회 이상 수행할 수 있다.Accordingly, referring to FIG. 8C , the
한편 선정된 보상 셋에 매핑된 지연 시간 정보가 0ms인 경우, 디스플레이 장치(200)에서는 비디오와 오디오가 싱크가 맞게 출력되고 있는 상태이다.Meanwhile, when the delay time information mapped to the selected compensation set is 0 ms, the
따라서 도 8a를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 현재 상태로 유지되도록 반복(repeat) 또는 버리기(discard)를 수행하지 않을 수 있다.Therefore, referring to FIG. 8A , the
다음은 지연 시간 정보에 기반하여 보상을 수행하는 두번째 방법에 대하여 도 9를 참고하여 설명한다.Next, a second method of performing compensation based on delay time information will be described with reference to FIG. 9 .
도 9는 본 발명의 또 다른 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.9 is a diagram for explaining a method of performing compensation based on delay time information according to another embodiment of the present invention.
디스플레이 장치(200)에서 지연이 발생하지 않기 위해서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터가 아니라, 실제 디스플레이 장치(200)에서 출력(비디오의 디스플레이 및 스피커를 통한 오디오의 출력)되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록 보상이 수행되어야 한다.In order not to cause a delay in the
따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 디스플레이 장치(200)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 비디오 데이터의 비디오 PTS 또는 오디오 데이터의 오디오 PTS를 리매핑 할 수 있다.Accordingly, the
한편 콘텐츠 출력 장치(100)에서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터에 대한 제어만이 가능하다.Meanwhile, in the
따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 버퍼(148, 149) 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 버퍼(148, 149) 내 오디오 데이터의 오디오 PTS에 지연 시간 정보를 더할 수 있다.Accordingly, the
구체적으로 선정된 보상 셋에 매핑된 지연 시간 정보가 50ms인 경우, 디스플레이 장치(200)에서는 비디오가 오디오에 비하여 50ms만큼 더 빨리 출력되고 있는 상태이다.Specifically, when the delay time information mapped to the selected compensation set is 50 ms, in the
따라서 버퍼(148, 149)에서 출력되는 비디오 데이터는 버퍼(148, 149)에서 출력되는 오디오 데이터에 비하여 50ms만큼 더 늦게 출력되어야 한다.Therefore, the video data output from the
따라서 도 9a를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 디코더 출력 버퍼(911) 내 비디오 데이터의 비디오 PTS에, 매핑된 지연 시간 정보에 음의 부호를 가지는 값(-50ms)을 더할 수 있다.Therefore, referring to FIG. 9A , the
이 경우 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭(비디오 PTS - 오디오 PTS)이 -50ms가 되기 때문에, 디스플레이 장치(200)에서 발생하는 지연(50ms)를 보상할 수 있게 된다.In this case, since the time gap (video PTS - audio PTS) between the video data and audio data output from the
또한 도 9b를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는 오디오 디코더 출력 버퍼(922) 내 오디오 데이터의 오디오 PTS에, 매핑된 지연 시간 정보(50ms)를 더할 수 있다.Also, referring to FIG. 9B , the
이 경우 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭(비디오 PTS - 오디오 PTS)이 -50ms가 되기 때문에, 디스플레이 장치(200)에서 발생하는 지연(50ms)를 보상할 수 있게 된다.In this case, since the time gap (video PTS - audio PTS) between the video data and audio data output from the
한편 도 9에서의 설명은 지연을 보상하는 예시일 뿐으로, 비디오 PTS 및 오디오 PTS를 모두 리매핑 하는 방법도 가능하다.Meanwhile, the description in FIG. 9 is only an example of compensating for a delay, and a method of remapping both the video PTS and the audio PTS is also possible.
예를 들어 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 디코더 출력 버퍼 내 비디오 데이터의 비디오 PTS에 -25ms를 더하고, 오디오 디코더 출력 버퍼 내 오디오 데이터의 오디오 PTS에 25ms를 더할 수 있다.For example, the
이 경우 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭(비디오 PTS - 오디오 PTS)이 -50ms가 되기 때문에, 디스플레이 장치(200)에서 발생하는 지연(50ms)를 보상할 수 있게 된다.In this case, since the time gap (video PTS - audio PTS) between the video data and audio data output from the
이와 같이 본 발명에 따르면, 디스플레이 장치 및 콘텐츠 포맷의 특성을 고려하여 비디오 및 오디오 간 싱크를 조절하기 때문에, 사용자가 실제로 시청하는 콘텐츠의 싱크를 최적화 할 수 있는 장점이 있다.As described above, according to the present invention, since the sync between the video and audio is adjusted in consideration of the characteristics of the display device and the content format, there is an advantage in that the sync of the content actually viewed by the user can be optimized.
또한 본 발명에 따르면, 다양한 디스플레이 장치 및 다양한 콘텐츠 포맷을 반영한 복수의 보상 셋을 생성하고, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 이용하여 보상을 수행함으로써, 콘텐츠 출력 장치에 어떤 디스플레이 장치가 연결되는지 또는 어떤 포맷의 콘텐츠가 출력되는지에 관계 없이 싱크를 정교하게 맞출 수 있는 장점이 있다.In addition, according to the present invention, by generating a plurality of compensation sets reflecting various display devices and various content formats, and performing compensation using a plurality of delay time information mapped to the plurality of compensation sets, a certain display is displayed on the content output device. It has the advantage of being able to precisely synchronize regardless of whether the device is connected or what format the content is output in.
또한 HDMI는 단방향 인터페이스로써, 디스플레이 장치는 디스플레이 장치에서 발생하는 실제 지연 정보를 콘텐츠 출력 장치에 전송할 수 없다. 다만 본 발명은 미리 시간 지연 정보를 수집하여 보상 셋과 매핑하고, 보상 셋에 매핑된 시간 지연 정보를 콘텐츠 출력 장치에 저장함으로써 디스플레이 장치에서 발생하는 지연을 보상할 수 있는 장점이 있다.Also, since HDMI is a one-way interface, the display device cannot transmit actual delay information generated by the display device to the content output device. However, the present invention has the advantage of compensating for the delay occurring in the display device by collecting the time delay information in advance, mapping it with the compensation set, and storing the time delay information mapped to the compensation set in the content output device.
또한 본 발명에 따르면, 새로운 콘텐츠 포맷이나 새로운 디스플레이 장치가 등장하는 경우, 새로운 보상 셋 및 상응하는 지연 시간 정보를 측정하여 콘텐츠 출력 장치 들에 배포하는 것이 가능하며, 이러한 배포는 펌웨어 또는 소프트웨어 업그레이드 등의 간단한 방식으로 수행되는 장점이 있다. 따라서 본 발명은 이미 사용되고 있는 콘텐츠 출력 장치에 손쉽게 적용될 수 있는 장점이 있다.In addition, according to the present invention, when a new content format or a new display device appears, it is possible to measure a new compensation set and corresponding delay time information and distribute it to the content output devices. It has the advantage of being done in a simple way. Therefore, the present invention has an advantage that can be easily applied to content output devices that are already in use.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be implemented as computer-readable code on a medium in which a program is recorded. The computer readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this. In addition, the computer may include a control unit. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.
100: 콘텐츠 출력 장치
110: 통신부
120: 외부 장치 인터페이스
130: 메모리
140: 제어부100: content output device 110: communication unit
120: external device interface 130: memory
140: control unit
Claims (19)
복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 메모리; 및
상기 외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하고,
상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하고,
비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하고,
상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하고,
상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 제어부;를 포함하는
콘텐츠 출력 장치.external device interface;
a memory for storing a plurality of delay time information mapped to a plurality of compensation sets, respectively; and
When the display device is connected to the external device interface, the identification data of the display device is received through the external device interface,
generating an identification ID of the display device using the identification data;
output content including video data and audio data to the display device through the external device interface;
obtaining information about the content format of the content;
A compensation set corresponding to an identification ID of the display device and the content format is selected from among the plurality of compensation sets, and a time gap between the video data and the audio data is calculated based on delay time information mapped to the selected compensation set. a control unit to control; including
content output device.
상기 외부 장치 인터페이스는, HDMI 포트이고,
상기 식별 데이터는, EDID인
콘텐츠 출력 장치.The method of claim 1,
The external device interface is an HDMI port,
The identification data is EDID
content output device.
상기 복수의 보상 셋 각각은,
식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이한
콘텐츠 출력 장치.The method of claim 1,
Each of the plurality of reward sets,
At least one of the identification ID and the content format is different from the other reward set.
content output device.
상기 콘텐츠 포맷은,
콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분되는
콘텐츠 출력 장치.The method of claim 1,
The content format is
It is distinguished from other content formats by the video format, audio format, and frame rate of the content.
content output device.
상기 제어부는,
상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는
콘텐츠 출력 장치.The method of claim 1,
The control unit is
Based on the mapped delay time information, repeat or discard the frame of the video data in the buffer so that the time gap between the video data and the audio data output from the display device approaches 0 performing
content output device.
상기 제어부는,
버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는
콘텐츠 출력 장치.6. The method of claim 5,
The control unit is
Repeat or discard the frame of the video data in the buffer so that the time gap between the video data and the audio data output from the buffer approaches a value having a negative sign in the mapped delay time information to do
content output device.
상기 제어부는,
상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는
콘텐츠 출력 장치.The method of claim 1,
The control unit is
remapping the video PTS of the video data or the audio PTS of the audio data so that a time gap between the video data and the audio data output from the display device approaches 0 based on the mapped delay time information
content output device.
상기 제어부는,
버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더하는
콘텐츠 출력 장치.8. The method of claim 7,
The control unit is
The negative value is added to the video PTS of the video data in the buffer so that a time gap between the video data and the audio data output from the buffer approaches a negative value to the mapped delay time information, or adding the delay time information to the audio PTS of the audio data in the buffer
content output device.
외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하는 단계;
상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하는 단계;
비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하는 단계;
상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하는 단계; 및
상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계;를 포함하는
콘텐츠 출력 장치의 지연 보상 방법.storing a plurality of delay time information mapped to a plurality of compensation sets, respectively;
receiving identification data of the display device through the external device interface when the display device is connected to the external device interface;
generating an identification ID of the display device using the identification data;
outputting content including video data and audio data to the display device through the external device interface;
obtaining information on a content format of the content; and
A compensation set corresponding to an identification ID of the display device and the content format is selected from among the plurality of compensation sets, and a time gap between the video data and the audio data is calculated based on delay time information mapped to the selected compensation set. adjusting; including
A method of compensating for delay in a content output device.
상기 외부 장치 인터페이스는, HDMI 포트이고,
상기 식별 데이터는, EDID인
콘텐츠 출력 장치의 지연 보상 방법.10. The method of claim 9,
The external device interface is an HDMI port,
The identification data is EDID
A method of compensating for delay in a content output device.
상기 복수의 보상 셋 각각은,
식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이한
콘텐츠 출력 장치의 지연 보상 방법.10. The method of claim 9,
Each of the plurality of reward sets,
At least one of the identification ID and the content format is different from the other reward set.
A method of compensating for delay in a content output device.
상기 콘텐츠 포맷은,
콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분되는
콘텐츠 출력 장치의 지연 보상 방법.10. The method of claim 9,
The content format is
It is distinguished from other content formats by the video format, audio format, and frame rate of the content.
A method of compensating for delay in a content output device.
상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는,
상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계;를 포함하는
콘텐츠 출력 장치의 지연 보상 방법.10. The method of claim 9,
Adjusting the time gap between the video data and the audio data comprises:
Based on the mapped delay time information, repeat or discard the frame of the video data in the buffer so that the time gap between the video data and the audio data output from the display device approaches 0 performing; including
A method of compensating for delay in a content output device.
상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계는,
버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는
콘텐츠 출력 장치의 지연 보상 방법.14. The method of claim 13,
Repeating or discarding the frame of the video data in the buffer comprises:
Repeat or discard the frame of the video data in the buffer so that the time gap between the video data and the audio data output from the buffer approaches a value having a negative sign in the mapped delay time information to do
A method of compensating for delay in a content output device.
상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는,
상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계;를 포함하는
콘텐츠 출력 장치의 지연 보상 방법.10. The method of claim 9,
Adjusting the time gap between the video data and the audio data comprises:
Remapping the video PTS of the video data or the audio PTS of the audio data so that a time gap between the video data and the audio data output from the display device approaches 0 based on the mapped delay time information; doing
A method of compensating for delay in a content output device.
상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계는,
버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더하는
콘텐츠 출력 장치의 지연 보상 방법.16. The method of claim 15,
Remapping the video PTS of the video data or the audio PTS of the audio data comprises:
The negative value is added to the video PTS of the video data in the buffer so that a time gap between the video data and the audio data output from the buffer approaches a negative value to the mapped delay time information, or adding the delay time information to the audio PTS of the audio data in the buffer
A method of compensating for delay in a content output device.
상기 디스플레이 장치에 의해 상기 테스트 콘텐츠가 출력되면서 발생하는 비디오 및 오디오 간의 지연 시간 정보를 획득하는 제2 단계; 및
상기 디스플레이 장치의 식별 ID 및 상기 테스트 콘텐츠의 콘텐츠 포맷을 포함하는 보상 셋에 상기 지연 시간 정보를 매핑하여 저장하는 제3 단계;를 포함하는
지연 시간 정보 생성 방법.a first step of outputting test content to a display device through an external device interface of the content output device;
a second step of obtaining delay time information between video and audio generated while the test content is output by the display device; and
A third step of mapping and storing the delay time information to a compensation set including the identification ID of the display device and the content format of the test content;
How to generate latency information.
서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 서로 다른 디스플레이 장치에 대하여 상기 제1 내지 제3 단계를 반복함으로써, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 복수의 보상 셋 각각에, 상응하는 지연 시간 정보를 매핑하는 단계;를 더 포함하는
지연 시간 정보 생성 방법.18. The method of claim 17,
By repeating the first to third steps for different display devices using a plurality of test content having different content formats, the delay corresponding to each of the plurality of reward sets having different at least one of an identification ID and a content format mapping time information; further comprising
How to generate latency information.
상기 콘텐츠 포맷은,
콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분되는
지연 시간 정보 생성 방법.19. The method of claim 18,
The content format is
It is distinguished from other content formats by the video format, audio format, and frame rate of the content.
How to generate latency information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210030931A KR102618617B1 (en) | 2021-03-09 | 2021-03-09 | Device for outputting content and delay compensation method of content output device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210030931A KR102618617B1 (en) | 2021-03-09 | 2021-03-09 | Device for outputting content and delay compensation method of content output device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220126534A true KR20220126534A (en) | 2022-09-16 |
KR102618617B1 KR102618617B1 (en) | 2023-12-27 |
Family
ID=83445089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210030931A KR102618617B1 (en) | 2021-03-09 | 2021-03-09 | Device for outputting content and delay compensation method of content output device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102618617B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040070937A (en) * | 2003-02-05 | 2004-08-11 | 엘지전자 주식회사 | Method for controlling audio lip-synchronization |
KR20060065436A (en) * | 2004-12-10 | 2006-06-14 | 한국전자통신연구원 | Apparatus and method for synchronization of audio and video in dmb apparatus |
KR20070084235A (en) * | 2004-11-16 | 2007-08-24 | 톰슨 라이센싱 | Device and method for synchronizing different parts of a digital service |
KR20070101036A (en) * | 2006-04-10 | 2007-10-16 | 엘지전자 주식회사 | Apparatus and method for compensation of delay in video processing |
KR20070104131A (en) * | 2006-04-21 | 2007-10-25 | 삼성전자주식회사 | Method and apparatus for compensating of audio/video synchronization |
KR20120061619A (en) * | 2010-12-03 | 2012-06-13 | 엘지전자 주식회사 | Display apparatus and a method for setting ID thereof |
-
2021
- 2021-03-09 KR KR1020210030931A patent/KR102618617B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040070937A (en) * | 2003-02-05 | 2004-08-11 | 엘지전자 주식회사 | Method for controlling audio lip-synchronization |
KR20070084235A (en) * | 2004-11-16 | 2007-08-24 | 톰슨 라이센싱 | Device and method for synchronizing different parts of a digital service |
KR20120097537A (en) * | 2004-11-16 | 2012-09-04 | 톰슨 라이센싱 | Device and method for reproducing and transmitting data corresponding to digital service |
KR20060065436A (en) * | 2004-12-10 | 2006-06-14 | 한국전자통신연구원 | Apparatus and method for synchronization of audio and video in dmb apparatus |
KR20070101036A (en) * | 2006-04-10 | 2007-10-16 | 엘지전자 주식회사 | Apparatus and method for compensation of delay in video processing |
KR20070104131A (en) * | 2006-04-21 | 2007-10-25 | 삼성전자주식회사 | Method and apparatus for compensating of audio/video synchronization |
KR20120061619A (en) * | 2010-12-03 | 2012-06-13 | 엘지전자 주식회사 | Display apparatus and a method for setting ID thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102618617B1 (en) | 2023-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6671022B2 (en) | Display device, display method, and computer program | |
CN110489073B (en) | Conversion method and conversion device | |
JP6512458B2 (en) | Data reproduction method and reproduction apparatus | |
WO2015198560A1 (en) | Data output device, data output method, and data generation method | |
US8244093B2 (en) | Video signal processing device and method, and program | |
JP2018018571A (en) | Reproducing method and reproducer | |
JP6647162B2 (en) | Video recording device, video reproducing device, recording method, and reproducing method | |
WO2015198552A1 (en) | Content data generating method, video stream transmission method and video display method | |
KR20090074864A (en) | Display device and method for skipping advertising | |
JP6928885B2 (en) | Display device, display method and computer program | |
KR102618617B1 (en) | Device for outputting content and delay compensation method of content output device | |
US20140036154A1 (en) | Image processing apparatus and image processing method thereof | |
JP6731627B2 (en) | Method Performed on Playback Device and Playback Device | |
KR100744594B1 (en) | Content reproduce system, reproduce device, reproduce method, and distribution server | |
JP6641230B2 (en) | Video playback device and video playback method | |
US20100166382A1 (en) | Video and audio reproduction system, distribution device, and synchronization adjustment method | |
EP3712891B1 (en) | Reproduction device, reproduction method, and program | |
KR102634845B1 (en) | Device and method for outputting content | |
JP2019216431A (en) | Display | |
JP6868797B2 (en) | Conversion method and conversion device | |
JP6751893B2 (en) | Reproduction method, reproduction device, display method and display device | |
KR20110087002A (en) | Method for displaying of image and system for displaying of image thereof | |
KR19990027641A (en) | Digital broadcasting signal receiving method | |
KR20090001151A (en) | Imageing recording and playback apparatus and method | |
KR20080093640A (en) | Apparatus and method of recording picture in picture audio visual data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |