Nothing Special   »   [go: up one dir, main page]

KR20220126534A - Device for outputting content and delay compensation method of content output device - Google Patents

Device for outputting content and delay compensation method of content output device Download PDF

Info

Publication number
KR20220126534A
KR20220126534A KR1020210030931A KR20210030931A KR20220126534A KR 20220126534 A KR20220126534 A KR 20220126534A KR 1020210030931 A KR1020210030931 A KR 1020210030931A KR 20210030931 A KR20210030931 A KR 20210030931A KR 20220126534 A KR20220126534 A KR 20220126534A
Authority
KR
South Korea
Prior art keywords
content
audio
video
data
display device
Prior art date
Application number
KR1020210030931A
Other languages
Korean (ko)
Other versions
KR102618617B1 (en
Inventor
김기범
김건태
노진우
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020210030931A priority Critical patent/KR102618617B1/en
Publication of KR20220126534A publication Critical patent/KR20220126534A/en
Application granted granted Critical
Publication of KR102618617B1 publication Critical patent/KR102618617B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/02Diagnosis, testing or measuring for television systems or their details for colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

A content output device is disclosed. The content output device according to the present invention comprises: an external device interface; a memory for storing a plurality of delay time information respectively mapped to a plurality of compensation sets; and a control unit. The control unit receives identification data of a display device through the external device interface, when the display device is connected to the external device interface, generates an identification ID of the display device using the identification data, outputs content including video data and audio data to the display device through the external device interface, obtains information about a content format of the content, selects a compensation set corresponding to the identification ID of the display device and the content format, among the plurality of compensation sets, and adjusts a time gap between the video data and the audio data based on delay time information mapped to the selected compensation set. The present invention can optimize the synchronization of content actually viewed by a user.

Description

콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법{DEVICE FOR OUTPUTTING CONTENT AND DELAY COMPENSATION METHOD OF CONTENT OUTPUT DEVICE}DEVICE FOR OUTPUTTING CONTENT AND DELAY COMPENSATION METHOD OF CONTENT OUTPUT DEVICE

본 발명은, 디스플레이 장치 및 콘텐츠의 포맷에 매핑된 지연 시간 정보를 적용하여, 디스플레이 장치에서 출력되는 콘텐츠의 정교한 비디오/오디오 싱크를 지원할 수 있는 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법에 관한 것이다.The present invention relates to a content output apparatus capable of supporting sophisticated video/audio sync of content output from a display apparatus by applying delay time information mapped to a display apparatus and a format of the content, and a method for compensating for delay of the content output apparatus. .

최근 TV는 대형화되고 4K, 8K 및 HDR 등의 고화질을 지원하는 추세이고, 이에 맞추어 각종 OTT(Over The Top) 서비스에서도 고화질 콘텐츠를 제공하고 있다.Recently, TVs have become larger and support high quality such as 4K, 8K, and HDR, and in line with this, various OTT (Over The Top) services are also providing high-definition content.

한편, 보다 선명하고 큰 화면으로 TV를 시청하는 사용자는, 비디오와 오디오 간의 싱크가 어긋난 것을 기존에 비해 쉽게 발견할 수 있다. 따라서 유료 텔레비젼 방송(Pay TV)이나 프리미엄 OTT 서비스 등에서는 보다 강화된 비디오와 오디오 싱크 기준을 요구하고 있으며, 이에 따라 콘텐츠 출력 장치에서는 최대한 싱크 기준을 만족시켜야 하는 실정이다.On the other hand, a user who watches TV on a clearer and larger screen may more easily discover that the synchronization between video and audio is out of sync. Therefore, pay TV broadcasting (Pay TV), premium OTT service, etc. require more enhanced video and audio sync standards, and accordingly, content output devices must satisfy the sync standards as much as possible.

따라서 디스플레이 장치에 콘텐츠를 출력하는 콘텐츠 출력 장치(예를 들어 셋탑 박스)에는 비디오와 오디오간 싱크를 맞추는 기술이 적용되어 있다.Accordingly, a technology for synchronizing video and audio is applied to a content output device (eg, a set-top box) that outputs content to a display device.

다만 셋탑 박스와 연결되어 콘텐츠를 사용자에게 출력(영상의 디스플레이, 음향의 출력)하는 디스플레이 장치(예를 들어 TV)의 경우, 디스플레이 장치 자체에도 비디오의 지연 요소나 오디오의 지연 요소가 존재하게 된다.However, in the case of a display device (eg, a TV) that is connected to a set-top box and outputs content to a user (display of an image, output of sound), a delay element of video or delay element of audio exists in the display device itself.

또한 이러한 지연 요소는 디스플레이 장치의 제조사와 모델에 따라 상이해질 수 있으며, 동일한 지연 요소라고 하더라도 콘텐츠의 포맷이 무엇인지에 따라 지연 시간이 상이해질 수 있다.In addition, the delay factor may be different depending on the manufacturer and model of the display device, and even with the same delay factor, the delay time may be different depending on the format of the content.

따라서 셋탑 박스와 같은 콘텐츠 출력 장치에서 정교한 싱크를 맞추더라도, 실제 디스플레이 장치에서 추가적인 지연이 발생하여 사용자에게 싱크가 맞지 않는 콘텐츠가 제공되는 문제가 발생하게 된다.Therefore, even when a content output device such as a set-top box performs precise synchronization, an additional delay occurs in the actual display device, resulting in a problem in which out-of-sync content is provided to the user.

본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 디스플레이 장치 및 콘텐츠의 포맷에 매핑된 지연 시간 정보를 적용하여, 디스플레이 장치에서 출력되는 콘텐츠의 정교한 비디오/오디오 싱크를 지원할 수 있는 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법을 제공하기 위함이다.SUMMARY OF THE INVENTION The present invention is to solve the above problems, and an object of the present invention is to apply delay time information mapped to a display device and a format of the content to support sophisticated video/audio sync of content output from the display device. An object of the present invention is to provide an output device and a method for compensating for delay of a content output device.

본 발명에 따른 콘텐츠 출력 장치는, 외부 장치 인터페이스, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 메모리, 및, 상기 외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하고, 상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하고, 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하고, 상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하고, 상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 제어부를 포함한다.The content output device according to the present invention includes an external device interface, a memory for storing a plurality of delay time information mapped to a plurality of compensation sets, and, when a display device is connected to the external device interface, through the external device interface receiving identification data of the display device, generating an identification ID of the display device using the identification data, and outputting content including video data and audio data to the display device through the external device interface; Acquire information on the content format of the content, select an identification ID of the display device and a reward set corresponding to the content format among the plurality of reward sets, and based on the delay time information mapped to the selected reward set and a controller for adjusting a time gap between the video data and the audio data.

이 경우 상기 외부 장치 인터페이스는, HDMI 포트이고, 상기 식별 데이터는, EDID일 수 있다.In this case, the external device interface may be an HDMI port, and the identification data may be EDID.

한편 상기 복수의 보상 셋 각각은, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이할 수 있다.Meanwhile, each of the plurality of reward sets may be different from the other reward sets in at least one of an identification ID and a content format.

한편 상기 콘텐츠 포맷은, 콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분될 수 있다.Meanwhile, the content format may be distinguished from other content formats by the video format, audio format, and frame rate of the content.

한편 상기 제어부는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.Meanwhile, the control unit may repeat or repeat the frame of the video data in the buffer so that a time gap between the video data and the audio data output from the display device approaches 0 based on the mapped delay time information. A discard can be performed.

이 경우 상기 제어부는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.In this case, the control unit repeats the frame of the video data in the buffer so that a time gap between the video data and the audio data output from the buffer approaches a value having a negative sign in the mapped delay time information. ) or discard.

한편 상기 제어부는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 할 수 있다.Meanwhile, the controller remaps the video PTS of the video data or the audio PTS of the audio data so that a time gap between the video data and the audio data output from the display device approaches 0 based on the mapped delay time information. can do.

이 경우 상기 제어부는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더할 수 있다.In this case, the controller adds the negative sign to the video PTS of the video data in the buffer so that a time gap between the video data and the audio data output from the buffer approaches a value having a negative sign in the mapped delay time information. value, or the delay time information may be added to the audio PTS of the audio data in the buffer.

한편 본 발명에 따른 콘텐츠 출력 장치의 지연 보상 방법은, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 단계, 외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하는 단계, 상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하는 단계, 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하는 단계, 상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하는 단계, 및, 상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계를 포함한다.Meanwhile, the method for compensating for delay of a content output device according to the present invention includes the steps of storing a plurality of delay time information mapped to a plurality of compensation sets, respectively, and when a display device is connected to an external device interface, the display through the external device interface Receiving identification data of a device, generating an identification ID of the display device using the identification data, outputting content including video data and audio data to the display device through the external device interface; obtaining information on the content format of the content, and selecting a reward set corresponding to an identification ID of the display device and the content format from among the plurality of reward sets, and a delay time mapped to the selected reward set and adjusting a time gap between the video data and the audio data based on the information.

이 경우 상기 외부 장치 인터페이스는, HDMI 포트이고, 상기 식별 데이터는, EDID일 수 있다.In this case, the external device interface may be an HDMI port, and the identification data may be EDID.

한편 상기 복수의 보상 셋 각각은, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이할 수 있다.Meanwhile, each of the plurality of reward sets may be different from the other reward sets in at least one of an identification ID and a content format.

한편 상기 콘텐츠 포맷은, 콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분될 수 있다.Meanwhile, the content format may be distinguished from other content formats by the video format, audio format, and frame rate of the content.

한편 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계를 포함할 수 있다.Meanwhile, the adjusting of the time gap between the video data and the audio data may include: based on the mapped delay time information, the time gap between the video data and the audio data output from the display device approaches zero in the buffer. The method may include repeating or discarding the frame of the video data.

이 경우 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.In this case, in the step of repeating or discarding the frame of the video data in the buffer, the time gap between the video data and the audio data output from the buffer is negative in the mapped delay time information. To access a value having a sign, it is possible to repeat or discard the frame of the video data in the buffer.

한편 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계를 포함할 수 있다.Meanwhile, the adjusting the time gap between the video data and the audio data may include adjusting the time gap between the video data and the audio data output from the display device based on the mapped delay time information so that the time gap between the video data and the audio data approaches zero. and remapping the video PTS of , or the audio PTS of the audio data.

이 경우 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더할 수 있다.In this case, the step of remapping the video PTS of the video data or the audio PTS of the audio data may include such that a time gap between the video data and the audio data output from the buffer approaches a value having a negative sign in the mapped delay time information. , the negative value may be added to the video PTS of the video data in the buffer, or the delay time information may be added to the audio PTS of the audio data in the buffer.

한편 본 발명에 따른 지연 시간 정보 생성 방법은, 테스트 콘텐츠를 콘텐츠 출력 장치의 외부 장치 인터페이스를 통하여 디스플레이 장치로 출력하는 제1 단계, 상기 디스플레이 장치에 의해 상기 테스트 콘텐츠가 출력되면서 발생하는 비디오 및 오디오 간의 지연 시간 정보를 획득하는 제2 단계, 및, 상기 디스플레이 장치의 식별 ID 및 상기 테스트 콘텐츠의 콘텐츠 포맷을 포함하는 보상 셋에 상기 지연 시간 정보를 매핑하여 저장하는 제3 단계를 포함한다.Meanwhile, in the method for generating delay time information according to the present invention, a first step of outputting test content to a display device through an external device interface of a content output device, and video and audio generated while the test content is output by the display device A second step of obtaining delay time information, and a third step of mapping and storing the delay time information in a compensation set including an identification ID of the display device and a content format of the test content are included.

이 경우 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 서로 다른 디스플레이 장치에 대하여 상기 제1 내지 제3 단계를 반복함으로써, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 복수의 보상 셋 각각에, 상응하는 지연 시간 정보를 매핑하는 단계를 더 포함할 수 있다.In this case, by repeating the first to third steps for different display devices using a plurality of test content having different content formats, at least one of an identification ID and a content format corresponds to each of a plurality of reward sets different from each other. It may further include the step of mapping the delay time information.

이 경우 상기 콘텐츠 포맷은, 콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분될 수 있다.In this case, the content format may be distinguished from other content formats by the video format, audio format, and frame rate of the content.

본 발명에 따르면, 디스플레이 장치 및 콘텐츠 포맷의 특성을 고려하여 비디오 및 오디오 간 싱크를 조절하기 때문에, 사용자가 실제로 시청하는 콘텐츠의 싱크를 최적화 할 수 있는 장점이 있다.According to the present invention, since the sync between the video and audio is adjusted in consideration of the characteristics of the display device and the content format, there is an advantage in that the sync of the content actually viewed by the user can be optimized.

또한 본 발명에 따르면, 다양한 디스플레이 장치 및 다양한 콘텐츠 포맷을 반영한 복수의 보상 셋을 생성하고, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 이용하여 보상을 수행함으로써, 콘텐츠 출력 장치에 어떤 디스플레이 장치가 연결되는지 또는 어떤 포맷의 콘텐츠가 출력되는지에 관계 없이 싱크를 정교하게 맞출 수 있는 장점이 있다.In addition, according to the present invention, by generating a plurality of compensation sets reflecting various display devices and various content formats, and performing compensation using a plurality of delay time information mapped to the plurality of compensation sets, a certain display is displayed on the content output device. It has the advantage of being able to precisely synchronize regardless of whether the device is connected or what format the content is output in.

또한 HDMI는 단방향 인터페이스로써, 디스플레이 장치는 디스플레이 장치에서 발생하는 실제 지연 정보를 콘텐츠 출력 장치에 전송할 수 없다. 다만 본 발명은 미리 시간 지연 정보를 수집하여 보상 셋과 매핑하고, 보상 셋에 매핑된 시간 지연 정보를 콘텐츠 출력 장치에 저장함으로써 디스플레이 장치에서 발생하는 지연을 보상할 수 있는 장점이 있다.Also, since HDMI is a one-way interface, the display device cannot transmit actual delay information generated by the display device to the content output device. However, the present invention has the advantage of compensating for the delay occurring in the display device by collecting the time delay information in advance, mapping it with the compensation set, and storing the time delay information mapped to the compensation set in the content output device.

또한 본 발명에 따르면, 새로운 콘텐츠 포맷이나 새로운 디스플레이 장치가 등장하는 경우, 새로운 보상 셋 및 상응하는 지연 시간 정보를 측정하여 콘텐츠 출력 장치 들에 배포하는 것이 가능하며, 이러한 배포는 펌웨어 또는 소프트웨어 업그레이드 등의 간단한 방식으로 수행되는 장점이 있다. 따라서 본 발명은 이미 사용되고 있는 콘텐츠 출력 장치에 손쉽게 적용될 수 있는 장점이 있다.In addition, according to the present invention, when a new content format or a new display device appears, it is possible to measure a new compensation set and corresponding delay time information and distribute it to the content output devices. It has the advantage of being done in a simple way. Therefore, the present invention has an advantage that can be easily applied to content output devices that are already in use.

도 1은 본 발명에 따른 콘텐츠 출력 장치를 설명하기 위한 블록도이다.
도 2는 본 발명에 따른, 제어부의 세부 구성, 디스플레이 장치의 구성 및 지연 측정 장치의 구성을 설명하기 위한 블록도이다.
도 3은 본 발명에 따른, 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148) 및 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)를 도시한 도면이다.
도 4는 본 발명에 따른, 지연 시간 정보의 생성 방법을 설명하기 위한 도면이다.
도 5는 다양한 콘텐츠 포맷을 도시한 도면이다.
도 6은 복수의 보상 셋을 도시한 도면이다.
도 7은 본 발명에 따른, 콘텐츠 출력 장치의 지연 보상 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 또 다른 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.
1 is a block diagram illustrating a content output device according to the present invention.
2 is a block diagram for explaining a detailed configuration of a control unit, a configuration of a display device, and a configuration of a delay measuring apparatus according to the present invention.
3 is a diagram illustrating a video decoder output buffer (VDEC Output Buffer) 148 and an audio decoder output buffer (ADEC Output Buffer) 149 according to the present invention.
4 is a diagram for explaining a method of generating delay time information according to the present invention.
5 is a diagram illustrating various content formats.
6 is a diagram illustrating a plurality of compensation sets.
7 is a diagram for explaining a delay compensation method of a content output device according to the present invention.
8 is a diagram for explaining a method of performing compensation based on delay time information according to an embodiment of the present invention.
9 is a diagram for explaining a method of performing compensation based on delay time information according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다. In implementing the present invention, components may be subdivided for convenience of description, but these components may be implemented in one device or module, or one component may be divided into a plurality of devices or modules. It can also be implemented in

발명의 설명에 앞서, 디스플레이 장치에서 발생할 수 있는 지연 요소를 설명한다.Prior to the description of the invention, a delay element that may occur in the display device will be described.

디스플레이 장치(예를 들어 TV)에는 다양한 지연 요소가 존재하며, 따라서 디스플레이 장치마다 지연이 상이해질 수 있다.Various delay elements exist in a display device (eg, a TV), and thus the delay may be different for each display device.

구체적으로 지연은 디스플레이 장치 제조사들의 제작 방식에 따라 상이해질 수 있다. 또한 사용하는 칩셋이나 적용 기술의 변화로 인하여, 동일한 제조사에서 제작한 디스플레이 장치 들도 모델마다 지연이 상이해질 수 있다.Specifically, the delay may be different according to manufacturing methods of display device manufacturers. Also, due to changes in the chipset used or applied technology, delays may be different for each model of display devices manufactured by the same manufacturer.

또한 디스플레이 장치에서 지연이 발생하는 가장 큰 요인은, 디스플레이 장치에서 자체적으로 보유하고 있는 화질 및 음질 개선 알고리즘일 수 있다.In addition, the biggest factor causing the delay in the display device may be the image quality and sound quality improvement algorithm that the display device owns.

화질의 경우 개선 알고리즘의 경우, 표준, 선명함, 게임, AI 등의 다양한 모드를 가지고 있다. 예를 들어 게임 모드의 경우는 통상적으로 딜레이를 최소화 하여 패널에 화면을 출력한다.In the case of image quality, the improvement algorithm has various modes such as standard, sharp, game, and AI. For example, in the case of game mode, the screen is usually output to the panel by minimizing the delay.

또한 음질 개선 알고리즘의 경우, 영화, 음악 등 특정 장르에 따라 원본 음성 데이터를 가공하여 디스플레이 장치의 스피커를 통하여 출력한다. In addition, in the case of the sound quality improvement algorithm, the original voice data is processed according to a specific genre, such as a movie or music, and outputted through a speaker of the display device.

그리고 화질 또는 음질의 개선을 위하여 비디오 프로세싱 및 오디오 프로세싱을 거칠때마다 지연이 발생하게 된다.In addition, delay occurs whenever video processing and audio processing are performed in order to improve picture quality or sound quality.

또한 동일한 제조사의 동일 모델의 디스플레이 장치에서 동일한 개선 알고리즘을 거치더라도, 콘텐츠의 포맷에 따라 상이한 지연이 발생할 수 있다. 예를 들어 비디오 프로세싱 및 오디오 프로세싱 작업들은 각 단계별로 버퍼를 이용하게 되는데, 버퍼를 거칠 때마다 1/프레임레이트 (60fps의 경우 16.67ms, 30fps의 경우 33.3ms)의 지연이 발생하게 된다. Also, even if a display device of the same model of the same manufacturer goes through the same improvement algorithm, different delays may occur depending on the format of the content. For example, video processing and audio processing tasks use a buffer in each step, and each time the buffer is passed, a delay of 1/frame rate (16.67 ms for 60 fps and 33.3 ms for 30 fps) occurs.

한편 비디오 색공간과 관련해서도 지연이 발생할 수 있다. 구체적으로 TV 패널의 경우 최종적으로 RGB 색 공간(color space)에서 영상을 출력하지만, HDMI를 통하여 디스플레이 장치에 전달되는 데이터는 YUV420, YUV444 등으로써 다른 색공간의 데이터가 디스플레이 장치에 전달될 수 있다. 그리고 이와 같이 색 공간이 다른 경우에는 색상 공간 변환(color space conversion)을 수행하면서 지연이 발생하게 된다.On the other hand, delays may also occur with respect to the video color space. Specifically, in the case of a TV panel, an image is finally output in an RGB color space, but data transmitted to the display device through HDMI is YUV420, YUV444, or the like, and data in a different color space may be transmitted to the display device. Also, when the color spaces are different as described above, a delay occurs while performing color space conversion.

HDR(High Dynamic Range)과 SDR (Standard Dynamic Range)의 관계에서도 지연이 발생할 수 있다. 구체적으로 HDR(High Dynamic Range)의 경우에는 TV 패널의 특징에 맞게 RGB 값의 리매핑이 필요하며, 또한 TV패널이 HDR을 지원하지 않는 경우에는 HDR을 SDR로 변환하는 과정을 거쳐야 한다.A delay may also occur in the relationship between HDR (High Dynamic Range) and SDR (Standard Dynamic Range). Specifically, in the case of HDR (High Dynamic Range), remapping of RGB values is required to match the characteristics of the TV panel. Also, if the TV panel does not support HDR, it is necessary to go through the process of converting HDR to SDR.

비디오 프레임레이트와 관련해서도 지연이 발생할 수 있다. 구체적으로 TV의 경우 원본 콘텐츠의 프레임레이트를 판독하여 고 프레임 레이트의 콘텐츠를 생성 및 출력하는 기능이 존재한다. 그리고 이와 같은 화질 변경 과정은 버퍼를 거치며 버퍼에서의 지연은 프레임레이트에 연관되기 때문에, 지연이 발생하게 된다.There may also be delays with respect to the video frame rate. Specifically, in the case of a TV, there is a function of reading the frame rate of the original content to generate and output high frame rate content. In addition, since the process of changing the picture quality goes through the buffer and the delay in the buffer is related to the frame rate, a delay occurs.

또한 스트리밍 서비스나 VoD의 경우 빨리 감기, 되감기, 건너뛰기, 일시 정지 후 재생 등의 동작에 의해서도 지연이 발생할 수 있다. 구체적으로 빨리 감기, 되감기, 건너뛰기, 일시 정지 후 재생 등의 동작의 경우 화면이 일시적으로 멈추었다가 다시 진행을 하는데, TV에 따라서 해당 버퍼를 비운 후 다시 전송된 데이터를 처리하는지 또는 버퍼 내 데이터를 출력하는지에 따라서 상이한 지연이 발생할 수 있다.Also, in the case of streaming services or VoD, delays may occur due to operations such as fast forward, rewind, skip, and play after pause. Specifically, in the case of operations such as fast forward, rewind, skip, and playback after pause, the screen temporarily stops and then resumes. Different delays may occur depending on output.

또한 오디오의 경우 HDMI로 전송되는 데이터가 비트스트림(Bitstream) 인지 또는 PCM(pulse code modulation)인지에 따라서도 상이한 지연이 발생할 수 있다. 그 이유는 PCM(pulse code modulation)의 경우 오디오 코덱 칩에서 인식하여 바로 DAC(Digital to Analog Converter), 앰프를 거쳐 TV 스피커로 출력할 수 있지만, 돌비 디지털(Dolby Digital) 등의 비트스트림(Bitstream)의 경우에는 TV에서 오디오 디코딩을 수행하는 과정이 추가 되기 때문이다.Also, in the case of audio, a different delay may occur depending on whether data transmitted through HDMI is a bitstream or pulse code modulation (PCM). The reason is that in the case of PCM (pulse code modulation), the audio codec chip recognizes it and outputs it directly to the TV speaker through the DAC (Digital to Analog Converter) and amplifier, but the bitstream such as Dolby Digital This is because, in the case of , the process of performing audio decoding on the TV is added.

위에 언급한 내용 외에도 디스플레이 장치(예를 들어 TV)에는 비디오나 오디오의 지연을 발생시킬 수 있는 다양한 요소가 존재하며, 지연은 디스플레이 장치의 제조사 마다, 동일한 제조사의 제작물임에도 불구하고 제조사의 모델마다, 동일 모델임에도 불구하고 출력되는 콘텐츠의 포맷에 따라 달라질 수 있다.In addition to the above, there are various factors that can cause video or audio delay in display devices (for example, TVs), and the delay varies depending on the manufacturer of the display device, and each manufacturer’s model despite being made by the same manufacturer. Although it is the same model, it may vary depending on the format of the outputted content.

따라서 본 발명에서는, 콘텐츠 출력 장치에서 디스플레이 장치 및 콘텐츠의 포맷에 매핑된 지연 보상 값을 적용함으로써, 디스플레이 장치에서 출력되는 콘텐츠의 정교한 비디오/오디오 싱크를 지원한다.Accordingly, the present invention supports sophisticated video/audio sync of content output from the display device by applying the delay compensation value mapped to the display device and the format of the content in the content output device.

한편 디지털 방송 또는 온라인 스트리밍 서비스가 대중화 되면서 콘텐츠 출력 장치의 칩셋(멀티미디어 프로세서)에는 이미 비디오와 오디오간 싱크를 맞추는 기능이 내장되어 있다. Meanwhile, as digital broadcasting or online streaming services become popular, the chipset (multimedia processor) of the content output device already has a built-in function to synchronize between video and audio.

또한 전송 스트림(Transport Stream) 또는 프로그램 스트림(Program Stream) 내부에는, 디지털 방송 및 스트리밍 서비스에서는 비디오를 출력하는 시간(Video Presentation Time Stamp, 이하 비디오 PTS라 함)과 오디오를 출력하는 시간(Audio Presentation Time Stamp, 이하 오디오 PTS라 함)이 포함되게 된다.In addition, in the transport stream or the program stream, in digital broadcasting and streaming services, video output time (Video Presentation Time Stamp, hereinafter referred to as video PTS) and audio output time (Audio Presentation Time) Stamp, hereinafter referred to as audio PTS) will be included.

그리고 콘텐츠 출력 장치의 칩셋들은 PTS 갭이 일정 범위 내에 있으면, 비디오와 오디오간 싱크 동작을 수행하지 않는다. 본 명세서는 비디오와 오디오간 싱크 동작을 수행하지 않는 범위를 마진 범위라고 명칭하도록 한다.And, when the PTS gap is within a certain range, the chipsets of the content output device do not perform a video-audio sync operation. In this specification, a range in which a video-audio sync operation is not performed is referred to as a margin range.

현재 셋탑 박스 등의 콘텐츠 출력 장치에서 사용하는 칩셋(멀티미디오 프로세서)는, PTS 갭이 마진 범위 밖에 있는 경우 PTS 갭이 마진 범위 이내로 오도록 싱크 동작을 수행하도록 설계되어 있다.A chipset (multimedia processor) currently used in a content output device such as a set-top box is designed to perform a sync operation so that the PTS gap falls within the margin range when the PTS gap is outside the margin range.

도 1은 본 발명에 따른 콘텐츠 출력 장치를 설명하기 위한 블록도이다.1 is a block diagram illustrating a content output device according to the present invention.

콘텐츠 출력 장치(100)는 방송 스트림을 수신하여 디코딩하고, 디코딩된 비디오 데이터 및 오디오 데이터를 디스플레이 장치에 전송하는 장치들을 의미할 수 있다.The content output device 100 may refer to devices that receive and decode a broadcast stream and transmit decoded video data and audio data to a display device.

예를 들어 콘텐츠 출력 장치(100)는 셋탑 박스와 같은 영상 처리 장치일 수 있다. 이 경우 영상 처리 장치는 선국된 방송 채널에 대한 콘텐츠 스트림을 수신하고, 수신된 콘텐츠 스트림을 디코딩하여 비디오 데이터 및 오디오 데이터를 출력할 수 있다. 이 경우 출력된 비디오 데이터 및 오디오 데이터는 TV와 같은 디스플레이 장치에 전송되어, 디스플레이 장치에 의해 디스플레이 또는 출력될 수 있다.For example, the content output device 100 may be an image processing device such as a set-top box. In this case, the image processing apparatus may receive a content stream for a selected broadcast channel, decode the received content stream, and output video data and audio data. In this case, the output video data and audio data may be transmitted to a display device such as a TV and displayed or output by the display device.

콘텐츠 출력 장치(100)는 통신부(110), 외부 장치 인터페이스(120), 메모리(130) 및 제어부(140)를 포함할 수 있다.The content output device 100 may include a communication unit 110 , an external device interface 120 , a memory 130 , and a control unit 140 .

통신부(110)는 콘텐츠 출력 장치(100)와 다른 장치 사이의 유선 또는 무선 통신을 지원할 수 있다.The communication unit 110 may support wired or wireless communication between the content output device 100 and another device.

구체적으로 통신부(110)는 콘텐츠 출력 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 통신부(110)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 서버(100)와 데이터를 송신 또는 수신할 수 있다.Specifically, the communication unit 110 may provide an interface for connecting the content output device 100 to a wired/wireless network including an Internet network. The communication unit 110 may transmit or receive data to or from the server 100 through the connected network or another network linked to the connected network.

한편 통신부(110)는 콘텐츠 스트림을 수신할 수 있다. 여기서 콘텐츠 스트림이란 전송 스트림(Transport Stream)과 프로그램 스트림(Program Stream) 등을 포함할 수 있으며, 콘텐츠 스트림을 통하여 방송 콘텐츠, VOD, 스트리밍 콘텐츠 등이 전송될 수 있다.Meanwhile, the communication unit 110 may receive a content stream. Here, the content stream may include a transport stream and a program stream, and broadcast content, VOD, streaming content, etc. may be transmitted through the content stream.

외부 장치 인터페이스(120)는 디스플레이 장치에 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 전송하기 위한 인터페이스를 포함할 수 있다.The external device interface 120 may include an interface for transmitting content including video data and audio data to the display device.

구체적으로 외부 장치 인터페이스(120)는 HDMI 포트일 수 있다. 이 경우 콘텐츠 출력 장치(100)는 디스플레이 장치와 HDMI 케이블에 의해 연결되어, 디스플레이 장치에 콘텐츠를 전송할 수 있다.Specifically, the external device interface 120 may be an HDMI port. In this case, the content output device 100 may be connected to the display device by an HDMI cable to transmit content to the display device.

한편 메모리(130)는 제어부(140)의 각종 신호 처리 및 제어를 위한 프로그램, 컨텐츠, 디코딩된 콘텐츠, 기타 데이터 등을 저장할 수 있다.Meanwhile, the memory 130 may store programs, contents, decoded contents, and other data for processing and controlling various signals of the controller 140 .

또한 메모리(230)는 콘텐츠 출력 장치(100)의 동작을 위한 응용 프로그램 또는 데이터를 저장할 수 있다.Also, the memory 230 may store an application program or data for the operation of the content output device 100 .

한편 제어부(140)는 콘텐츠 출력 장치(100)의 전반적인 동작을 제어할 수 있다.Meanwhile, the controller 140 may control the overall operation of the content output apparatus 100 .

또한 제어부(140)는 콘텐츠 스트림을 디코딩하여 비디오 데이터 및 오디오 데이터를 생성하고, 비디오 데이터의 비디오 PTS 및 오디오 데이터의 오디오 PTS에 기반하여 비디오 데이터 및 오디오 데이터의 시간 갭을 획득하고, 시간 갭이 마진 범위를 벗어나면 싱크 동작을 수행할 수 있다.In addition, the controller 140 decodes the content stream to generate video data and audio data, obtains a time gap of the video data and audio data based on the video PTS of the video data and the audio PTS of the audio data, and the time gap is a margin If it is out of range, a sync operation can be performed.

도 2는 본 발명에 따른, 제어부의 세부 구성, 디스플레이 장치의 구성 및 지연 측정 장치의 구성을 설명하기 위한 블록도이다.2 is a block diagram for explaining a detailed configuration of a control unit, a configuration of a display device, and a configuration of a delay measuring apparatus according to the present invention.

제어부(140)의 세부 구성은, MPEG의 다양한 표준 셋트 중 MPEG2 System 규격을 예시로 설명하기로 한다. 하지만, 본 발명의 기본적인 동작은 다른 동영상의 국내외 표준 또는 De-facto 표준으로 충분한 변형이 가능하므로 본 발명의 범위는 MPEG2 System에 국한하지 않는다.The detailed configuration of the control unit 140 will be described with the MPEG2 System standard among various standard sets of MPEG as an example. However, the scope of the present invention is not limited to the MPEG2 System because the basic operation of the present invention can be sufficiently modified to the domestic and international standards or de-facto standards of other moving pictures.

디먹스(Demux)(141)는 콘텐츠 스트림을 통하여 수신된 콘텐츠(방송 콘텐츠, VOD, 스트리밍 콘텐츠 등)을 분석하여 비디오 콘텐츠, 오디오 콘텐츠 및 데이터를 구분할 수 있다.The demux 141 may analyze content (broadcast content, VOD, streaming content, etc.) received through the content stream to classify video content, audio content, and data.

디스크램블버(Descrambler)(142)는 방송 수신제한시스템(CAS)나 디지털 저작권 관리(DRM)에 의해 제한되는 콘텐츠를 구분할 수 있다.The descrambler 142 can classify content restricted by broadcast access control system (CAS) or digital rights management (DRM).

비디오 디코더 인풋 버퍼(VDEC Input Buffer)(143)와 오디오 디코더 인풋 버퍼(ADEC Input Buffer)는 디코더의 앞단에 존재하는 버퍼일 수 있다. 그리고 비디오 디코더 인풋 버퍼(VDEC Input Buffer)(143)는 콘텐츠 스트림 상에 포함되어 있는 디코딩 타임 스탬프(Decoding Time Stamp, DTS)에 맞추어 비디오 디코더(VDEC)(146)에 비디오 콘텐츠를 전송할 수 있다. 또한 오디오 디코더 인풋 버퍼(ADEC Input Buffer)(144)는 콘텐츠 스트림 상에 포함되어 있는 디코딩 타임 스탬프(Decoding Time Stamp, DTS)에 맞추어 오디오 디코더(ADEC)(147)에 오디오 콘텐츠를 전송할 수 있다.The video decoder input buffer (VDEC Input Buffer) 143 and the audio decoder input buffer (ADEC Input Buffer) may be buffers existing in front of the decoder. In addition, the video decoder input buffer (VDEC Input Buffer) 143 may transmit video content to the video decoder (VDEC) 146 according to a decoding time stamp (DTS) included in the content stream. Also, the audio decoder input buffer (ADEC Input Buffer) 144 may transmit audio content to the audio decoder (ADEC) 147 according to a decoding time stamp (DTS) included in the content stream.

시스템 타임 클럭(System Time Clock)(145)은 콘텐츠 스트림으로부터 PCR(Program Clock Reference) 파싱을 수행하여 기준 클럭을 생성하고, 콘텐츠 출력 장치(100)의 각 구성 요소에 기준 클럭을 제공할 수 있다. 특히 기준 클럭은 디코딩 타임 스탬프(Decoding Time Stamp, DTS) 및 표현 시간 지정 정보(Presentation Time Stamp, PTS)에 대하여 시간 기준 값을 제공할 수 있다.The system time clock 145 may generate a reference clock by parsing a program clock reference (PCR) from the content stream, and may provide the reference clock to each component of the content output device 100 . In particular, the reference clock may provide a time reference value for a decoding time stamp (Decoding Time Stamp, DTS) and presentation time designation information (Presentation Time Stamp, PTS).

비디오 디코더(VDEC)(146)는 비디오 콘텐츠를 디코딩하여 비디오 데이터를 생성하고, 생성된 비디오 데이터를 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)에 전송할 수 있다.The video decoder (VDEC) 146 may decode video content to generate video data, and transmit the generated video data to a video decoder output buffer (VDEC Output Buffer) 148 .

또한 오디오 디코더(ADEC)(147)는 오디오 콘텐츠를 디코딩하여 오디오 데이터를 생성하고, 생성된 오디오 데이터를 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)에 전송할 수 있다.Also, the audio decoder (ADEC) 147 may generate audio data by decoding the audio content, and transmit the generated audio data to an audio decoder output buffer (ADEC Output Buffer) 149 .

비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)는, AV 출력 컨트롤러(AV Output Controller)(150)의 제어 하에, 비디오 데이터를 출력부(120)로 전송할 수 있다.The video decoder output buffer (VDEC Output Buffer) 148 may transmit video data to the output unit 120 under the control of the AV output controller 150 .

또한 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)는, AV 출력 컨트롤러(AV Output Controller)(150)의 제어 하에, 비디오 데이터를 출력부(120)로 전송할 수 있다.Also, the audio decoder output buffer (ADEC Output Buffer) 149 may transmit video data to the output unit 120 under the control of the AV output controller 150 .

AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터의 비디오 PTS 및 오디오 데이터의 오디오 PTS에 기반하여 비디오 데이터 및 오디오 데이터의 시간 갭을 획득하고, 시간 갭이 마진 범위를 벗어나면 싱크 동작을 수행할 수 있다.The AV output controller 150 obtains a time gap of video data and audio data based on a video PTS of video data and an audio PTS of audio data, and performs a sync operation when the time gap is out of a margin range. can do.

한편 본 명세서에서, 용어 PTS 갭은 용어 시간 갭과 혼용되어 사용될 수 있다.Meanwhile, in this specification, the term PTS gap may be used interchangeably with the term time gap.

도 3은 본 발명에 따른, 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148) 및 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)를 도시한 도면이다.3 is a diagram illustrating a video decoder output buffer (VDEC Output Buffer) 148 and an audio decoder output buffer (ADEC Output Buffer) 149 according to the present invention.

비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)는 비디오 데이터의 복수의 프레임을 저장할 수 있다.The video decoder output buffer (VDEC Output Buffer) 148 may store a plurality of frames of video data.

예를 들어 도 3a를 참고하면, 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)는 첫번째 프레임으로부터 N번째 프레임까지의 복수의 프레임을 저장할 수 있으며, 복수의 프레임은 첫번째 프레임부터 순차적으로 출력부(120)에 출력될 수 있다.For example, referring to FIG. 3A , the video decoder output buffer (VDEC Output Buffer) 148 may store a plurality of frames from the first frame to the N-th frame, and the plurality of frames sequentially from the first frame to the output unit ( 120) can be output.

또한 복수의 프레임은, 각각 상응하는 비디오 PTS를 가질 수 있다.Also, a plurality of frames may each have a corresponding video PTS.

한편 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)는 오디오 데이터의 복수의 부분 오디오 데이터를 저장할 수 있다.Meanwhile, the audio decoder output buffer (ADEC Output Buffer) 149 may store a plurality of partial audio data of the audio data.

예를 들어 도 3b를 참고하면, 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)는 첫번째 부분 오디오 데이터로부터 N번째 부분 오디오 데이터까지의 복수의 부분 오디오 데이터를 저장할 수 있으며, 복수의 부분 오디오 데이터는 첫번째 부분 오디오 데이터부터 순차적으로 출력부(120)에 출력될 수 있다.For example, referring to FIG. 3B , the audio decoder output buffer (ADEC Output Buffer) 149 may store a plurality of partial audio data from the first partial audio data to the Nth partial audio data, and the plurality of partial audio data The first partial audio data may be sequentially output to the output unit 120 .

또한 복수의 부분 오디오 데이터는, 각각 상응하는 오디오 PTS를 가질 수 있다.Also, each of the plurality of partial audio data may have a corresponding audio PTS.

한편 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148) 내 복수의 프레임에 각각 할당된 복수의 비디오 PTS와, 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149) 내 복수의 부분 오디오 데이터에 각각 할당된 복수의 오디오 PTS를 실시간 모니터링 할 수 있다.Meanwhile, the AV output controller 150 includes a plurality of video PTSs respectively allocated to a plurality of frames in a video decoder output buffer 148 , and an audio decoder output buffer 149 . ), a plurality of audio PTSs each assigned to a plurality of partial audio data can be monitored in real time.

한편 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터 및 오디오 데이터의 시간 갭을 획득할 수 있다.Meanwhile, the AV output controller 150 may acquire a time gap between video data and audio data.

구체적으로 AV 출력 컨트롤러(AV Output Controller)(150)는 서로 상응하는 비디오 데이터 및 오디오 데이터의 시간 갭을 획득할 수 있다. 예를 들어 AV 출력 컨트롤러(AV Output Controller)(150)는, 비디오 데이터의 제1 프레임과 오디오 데이터의 제1 부분 오디오 데이터를 비교하여 시간 갭을 획득하고, 비디오 데이터의 제2 프레임과 오디오 데이터의 제2 부분 오디오 데이터를 비교하여 시간 갭을 획득할 수 있다.Specifically, the AV output controller 150 may acquire a time gap between video data and audio data corresponding to each other. For example, the AV output controller 150 compares the first frame of the video data with the first partial audio data of the audio data to obtain a time gap, and the second frame of the video data and the audio data A time gap may be obtained by comparing the second partial audio data.

이 경우 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터의 비디오 PTS 및 오디오 데이터의 오디오 PTS에 기반하여 비디오 데이터 및 오디오 데이터의 시간 갭을 획득할 수 있다.In this case, the AV output controller 150 may acquire a time gap between the video data and the audio data based on the video PTS of the video data and the audio PTS of the audio data.

예를 들어 AV 출력 컨트롤러(AV Output Controller)(150)는, 비디오 데이터의 제1 프레임의 비디오 PTS와 제1 부분 오디오 데이터의 오디오 PTS를 이용하여 비디오 데이터 및 오디오 데이터의 시간 갭(비디오 PTS - 오디오 PTS)을 획득할 수 있다.For example, the AV output controller 150 may configure a time gap (video PTS - audio PTS) can be obtained.

그리고 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터 및 오디오 데이터의 시간 갭에 기초하여, 시간 갭이 마진 범위를 벗어나면 싱크 동작을 수행할 수 있다.In addition, the AV output controller 150 may perform a sync operation when the time gap is out of a margin range based on a time gap between the video data and the audio data.

다시 도 2로 돌아가서, AV 출력 컨트롤러(AV Output Controller)(150)는 싱크 매니저(152)로부터 수신되는 보상 값에 기초하여 비디오 데이터 및 오디오 데이터의 시간 갭을 조절할 수 있다.Referring back to FIG. 2 , the AV output controller 150 may adjust a time gap between the video data and the audio data based on the compensation value received from the sync manager 152 .

한편 디스플레이 장치(200)가 콘텐츠 출력 장치(100)에 연결되면, 외부 장치 인터페이스(120)는 디스플레이 장치(200)로부터 디스플레이 장치(200)의 식별 데이터를 수신할 수 있다. 여기서 식별 데이터는 EDID(Extended Display Identification Data)일 수 있다.Meanwhile, when the display device 200 is connected to the content output device 100 , the external device interface 120 may receive identification data of the display device 200 from the display device 200 . Here, the identification data may be EDID (Extended Display Identification Data).

이 경우 외부 장치 인터페이스(120)는 식별 데이터를 싱크 디텍터(sink dector)(151)에 전송할 수 있다.In this case, the external device interface 120 may transmit the identification data to the sink detector 151 .

한편 싱크 디텍터(sink dector)(151)는 식별 데이터에 기초하여 콘텐츠 출력 장치(100)에 연결된 디스플레이 장치(200)의 식별 ID를 생성할 수 있다. 이 경우 싱크 디텍터(sink dector)(151)는 디스플레이 장치(200)의 식별 ID를 싱크 매니저(Sync Manager)(152)에 전송할 수 있다.Meanwhile, the sink detector 151 may generate an identification ID of the display apparatus 200 connected to the content output apparatus 100 based on the identification data. In this case, the sink detector 151 may transmit the identification ID of the display apparatus 200 to the sync manager 152 .

또한 싱크 매니저(Sync Manager)(152)는 현재 외부 장치 인터페이스(120)로 출력되는 콘텐츠의 포맷을 탐지할 수 있다.Also, the sync manager 152 may detect the format of the content currently output to the external device interface 120 .

한편 복수의 지연 시간 정보를 획득하는 과정에서, 싱크 매니저(Sync Manager)(152)는 지연 특정 장치(300)와 제1 통신부(110)를 통하여 통신하고, 지연 특정 장치(300)로부터 지연 시간 정보를 수신할 수 있다. 이 경우 싱크 매니저(Sync Manager)(152)는 디스플레이 장치(200)의 식별 ID 및 콘텐츠의 포맷을 포함하는 보상 셋에 지연 시간 정보를 매핑하여 저장할 수 있다.Meanwhile, in the process of acquiring the plurality of delay time information, the sync manager 152 communicates with the delay specifying device 300 through the first communication unit 110 , and delay time information from the delay specifying device 300 . can receive In this case, the sync manager 152 may map the delay time information to a compensation set including the identification ID of the display device 200 and the format of the content and store the mapping.

또한 지연 시간 정보에 기초한 보상을 수행하는 과정에서, 싱크 매니저(Sync Manager)(152)는 디스플레이 장치(200)의 식별 ID 및 콘텐츠의 포맷을 포함하는 특정 보상 셋에 매핑된 특정 지연 시간 정보를 획득하고, 획득된 지연 시간 정보에 기반한 보상 값을 AV 출력 컨트롤러(AV Output Controller)(150)에 전송할 수 있다.Also, in the process of performing compensation based on the delay time information, the sync manager 152 acquires specific delay time information mapped to a specific compensation set including the identification ID of the display device 200 and the format of the content. and a compensation value based on the obtained delay time information may be transmitted to the AV output controller 150 .

한편 디스플레이 장치(200)는 TV 등, 콘텐츠에 포함되는 비디오 데이터를 디스플레이 하고, 콘텐츠에 포함되는 오디오 데이터를 스피커를 통하여 출력하는 장치를 의미할 수 있다.Meanwhile, the display device 200 may refer to a device that displays video data included in content, such as a TV, and outputs audio data included in the content through a speaker.

디스플레이 장치(200)는 입력부(210), 비디오 처리부(225) 및 오디오 처리부(230)를 포함하는 제어부(220), 비디오 출력부(240) 및 오디오 출력부(250)를 포함할 수 있다.The display apparatus 200 may include a control unit 220 including an input unit 210 , a video processing unit 225 , and an audio processing unit 230 , a video output unit 240 , and an audio output unit 250 .

입력부(210)는 콘텐츠 출력 장치(100)의 외부장치 인터페이스(120)와 연결되어, 콘텐츠 출력 장치(100)로부터 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 수신할 수 있다. The input unit 210 may be connected to the external device interface 120 of the content output apparatus 100 to receive content including video data and audio data from the content output apparatus 100 .

한편 입력부(210)는 HDMI 케이블을 통하여 외부장치 인터페이스(120)와 연결될 수 있으며, 이 경우 입력부(210)는 HDMI 포트를 포함할 수 있다.Meanwhile, the input unit 210 may be connected to the external device interface 120 through an HDMI cable, and in this case, the input unit 210 may include an HDMI port.

또한 입력부(210)는 외부장치 인터페이스(120)에 식별 데이터(예를 들어 EDID)를 전송할 수 있다.Also, the input unit 210 may transmit identification data (eg, EDID) to the external device interface 120 .

한편 제어부(220)는 수신된 비디오 데이터를 처리하여 비디오 출력부(240)에 전송하고, 수신된 오디오 데이터를 처리하여 오디오 출력부(250)에 전송할 수 있다.Meanwhile, the controller 220 may process the received video data and transmit it to the video output unit 240 , and may process the received audio data and transmit it to the audio output unit 250 .

한편 디스플레이 장치(200)에서의 지연은 제어부(220), 즉 비디오 처리부(225) 및 오디오 처리부(230) 중 적어도 하나에서 발생할 수 있다.Meanwhile, the delay in the display apparatus 200 may occur in the controller 220 , that is, at least one of the video processor 225 and the audio processor 230 .

즉 제어부(220)는 수신된 비디오 데이터를 비디오 출력부(240)에서 출력하기 위한 처리, 수신된 오디오 데이터를 오디오 출력부(250)에서 출력하기 위한 처리, 화질 개선 알고리즘, 음질 개선 알고리즘 및 기타 다양한 처리를 수행하며, 이에 따라 제어부(220)에서는 지연이 발생할 수 있다.That is, the control unit 220 performs processing for outputting the received video data from the video output unit 240 , processing for outputting the received audio data from the audio output unit 250 , an image quality improvement algorithm, a sound quality improvement algorithm, and various other processing methods. processing is performed, and accordingly, a delay may occur in the controller 220 .

한편 비디오 출력부(240)는 영상을 디스플레이 하기 위한 디스플레이를 포함하고, 제어부(220)에서 전송되는 데이터를 디스플레이 할 수 있다.Meanwhile, the video output unit 240 may include a display for displaying an image, and may display data transmitted from the control unit 220 .

또한 오디오 출력부(250)는 오디오를 출력하기 위한 스피커를 포함하고, 제어부(220)에서 전송되는 데이터를 출력할 수 있다.Also, the audio output unit 250 may include a speaker for outputting audio, and may output data transmitted from the control unit 220 .

한편 지연 측정 장치(300)는 디스플레이 장치(200)에서 테스트 콘텐츠를 재생하는 경우, 디스플레이 장치(200)에서 출력되는 비디오와 오디오 간의 지연 시간(비디오의 출력 시간 - 오디오의 출력 시간)을 산출할 수 있다.On the other hand, the delay measurement apparatus 300 may calculate a delay time between the video and audio output from the display apparatus 200 (video output time - audio output time) when the test content is reproduced on the display apparatus 200 . have.

구체적으로 지연 측정 장치(300)는 비디오 탐지부(310), 오디오 탐지부(320) 및 지연 산출부(330)를 포함할 수 있다.In more detail, the delay measurement apparatus 300 may include a video detector 310 , an audio detector 320 , and a delay calculator 330 .

비디오 탐지부(310)는 빛을 감지하는 센서를 포함하고, 오디오 탐지부(320)는 소리를 감지하는 센서를 포함할 수 있다.The video detector 310 may include a sensor that detects light, and the audio detector 320 may include a sensor that detects sound.

또한 지연 산출부(330)는 비디오 탐지부(310)에서 감지된 값 및 오디오 탐지부(320)에서 감지된 값을 이용하여, 디스플레이 장치(200)에서 출력되는 비디오와 오디오 간의 지연 시간(비디오의 출력 시간 - 오디오의 출력 시간)을 산출할 수 있다.In addition, the delay calculator 330 uses the value detected by the video detector 310 and the value detected by the audio detector 320 , the delay time between the video output from the display device 200 and the audio ( output time - output time of audio) can be calculated.

한편 테스트 콘텐츠는, 비디오 탐지부(310)가 빛을, 오디오 탐지부(320)가 소리를 탐지하기 용이하도록 제작될 수 있다.Meanwhile, the test content may be produced so that the video detector 310 detects light and the audio detector 320 easily detects sound.

예를 들어 비디오가 블랙레벨에서 화이트레벨로 서서히 변화하고, 오디오는 휘도가 변경될 때만 일정 톤(tone)이 발생하도록 테스트 콘텐츠를 제작하는 경우, 지연 산출부(330)는 비디오에 대해서 블랙레벨로부터 화이트레벨로 변경되는 중간 지점의 시간을 계산할 수 있고 오디오에 대해서 총 톤(tone)을 출력하는 시간의 중간 지점의 시간을 계산할 수 있다. 그리고 지연 산출부(330)는 이 두 시간의 차를 산출하는 방식으로 비디오와 오디오 간의 지연 시간 정보(비디오의 출력 시간 - 오디오의 출력 시간)를 산출할 수 있다. For example, when test content is produced such that a video gradually changes from a black level to a white level and a certain tone is generated only when the luminance of the audio is changed, the delay calculator 330 calculates the video from the black level. It is possible to calculate the time of the midpoint of the change to the white level, and the time at the midpoint of the time for outputting a total tone for audio. In addition, the delay calculator 330 may calculate delay time information between video and audio (output time of video - output time of audio) by calculating the difference between the two times.

한편 지연 산출부(330)는 콘텐츠 출력 장치(100)의 싱크 매니저(152)와 통신하고, 싱크 매니저(152)에 지연 시간 정보를 전송할 수 있다.Meanwhile, the delay calculator 330 may communicate with the sync manager 152 of the content output device 100 and transmit delay time information to the sync manager 152 .

도 4는 본 발명에 따른, 지연 시간 정보의 생성 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method of generating delay time information according to the present invention.

이하에서는 지연 측정 장치(300)로부터 지연 시간 정보를 수신하고 보상 셋에 지연 보상 정보를 매칭하는 주체가 콘텐츠 출력 장치(100)인 것으로 설명하나 이에 한정되지 않으며, 지연 시간 정보를 수신하고 보상 셋에 지연 보상 정보를 매칭하는 주체는 콘텐츠 출력 장치(100)가 아닌 다른 장치(예를 들어 서버)일 수도 있다.Hereinafter, it will be described that the subject receiving the delay time information from the delay measurement device 300 and matching the delay compensation information to the compensation set is the content output device 100, but is not limited thereto, and receiving the delay time information and adding the delay compensation information to the compensation set. The subject matching the delay compensation information may be a device other than the content output device 100 (eg, a server).

콘텐츠 출력 장치(100)의 외부 장치 인터페이스(120)는 디스플레이 장치(200)의 입력부(210)와 연결될 수 있다.The external device interface 120 of the content output device 100 may be connected to the input unit 210 of the display device 200 .

이 경우 콘텐츠 출력 장치(100)의 외부 장치 인터페이스(120)는 디스플레이 장치(200)의 입력부(210)로부터 식별 데이터를 수신할 수 있다(S410).In this case, the external device interface 120 of the content output device 100 may receive identification data from the input unit 210 of the display device 200 (S410).

여기서 식별 데이터는 EDID(Extended Display Identification Data)일 수 있다.Here, the identification data may be EDID (Extended Display Identification Data).

셋탑 박스 등의 콘텐츠 출력 장치(100)와 TV 등의 디스플레이 장치는 HDMI에 의해 연결될 수 있다. The content output device 100, such as a set-top box, and a display device, such as a TV, may be connected by HDMI.

한편, HDMI로 연결된 소스 디바이스(콘텐츠 출력 장치)가 싱크 디바이스(디스플레이 장치)의 정보를 획득하기 위하여, EDID(Extended Display Identification Data)가 사용되고 있다. Meanwhile, EDID (Extended Display Identification Data) is used in order for a source device (content output device) connected through HDMI to acquire information on a sink device (display device).

구체적으로 싱크 디바이스(디스플레이 장치)에서 소스 디바이스(콘텐츠 출력 장치)로 전송하는 EDID 정보의 경우, 기본 정보(제조사, 제품 코드(Product Code), 시리얼 넘버, HDMI 버전정보 등), 비디오 정보(지원하는 비디오 해상도, 색 공간(Color Space), 비트 심도(Bit Depth), 다이나믹 레인지 등), 오디오 정보(지원하는 오디오 비트 심도(Bit Depth), 샘플링 레이트(Sampling Rate), 돌비(Dolby) 지원 유무 등)를 포함할 수 있다.Specifically, in the case of EDID information transmitted from the sink device (display device) to the source device (content output device), basic information (manufacturer, product code, serial number, HDMI version information, etc.), video information (supported Video resolution, color space, bit depth, dynamic range, etc.), audio information (supported audio bit depth, sampling rate, Dolby support, etc.) may include

한편 외부 장치 인터페이스(120)는 싱크 디텍터(151)에 식별 데이터를 전송할 수 있다(S420).Meanwhile, the external device interface 120 may transmit identification data to the sync detector 151 (S420).

그리고 싱크 디텍터(151)는 식별 데이터를 이용하여 디스플레이 장치(200)의 식별 ID를 생성할 수 있다.In addition, the sync detector 151 may generate an identification ID of the display apparatus 200 using the identification data.

이 경우 싱크 디텍터(151)는 식별 데이터에 포함되는 하나 이상의 정보를 조합하여 디스플레이 장치(200)의 식별 ID를 생성할 수 있다. In this case, the sync detector 151 may generate an identification ID of the display apparatus 200 by combining one or more pieces of information included in the identification data.

예를 들어 싱크 디텍터(151)는 식별 데이터에 포함되는 제조자, 제품 코드, 시리얼 넘버를 조합하여 식별 ID를 생성할 수 있다. 이 경우 식별 ID는 uniqueID=”$ManufacturerName_$ProductCode_$SerialNumber”의 형식을 가질 수 있다.For example, the sync detector 151 may generate an identification ID by combining a manufacturer, a product code, and a serial number included in the identification data. In this case, the identification ID may have a format of uniqueID=”$ManufacturerName_$ProductCode_$SerialNumber”.

그리고 제조자(ManufacturerName)는 GSM, 제품 코드(ProductCode)=1, 시리얼 넘버(SerialNumber)는 16843009인 경우, 디스플레이 장치(200)의 식별 ID(uniqueID)는 GSM_1_16843009이 될 수 있다.And when the manufacturer (ManufacturerName) is GSM, the product code (ProductCode)=1, and the serial number (SerialNumber) is 16843009, the identification ID (uniqueID) of the display apparatus 200 may be GSM_1_16843009.

한편 싱크 디텍터(151)는 생성된 식별 ID를 싱크 매니저(152)에 전송할 수 있다(S440).Meanwhile, the sync detector 151 may transmit the generated identification ID to the sync manager 152 (S440).

한편 싱크 매니저(152)는 식별 ID를 포함하는 데이터베이스를 생성할 수 있다(S450).Meanwhile, the sync manager 152 may create a database including the identification ID (S450).

한편 콘텐츠 출력 장치(100)는 테스트 콘텐츠를 외부 장치 인터페이스(120)를 통하여 디스플레이 장치(200)에 출력할 수 있다.Meanwhile, the content output device 100 may output the test content to the display device 200 through the external device interface 120 .

또한 싱크 매니저(152)는 디스플레이 장치(200)에 출력되는 테스트 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득할 수 있다(S460).Also, the sync manager 152 may acquire information on the content format of the test content output to the display device 200 ( S460 ).

한편 지연 측정 장치(300)는 디스플레이 장치(200)에서 출력되는 비디오와 오디오 간의 지연 시간 정보(비디오의 출력 시간 - 오디오의 출력 시간)을 산출하고, 산출된 지연 시간 정보를 싱크 매니저(152)에 전송할 수 있다.Meanwhile, the delay measurement device 300 calculates delay time information (video output time - audio output time) between the video and audio output from the display device 200 , and sends the calculated delay time information to the sync manager 152 . can be transmitted

이 경우 지연 측정 장치(300)는 복수의 측정 결과에 기초하여 산출된 복수의 지연 시간 정보의 평균 값을 싱크 매니저(152)에 전송할 수도 있다. In this case, the delay measuring apparatus 300 may transmit the average value of the plurality of delay time information calculated based on the plurality of measurement results to the sink manager 152 .

또한 지연 측정 장치(300)는 복수의 측정 결과에 기초하여 산출된 복수의 지연 시간 정보를 싱크 매니저(152)에 전송할 수도 있다. 이 경우에는 싱크 매니저(152)가 복수의 지연 시간 정보를 평균하여 평균 값을 산출할 수 있다. 그리고 지연 시간 정보(비디오의 출력 시간 - 오디오의 출력 시간)으로는 상기 평균 값이 사용될 수도 있다.Also, the delay measurement apparatus 300 may transmit a plurality of delay time information calculated based on the plurality of measurement results to the sink manager 152 . In this case, the sync manager 152 may calculate an average value by averaging a plurality of delay time information. In addition, the average value may be used as delay time information (video output time - audio output time).

한편 싱크 매니저(152)는 지연 측정 장치(300)로부터 지연 시간 정보를 수신함으로써, 디스플레이 장치(200)에 의해 테스트 콘텐츠가 출력되면서 발생하는 비디오 및 오디오 간의 지연 시간 정보를 획득할 수 있다.Meanwhile, the sync manager 152 may acquire delay time information between video and audio generated while test content is output by the display device 200 by receiving the delay time information from the delay measuring apparatus 300 .

이와 같은 방식으로, 디스플레이 장치의 식별 ID, 테스트 콘텐츠의 콘텐츠 포맷 및 비디오 및 오디오 간의 지연 시간 정보가 획득될 수 있다.In this way, the identification ID of the display device, the content format of the test content, and the delay time information between video and audio can be obtained.

그리고 싱크 매니저(152)는 식별 ID 및 콘텐츠 포맷을 포함하는 보상 셋을 생성할 수 있다. 또한 싱크 매니저(152)는 식별 ID 및 콘텐츠 포맷을 포함하는 보상 셋에 지연 시간 정보를 매핑하여 데이터베이스에 저장할 수 있다(S490).In addition, the sync manager 152 may generate a reward set including an identification ID and a content format. In addition, the sync manager 152 may map the delay time information to the reward set including the identification ID and the content format and store it in the database ( S490 ).

한편 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 서로 다른 디스플레이 장치에 대하여 위와 같은 과정을 반복함으로써, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 복수의 보상 셋 각각에 상응하는 지연 시간 정보가 매핑될 수 있다.Meanwhile, by repeating the above process for different display devices using a plurality of test content having different content formats, delay time information corresponding to each of a plurality of compensation sets having different at least one of an identification ID and a content format is mapped. can be

이와 관련해서는 도 5 내지 도 6을 참고하여 설명한다.This will be described with reference to FIGS. 5 to 6 .

도 5는 다양한 콘텐츠 포맷을 도시한 도면이다.5 is a diagram illustrating various content formats.

콘텐츠 포맷은, 비디오 포맷, 오디오 포맷 및 프레임레이트를 포함하여 구성될 수 있다.The content format may include a video format, an audio format, and a frame rate.

예를 들어 제1 콘텐츠 포맷(H264_30_PCM)은 H264 YUV420의 비디오 포맷, 30의 프레임레이트, PCM_16BIT_48KHZ의 오디오 포맷을 포함하여 구성될 수 있다.For example, the first content format (H264_30_PCM) may include a video format of H264 YUV420, a frame rate of 30, and an audio format of PCM_16BIT_48KHZ.

다른 예를 들어 제2 콘텐츠 포맷(H264_30_DDP)은 H264 YUV420의 비디오 포맷, 30의 프레임레이트, DDP_16BIT_384KBPS의 오디오 포맷을 포함하여 구성될 수 있다.For another example, the second content format (H264_30_DDP) may include a video format of H264 YUV420, a frame rate of 30, and an audio format of DDP_16BIT_384KBPS.

또한 콘텐츠 포맷은, 비디오 포맷(예를 들어 H264/HEVC/HDR), 오디오 포맷(예를 들어 PCM/DDP) 및 프레임레이트(예를 들어 30FPS/60FPS) 에 의하여 다른 콘텐츠와 구분될 수 있다.In addition, the content format may be distinguished from other content by a video format (eg, H264/HEVC/HDR), an audio format (eg, PCM/DDP), and a frame rate (eg, 30FPS/60FPS).

즉 특정 콘텐츠 포맷은, 다른 콘텐츠 포맷과 비디오 포맷, 오디오 포맷 및 프레임레이트 중 적어도 하나가 상이할 수 있다.That is, the specific content format may be different from other content formats in at least one of a video format, an audio format, and a frame rate.

예를 들어 제1 콘텐츠 포맷(H264_30_PCM)은 제2 콘텐츠 포맷(H264_30_DDP)과 오디오 포맷이 상이하다. 즉 오디오 포맷이 상이하므로, 제1 콘텐츠 포맷(H264_30_PCM)은 제2 콘텐츠 포맷(H264_30_DDP)과 구분될 수 있다.For example, the first content format H264_30_PCM has a different audio format from the second content format H264_30_DDP. That is, since the audio format is different, the first content format H264_30_PCM may be distinguished from the second content format H264_30_DDP.

다른 예를 들어 제1 콘텐츠 포맷(H264_30_PCM)은 제6 콘텐츠 포맷(HEVC_30_DDP)과 비디오 포맷 및 오디오 포맷이 상이하다. 즉 비디오 포맷 및 오디오 포맷이 상이하므로, 제1 콘텐츠 포맷(H264_30_PCM)은 제6 콘텐츠 포맷(HEVC_30_DDP)과 구분될 수 있다.For another example, the first content format (H264_30_PCM) is different from the sixth content format (HEVC_30_DDP) in a video format and an audio format. That is, since the video format and the audio format are different, the first content format H264_30_PCM may be distinguished from the sixth content format HEVC_30_DDP.

도 5에서는 12개의 콘텐츠 포맷을 예시하였으나 이에 한정되지 않으며, 비디오 포맷, 오디오 포맷 및 프레임레이트 중 적어도 하나가 다른 콘텐츠 포맷과 상이한 다양한 콘텐츠 포맷이 존재할 수 있다.Although 12 content formats are exemplified in FIG. 5 , the present invention is not limited thereto, and various content formats in which at least one of a video format, an audio format, and a frame rate are different from other content formats may exist.

한편 디스플레이 장치(200)가 콘텐츠 출력 장치(100)에 연결된 상태에서, 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 도 4에서 설명한 과정을 반복할 수 있다.Meanwhile, while the display apparatus 200 is connected to the content output apparatus 100 , the process described in FIG. 4 may be repeated using a plurality of test content having different content formats.

따라서 동일한 식별 ID 및 다양한 콘텐츠 포맷을 포함하는 복수의 보상 셋이 생성될 수 있으며, 싱크 매니저(152)는 복수의 보상 셋 각각에 상응하는 지연 시간 정보를 매핑하여 저장할 수 있다.Accordingly, a plurality of reward sets including the same identification ID and various content formats may be generated, and the sync manager 152 may map and store delay time information corresponding to each of the plurality of reward sets.

또한 다양한 디스플레이 장치를 콘텐츠 출력 장치(100)에 연결해가면서, 도 4 및 도 5에서 설명한 과정이 반복될 수 있다.In addition, the process described with reference to FIGS. 4 and 5 may be repeated while various display devices are connected to the content output device 100 .

예를 들어 제1 디스플레이 장치가 콘텐츠 출력 장치(100)에 연결된 상태에서 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 지연 시간 정보를 측정함으로써, 제1 디스플레이 장치의 식별 ID 및 다양한 콘텐츠 포맷을 포함하는 복수의 보상 셋이 생성될 수 있으며, 싱크 매니저(152)는 복수의 보상 셋 각각에 상응하는 지연 시간 정보를 매핑하여 저장할 수 있다.For example, by measuring delay time information using a plurality of test content having different content formats while the first display device is connected to the content output device 100, the identification ID of the first display device and various content formats are determined. A plurality of compensation sets including the plurality of compensation sets may be generated, and the sync manager 152 may map and store delay time information corresponding to each of the plurality of compensation sets.

그리고나서 제2 디스플레이 장치가 콘텐츠 출력 장치(100)에 연결된 상태에서 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 지연 시간 정보를 측정함으로써, 제2 디스플레이 장치의 식별 ID 및 다양한 콘텐츠 포맷을 포함하는 복수의 보상 셋이 생성될 수 있으며, 싱크 매니저(152)는 복수의 보상 셋 각각에 상응하는 지연 시간 정보를 매핑하여 저장할 수 있다.Then, in a state in which the second display device is connected to the content output device 100 , the delay time information is measured using a plurality of test contents having different content formats, thereby including the identification ID of the second display device and various content formats. A plurality of compensation sets may be generated, and the sync manager 152 may map and store delay time information corresponding to each of the plurality of compensation sets.

그리고 이와 같은 과정을 반복함으로써, 도 6과 같은 복수의 보상 셋이 생성될 수 있다.And by repeating this process, a plurality of compensation sets as shown in FIG. 6 may be generated.

도 6은 복수의 보상 셋을 도시한 도면이다.6 is a diagram illustrating a plurality of compensation sets.

하나의 보상 셋은, 디스플레이 장치의 식별 ID 및 콘텐츠 포맷을 포함하여 구성될 수 있다.One reward set may include an identification ID of a display device and a content format.

예를 들어 제1 보상 셋(610)은, GSM_1_16843009의 식별 ID 및 H264_30_PCM의 콘텐츠 포맷을 포함하여 구성될 수 있다.For example, the first compensation set 610 may include an identification ID of GSM_1_16843009 and a content format of H264_30_PCM.

다른 예를 들어 제2 보상 셋(620)은, GSM_1_16843009의 식별 ID 및 H264_30_DDP의 콘텐츠 포맷을 포함하여 구성될 수 있다.As another example, the second compensation set 620 may include an identification ID of GSM_1_16843009 and a content format of H264_30_DDP.

또 다른 예를 들어 제3 보상 셋(630)은, SEC_15360_3355의 식별 ID 및 HDR_60_DDP의 콘텐츠 정보를 포함하여 구성될 수 있다.As another example, the third compensation set 630 may be configured to include an identification ID of SEC_15360_3355 and content information of HDR_60_DDP.

한편 복수의 보상 셋 각각은, 다른 보상 셋과 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이할 수 있다.Meanwhile, each of the plurality of reward sets may be different from other reward sets in at least one of an identification ID and a content format.

예를 들어 제1 보상 셋(610)은 제2 보상 셋(620)과 콘텐츠 포맷이 상이할 수 있다.For example, the first compensation set 610 may have a different content format from the second compensation set 620 .

다른 예를 들어 제1 보상 셋(610)은 제3 보상 셋(630)과 식별 ID 및 콘텐츠 포맷이 상이할 수 있다.As another example, the first compensation set 610 may have a different identification ID and content format from the third compensation set 630 .

한편 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 서로 다른 보상 셋에 복수의 지연 시간 정보가 각각 매핑될 수 있다.Meanwhile, a plurality of delay time information may be respectively mapped to different compensation sets having different at least one of an identification ID and a content format.

예를 들어 제1 보상 셋(610)에는 100ms의 지연 시간 정보가 매핑될 수 있다. 다른 예를 들어 제2 보상 셋(620)에는 50ms의 지연 시간 정보가 매핑될 수 있다. 또 다른 예를 들어 제3 보상 셋(630)에는 -20ms의 지연 시간 정보가 매핑될 수 있다.For example, delay time information of 100 ms may be mapped to the first compensation set 610 . As another example, delay time information of 50 ms may be mapped to the second compensation set 620 . As another example, delay time information of -20 ms may be mapped to the third compensation set 630 .

한편 앞서 설명한 바와 같이, 지연 시간 정보를 생성하는 방법은 서버에 의해 수행될 수 있다. 이 경우 서버는 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 복수의 콘텐츠 출력 장치에 전송할 수 있다.Meanwhile, as described above, the method of generating the delay time information may be performed by the server. In this case, the server may transmit a plurality of delay time information mapped to a plurality of compensation sets, respectively, to a plurality of content output devices.

또한 지연 시간 정보를 생성하는 방법은 콘텐츠 출력 장치에 의해 수행될 수도 있다. 이 경우 콘텐츠 출력 장치는 보상 셋에 매핑된 지연 시간 정보를 서버로 전송할 수 있다. 이 경우 서버는 보상 셋에 매핑된 지연 시간 정보를 복수의 콘텐츠 출력 장치로부터 수집하여 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 획득하고, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 콘텐츠 출력 장치들에 배포할 수 있다.Also, the method of generating the delay time information may be performed by the content output device. In this case, the content output device may transmit delay time information mapped to the compensation set to the server. In this case, the server collects delay time information mapped to the compensation set from a plurality of content output devices to obtain a plurality of delay time information mapped to the plurality of compensation sets, respectively, and a plurality of delay times mapped to the plurality of compensation sets, respectively Information may be distributed to content output devices.

또한 서버는 새로운 콘텐츠 포맷이나 새로운 디스플레이 장치가 등장한 경우, 새로운 보상 셋 및 새로운 보상 셋에 매핑되는 지연 시간 정보를 생성하고, 새로운 보상 셋에 매핑되는 지연 시간 정보를 콘텐츠 출력 장치들에 배포할 수 있다.In addition, when a new content format or a new display device is introduced, the server may generate a new reward set and delay time information mapped to the new reward set, and distribute the delay time information mapped to the new reward set to content output devices. .

도 7은 본 발명에 따른, 콘텐츠 출력 장치의 지연 보상 방법을 설명하기 위한 도면이다.7 is a diagram for explaining a delay compensation method of a content output device according to the present invention.

콘텐츠 출력 장치(100)의 메모리(130)는 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장할 수 있다(S710).The memory 130 of the content output apparatus 100 may store a plurality of delay time information each mapped to a plurality of compensation sets ( S710 ).

또한 콘텐츠 출력 장치(100)의 제어부(140)는 새로운 보상 셋에 매핑되는 지연 시간 정보를 서버로부터 수신할 수도 있으며, 이 경우 제어부(140)는 새로운 보상 셋에 매핑되는 지연 시간 정보를 메모리(130)에 저장할 수 있다.Also, the controller 140 of the content output device 100 may receive delay time information mapped to a new reward set from the server, and in this case, the controller 140 stores the delay time information mapped to the new reward set in the memory 130 . ) can be stored in

한편 외부 장치 인터페이스(120)에 디스플레이 장치(200)가 연결되면, 제어부(140)는 외부 장치 인터페이스(120)를 통하여 디스플레이 장치(200)의 식별 데이터를 수신할 수 있다. 여기서 외부 장치 인터페이스(120)는 HDMI 포트일 수 있으며, 식별 데이터는 EDID(Extended Display Identification Data)일 수 있다.Meanwhile, when the display device 200 is connected to the external device interface 120 , the controller 140 may receive identification data of the display device 200 through the external device interface 120 . Here, the external device interface 120 may be an HDMI port, and the identification data may be Extended Display Identification Data (EDID).

이 경우 제어부(140)는 식별 데이터에 기초하여 콘텐츠 출력 장치(100)에 연결된 디스플레이 장치(200)의 식별 ID를 생성할 수 있다(S730).In this case, the controller 140 may generate an identification ID of the display apparatus 200 connected to the content output apparatus 100 based on the identification data (S730).

구체적으로 제어부(140)는 식별 데이터에 포함되는 하나 이상의 정보를 조합하여 디스플레이 장치(200)의 식별 ID를 생성할 수 있다. In more detail, the controller 140 may generate an identification ID of the display apparatus 200 by combining one or more pieces of information included in the identification data.

또한 제어부(140)는 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 외부 장치 인터페이스를 통하여 디스플레이 장치(200)로 출력할 수 있다(S740). 여기서 콘텐츠는 방송 콘텐츠, VOD, 스트리밍 콘텐츠 등을 포함할 수 있다.Also, the controller 140 may output content including video data and audio data to the display apparatus 200 through an external device interface (S740). Here, the content may include broadcast content, VOD, streaming content, and the like.

또한 제어부(140)는 디스플레이 장치(200)로 출력되는 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득할 수 있다(S750).In addition, the controller 140 may obtain information on the content format of the content output to the display apparatus 200 (S750).

그리고 제어부(140)는 복수의 보상 셋 중 디스플레이 장치의 식별 ID 및 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 선정된 보상 셋에 매핑된 지연 시간 정보를 획득할 수 있다(S760).In addition, the controller 140 may select a compensation set corresponding to the identification ID and content format of the display device from among the plurality of compensation sets, and obtain delay time information mapped to the selected compensation set ( S760 ).

구체적으로 제어부(140)는 복수의 보상 셋 중 디스플레이 장치(200)의 식별 ID 및 디스플레이 장치(200)로 출력되는 콘텐츠의 콘텐츠 포맷을 가지는 보상 셋을 선정할 수 있다. 그리고 제어부(140)는 선정된 보상 셋에 매핑된 지연 시간 정보를 메모리(130)로부터 독출할 수 있다.Specifically, the controller 140 may select a compensation set having an identification ID of the display apparatus 200 and a content format of the content output to the display apparatus 200 from among the plurality of compensation sets. In addition, the controller 140 may read the delay time information mapped to the selected compensation set from the memory 130 .

한편 제어부(140)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 비디오 데이터 및 오디오 데이터 간의 시간 갭을 조절할 수 있다(S770).Meanwhile, the controller 140 may adjust a time gap between the video data and the audio data based on the delay time information mapped to the selected compensation set ( S770 ).

구체적으로 싱크 매니저(152)는 보상 값(지연 시간 정보 또는 지연 시간 정보에 기초하여 생성된 제어 값)을 생성하여 값을 AV 출력 컨트롤러(AV Output Controller)(150)에 전송할 수 있다.Specifically, the sync manager 152 may generate a compensation value (delay time information or a control value generated based on delay time information) and transmit the value to the AV output controller 150 .

이 경우 AV 출력 컨트롤러(AV Output Controller)(150)는 버퍼(148, 149)를 제어하여 보상 값을 비디오 데이터 및 오디오 데이터에 적용할 수 있다.In this case, the AV output controller 150 may control the buffers 148 and 149 to apply a compensation value to the video data and the audio data.

지연 시간 정보에 기반하여 보상을 수행하는 첫번째 방법에 대하여 도 8을 참고하여 설명한다.A first method of performing compensation based on delay time information will be described with reference to FIG. 8 .

도 8은 본 발명의 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.8 is a diagram for explaining a method of performing compensation based on delay time information according to an embodiment of the present invention.

디스플레이 장치(200)에서 지연이 발생하지 않기 위해서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터가 아니라, 실제 디스플레이 장치(200)에서 출력(비디오의 디스플레이 및 스피커를 통한 오디오의 출력)되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록 보상이 수행되어야 한다.In order not to cause a delay in the display device 200, the video data and audio data output from the buffers 148 and 149 are not output from the actual display device 200 (video display and audio output through the speaker) Compensation should be performed so that the time gap between the video data and the audio data to be used approaches zero.

따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 디스플레이 장치(200)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.Accordingly, the AV output controller 150 performs a buffer operation such that a time gap between the video data and the audio data output from the display device 200 approaches 0 based on the delay time information mapped to the selected compensation set. I can repeat or discard a frame of my video data.

한편 콘텐츠 출력 장치(100)에서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터에 대한 제어만이 가능하다.Meanwhile, in the content output device 100 , only video data and audio data output from the buffers 148 and 149 can be controlled.

따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.Accordingly, the AV output controller 150 determines that the time gap between the video data and the audio data output from the buffers 148 and 149 is negative in the delay time information based on the delay time information mapped to the selected compensation set. To access a value having a sign of , repeat or discard of a frame of video data in the buffer may be performed.

더욱 구체적으로 선정된 보상 셋에 매핑된 지연 시간 정보가 50ms인 경우, 디스플레이 장치(200)에서는 비디오가 오디오에 비하여 50ms만큼 더 빨리 출력되고 있는 상태이다.More specifically, when the delay time information mapped to the selected compensation set is 50 ms, the display apparatus 200 is in a state in which the video is output faster than the audio by 50 ms.

따라서 도 8b를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 매핑된 지연 시간 정보(50ms)에 음의 부호를 가지는 값(-50ms)에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat)을 수행할 수 있다. 즉 AV 출력 컨트롤러(AV Output Controller)(150)는, 오디오 데이터는 그대로 출력하고, 비디오 데이터에 대해서는 현재의 프레임을 출력하되, 출력된 프레임을 버퍼에서 삭제하지 않고 그대로 보관한 후 다시 출력하는 동작을 1회 이상 수행할 수 있다.Therefore, referring to FIG. 8B , the AV output controller 150 provides a negative sign to delay time information (50ms) to which a time gap between the video data and the audio data output from the buffers 148 and 149 is mapped. To access a value (-50 ms) having a value of , it is possible to repeat the frame of the video data in the buffer. That is, the AV output controller 150 outputs audio data as it is and outputs the current frame for video data, but does not delete the output frame from the buffer, but keeps it as it is and then outputs it again. It can be done more than once.

또한 선정된 보상 셋에 매핑된 지연 시간 정보가 -50ms인 경우, 디스플레이 장치(200)에서는 비디오가 오디오에 비하여 50ms만큼 더 늦게 출력되고 있는 상태이다.Also, when the delay time information mapped to the selected compensation set is -50 ms, the display apparatus 200 is in a state in which the video is output later than the audio by 50 ms.

따라서 도 8c를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 매핑된 지연 시간 정보(-50ms)에 음의 부호를 가지는 값(50ms)에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat)을 수행할 수 있다. 즉 AV 출력 컨트롤러(AV Output Controller)(150)는, 즉 AV 출력 컨트롤러(AV Output Controller)(150)는, 오디오 데이터는 그대로 출력하고, 비디오 데이터에 대해서는 현재의 프레임을 버리고 다음 프레임을 출력하는 동작을 1회 이상 수행할 수 있다.Accordingly, referring to FIG. 8C , the AV output controller 150 transmits a negative value to the delay time information (-50ms) in which the time gap between the video data and the audio data output from the buffers 148 and 149 is mapped. To access a signed value (50 ms), it is possible to repeat the frame of the video data in the buffer. That is, the AV output controller 150, that is, the AV output controller 150 outputs audio data as it is, and discards the current frame for video data and outputs the next frame. can be performed more than once.

한편 선정된 보상 셋에 매핑된 지연 시간 정보가 0ms인 경우, 디스플레이 장치(200)에서는 비디오와 오디오가 싱크가 맞게 출력되고 있는 상태이다.Meanwhile, when the delay time information mapped to the selected compensation set is 0 ms, the display apparatus 200 is in a state in which video and audio are output in synchronization.

따라서 도 8a를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 현재 상태로 유지되도록 반복(repeat) 또는 버리기(discard)를 수행하지 않을 수 있다.Therefore, referring to FIG. 8A , the AV output controller 150 repeats or discards (repeat or discard) so that the time gap between the video data and the audio data output from the buffers 148 and 149 is maintained in the current state. discard) may not be performed.

다음은 지연 시간 정보에 기반하여 보상을 수행하는 두번째 방법에 대하여 도 9를 참고하여 설명한다.Next, a second method of performing compensation based on delay time information will be described with reference to FIG. 9 .

도 9는 본 발명의 또 다른 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.9 is a diagram for explaining a method of performing compensation based on delay time information according to another embodiment of the present invention.

디스플레이 장치(200)에서 지연이 발생하지 않기 위해서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터가 아니라, 실제 디스플레이 장치(200)에서 출력(비디오의 디스플레이 및 스피커를 통한 오디오의 출력)되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록 보상이 수행되어야 한다.In order not to cause a delay in the display device 200, the video data and audio data output from the buffers 148 and 149 are not output from the actual display device 200 (video display and audio output through the speaker) Compensation should be performed so that the time gap between the video data and the audio data to be used approaches zero.

따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 디스플레이 장치(200)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 비디오 데이터의 비디오 PTS 또는 오디오 데이터의 오디오 PTS를 리매핑 할 수 있다.Accordingly, the AV output controller 150 controls the video data so that the time gap between the video data and the audio data output from the display device 200 approaches 0 based on the delay time information mapped to the selected compensation set. You can remap the video PTS of data or the audio PTS of audio data.

한편 콘텐츠 출력 장치(100)에서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터에 대한 제어만이 가능하다.Meanwhile, in the content output device 100 , only video data and audio data output from the buffers 148 and 149 can be controlled.

따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 버퍼(148, 149) 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 버퍼(148, 149) 내 오디오 데이터의 오디오 PTS에 지연 시간 정보를 더할 수 있다.Accordingly, the AV output controller 150 determines that the time gap between the video data and the audio data output from the buffers 148 and 149 is negative in the delay time information based on the delay time information mapped to the selected compensation set. Add the negative sign value to the video PTS of the video data in the buffers 148, 149, or add delay time information to the audio PTS of the audio data in the buffers 148, 149 to access the signed value of can

구체적으로 선정된 보상 셋에 매핑된 지연 시간 정보가 50ms인 경우, 디스플레이 장치(200)에서는 비디오가 오디오에 비하여 50ms만큼 더 빨리 출력되고 있는 상태이다.Specifically, when the delay time information mapped to the selected compensation set is 50 ms, in the display apparatus 200, the video is output faster than the audio by 50 ms.

따라서 버퍼(148, 149)에서 출력되는 비디오 데이터는 버퍼(148, 149)에서 출력되는 오디오 데이터에 비하여 50ms만큼 더 늦게 출력되어야 한다.Therefore, the video data output from the buffers 148 and 149 should be output later than the audio data output from the buffers 148 and 149 by 50 ms.

따라서 도 9a를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 디코더 출력 버퍼(911) 내 비디오 데이터의 비디오 PTS에, 매핑된 지연 시간 정보에 음의 부호를 가지는 값(-50ms)을 더할 수 있다.Therefore, referring to FIG. 9A , the AV output controller 150 is a value having a negative sign in delay time information mapped to the video PTS of the video data in the video decoder output buffer 911 (-50 ms) can be added

이 경우 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭(비디오 PTS - 오디오 PTS)이 -50ms가 되기 때문에, 디스플레이 장치(200)에서 발생하는 지연(50ms)를 보상할 수 있게 된다.In this case, since the time gap (video PTS - audio PTS) between the video data and audio data output from the buffers 148 and 149 becomes -50 ms, the delay (50 ms) occurring in the display device 200 can be compensated. do.

또한 도 9b를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는 오디오 디코더 출력 버퍼(922) 내 오디오 데이터의 오디오 PTS에, 매핑된 지연 시간 정보(50ms)를 더할 수 있다.Also, referring to FIG. 9B , the AV output controller 150 may add mapped delay time information (50 ms) to the audio PTS of audio data in the audio decoder output buffer 922 .

이 경우 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭(비디오 PTS - 오디오 PTS)이 -50ms가 되기 때문에, 디스플레이 장치(200)에서 발생하는 지연(50ms)를 보상할 수 있게 된다.In this case, since the time gap (video PTS - audio PTS) between the video data and audio data output from the buffers 148 and 149 becomes -50 ms, the delay (50 ms) occurring in the display device 200 can be compensated. do.

한편 도 9에서의 설명은 지연을 보상하는 예시일 뿐으로, 비디오 PTS 및 오디오 PTS를 모두 리매핑 하는 방법도 가능하다.Meanwhile, the description in FIG. 9 is only an example of compensating for a delay, and a method of remapping both the video PTS and the audio PTS is also possible.

예를 들어 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 디코더 출력 버퍼 내 비디오 데이터의 비디오 PTS에 -25ms를 더하고, 오디오 디코더 출력 버퍼 내 오디오 데이터의 오디오 PTS에 25ms를 더할 수 있다.For example, the AV output controller 150 may add -25 ms to the video PTS of the video data in the video decoder output buffer and 25 ms to the audio PTS of the audio data in the audio decoder output buffer.

이 경우 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭(비디오 PTS - 오디오 PTS)이 -50ms가 되기 때문에, 디스플레이 장치(200)에서 발생하는 지연(50ms)를 보상할 수 있게 된다.In this case, since the time gap (video PTS - audio PTS) between the video data and audio data output from the buffers 148 and 149 becomes -50 ms, the delay (50 ms) occurring in the display device 200 can be compensated. do.

이와 같이 본 발명에 따르면, 디스플레이 장치 및 콘텐츠 포맷의 특성을 고려하여 비디오 및 오디오 간 싱크를 조절하기 때문에, 사용자가 실제로 시청하는 콘텐츠의 싱크를 최적화 할 수 있는 장점이 있다.As described above, according to the present invention, since the sync between the video and audio is adjusted in consideration of the characteristics of the display device and the content format, there is an advantage in that the sync of the content actually viewed by the user can be optimized.

또한 본 발명에 따르면, 다양한 디스플레이 장치 및 다양한 콘텐츠 포맷을 반영한 복수의 보상 셋을 생성하고, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 이용하여 보상을 수행함으로써, 콘텐츠 출력 장치에 어떤 디스플레이 장치가 연결되는지 또는 어떤 포맷의 콘텐츠가 출력되는지에 관계 없이 싱크를 정교하게 맞출 수 있는 장점이 있다.In addition, according to the present invention, by generating a plurality of compensation sets reflecting various display devices and various content formats, and performing compensation using a plurality of delay time information mapped to the plurality of compensation sets, a certain display is displayed on the content output device. It has the advantage of being able to precisely synchronize regardless of whether the device is connected or what format the content is output in.

또한 HDMI는 단방향 인터페이스로써, 디스플레이 장치는 디스플레이 장치에서 발생하는 실제 지연 정보를 콘텐츠 출력 장치에 전송할 수 없다. 다만 본 발명은 미리 시간 지연 정보를 수집하여 보상 셋과 매핑하고, 보상 셋에 매핑된 시간 지연 정보를 콘텐츠 출력 장치에 저장함으로써 디스플레이 장치에서 발생하는 지연을 보상할 수 있는 장점이 있다.Also, since HDMI is a one-way interface, the display device cannot transmit actual delay information generated by the display device to the content output device. However, the present invention has the advantage of compensating for the delay occurring in the display device by collecting the time delay information in advance, mapping it with the compensation set, and storing the time delay information mapped to the compensation set in the content output device.

또한 본 발명에 따르면, 새로운 콘텐츠 포맷이나 새로운 디스플레이 장치가 등장하는 경우, 새로운 보상 셋 및 상응하는 지연 시간 정보를 측정하여 콘텐츠 출력 장치 들에 배포하는 것이 가능하며, 이러한 배포는 펌웨어 또는 소프트웨어 업그레이드 등의 간단한 방식으로 수행되는 장점이 있다. 따라서 본 발명은 이미 사용되고 있는 콘텐츠 출력 장치에 손쉽게 적용될 수 있는 장점이 있다.In addition, according to the present invention, when a new content format or a new display device appears, it is possible to measure a new compensation set and corresponding delay time information and distribute it to the content output devices. It has the advantage of being done in a simple way. Therefore, the present invention has an advantage that can be easily applied to content output devices that are already in use.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be implemented as computer-readable code on a medium in which a program is recorded. The computer readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this. In addition, the computer may include a control unit. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

100: 콘텐츠 출력 장치 110: 통신부
120: 외부 장치 인터페이스 130: 메모리
140: 제어부
100: content output device 110: communication unit
120: external device interface 130: memory
140: control unit

Claims (19)

외부 장치 인터페이스;
복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 메모리; 및
상기 외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하고,
상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하고,
비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하고,
상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하고,
상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 제어부;를 포함하는
콘텐츠 출력 장치.
external device interface;
a memory for storing a plurality of delay time information mapped to a plurality of compensation sets, respectively; and
When the display device is connected to the external device interface, the identification data of the display device is received through the external device interface,
generating an identification ID of the display device using the identification data;
output content including video data and audio data to the display device through the external device interface;
obtaining information about the content format of the content;
A compensation set corresponding to an identification ID of the display device and the content format is selected from among the plurality of compensation sets, and a time gap between the video data and the audio data is calculated based on delay time information mapped to the selected compensation set. a control unit to control; including
content output device.
제 1항에 있어서,
상기 외부 장치 인터페이스는, HDMI 포트이고,
상기 식별 데이터는, EDID인
콘텐츠 출력 장치.
The method of claim 1,
The external device interface is an HDMI port,
The identification data is EDID
content output device.
제 1항에 있어서,
상기 복수의 보상 셋 각각은,
식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이한
콘텐츠 출력 장치.
The method of claim 1,
Each of the plurality of reward sets,
At least one of the identification ID and the content format is different from the other reward set.
content output device.
제 1항에 있어서,
상기 콘텐츠 포맷은,
콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분되는
콘텐츠 출력 장치.
The method of claim 1,
The content format is
It is distinguished from other content formats by the video format, audio format, and frame rate of the content.
content output device.
제 1항에 있어서,
상기 제어부는,
상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는
콘텐츠 출력 장치.
The method of claim 1,
The control unit is
Based on the mapped delay time information, repeat or discard the frame of the video data in the buffer so that the time gap between the video data and the audio data output from the display device approaches 0 performing
content output device.
제 5항에 있어서,
상기 제어부는,
버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는
콘텐츠 출력 장치.
6. The method of claim 5,
The control unit is
Repeat or discard the frame of the video data in the buffer so that the time gap between the video data and the audio data output from the buffer approaches a value having a negative sign in the mapped delay time information to do
content output device.
제 1항에 있어서,
상기 제어부는,
상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는
콘텐츠 출력 장치.
The method of claim 1,
The control unit is
remapping the video PTS of the video data or the audio PTS of the audio data so that a time gap between the video data and the audio data output from the display device approaches 0 based on the mapped delay time information
content output device.
제 7항에 있어서,
상기 제어부는,
버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더하는
콘텐츠 출력 장치.
8. The method of claim 7,
The control unit is
The negative value is added to the video PTS of the video data in the buffer so that a time gap between the video data and the audio data output from the buffer approaches a negative value to the mapped delay time information, or adding the delay time information to the audio PTS of the audio data in the buffer
content output device.
복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 단계;
외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하는 단계;
상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하는 단계;
비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하는 단계;
상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하는 단계; 및
상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계;를 포함하는
콘텐츠 출력 장치의 지연 보상 방법.
storing a plurality of delay time information mapped to a plurality of compensation sets, respectively;
receiving identification data of the display device through the external device interface when the display device is connected to the external device interface;
generating an identification ID of the display device using the identification data;
outputting content including video data and audio data to the display device through the external device interface;
obtaining information on a content format of the content; and
A compensation set corresponding to an identification ID of the display device and the content format is selected from among the plurality of compensation sets, and a time gap between the video data and the audio data is calculated based on delay time information mapped to the selected compensation set. adjusting; including
A method of compensating for delay in a content output device.
제 9항에 있어서,
상기 외부 장치 인터페이스는, HDMI 포트이고,
상기 식별 데이터는, EDID인
콘텐츠 출력 장치의 지연 보상 방법.
10. The method of claim 9,
The external device interface is an HDMI port,
The identification data is EDID
A method of compensating for delay in a content output device.
제 9항에 있어서,
상기 복수의 보상 셋 각각은,
식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이한
콘텐츠 출력 장치의 지연 보상 방법.
10. The method of claim 9,
Each of the plurality of reward sets,
At least one of the identification ID and the content format is different from the other reward set.
A method of compensating for delay in a content output device.
제 9항에 있어서,
상기 콘텐츠 포맷은,
콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분되는
콘텐츠 출력 장치의 지연 보상 방법.
10. The method of claim 9,
The content format is
It is distinguished from other content formats by the video format, audio format, and frame rate of the content.
A method of compensating for delay in a content output device.
제 9항에 있어서,
상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는,
상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계;를 포함하는
콘텐츠 출력 장치의 지연 보상 방법.
10. The method of claim 9,
Adjusting the time gap between the video data and the audio data comprises:
Based on the mapped delay time information, repeat or discard the frame of the video data in the buffer so that the time gap between the video data and the audio data output from the display device approaches 0 performing; including
A method of compensating for delay in a content output device.
제 13항에 있어서,
상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계는,
버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는
콘텐츠 출력 장치의 지연 보상 방법.
14. The method of claim 13,
Repeating or discarding the frame of the video data in the buffer comprises:
Repeat or discard the frame of the video data in the buffer so that the time gap between the video data and the audio data output from the buffer approaches a value having a negative sign in the mapped delay time information to do
A method of compensating for delay in a content output device.
제 9항에 있어서,
상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는,
상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계;를 포함하는
콘텐츠 출력 장치의 지연 보상 방법.
10. The method of claim 9,
Adjusting the time gap between the video data and the audio data comprises:
Remapping the video PTS of the video data or the audio PTS of the audio data so that a time gap between the video data and the audio data output from the display device approaches 0 based on the mapped delay time information; doing
A method of compensating for delay in a content output device.
제 15항에 있어서,
상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계는,
버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더하는
콘텐츠 출력 장치의 지연 보상 방법.
16. The method of claim 15,
Remapping the video PTS of the video data or the audio PTS of the audio data comprises:
The negative value is added to the video PTS of the video data in the buffer so that a time gap between the video data and the audio data output from the buffer approaches a negative value to the mapped delay time information, or adding the delay time information to the audio PTS of the audio data in the buffer
A method of compensating for delay in a content output device.
테스트 콘텐츠를 콘텐츠 출력 장치의 외부 장치 인터페이스를 통하여 디스플레이 장치로 출력하는 제1 단계;
상기 디스플레이 장치에 의해 상기 테스트 콘텐츠가 출력되면서 발생하는 비디오 및 오디오 간의 지연 시간 정보를 획득하는 제2 단계; 및
상기 디스플레이 장치의 식별 ID 및 상기 테스트 콘텐츠의 콘텐츠 포맷을 포함하는 보상 셋에 상기 지연 시간 정보를 매핑하여 저장하는 제3 단계;를 포함하는
지연 시간 정보 생성 방법.
a first step of outputting test content to a display device through an external device interface of the content output device;
a second step of obtaining delay time information between video and audio generated while the test content is output by the display device; and
A third step of mapping and storing the delay time information to a compensation set including the identification ID of the display device and the content format of the test content;
How to generate latency information.
제 17항에 있어서,
서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 서로 다른 디스플레이 장치에 대하여 상기 제1 내지 제3 단계를 반복함으로써, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 복수의 보상 셋 각각에, 상응하는 지연 시간 정보를 매핑하는 단계;를 더 포함하는
지연 시간 정보 생성 방법.
18. The method of claim 17,
By repeating the first to third steps for different display devices using a plurality of test content having different content formats, the delay corresponding to each of the plurality of reward sets having different at least one of an identification ID and a content format mapping time information; further comprising
How to generate latency information.
제 18항에 있어서,
상기 콘텐츠 포맷은,
콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분되는
지연 시간 정보 생성 방법.
19. The method of claim 18,
The content format is
It is distinguished from other content formats by the video format, audio format, and frame rate of the content.
How to generate latency information.
KR1020210030931A 2021-03-09 2021-03-09 Device for outputting content and delay compensation method of content output device KR102618617B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210030931A KR102618617B1 (en) 2021-03-09 2021-03-09 Device for outputting content and delay compensation method of content output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210030931A KR102618617B1 (en) 2021-03-09 2021-03-09 Device for outputting content and delay compensation method of content output device

Publications (2)

Publication Number Publication Date
KR20220126534A true KR20220126534A (en) 2022-09-16
KR102618617B1 KR102618617B1 (en) 2023-12-27

Family

ID=83445089

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210030931A KR102618617B1 (en) 2021-03-09 2021-03-09 Device for outputting content and delay compensation method of content output device

Country Status (1)

Country Link
KR (1) KR102618617B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040070937A (en) * 2003-02-05 2004-08-11 엘지전자 주식회사 Method for controlling audio lip-synchronization
KR20060065436A (en) * 2004-12-10 2006-06-14 한국전자통신연구원 Apparatus and method for synchronization of audio and video in dmb apparatus
KR20070084235A (en) * 2004-11-16 2007-08-24 톰슨 라이센싱 Device and method for synchronizing different parts of a digital service
KR20070101036A (en) * 2006-04-10 2007-10-16 엘지전자 주식회사 Apparatus and method for compensation of delay in video processing
KR20070104131A (en) * 2006-04-21 2007-10-25 삼성전자주식회사 Method and apparatus for compensating of audio/video synchronization
KR20120061619A (en) * 2010-12-03 2012-06-13 엘지전자 주식회사 Display apparatus and a method for setting ID thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040070937A (en) * 2003-02-05 2004-08-11 엘지전자 주식회사 Method for controlling audio lip-synchronization
KR20070084235A (en) * 2004-11-16 2007-08-24 톰슨 라이센싱 Device and method for synchronizing different parts of a digital service
KR20120097537A (en) * 2004-11-16 2012-09-04 톰슨 라이센싱 Device and method for reproducing and transmitting data corresponding to digital service
KR20060065436A (en) * 2004-12-10 2006-06-14 한국전자통신연구원 Apparatus and method for synchronization of audio and video in dmb apparatus
KR20070101036A (en) * 2006-04-10 2007-10-16 엘지전자 주식회사 Apparatus and method for compensation of delay in video processing
KR20070104131A (en) * 2006-04-21 2007-10-25 삼성전자주식회사 Method and apparatus for compensating of audio/video synchronization
KR20120061619A (en) * 2010-12-03 2012-06-13 엘지전자 주식회사 Display apparatus and a method for setting ID thereof

Also Published As

Publication number Publication date
KR102618617B1 (en) 2023-12-27

Similar Documents

Publication Publication Date Title
JP6671022B2 (en) Display device, display method, and computer program
CN110489073B (en) Conversion method and conversion device
JP6512458B2 (en) Data reproduction method and reproduction apparatus
WO2015198560A1 (en) Data output device, data output method, and data generation method
US8244093B2 (en) Video signal processing device and method, and program
JP2018018571A (en) Reproducing method and reproducer
JP6647162B2 (en) Video recording device, video reproducing device, recording method, and reproducing method
WO2015198552A1 (en) Content data generating method, video stream transmission method and video display method
KR20090074864A (en) Display device and method for skipping advertising
JP6928885B2 (en) Display device, display method and computer program
KR102618617B1 (en) Device for outputting content and delay compensation method of content output device
US20140036154A1 (en) Image processing apparatus and image processing method thereof
JP6731627B2 (en) Method Performed on Playback Device and Playback Device
KR100744594B1 (en) Content reproduce system, reproduce device, reproduce method, and distribution server
JP6641230B2 (en) Video playback device and video playback method
US20100166382A1 (en) Video and audio reproduction system, distribution device, and synchronization adjustment method
EP3712891B1 (en) Reproduction device, reproduction method, and program
KR102634845B1 (en) Device and method for outputting content
JP2019216431A (en) Display
JP6868797B2 (en) Conversion method and conversion device
JP6751893B2 (en) Reproduction method, reproduction device, display method and display device
KR20110087002A (en) Method for displaying of image and system for displaying of image thereof
KR19990027641A (en) Digital broadcasting signal receiving method
KR20090001151A (en) Imageing recording and playback apparatus and method
KR20080093640A (en) Apparatus and method of recording picture in picture audio visual data

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant