WO2020149426A1 - 영상표시기기 및 그 제어방법 - Google Patents
영상표시기기 및 그 제어방법 Download PDFInfo
- Publication number
- WO2020149426A1 WO2020149426A1 PCT/KR2019/000583 KR2019000583W WO2020149426A1 WO 2020149426 A1 WO2020149426 A1 WO 2020149426A1 KR 2019000583 W KR2019000583 W KR 2019000583W WO 2020149426 A1 WO2020149426 A1 WO 2020149426A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- communication
- display device
- mobile terminal
- content
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000004891 communication Methods 0.000 claims abstract description 130
- 230000004044 response Effects 0.000 claims abstract description 11
- 230000008859 change Effects 0.000 claims description 18
- 230000006870 function Effects 0.000 abstract description 42
- 238000012545 processing Methods 0.000 description 43
- 238000010586 diagram Methods 0.000 description 35
- 230000005236 sound signal Effects 0.000 description 22
- 230000033001 locomotion Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 230000000694 effects Effects 0.000 description 10
- 238000007726 management method Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 239000011230 binding agent Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000007921 spray Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000009304 pastoral farming Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/162—Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/4363—Adapting the video stream to a specific local network, e.g. a Bluetooth® network
- H04N21/43637—Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4825—End-user interface for program selection using a list of items to be played back in a given order, e.g. playlists
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
- H04N21/8113—Monomedia components thereof involving special audio data, e.g. different tracks for different languages comprising music, e.g. song in MP3 format
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/16—Use of wireless transmission of display information
Definitions
- the present invention relates to an image display device and a control method for allowing the use of an image display device to be implemented in consideration of user convenience.
- the video display device is, for example, a device having a function of receiving and processing a broadcast image that a user can watch.
- the video display device displays, for example, a broadcast selected by a user among broadcast signals transmitted from a broadcasting station on a display.
- broadcasting is shifting from analog broadcasting to digital broadcasting worldwide.
- Digital broadcasting means broadcasting that transmits digital video and audio signals. Digital broadcasting is more resistant to external noise than analog broadcasting, so data loss is small, it is advantageous for error correction, and it has a high resolution and provides a clear screen. In addition, unlike digital broadcasting, digital broadcasting can provide interactive services.
- the performance of the video display device has been improved and the functions have been diversified.
- the improved video display device performance it is possible to simply receive video signals from broadcasting stations to watch broadcasts and use various applications. It has been able to perform various functions through video display devices such as game play, music listening and internet shopping.
- An object of the present invention is to provide a video display device capable of performing various functions in conjunction with a mobile terminal such as a smart phone, and a control method thereof.
- a wireless communication unit for communicating with a display unit, an audio output unit, a mobile terminal and a remote control device, through the wireless communication unit from the mobile terminal to reproduce the first content
- a wireless communication unit for communicating with a display unit, an audio output unit, a mobile terminal and a remote control device, through the wireless communication unit from the mobile terminal to reproduce the first content
- 1 provides a video display device including a control unit that controls a user interface to control reproduction of content to be displayed on the display unit.
- the first communication from the mobile terminal through the first communication It provides a control method of a video display device comprising the step of receiving the content and outputting it through the audio output unit, and displaying a user interface for controlling the reproduction of the first content of the mobile terminal.
- the video display device can perform various functions in conjunction with a mobile terminal such as a smartphone.
- the content being played on the mobile terminal can be conveniently output from the video display device, and the content playback of the mobile terminal can be conveniently controlled through the video display device.
- FIG. 1 is a view schematically showing an example of an entire broadcasting system including a video display device according to an embodiment of the present invention.
- FIG. 2 is a view schematically showing another example of an entire broadcasting system including a video display device according to another embodiment of the present invention.
- FIG. 3 is a diagram illustrating a step in which the video display device shown in FIG. 1 or 2 connects to a service provider and receives channel information.
- FIG. 4 is a diagram illustrating an example of data used in the steps shown in FIG. 3.
- FIG. 5 is a diagram illustrating an example of the image display device illustrated in FIG. 1 or 2 in more detail.
- FIG. 6 is a diagram illustrating another example of the image display device illustrated in FIG. 1 or 2 in more detail.
- FIG. 7 and 8 are diagrams showing any one of a video display device according to embodiments of the present invention, which is divided into a set-top box and a display device.
- FIG. 9 is a diagram for describing a process in which any one of the video display devices according to the embodiments of the present invention communicates with third devices.
- FIG. 10 is an internal block diagram of the control unit illustrated in FIG. 6.
- FIG. 11 is a diagram showing an example of a structure diagram of any one of the video display devices according to the embodiments of the present invention.
- FIG. 12 is a diagram illustrating another example of a platform structure diagram of any one of image display devices according to embodiments of the present invention.
- FIG. 13 is a diagram illustrating a control method of a remote control device that controls any one of video display devices according to embodiments of the present invention.
- FIG. 14 is an internal block diagram of a remote control device controlling any one of video display devices according to embodiments of the present invention.
- FIG. 15 is a diagram illustrating a first embodiment of a user interface provided by any one of video display devices according to embodiments of the present invention.
- 16 is a view showing a second embodiment of a user interface provided by any one of video display devices according to embodiments of the present invention.
- 17 is a block diagram of a user terminal according to an embodiment of the present invention.
- FIG. 18 is a flow chart interlocked between a video display device and a mobile terminal according to the present invention.
- FIG. 19 shows a video display device and a mobile terminal interlocked according to the present invention.
- 20 is a flow chart interlocked between a video display device and a mobile terminal according to the present invention.
- 21 and 22 show a video display device and a mobile terminal interlocked according to the present invention.
- FIG. 23 is a flow chart interlocked between a video display device and a mobile terminal according to the present invention.
- 24 and 25 show a video display device and a mobile terminal interlocked according to the present invention.
- 26 and 27 show a video display device according to the present invention.
- the video display device described in the present specification is, for example, an intelligent video display device in which a computer support function is added to a broadcast reception function, while an Internet function or the like is added while being faithful to the broadcast reception function, a handwritten input device, a touch screen Or, it may have a more convenient interface such as a space remote control. And, it is connected to the Internet and a computer with the support of a wired or wireless Internet function, and can perform functions such as email, web browsing, banking, or gaming. A standardized general-purpose OS can be used for these various functions.
- the video display device described in the present invention various applications can be freely added or deleted, for example, on a general-purpose OS kernel, so that various user-friendly functions can be performed.
- the video display device may be, for example, a network TV, an HBBTV, a smart TV, and the like, and may be applied to a smartphone in some cases.
- FIG. 1 is a view schematically showing an example of an entire broadcasting system including a video display device according to an embodiment of the present invention.
- the entire broadcast system including the video display device according to an embodiment of the present invention, a content provider (Content Provider; CP) 10, a service provider (Service Provider; SP) 20, It can be divided into a network provider (Network Provider; NP) 30 and HNED (40).
- the HNED 40 corresponds to, for example, the client 100 as a video display device according to an embodiment of the present invention.
- the client 100 corresponds to a video display device according to an embodiment of the present invention, and the video display device is, for example, a network TV, a smart TV, or an IPTV.
- the content provider 10 produces and provides various contents. As shown in Fig. 1, the content provider 10 includes terrestrial broadcasters, cable operators (SO), or multiple system operators (MSO), satellite broadcasters, and satellite broadcasters. A ruler (Internet broadcaster) may be exemplified.
- the content provider 10 may provide various applications, in addition to broadcast content. In this regard, it will be described in more detail later.
- the service provider 20 may provide contents packaged by the content provider 10 by service packaging.
- the service provider 20 of FIG. 1 may package and provide a first terrestrial broadcast, a second terrestrial broadcast, cable MSO, satellite broadcast, various Internet broadcasts, applications, and the like to the user.
- the service provider 20 may provide a service to the client 100 using a unicast or multicast method.
- the unicast method is a method of transmitting data 1:1 between one sender and one receiver.
- the server may transmit data to the receiver according to the request.
- the multicast method is a method of transmitting data to a plurality of recipients of a specific group.
- the server may transmit data to a plurality of pre-registered receivers at once.
- IGMP Internet Group Management Protocol
- the network provider 30 may provide a network network for providing the service to the client 100.
- the client 100 may also be provided with a service by establishing a home network end user (HNED).
- HNED home network end user
- conditional access or content protection may be used.
- a method such as a cable card (CableCARD) or a downloadable conditional access system (DCAS) may be used.
- the client 100 may also provide content through a network.
- the client 100 may be a content provider, and the content provider 10 may receive content from the client 100.
- the client 100 may be a content provider, and the content provider 10 may receive content from the client 100.
- FIG. 2 is a view schematically showing another example of an entire broadcasting system including a video display device according to another embodiment of the present invention.
- the video display device 100 is connected to a broadcast network and an Internet network.
- the video display device 100 is, for example, a network TV, smart TV, HBBTV, and the like.
- the video display device 100 for example, broadcast interface 101, section filter 102, AIT filter 103, application data processing unit 104, broadcast data processing unit 111, media player 106 ), an Internet protocol processing unit 107, an Internet interface 108, and a runtime module 109.
- AIT application information table
- real-time broadcast content Through the broadcast interface 101, application information table (AIT) data, real-time broadcast content, application data, and stream events are received. Meanwhile, the real-time broadcast content may be referred to as Linear A/V Content.
- the section filter 102 performs section filtering on the four data received through the broadcast interface 101 to transmit AIT data to the AIT filter 103, and the linear AV content is the broadcast data processing unit 111.
- the stream event and application data are transmitted to the application data processing unit 104.
- non-linear A/V content and application data are received.
- the non-linear AV content may be, for example, a Content On Demand (COD) application.
- CDD Content On Demand
- the non-linear AV content is transmitted to the media player 106, and the application data is transmitted to the runtime module 109.
- the runtime module 109 includes, for example, an application manager and a browser, as shown in FIG. 2.
- the application manager controls life cycle for an interactive application using, for example, AIT data.
- the browser performs a function of displaying and processing the interactive application, for example.
- FIG. 3 is a diagram illustrating a step in which the video display device shown in FIG. 1 or 2 connects to a service provider and receives channel information.
- FIG. 3 is an embodiment, and the scope of the present invention is not limited only by the method of FIG. 3.
- the service provider performs a service provider discovery operation (S301).
- the video display device transmits an SP connection request signal (S302).
- the video display device receives provisioning information (S303).
- the video display device receives a master SI table from the service provider (S304), receives a Virtual Chnnanel Map table (S305), receives a Virtual Channel Description table (S306), and receives a Source table ( S307).
- the service provider discovery may mean a process in which service providers providing services related to IPTV find a server providing information about their services.
- an SD (service discovery) server for example, SP discovery information
- SP discovery information For example, SP discovery information
- a preset address for a video display device or an address set by a user's manual operation for example, a preset address for a video display device or an address set by a user's manual operation.
- a DHCP-based SP discovery method can be used.
- DNS SRV-based SP discovery method can be used.
- the video display device accesses a server of an address obtained by any one of the above three methods, and receives a service provider discovery record containing information necessary for service discovery for each SP. Then, using this, a service discovery step is performed.
- These processes can be either push mode or pull mode.
- a separate authentication procedure may be performed by accessing an SP authentication service server designated as an SP authentication locator, and then a service authentication procedure may be performed.
- the data transmitted from the server to the video display device after the successful service attachment procedure may be in the form of a provisioning information table.
- the video display device provides its own ID and location information in data transmitted to the server, and the Service attachment server can identify the service to which the video display device subscribes. Furthermore, the address information from which the video display device can obtain the service information to be received is provided in the form of a provisioning information table. The address information corresponds to the access information of the master SI table. When using this method, it is easy to provide customized services for each subscriber.
- the Service Information includes a master SI table record that manages access information and version for a virtual channel map, a virtual channel map table that provides a package type service list, and a virtual channel description including detailed information of each channel. It includes a table and a source table that contains access information to access the actual service.
- FIG. 4 is a diagram illustrating an example of data used in the steps shown in FIG. 3.
- FIG. 4 is a view showing FIG. 3 in more detail. Hereinafter, the relationship between the data in the SI will be described with reference to FIG. 4.
- the Master SI table includes location information that can receive each virtual channel map and version information of each virtual channel map.
- Each virtual channel map is uniquely identified by a virtual channel map identifier, and the virtual channel map version represents version information of the virtual channel map. If any one table among all the tables connected in the direction of the arrow starting from the master SI table shown in FIG. 4 is changed, the versions of all upper tables (up to the master SI table) increase with the version of the corresponding table. Therefore, by monitoring the master SI table, there is an advantage that the change on the entire SI table can be immediately confirmed.
- the version of the source table is increased, and the version of the virtual channel description table that references the source table is also changed. Therefore, the change of the lower table causes the change of the upper table, and ultimately, the version of the master SI table is changed.
- One Master SI table may exist for each service provider.
- the service provider is designed to have a plurality of master SI tables in order to provide customized services for each unit.
- the service provider is designed to have a plurality of master SI tables in order to provide customized services for each unit.
- the virtual channel map table may have one or more virtual channels, and does not include detailed information of the channel in the virtual channel map, but includes location information for obtaining the detailed information.
- the virtual channel description location of the virtual channel map table informs the location of the virtual channel description table including channel detailed information.
- the virtual channel description table includes detailed information of the virtual channel, and can access the virtual channel desctiprion table by using the virtual channel description location of the virtual channel map table.
- the source table provides access information (eg, IP address, port, AV codec, transport protocol, etc.) required for accessing the actual service for each service.
- access information eg, IP address, port, AV codec, transport protocol, etc.
- the master SI table, virtual channel map table, virtual channel description table, and source table described above are logically transmitted through four separate flows, and both push mode or pull mode are possible.
- the master SI table can be transmitted in multicast for version management, and receives a multicast stream to monitor version changes.
- FIG. 5 is a diagram illustrating an example of the image display device illustrated in FIG. 1 or 2 in more detail.
- the drawing shown in FIG. 5 is only one embodiment, and the scope of the present invention should be determined by the claims rather than FIG. 5 in principle.
- the video display device 700 includes a network interface unit 701, a TCP/IP manager 702, a service delivery manager 703, and a demultiplexer (Demux) ( 705), PSI&(PSIP and/or SI) decoder 704, Audio Decoder 706, Video Decoder 707, Display A/V and OSD Module 708 , Service Control Manager (709), Service Discovery Manager (710), Metadata Manager (Metadata Manager) 712, SI&Metadata DB (711), UI Manager 714, and services It comprises a manager 713 and the like.
- Demux demultiplexer
- the network interface unit 701 receives packets received from the network, and transmits the packet to the network. That is, the network interface unit 701 receives a service, content, etc. from a service provider through a network network.
- the TCP/IP manager 702 is involved in packet transmission from the source to the destination for packets received by the video display device 700 and packets transmitted by the video display device 700. Then, the TCP/IP manager 702 classifies the received packet to correspond to an appropriate protocol, and classifies the service packet into a service delivery manager 705, a service discovery manager 710, a service control manager 709, and a metadata manager 712. Print out the packet.
- the service delivery manager 703 is in charge of controlling received service data.
- RTP/RTCP may be used.
- the service delivery manager 703 parses the received data packet according to the RTP and transmits it to the demultiplexer 705 or to control the service manager 713. Accordingly, it is stored in the SI&Metadata DB 711. Then, the network reception information is fed back to the server side providing the service using RTCP.
- the demultiplexer 705 demultiplexes the received packets into audio, video, and PSI (Program Specific Information) data, and transmits them to the audio/video decoders 706 and 707, and the PSI&(PSIP and/or SI) Decoder 704, respectively do.
- PSI Program Specific Information
- the PSI&(PSIP and/or SI) Decoder 704 decodes service information such as, for example, PSI (Program Specific Information). That is, the PSI&(PSIP and/or SI) Decoder 704 receives and decodes the demultiplexer 705, a demultiplexed PSI section, a PSIP (Program and Service Information Protocol) section, or a SI (Service Information) section.
- PSI Program Specific Information
- the PSI&(PSIP and/or SI) Decoder 704 decodes the received sections to create a database for service information, and the service information database is stored in the SI&Metadata DB 711.
- the audio/video decoder 706/707 decodes video data and audio data received from the demultiplexer 705.
- the audio data decoded by the audio decoder 706 and the video data decoded by the video decoder 707 are provided to the user through the display unit 708.
- the UI manager 714 and the service manager 713 manage the overall state of the video display device 700, provide a user interface, and manage other managers.
- the UI manager 714 provides a graphical user interface (GUI) for a user using an on-screen display (OSD), and receives a key input from a user to perform a receiver operation according to the input. For example, when a key input for channel selection is received from a user, the key input signal is transmitted to the service manager 713.
- GUI graphical user interface
- OSD on-screen display
- the service manager 713 controls a manager associated with a service, such as a service delivery manager 703, a service discovery manager 710, a service control manager 709, and a metadata manager 712.
- the service manager 713 creates a channel map and selects a channel using the channel map according to a key input received from the user interface manager 714.
- the service manager 713 receives channel service information from the PSI&(PSIP and/or SI) Decoder 704 and sets the audio/video PID (Packet Identifier) of the selected channel to the demultiplexer 705.
- PSI&(PSIP and/or SI) Decoder 704 sets the audio/video PID (Packet Identifier) of the selected channel to the demultiplexer 705.
- the service discovery manager 710 provides information necessary to select a service provider providing a service. When a signal regarding channel selection is received from the service manager 713, the service discovery manager 710 finds a service using the information.
- the service control manager 709 is responsible for selecting and controlling services. For example, if the user selects a Live Broadcasting service such as the existing broadcasting method, IGMP or RTSP is used, and when a service such as Video On Demand (VOD) is selected, RTSP is used to select and control the service. To perform.
- the RTSP protocol may provide a trick mode for real-time streaming.
- the service control manager 709 may initialize and manage a session through the IMC gateway using an IP Multimedia Subsystem (IMS) and a Session Initiation Protocol (SIP).
- IMS IP Multimedia Subsystem
- SIP Session Initiation Protocol
- the metadata manager 712 manages metadata associated with the service and stores the metadata in the SI&Metadata DB 711.
- SI&Metadata DN 711 selects service information decoded by PSI&(PSIP and/or SI) Decoder 704, metadata managed by metadata manager 712, and service providers provided by service discovery manager 710. Save necessary information.
- the SI&Metadata DB 711 may store setup data for the system.
- the SI&Metadata DB 711 may be implemented using non-volatile memory (NonVolatile RAM: NVRAM) or flash memory.
- the IG 750 is a gateway that collects functions necessary for accessing an IMS-based IPTV service.
- FIG. 6 is a diagram illustrating another example of the image display device illustrated in FIG. 1 or 2 in more detail.
- the video display device 100 may include a control unit 170, a display unit 180, an audio output unit 185, a power supply unit 190, and a photographing unit (not shown).
- the broadcast receiving unit 105 may include a tuner 110, a demodulation unit 120, and a network interface unit 130.
- the tuner 110 selects an RF broadcast signal corresponding to a channel selected by a user or all pre-stored channels among radio frequency (RF) broadcast signals received through an antenna.
- the selected RF broadcast signal is converted into an intermediate frequency signal or a baseband video or audio signal.
- the tuner 110 may process both digital broadcast signals or analog broadcast signals.
- the analog baseband video or audio signal (CVBS/SIF) output from the tuner 110 may be directly input to the controller 170.
- the tuner 110 may receive a single carrier RF broadcast signal according to an Advanced Television System Committee (ATSC) scheme or a multiple carrier RF broadcast signal according to a Digital Video Broadcasting (DVB) scheme.
- ATSC Advanced Television System Committee
- DVD Digital Video Broadcasting
- the tuner 110 may sequentially select RF broadcast signals of all broadcast channels stored through a channel storage function among RF broadcast signals received through an antenna and convert them into an intermediate frequency signal or a baseband video or audio signal. have.
- the demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.
- the demodulator 120 when the digital IF signal output from the tuner 110 is an ATSC method, the demodulator 120 performs, for example, 8-Vestigal Side Band (8-VSB) demodulation. Also, the demodulator 120 may perform channel decoding. To this end, the demodulator 120 includes a Trellis Decoder, a De-interleaver, and a Reed Solomon Decoder, such as Trellis decoding, deinterleaving, and read. Solomon decoding can be performed.
- 8-VSB 8-Vestigal Side Band
- the demodulator 120 when the digital IF signal output from the tuner 110 is a DVB method, the demodulator 120 performs, for example, Coded Orthogonal Frequency Division Modulation (COFDMA) demodulation. Further, the demodulator 120 may perform channel decoding. To this end, the demodulator 120 may include a convolution decoder, a deinterleaver, and a Reed-Soloman decoder, and perform convolutional decoding, deinterleaving, and Reed Soloman decoding.
- COFDMA Coded Orthogonal Frequency Division Modulation
- the demodulator 120 may output a stream signal TS after demodulation and channel decoding.
- the stream signal may be a signal in which a video signal, an audio signal or a data signal is multiplexed.
- the stream signal may be an MPEG-2 Transport Stream (TS) in which an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, and the like are multiplexed.
- the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.
- the above-described demodulation unit 120 may be provided separately according to the ATSC method and the DVB method. That is, it is possible to be provided with an ATSC demodulator and a DVB demodulator.
- the stream signal output from the demodulator 120 may be input to the controller 170.
- the control unit 170 After performing demultiplexing, video/audio signal processing, and the like, the control unit 170 outputs an image to the display unit 180 and outputs audio to the audio output unit 185.
- the external device interface unit 135 may connect the external device and the image display device 100. To this end, the external device interface unit 135 may include an A/V input/output unit (not shown) or a wireless communication unit (not shown).
- the external device interface unit 135 may be wired/wirelessly connected to an external device such as a DVD (Digital Versatile Disk), a Blu-ray, a game device, a camera, a camcorder, and a computer (laptop).
- the external device interface unit 135 transmits a video, audio, or data signal input from the outside through the connected external device to the control unit 170 of the video display device 100.
- the image, audio, or data signal processed by the control unit 170 may be output to a connected external device.
- the external device interface unit 135 may include an A/V input/output unit (not shown) or a wireless communication unit (not shown).
- A/V input/output unit USB terminal, CVBS (Composite Video Banking Sync) terminal, component terminal, S-video terminal (analog), DVI so that video and audio signals from external devices can be input to the video display device 100 It may include a (Digital Visual Interface) terminal, a High Definition Multimedia Interface (HDMI) terminal, an RGB terminal, and a D-SUB terminal.
- CVBS Composite Video Banking Sync
- component terminal S-video terminal (analog)
- DVI Digital Video Banking Sync
- DVI Digital Visual Interface
- HDMI High Definition Multimedia Interface
- RGB RGB terminal
- D-SUB terminal D-SUB terminal
- the wireless communication unit may perform short-range wireless communication with other electronic devices.
- the video display device 100 includes, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Digital Living Network Alliance (DLNA) ) Can be connected to other electronic devices and networks according to communication standards.
- RFID Radio Frequency Identification
- IrDA Infrared Data Association
- UWB Ultra Wideband
- ZigBee ZigBee
- DLNA Digital Living Network Alliance
- the external device interface unit 135 may be connected to at least one of various set-top boxes and various terminals described above, and perform input/output operations with the set-top box.
- the external device interface unit 135 may receive an application or a list of applications in an adjacent external device and transmit it to the control unit 170 or the storage unit 140.
- the network interface unit 130 provides an interface for connecting the video display device 100 to a wired/wireless network including an Internet network.
- the network interface unit 130 may include, for example, an Ethernet terminal or the like for connection with a wired network, and for connection with a wireless network, for example, a WLAN (Wireless LAN) (Wi- Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) communication standards and the like can be used.
- WLAN Wireless LAN
- Wibro Wireless broadband
- Wimax Worldwide Interoperability for Microwave Access
- HSDPA High Speed Downlink Packet Access
- the network interface unit 130 may transmit or receive data with other users or other electronic devices through a connected network or another network linked to the connected network.
- some content data stored in the image display device 100 may be transmitted to another user registered in advance in the image display device 100 or to a selected user or selected electronic device among other electronic devices.
- the network interface unit 130 may access a predetermined web page through a connected network or another network linked to the connected network. That is, it is possible to connect to a predetermined web page through a network and transmit or receive data with the corresponding server.
- content or data provided by a content provider or a network operator may be received. That is, it is possible to receive content and related information such as movies, advertisements, games, VODs, and broadcast signals provided from a content provider or a network provider through a network.
- the network interface unit 130 may select and receive a desired application from among applications that are open to the public through a network.
- the network interface unit 130 may transmit or receive predetermined data with a user terminal networked with the video display device.
- a server that stores game scores and predetermined data can be transmitted or received.
- the storage unit 140 may store programs for processing and controlling each signal in the control unit 170, and may store signal-processed video, audio, or data signals.
- the storage unit 140 may perform a function for temporarily storing an image, audio, or data signal input from the external device interface unit 135 or the network interface unit 130.
- the storage unit 140 may store information regarding a predetermined broadcast channel through a channel storage function.
- the storage unit 140 may store an application or a list of applications input from the external device interface unit 135 or the network interface unit 130.
- the storage unit 140 may store various platforms described below.
- the storage unit 140 may store unique information and game play information of a user terminal used as a game controller in providing a game application in an image display device.
- the storage unit 140 includes, for example, a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD) Memory, etc.), RAM, and ROM (EEPROM, etc.).
- the video display device 100 may play a content file (video file, still image file, music file, document file, application file, etc.) stored in the storage unit 140 and provide it to the user.
- FIG 6 illustrates an embodiment in which the storage unit 140 is provided separately from the control unit 170, the scope of the present invention is not limited thereto.
- the storage unit 140 may be included in the control unit 170.
- the user input interface unit 150 transmits a signal input by the user to the control unit 170 or a signal from the control unit 170 to the user.
- the user input interface unit 150 may turn on/off the power from the remote control device 200, select a channel, or screen according to various communication methods such as a radio frequency (RF) communication method and an infrared (IR) communication method.
- RF radio frequency
- IR infrared
- a control signal such as a setting may be received and processed, or a control signal from the control unit 170 may be transmitted to the remote control device 200.
- the user input interface unit 150 may transmit a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.
- a local key such as a power key, a channel key, a volume key, and a set value
- the user input interface unit 150 transmits a control signal input from a sensing unit (not shown) that senses a user's gesture to the control unit 170 or senses a signal from the control unit 170. Can be transmitted to a negative (not shown).
- the sensing unit may include a touch sensor, a voice sensor, a position sensor, and a motion sensor.
- the control unit 170 through the tuner 110 or the demodulator 120 or the external device interface unit 135, demultiplexes the input stream or processes the demultiplexed signals to signal for video or audio output Can generate and print
- the image signal processed by the controller 170 may be input to the display unit 180 and displayed as an image corresponding to the corresponding image signal. Also, the image signal processed by the control unit 170 may be input to the external output device through the external device interface unit 135.
- the audio signal processed by the control unit 170 may be audio output to the audio output unit 185.
- the voice signal processed by the control unit 170 may be input to the external output device through the external device interface unit 135.
- control unit 170 may include a demultiplexing unit, an image processing unit, and the like. This will be described later with reference to FIG. 10.
- control unit 170 may control the overall operation in the image display device 100.
- control unit 170 may control the tuner 110 so as to select (Tuning) an RF broadcast corresponding to a channel selected by a user or a pre-stored channel.
- control unit 170 may control the video display device 100 by a user command input through the user input interface unit 150 or an internal program. In particular, it is possible to access a network and download a desired application or application list into the video display device 100.
- control unit 170 controls the tuner 110 to input a signal of a selected channel according to a predetermined channel selection command received through the user input interface unit 150. Then, the video, audio, or data signals of the selected channel are processed.
- the control unit 170 allows the channel information, etc. selected by the user to be output through the display unit 180 or the audio output unit 185 along with the processed image or audio signal.
- control unit 170 may be input from an external device input through the external device interface unit 135, for example, a camera or camcorder, according to an external device image playback command received through the user input interface unit 150.
- the video signal or the audio signal can be output through the display unit 180 or the audio output unit 185.
- control unit 170 may control the display unit 180 to display an image.
- a broadcast image input through the tuner 110, an external input image input through the external device interface unit 135, an image input through the network interface unit, or an image stored in the storage unit 140 It can be controlled to be displayed on the display unit 180.
- the image displayed on the display unit 180 may be a still image or a video, and may be a 2D image or a 3D image.
- control unit 170 may control to play the content.
- the content at this time may be content stored in the video display device 100, broadcast content received, or external input content input from the outside.
- the content may be at least one of a broadcast image, an external input image, an audio file, a still image, a connected web screen, and a document file.
- control unit 170 may control to display the home screen on the display unit 180 according to a movement input to the home screen.
- the home screen may include a plurality of card objects classified by content sources.
- the card object includes a card object representing a thumbnail list of broadcast channels, a card object representing a broadcast guide list, a card object representing a broadcast reservation list or a recording list, a media list in the video display device or a device connected to the video display device It may include at least one of the card object representing. Further, at least one of a card object representing a list of connected external devices and a card object representing a list related to a call may be further included.
- the home screen may further include an application menu having at least one executable application item.
- control unit 170 may control to move and display the corresponding card object or to display and display the card object that is not displayed on the display unit 180 on the display unit 180. .
- control unit 170 may control the display unit 180 to display an image corresponding to the card object.
- the controller 170 may control to display the received broadcast image and an object representing the broadcast image related information in a card object displaying the broadcast image. Then, the size of the broadcast image can be controlled to be fixed by a lock setting.
- control unit 170 controls to display a setup object for at least one of a video setting, an audio setting, a screen setting, a reservation setting, a pointer setting of a remote control device, and a network setting in the home screen. can do.
- control unit 170 may control to display an object for a login, help, or exit item in one area of the home screen.
- control unit 170 may control to display an object indicating the number of all card objects in one area of the home screen or an object indicating the number of card objects displayed on the display unit 180 among all the card objects.
- the controller 170 may control to display the corresponding card object on the display unit 180 as a full screen.
- control unit 170 when an incoming call is received in the connected external device or video display device, the control unit 170 focuses and displays a call-related card object among a plurality of card objects, or displays a call-related card object into the display unit 180. It can be controlled to move and display.
- the controller 170 may control to display a list of applications or applications that can be downloaded from the video display device 100 or from an external network.
- the control unit 170 may control to install and operate an application downloaded from an external network along with various user interfaces. Also, an image related to an application to be executed can be controlled to be displayed on the display unit 180 by the user's selection.
- a channel browsing processing unit for generating a thumbnail image corresponding to a channel signal or an external input signal.
- the channel browsing processing unit receives a stream signal (TS) output from the demodulator 120 or a stream signal output from the external device interface unit 135 and extracts an image from the input stream signal to generate a thumbnail image.
- TS stream signal
- the generated thumbnail image may be input as it is or as encoded.
- the generated thumbnail image may be encoded in a stream form and input to the control unit 170.
- the controller 170 may display a list of thumbnails having a plurality of thumbnail images on the display unit 180 using the input thumbnail images. Meanwhile, the thumbnail images in the thumbnail list can be updated sequentially or simultaneously. Accordingly, the user can easily grasp the contents of a plurality of broadcast channels.
- the display unit 180 converts the image signal, the data signal, the OSD signal, or the image signal received from the external device interface unit 135 processed by the control unit 170 into R, G, and B signals, respectively. Generate a drive signal.
- the display unit 180 may be a PDP, LCD, OLED, flexible display, 3D display, or the like.
- the display unit 180 may be configured as a touch screen and used as an input device in addition to the output device.
- the audio output unit 185 receives a signal processed by the controller 170, for example, a stereo signal, a 3.1 channel signal, or a 5.1 channel signal, and outputs the audio.
- the audio output unit 185 may be implemented as various types of speakers.
- a sensing unit having at least one of a touch sensor, a voice sensor, a position sensor, and a motion sensor may be further provided in the image display device 100. have.
- the signal sensed by the sensing unit may be transmitted to the control unit 170 through the user input interface unit 150.
- a photographing unit (not shown) for photographing a user may be further provided. Image information photographed by the photographing unit (not shown) may be input to the controller 170.
- the control unit 170 may detect a user's gesture by individually or in combination with an image captured by a photographing unit (not shown) or a detected signal from a sensing unit (not shown).
- the power supply unit 190 supplies the corresponding power throughout the image display device 100.
- control unit 170 that can be implemented in the form of a system on chip (SOC), a display unit 180 for image display, and an audio output unit 185 for audio output.
- SOC system on chip
- display unit 180 for image display
- audio output unit 185 for audio output.
- the power supply unit 190 may include a converter (not shown) that converts AC power into DC power.
- a converter not shown
- an inverter capable of PWM operation may be further provided for driving luminance or dimming. It might be.
- the remote control device 200 transmits a user input to the user input interface unit 150.
- the remote control device 200 may use Bluetooth, radio frequency (RF) communication, infrared (IR) communication, ultra wideband (UWB), ZigBee, or the like.
- RF radio frequency
- IR infrared
- UWB ultra wideband
- ZigBee ZigBee
- the remote control device 200 may receive an image, audio or data signal output from the user input interface unit 150, display it on the remote control device 200, or output voice or vibration.
- the above-described image display device 100 is a fixed type, ATSC (8-VSB) digital broadcasting, DVB-T (COFDM) digital broadcasting, ISDB-T (BST-OFDM) digital broadcasting, etc. It may be a digital broadcast receiver capable of receiving at least one of.
- the block diagram of the video display device 100 shown in Figure 2 is a block diagram for an embodiment of the present invention.
- Each component of the block diagram may be integrated, added, or omitted depending on the specification of the image display device 100 that is actually implemented. That is, two or more components may be combined into one component, or one component may be divided into two or more components as necessary.
- the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
- the image display device 100 unlike shown in Figure 6, without the tuner 110 and demodulator 120 shown in Figure 6, the network interface unit 130 or the external device interface unit 135 ), the video content may be received and reproduced.
- the image display device 100 is an example of an image signal processing apparatus that performs signal processing of an image stored in an apparatus or an input image.
- the display unit 180 illustrated in FIG. 6 As another example of the image signal processing apparatus, the display unit 180 illustrated in FIG. 6 ) And the audio output unit 185, the set-top box, the above-described DVD player, Blu-ray player, game device, computer, etc. may be further exemplified. Among them, the set-top box will be described with reference to FIGS. 7 and 8 below.
- FIG. 7 and 8 are diagrams showing one of the video display devices according to the embodiments of the present invention as a set-top box and a display device.
- the set-top box 250 and the display device 300 may transmit or receive data by wire or wireless.
- the set-top box 250 may include a network interface unit 255, a storage unit 258, a signal processing unit 260, a user input interface unit 263, and an external device interface unit 265.
- the network interface unit 255 provides an interface for connecting to a wired/wireless network including an Internet network.
- data may be transmitted or received with other users or other electronic devices through a connected network or another network linked to the connected network.
- programs for processing and controlling each signal in the signal processing unit 260 may be stored, and video, audio, or data input from the external device interface unit 265 or the network interface unit 255 may be stored. A function for temporarily storing a signal may be performed. Also, the storage unit 258 may store the platforms illustrated in FIGS. 11 and 12 to be described later.
- the signal processing unit 260 performs signal processing of the input signal. For example, demultiplexing or decoding of an input video signal may be performed, and demultiplexing or decoding of an input audio signal may be performed. To this end, an image decoder or an audio decoder may be provided.
- the signal-processed video signal or audio signal may be transmitted to the display device 300 through the external device interface unit 265.
- the user input interface unit 263 transmits a signal input by the user to the signal processing unit 260 or a signal from the signal processing unit 260 to the user. For example, various control signals such as power on/off, operation input, and setting input input through a local key (not shown) or a remote control device 200 may be received and transmitted to the signal processing unit 260.
- the external device interface unit 265 provides an interface for transmitting or receiving data with an external device connected by wire or wirelessly.
- an interface for transmitting or receiving data with the display device 300 is provided. It is also possible to provide an interface for transmitting or receiving data with external devices such as game devices, cameras, camcorders, and computers (laptops).
- the set-top box 250 may further include a media input unit (not shown) for playing media.
- a media input unit such as a Blu-ray input unit (not shown) may be exemplified. That is, the set-top box 250 can be equipped with a Blu-ray player.
- the input media such as a Blu-ray disc, may be transmitted to the display device 300 through the external device interface unit 265 for display, after signal processing such as demultiplexing or decoding in the signal processing unit 260. .
- the display device 300 includes a tuner 270, an external device interface unit 273, a demodulator 275, a storage unit 278, a control unit 280, a user input interface unit 283, and a display unit 290. , And an audio output unit 295.
- the tuner 270, the demodulation unit 275, the storage unit 278, the control unit 280, the user input interface unit 283, the display unit 290, and the audio output unit 295 are shown in FIG. 6 described above. Since it corresponds to the described tuner 110, demodulation unit 120, storage unit 140, control unit 170, user input interface unit 150, display unit 180, and audio output unit 185, thus Omit the description.
- the external device interface unit 273 provides an interface for data transmission or reception with an external device connected by wire or wirelessly.
- an interface for transmitting or receiving data with the set-top box 250 is provided.
- the video signal or the audio signal input through the set-top box 250 is output through the display unit 180 or the audio output unit 185 through the control unit 170.
- the set-top box 250 and the display device 300 are the same as the set-top box 250 and the display device 300 shown in FIG. 7, however, the tuner 270 and the suit There is a difference that the location of the grandfather 275 is located in the set-top box 250 rather than in the display device 300. Hereinafter, the differences will be mainly described.
- the signal processing unit 260 may perform signal processing of a broadcast signal received through the tuner 270 and the demodulation unit 275. Also, the user input interface unit 263 may receive inputs such as channel selection and channel storage.
- FIG. 9 is a diagram for describing a process in which any one of the video display devices according to the embodiments of the present invention communicates with third devices.
- the video display device illustrated in FIG. 9 may correspond to any one of the video display devices according to the embodiments of the present invention described above.
- the video display device 100 may communicate with a broadcasting station 210, a network server 220, or an external device 230.
- the video display device 100 may receive a broadcast signal including a video signal transmitted from the broadcast station 210.
- the video display device 100 may process a video signal and an audio signal or data signal included in a broadcast signal to be suitable for output from the video display device 100.
- the video display device 100 may output video or audio based on the processed video signal.
- the video display device 100 may communicate with the network server 220.
- the network server 220 is a device capable of transmitting and receiving signals to and from the video display device 100 through an arbitrary network.
- the network server 220 may be a mobile phone terminal that can be connected to the video display device 100 through a wired or wireless base station.
- the network server 220 may be a device capable of providing content to the video display device 100 through the Internet network.
- the content provider may provide content to the video display device 100 using a network server.
- the image display device 100 may communicate with the external device 230.
- the external device 230 is a device capable of directly transmitting and receiving signals to and from the video display device 100 by wire or wireless.
- the external device 230 may be a media storage device or a playback device used by a user. That is, the external device 230 corresponds to, for example, a camera, a DVD or Blu-ray player, a personal computer, and the like.
- the broadcasting station 210, the network server 220, or the external device 230 may transmit a signal including a video signal to the video display device 100.
- the image display device 100 may display an image based on the image signal included in the input signal.
- the video display device 100 may transmit a signal transmitted from the broadcast station 210 or the network server 220 to the video display device 100 to the external device 230.
- a signal transmitted from the external device 230 to the video display device 100 may be transmitted to the broadcasting station 210 or the network server 220. That is, the video display device 100 delivers the content included in the signal transmitted from the broadcast station 210, the network server 220, and the external device 230 directly as well as the function of directly playing the content in the video display device 100. It also includes the ability to.
- FIG. 10 is an internal block diagram of the control unit illustrated in FIG. 6. Referring to FIGS. 10 and 6 as follows.
- the control unit 170 includes a demultiplexing unit 310, an image processing unit 320, an OSD generation unit 340, a mixer 350, a frame rate conversion unit 355, and a formatter ( 360).
- the demultiplexing unit 310 demultiplexes the input stream. For example, when MPEG-2 TS is input, it can be demultiplexed to separate video, audio, and data signals.
- the stream signal input to the demultiplexer 310 may be a stream signal output from the tuner 110 or the demodulator 120 or the external device interface unit 135.
- the image processing unit 320 may perform image processing of the demultiplexed image signal. To this end, the image processing unit 320 may include an image decoder 325 and a scaler 335.
- the video decoder 325 decodes the demultiplexed video signal, and the scaler 335 scales the resolution of the decoded video signal to be output from the display unit 180.
- the video decoder 325 may be provided with decoders of various standards.
- the demultiplexed video signal is an MPEG-2 standard encoded video signal
- the demultiplexed video signal is a DMB (Digital Multimedia Broadcasting) method or an H.264 standard encoded video signal according to DVB-H, it may be decoded by an H.264 decoder.
- DMB Digital Multimedia Broadcasting
- H.264 standard encoded video signal according to DVB-H
- the image signal decoded by the image processing unit 320 is input to the mixer 350.
- the OSD generating unit 340 generates an OSD signal according to a user input or by itself. For example, a signal for displaying various information on a screen of the display unit 180 as a graphic or text may be generated based on a control signal from the user input interface unit 150.
- the generated OSD signal may include various data such as a user interface screen of the video display device 100, various menu screens, widgets, and icons.
- the OSD generator 340 may generate a signal for displaying subtitles of broadcast images or broadcast information based on EPG.
- the mixer 350 may mix the OSD signal generated by the OSD generator 340 and the decoded video signal processed by the image processor 220.
- the mixed signal is provided to the formatter 360. Because the decoded broadcast video signal or the external input signal and the OSD signal are mixed, the OSD can be displayed overlaid on the broadcast video or the external input video.
- the frame rate converter (FRC) 355 may convert the frame rate of the input image. For example, convert a frame rate of 60 Hz to 120 Hz or 240 Hz. When converting a frame rate of 60 Hz to 120 Hz, it is possible to insert the same first frame or a third frame predicted from the first frame and the second frame between the first frame and the second frame. When converting the frame rate of 60Hz to 240Hz, it is possible to insert three more identical frames or insert three predicted frames. On the other hand, it is also possible to maintain the input frame rate without additional conversion.
- the formatter 360 receives the output signal of the frame rate conversion unit 355, changes the format of the signal to fit the display unit 180, and outputs the signal.
- an R,G,B data signal may be output, and the R,G,B data signal may be output as a low voltage differential signaling (LVDS) or mini-LVDS.
- LVDS low voltage differential signaling
- the voice processing unit (not shown) in the control unit 170 may perform voice processing of the demultiplexed voice signal.
- a voice processing unit (not shown) may include various decoders.
- the voice processing unit (not shown) in the control unit 170 may decode the demultiplexed voice signal when it is an encoded voice signal.
- the demultiplexed speech signal can be decoded by an MPEG-2 decoder, or an MPEG 4 decoder, or an AAC decoder, or an AC-3 decoder.
- the voice processing unit (not shown) in the control unit 170 may process a base, treble, volume control, and the like.
- the data processing unit (not shown) in the control unit 170 may perform data processing of the demultiplexed data signal.
- the coded data signal may be electronic program guide (EPG) information including broadcast information such as a start time and an end time of a broadcast program broadcast on each channel.
- EPG information may be ATSC-PSIP (ATSC-Program and System Information Protocol) information in the case of the ATSC method, and may include DVB-SI (DVB-Service Information) information in the case of the DVB method. .
- ATSC-PSIP information or DVB-SI information is the above-described stream, that is, the header of MPEG-2 TS (4 bytes).
- control unit 170 shown in FIG. 10 is a block diagram for an embodiment of the present invention, it is possible to add other modules or omit some of the illustrated modules according to the needs of those skilled in the art.
- FIG. 11 is a diagram showing an example of a structure diagram of any one of the video display devices according to the embodiments of the present invention.
- FIG. 12 is a diagram illustrating another example of a platform structure diagram of any one of image display devices according to embodiments of the present invention.
- Any one of the platform of the image display device according to the embodiments of the present invention may include OS-based software to perform various operations described above.
- any one of the image display platforms according to embodiments of the present invention is a separate platform, and the legacy system platform 400 and the smart system platform 405 It can be designed separately.
- the OS kernel 410 may be commonly used in the legacy system platform 400 and the smart system platform 405.
- the legacy system platform 400 may include a driver 420 on the OS kernel 410, a middleware 430, and an application layer 450.
- the smart system platform 405 may include a library 435 on the OS kernel 410, a framework 440, and an application layer 455.
- the OS kernel 410 is a core of an operating system, when driving a video display device, driving a hardware driver, security of hardware and a processor in the video display device, efficient management of system resources, memory management, and hardware abstraction At least one of providing an interface to hardware, multi-process, and schedule management according to multi-process may be performed. Meanwhile, the OS kernel 410 may further provide power management or the like.
- the hardware driver in the OS kernel 410 includes, for example, at least one of a display driver, a WiFi driver, a Bluetooth driver, a USB driver, an audio driver, a power manager, a binder driver, and a memory driver. It can contain.
- the hardware driver in the OS kernel 410 is a driver for a hardware device in the OS kernel 410, a character device driver, a block device driver, and a network device driver (network device) dirver). Since the block device driver transmits data in a specific block unit, a buffer for storing a unit size may be required, and the character device driver may not need a buffer because it transmits in a basic data unit, that is, in character units.
- the OS kernel 410 may be implemented with various operating system (OS) based kernels such as Unix based (Linux) and Windows based.
- OS operating system
- Linux Linux
- the OS kernel 410 is an open OS kernel, and may be a general purpose that can be used in other electronic devices.
- the driver 420 is located between the OS kernel 410 and the middleware 430 and drives the device for the operation of the application layer 450 along with the middleware 430.
- the driver 420 includes a micom, a display module, a graphic processing unit (GPU), a frame rate conversion unit (FRC), a general purpose input/output pin (GPIO) in the video display device 100, It may include drivers such as HDMI, SDEC (System Decoder or Demultiplexer), VDEC (Video Decoder), ADEC (Audio Decoder), PVR (Personal Video Recorder), or I2C (Inter-Integrated Circuit). . These drivers operate in conjunction with hardware drivers in the OS kernel 410.
- the driver 420 may further include a driver of the remote control device 200, particularly a spatial remote controller described later.
- the driver of the space remote controller in addition to the driver 420, may be provided in various ways in the OS kernel 410 or middleware 430.
- the middleware 430 is located between the OS kernel 410 and the application layer 450, and may serve as an intermediary in order to exchange data between different hardware or software. As a result, a standardized interface can be provided, and various environment support and systems can be interoperated with other tasks.
- Examples of the middleware 430 in the legacy system platform 400 may include middleware of multimedia and hypermedia information coding experts groups (MHEG) and ACAP (Advanced Common Application Platform), which are data broadcasting-related middleware, and PSIP, which is a middleware for broadcasting information.
- middleware may include SI middleware and DLNA middleware, which is a peripheral communication middleware.
- the application layer 450 on the middleware 430 that is, the application 450 layer in the legacy system platform 400, includes, for example, user interface applications related to various menus in the image display device 100. It can contain.
- the application layer 450 on the middleware 430 may be editable by a user's selection, and may be updated through a network. By using the application layer 450, it is possible to enter a desired menu among various user interfaces according to an input of a remote control device while watching a broadcast video.
- the application layer 450 in the legacy system platform 400 may further include at least one of a TV guide application, a Bluetooth application, a reservation application, a digital video recording (DVR) application, and a hot key application.
- a TV guide application may further include at least one of a TV guide application, a Bluetooth application, a reservation application, a digital video recording (DVR) application, and a hot key application.
- DVR digital video recording
- the library 435 in the smart system platform 405 is located between the OS kernel 410 and the framework 440, and may form the basis of the framework 440.
- the library 435 includes a security related library, SSL (Secure Socket Layer), a web engine related library, WebKit, libc (c library), video format, and audio format.
- a media framework which is a media-related library.
- the library 435 may be written based on C or C++. In addition, it may be exposed to the developer through the framework 440.
- the library 435 may include a runtime 437 having a core java library and a virtual machine (VM). This runtime 437 forms the basis of the framework 440 together with the library 435.
- VM virtual machine
- the virtual machine VM may be a plurality of instances, that is, a virtual machine capable of performing multitasking. Meanwhile, each virtual machine (VM) may be allocated and executed according to each application in the application layer 455. At this time, for scheduling or interconnection between a plurality of instances, a binder in the OS kernel 410 ( Binder) A driver (not shown) may operate.
- binder driver and the runtime 437 may connect Java-based applications and C-based libraries.
- the library 435 and the runtime 437 may correspond to middleware of the legacy system.
- the framework 440 in the smart system platform 405 includes a program that is the basis of the application in the application layer 455.
- the framework 440 is compatible with any application and may reuse, move, or exchange components.
- the framework 440 may include a support program, a program that weaves other software components, and the like. For example, it may include a resource manager, an activity manager related to the activity of the application, a notification manager, a content provider summarizing shared information between applications, and the like.
- the framework 440 may be written based on Java (JAVA).
- the application layer 455 on the framework 440 includes various programs that can be driven and displayed within the image display device 100.
- a core application including at least one of an email, a short message service (SMS), a calendar, a map, and a browser may be included.
- SMS short message service
- the application layer 450 may be written based on Java (JAVA).
- the application layer 455 is an application 465 stored in the image display device 100 that cannot be deleted by the user, and an application 465 that is downloaded and stored through an external device or a network and is free to be installed or deleted by the user ( 475).
- OS kernel OS kernel
- driver 520 driver 520
- middleware Middleware
- framework Framework
- Application Application
- the platform of FIG. 12 has a difference in that the library 435 shown in FIG. 11 is omitted, and the application layer 550 is provided as an integrated layer, compared to FIG. 11.
- the driver 520 and the framework 540 correspond to FIG. 11.
- the middleware 530 is middleware under the legacy system, middleware of MHEG or ACAP, which is data broadcasting-related middleware, middleware of PSIP or SI, which is middleware for broadcasting information, and DLNA middleware, which is middleware for peripheral communication, as well as video display
- the middleware under the device system may include Secure Socket Layer (SSL), a library related to security, WebKit, a library related to web engines, libc, Media Framework, a library related to media, and the like. Meanwhile, the above-described runtime may be further included.
- SSL Secure Socket Layer
- WebKit a library related to security
- WebKit a library related to web engines
- libc libc
- Media Framework a library related to media, and the like.
- runtime may be further included.
- the application layer 550 is an application under the legacy system, and includes a menu-related application, a TV guide application, a reservation application, etc., and an application under the video display system, and may include an email, SMS, calendar, map, browser, and the like. have.
- the application layer 550 is an application 565 stored in the image display device 100 that cannot be deleted by the user, and an application 565 that is downloaded and stored through an external device or a network and is free to be installed or deleted by the user ( 575).
- the above-described platforms of FIGS. 11 and 12 can be universally used in image display devices and various other electronic devices. Meanwhile, the platforms of FIGS. 11 and 12 may be stored or loaded in the storage 140 or control unit 170 shown in FIG. 6 or a separate processor (not shown), as shown in FIG. 5. It can be stored or mounted in the SI & metadata DB 711, UI manager 714, service manager 713. In addition, a separate application processor (not shown) for executing the application may be further provided.
- FIG. 13 is a diagram illustrating a control method of a remote control device that controls any one of video display devices according to embodiments of the present invention.
- a pointer 205 corresponding to the remote control device 200 is displayed on the display unit 180.
- the user can move or rotate the remote control device 200 up and down, left and right (FIG. 13 (b)), and forward and backward (FIG. 13 (c)).
- the pointer 205 displayed on the display unit 180 of the video display device is a remote control device.
- the remote control device 200 may be referred to as a spatial remote controller because the corresponding pointer 205 is moved and displayed according to movement in 3D space, as shown in the drawing.
- 13B illustrates that when the user moves the remote control device 200 to the left, the pointer 205 displayed on the display unit 180 of the image display device moves to the left correspondingly.
- the video display device may calculate the coordinates of the pointer 205 from information related to the movement of the remote control device 200.
- the image display device may display the pointer 205 to correspond to the calculated coordinates.
- 13C illustrates a case in which a user moves the remote control device 200 away from the display unit 180 while pressing a specific button in the remote control device 200.
- the selected area in the display unit 180 corresponding to the pointer 205 may be zoomed in and displayed.
- the selected area in the display unit 180 corresponding to the pointer 205 may be zoomed out and reduced.
- the selection area is zoomed out, and when the remote control device 200 approaches the display unit 180, the selection area may be zoomed in.
- the moving speed or the moving direction of the pointer 205 may correspond to the moving speed or the moving direction of the remote control device 200.
- the pointer in the present specification means an object displayed on the display unit 180 in response to the operation of the remote control device 200. Accordingly, various shapes of objects other than the arrow shape illustrated in the drawing are possible with the pointer 205. For example, it may be a concept including points, cursors, prompts, and thick outlines. In addition, the pointer 205 may be displayed corresponding to any one point of the horizontal axis and the vertical axis on the display unit 180, as well as a plurality of points, such as a line and a surface. Do.
- FIG. 14 is an internal block diagram of a remote control device controlling any one of video display devices according to embodiments of the present invention.
- the remote control device 200 includes a wireless communication unit 225, a user input unit 235, a sensor unit 240, an output unit 250, a power supply unit 260, a storage unit 270, Control unit 280 may be included.
- the wireless communication unit 225 transmits and receives a signal to any one of the video display devices according to the embodiments of the present invention described above.
- the video display devices according to embodiments of the present invention one video display device 100 will be described as an example.
- the remote control device 200 may include an RF module 221 capable of transmitting and receiving signals to and from the video display device 100 according to the RF communication standard. Also, the remote control device 200 may include an IR module 223 capable of transmitting and receiving signals to and from the video display device 100 according to the IR communication standard.
- the remote control device 200 transmits a signal containing information about the movement of the remote control device 200 to the video display device 100 through the RF module 221.
- the remote control device 200 may receive a signal transmitted from the video display device 100 through the RF module 221. In addition, the remote control device 200 may transmit a command for power on/off, channel change, volume change, etc. to the image display device 100 through the IR module 223 as necessary.
- the user input unit 235 may include a keypad, a button, a touch pad, or a touch screen.
- the user may input a command related to the image display device 100 to the remote control device 200 by operating the user input unit 235.
- the user input unit 235 has a hard key button
- the user may input a command related to the image display device 100 to the remote control device 200 through a push operation of the hard key button.
- the user input unit 235 includes a touch screen
- the user may input a command related to the video display device 100 to the remote control device 200 by touching a soft key of the touch screen.
- the user input unit 235 may include various types of input means that the user can operate, such as a scroll key or a jog key, and this embodiment does not limit the scope of the present invention.
- the sensor unit 240 may include a gyro sensor 241 or an acceleration sensor 243.
- the gyro sensor 241 may sense information on the movement of the remote control device 200.
- the gyro sensor 241 may sense information on the operation of the remote control device 200 based on the x, y, and z axes.
- the acceleration sensor 243 may sense information related to the movement speed of the remote control device 200.
- a distance measurement sensor may be further provided, whereby a distance from the display unit 180 can be sensed.
- the output unit 250 may output an image or audio signal corresponding to the operation of the user input unit 235 or a signal transmitted from the image display device 100. The user may recognize whether the user input unit 235 is operated or whether the image display device 100 is controlled through the output unit 250.
- the output unit 250 includes a LED module 251 that is turned on when the user input unit 235 is operated or a signal is transmitted and received through the wireless communication unit 225, a vibration module generating vibration ( 253), an audio output module 255 for outputting sound, or a display module 257 for outputting an image.
- the power supply unit 260 supplies power to the remote control device 200.
- the power supply unit 260 may reduce power waste by stopping power supply when the remote control device 200 has not moved for a predetermined time.
- the power supply unit 260 may resume power supply when a predetermined key provided in the remote control device 200 is operated.
- the storage unit 270 may store various types of programs and application data required for control or operation of the remote control device 200. If the remote control device 200 transmits and receives signals wirelessly through the video display device 100 and the RF module 221, the remote control device 200 and the video display device 100 transmit signals through a predetermined frequency band. Send and receive.
- the control unit 280 of the remote control device 200 stores information on a frequency band capable of wirelessly transmitting and receiving signals to and from the video display device 100 paired with the remote control device 200 in the storage unit 270 and Can be referenced.
- the control unit 280 controls all matters related to the control of the remote control device 200.
- the control unit 280 displays a signal corresponding to a predetermined key manipulation of the user input unit 235 or a signal corresponding to the movement of the remote control device 200 sensed by the sensor unit 240 through the wireless communication unit 225. (100).
- FIG. 15 is a diagram illustrating a first embodiment of a user interface provided by any one of video display devices according to embodiments of the present invention.
- 16 is a view showing a second embodiment of a user interface provided by any one of video display devices according to embodiments of the present invention.
- 17 is a block diagram of a user terminal related to an embodiment of the present invention.
- the user terminal is a mobile terminal
- the mobile terminal 1900 is a wireless communication unit 1910, an audio/video (A/V) input unit 1920, a user input unit 1930, a sensing unit 1940, an output unit ( 1950), a memory 1960, an interface unit 1970, a control unit 1980 and a power supply unit 1990.
- the components shown in FIG. 17 are not essential, so a mobile terminal with more or fewer components may be implemented.
- the wireless communication unit 1910 may include one or more modules that enable wireless communication between the mobile terminal 1900 and the wireless communication system or between the mobile terminal 1900 and the network where the mobile terminal 1900 is located.
- the wireless communication unit 1910 may include a broadcast reception module 1911, a mobile communication module 1912, a wireless Internet module 1913, a short-range communication module 1914, and a location information module 1915. .
- the broadcast receiving module 1911 receives a broadcast signal and/or broadcast related information from an external broadcast management server through a broadcast channel.
- the mobile communication module 1912 transmits and receives a radio signal to and from at least one of a base station, an external terminal, and a server on a mobile communication network.
- the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, or a text/multimedia message.
- the wireless Internet module 1913 refers to a module for wireless Internet access, and may be built in or external to the mobile terminal 1900.
- Wireless Internet technology Wi-Fi
- Wibro Wireless broadband
- Wimax Worldwide Interoperability for Microwave Access
- HSDPA High Speed Downlink Packet Access
- the short-range communication module 1914 refers to a module for short-range communication.
- Bluetooth, Wi-Fi, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, etc. can be used as short range communication technology. have.
- RFID Radio Frequency Identification
- IrDA Infrared Data Association
- UWB Ultra Wideband
- ZigBee ZigBee
- the wireless Internet module 1913 or the short-range communication module 1914 may transmit or receive a predetermined image display device and data so that the user terminal is used as a user controller of a predetermined game application.
- the video display device transmits a predetermined control signal to the wireless communication unit of the selected user terminal.
- a predetermined signal may be performed.
- the user terminal may transmit the predetermined signal to a video display device through a wireless communication unit to reflect the progress of the game in the game application.
- the location information module 1915 is a module for obtaining a location of a mobile terminal, and a representative example thereof is a Global Position System (GPS) module.
- GPS Global Position System
- an audio/video (A/V) input unit 1920 is for inputting an audio signal or a video signal, which may include a camera 1921 and a microphone 1922.
- the camera 1921 processes image frames such as still images or moving images obtained by an image sensor in a video call mode or a shooting mode.
- the processed image frame may be displayed on the display unit 1951.
- the microphone 1922 receives an external sound signal by a microphone in a call mode, a recording mode, or a voice recognition mode, and processes it as electrical voice data.
- Various noise reduction algorithms for removing noise generated in the process of receiving an external acoustic signal may be implemented in the microphone 1922.
- the user input unit 1930 generates input data for the user to control the operation of the terminal.
- the user input unit 1930 may be configured with a key pad dome switch, a touch pad (static pressure/power outage), a jog wheel, a jog switch, or the like.
- the sensing unit 1940 detects the current state of the mobile terminal 1900, such as the open/closed state of the mobile terminal 1900, the location of the mobile terminal 1900, presence or absence of user contact, orientation of the mobile terminal, acceleration/deceleration of the mobile terminal, and the like. By generating a sensing signal for controlling the operation of the mobile terminal 1900. For example, when the mobile terminal 1900 is in the form of a slide phone, it can sense whether the slide phone is opened or closed. In addition, it is also possible to sense whether the power supply unit 1990 supplies power, whether the interface unit 1970 is coupled to external devices, or the like. Meanwhile, the sensing unit 1940 may include a proximity sensor 1941.
- the sensing unit 1940 may generate a signal for use as a predetermined game progress signal when the user terminal is used as a user controller of a predetermined game application running on the video display device according to an embodiment.
- the output unit 1950 is for generating output related to vision, hearing, or tactile sense, and includes a display unit 1951, an audio output module 1952, an alarm unit 1953, and a haptic module 1954. Can.
- the display unit 1951 displays (outputs) information processed by the mobile terminal 1900. For example, when the mobile terminal is in a call mode, a UI (User Interface) or a GUI (Graphic User Interface) related to the call is displayed. When the mobile terminal 1900 is in a video call mode or a photographing mode, the photographed and/or received image or UI, GUI is displayed.
- a UI User Interface
- GUI Graphic User Interface
- the display unit 1951 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible) display) and a 3D display.
- LCD liquid crystal display
- TFT LCD thin film transistor-liquid crystal display
- OLED organic light-emitting diode
- flexible display flexible display
- Some of these displays may be of a transparent type or a light transmissive type so that the outside can be seen through them. This may be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparant OLED).
- the rear structure of the display unit 1951 may also be configured as a light transmissive structure. With this structure, the user can see an object located behind the terminal body through an area occupied by the display unit 1951 of the terminal body.
- the display unit 1951 may output a predetermined game progress screen when the user terminal 1900 is used as a user controller of a game application running on a predetermined video display device.
- Two or more display units 1951 may exist depending on the implementation form of the mobile terminal 1900.
- a plurality of display units may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces.
- the display unit 1951 and a sensor that senses a touch operation form a mutual layer structure (hereinafter, referred to as a “touch screen”)
- the display unit 1951 may be used in addition to an output device. It can also be used as an input device.
- the touch sensor may have, for example, a form of a touch film, a touch sheet, or a touch pad.
- the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 1951 or a capacitance generated in a specific portion of the display unit 1951 into an electrical input signal.
- the touch sensor may be configured to detect not only the touched position and area, but also pressure at the time of touch.
- the corresponding signal(s) is sent to the touch controller.
- the touch controller processes the signal(s) and then transmits corresponding data to the controller 1980. Accordingly, the control unit 1980 can know which area of the display unit 1951 has been touched.
- a touch input to a touch sensor may be reflected in the progress of the game.
- a proximity sensor 1941 may be disposed in an inner region of the mobile terminal surrounded by the touch screen or near the touch screen.
- the proximity sensor 1941 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object in the vicinity using mechanical force or infrared light without mechanical contact.
- Proximity sensors have a longer lifespan and higher utilization than contact sensors.
- Examples of the proximity sensor 1941 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, and an infrared proximity sensor.
- the touch screen When the touch screen is capacitive, it is configured to detect the proximity of the pointer due to a change in electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
- the act of causing the pointer to be recognized as being located on the touch screen without being touched by the pointer on the touch screen is referred to as a “proximity touch”, and the touch The act of actually touching the pointer on the screen is referred to as "contact touch”.
- the location on the touch screen that is a proximity touch with a pointer refers to a location where the pointer is perpendicular to the touch screen when the pointer is touched close.
- the proximity sensor 1941 detects a proximity touch and a proximity touch pattern (eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.
- a proximity touch and a proximity touch pattern eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.
- the audio output module 1952 may output audio data received from the wireless communication unit 1910 or stored in the memory 1960 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
- the sound output module 1952 may also output sound signals related to functions (for example, call signal reception sound, message reception sound, etc.) performed in the mobile terminal 1900.
- the sound output module 1952 may include a receiver, a speaker, and a buzzer.
- the alarm unit 1953 outputs a signal for notifying the occurrence of an event in the mobile terminal 1900. Examples of events generated in the mobile terminal include call signal reception, message reception, key signal input, and touch input.
- the alarm unit 1953 may output a signal for notifying the occurrence of an event by other forms, for example, vibration, in addition to a video signal or an audio signal.
- the video signal or the audio signal can also be output through the display unit 1951 or the audio output module 1952, so that the 1951 and 1952 may be classified as part of the alarm unit 1953.
- the haptic module 1954 generates various tactile effects that the user can feel.
- a typical example of the tactile effect generated by the haptic module 1954 is vibration.
- the intensity and pattern of vibration generated by the haptic module 1954 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.
- the haptic module 1954 is used for stimulation of pin arrangements that vertically move to the contact skin surface, spray or suction power of air through a spray or intake, grazing on the skin surface, contact of an electrode, and electrostatic force.
- Various tactile effects can be generated, such as the effect caused by and the effect of reproducing the feeling of cold and warm using an element capable of absorbing heat or generating heat.
- the haptic module 1954 may not only deliver the tactile effect through direct contact, but may also be implemented so that the user can feel the tactile effect through muscle sensations such as fingers or arms. Two or more haptic modules 1954 may be provided according to a configuration aspect of the mobile terminal 1900.
- the memory 1960 may store a program for the operation of the control unit 1980 and may temporarily store input/output data (eg, a phone book, a message, a still image, a video, etc.).
- the memory 1960 may store data related to various patterns of vibration and sound output when a touch is input on the touch screen.
- the memory 1960 includes a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), magnetic memory, magnetic It may include a storage medium of at least one type of disk, optical disk.
- the mobile terminal 1900 may operate in connection with a web storage that performs a storage function of the memory 1960 on the Internet.
- the interface unit 1970 serves as a path to all external devices connected to the mobile terminal 1900.
- the interface unit 1970 receives data from an external device, receives power, and transmits data to each component inside the mobile terminal 1900 or allows data inside the mobile terminal 1900 to be transmitted to the external device.
- wired/wireless headset port, external charger port, wired/wireless data port, memory card port, port for connecting devices equipped with an identification module, audio input/output (I/O) port, A video input/output (I/O) port, an earphone port, and the like may be included in the interface unit 1970.
- the identification module is a chip that stores various information for authenticating the usage rights of the mobile terminal 1900, a user identification module (UIM), a subscriber identification module (SIM), and a universal user authentication module ( Universal Subscriber Identity Module (USIM).
- the device provided with the identification module (hereinafter referred to as an'identification device') may be manufactured in a smart card format. Accordingly, the identification device may be connected to the terminal 1900 through a port.
- the controller (1980) controls the overall operation of the mobile terminal 1900. For example, it performs related control and processing for voice calls, data communication, video calls, and the like.
- the control unit 1980 may include a multimedia module 1981 for multimedia playback.
- the multimedia module 1981 may be implemented in the controller 1980, or may be implemented separately from the controller 1980.
- the control unit 1980 may perform a pattern recognition process capable of recognizing handwriting input or picture drawing input performed on the touch screen as characters and images, respectively.
- control unit 1980 when the user terminal is used as a user controller of a game application running on a video display device, the control unit 1980 outputs predetermined game execution information to the display unit 1951, and each module of the user terminal or The signal transmitted from the sensor may be controlled to be transmitted to the image display device.
- the controller 1980 sets the user terminal to the user controller mode and sets predetermined game execution information to the wireless communication unit 1910 when a predetermined signal indicating that the user controller is selected from the video display device is received. ) And outputs it to the display unit 1951, and displays the touch signal detected by the touch sensor and the location change signal determined by the location information module through the wireless Internet module 1913 or the short-range communication module 1914. It can be controlled to transmit to a running video display device.
- the power supply unit 1990 receives external power and internal power under the control of the controller 1980 to supply power required for the operation of each component.
- FIGS. 18 and 19 are flow charts interlocked between a video display device and a mobile terminal according to the present invention
- FIG. 19 shows a video display device and a mobile terminal interlocked according to the present invention.
- a multimedia application (hereinafter referred to as an app) may be executed in the mobile terminal 1900, such as a smartphone or tablet PC [S10].
- the multimedia app may be understood as an app for executing multimedia content such as audio content (eg, music, etc.) and video content (eg, movies).
- the multimedia content may be stored in the mobile terminal, or may be received from an external server through a streaming service.
- the multimedia app is a music app.
- an execution screen of the music app may be displayed on the display unit 1951 of the mobile terminal 1900.
- the mobile terminal 1900 may output first content (ie, first music) according to the play list of the music app [S20].
- the play list means a list that is arranged so that contents in the music app can be continuously played in a predetermined order. There may be only one content or a plurality of contents in the play list.
- a voice recognition function for receiving a user voice command from the mobile terminal 1900 may be activated.
- the voice recognition function may be activated while a user command (for example, a menu icon operation or a key button operation) preset in the mobile terminal 1900 is input during or before the music app is being executed.
- the voice recognition function may be activated by default when the mobile terminal 1900 is powered on.
- the mobile terminal 1900 may receive a first voice command through the microphone 1922, as shown in FIG. 19 [S30].
- the first voice command may be, for example, "Play music on myTV”.
- control unit 1980 of the mobile terminal 1900 analyzes the first voice command, so that the user removes it from the video display device 100 having the intention of the first voice command, that is, the user has the device name “myTV”. 1 You can see that you want to output music [S40].
- AI Adritificial Intelligence
- the mobile terminal 1900 may also input the command through a preset user command (eg, menu icon operation or key button operation) that is not voice.
- a preset user command eg, menu icon operation or key button operation
- control unit 1980 of the mobile terminal 1900 may broadcast an inquiry for searching the video display device 100 having the device name through the wireless communication unit 1910 [S50]. ].
- the wireless communication unit (not shown) of the video display device 100 may be received, and a response to the query may be transmitted to the mobile terminal 1900 [S60].
- the video display device 100 Before receiving the query, the video display device 100 may be powered on in advance, or the main power may be turned off, but power may be supplied only to a minimum component for receiving the query.
- the mobile terminal 1900 can search for the video display device 100 having the device name.
- control unit 1980 of the mobile terminal 1900 may transmit a first communication connection request to the video display device 100 [S70].
- a first communication connection can be established between the mobile terminal 1900 and the video display device 100 [S80].
- the mobile terminal 1900 may transmit data of the first content that is currently being output to the video display device 100 through the first communication [S90].
- the video display device 100 may receive the data of the first content and output the first content [S100]. If the data of the first content is data decoded by the mobile terminal, the video display device 100 may output the first content data without the need to run a separate app. However, if the data of the first content is data that has not been decoded by the mobile terminal 1900, the video display device 100 executes a multimedia app for decoding the data, decodes the data, and then decodes the first content. Can print
- control unit 170 of the video display device 100 outputs information (for example, music titles, etc.) of the first content and/or controls playback of the second content
- a user interface for displaying an icon eg, “stop” icon, “play” icon, “previous song” icon, “next song” icon, etc.
- an icon eg, “stop” icon, “play” icon, “previous song” icon, “next song” icon, etc.
- the first communication may be one of the short-range wireless communication described above.
- the first communication is Bluetooth (but is not limited thereto).
- Bluetooth includes a Low Energy Bluetooth mode and a Classic Bluetooth mode.
- the low-power Bluetooth mode has a feature that the transmission speed is slow but the power consumption is small
- the classic Bluetooth mode has a feature that the transmission speed is faster than the low-power Bluetooth mode, but the power consumption is large.
- the first communication is classic Bluetooth (but is not limited to this).
- the video display device 100 may serve as a Bluetooth content output device (eg, Bluetooth speaker) of the mobile terminal 1900.
- a Bluetooth content output device eg, Bluetooth speaker
- FIGS. 20 to 22 is a flow chart interlocked between a video display device and a mobile terminal according to the present invention
- FIGS. 21 and 22 show a video display device and a mobile terminal interlocked according to the present invention.
- the video display device 100 may output the first content received through the first communication from the mobile terminal 1900 [S100].
- a voice recognition function for receiving a user voice command from the video display device 100 may be activated.
- the voice recognition function is activated as a user command (for example, a key button operation on the remote control device 200) is preset in the video display device 100 during or before the first content is being output. Can be.
- the voice recognition function may be activated by default when the video display device 100 is powered on.
- the video display device 100 may receive a second voice command as shown in FIG. 22 [S110].
- the first voice command may be, for example, "Play another music.”
- the first voice command is input to a microphone (not shown) provided in the video display device 100, or input through a microphone (not shown) provided in the remote control device 200 to display the video display device 100.
- control unit 170 of the video display device 100 analyzes the second voice command, so that the user intends the second voice command, that is, the user displays different content (ie, different content) from the video display device 100.
- Music can be understood to be output [S120].
- AI Adritificial Intelligence
- the user does not necessarily have to input a voice command.
- the command may be input through the video display device 100 through a preset user input (for example, a key button operation of the remote control device 200) that is not voice.
- control unit 170 of the video display device 100 may request the play list from the mobile terminal 1900 [S130].
- the signal requesting the play list may be transmitted from the video display device 100 to the mobile terminal 1900 through a first communication.
- the signal for requesting the playlist may be transmitted through Bluetooth communication (but not limited to) according to AVRCP (Audio/Video Remote Control Profile) in classic Bluetooth mode.
- a “profile” may be understood as defining a type and structure of a Bluetooth protocol to be used for each specific application when implementing a Bluetooth application.
- the AVRCP is a profile defined for controlling audio and video functions between two devices through which Bluetooth communication is performed.
- the mobile terminal 1900 receiving the request may transmit the play list to the video display device 100 [S140].
- the playlist may be transmitted through the first communication (but not limited to) described above.
- the control unit 170 of the video display device 100 may control to display the transmitted play list 500 as shown in FIG. 22 [S150].
- the user may input a command for changing a play list (for example, changing a play order) to the video display device 100 by selecting desired content while viewing the play list 500. That is, the video display device 100 may receive a play list change command from the user [S160].
- a command for changing a play list for example, changing a play order
- the playlist change command may be input through the voice recognition function described above, or may be input through a key button operation provided in the remote control device 200.
- the video display device 100 may transmit the play list change command to the mobile terminal 1900 [S170].
- the playlist change command between the video display device 100 and the mobile terminal 1900 may be transmitted according to the first communication, for example, AVRCP in classic Bluetooth mode.
- the mobile terminal 1900 changes the playlist according to the playlist change command, and displays the data of the second content (for example, second music) according to the changed playlist to the video display device 100. It can be transmitted to [S180].
- the second content for example, second music
- the second content data may be transmitted from the mobile terminal 1900 to the video display device 100 according to a first communication, for example, A2DP (Advanced Audio Distribution Profile) in a classic Bluetooth mode.
- A2DP Advanced Audio Distribution Profile
- the A2DP is a profile for transmitting multimedia audio (especially high-quality audio) from one device to another.
- the video display device 100 may receive the data of the second content and output the second content instead of the first content [S190].
- Content output and the user interface for the same are as described above, so detailed description will be omitted.
- a content list other than a play list may be transmitted from the mobile terminal 1900 to the video display device 100 according to the second voice command.
- the content list refers to a list in which contents that the mobile terminal 1900 can play are listed in order of file name or file creation date regardless of the play order, and may mean the content folder itself.
- the video display device 100 may display the content list instead of the play list, and when a desired content is selected from the content list by the user, move the selected content request command instead of the play list change command Transmitting to the terminal 1900, the selected content of the data may be output by receiving the mobile terminal 1900.
- the user wants to control the mobile terminal 1900 through the play list or the content list displayed on the video display device 100 to output the content desired by the user from the video display device 100. Did.
- FIGS. 23 to 25 is a flow chart interlocked between a video display device and a mobile terminal according to the present invention, and FIGS. 24 and 25 show a video display device and a mobile terminal interlocked according to the present invention.
- the video display device 100 may output the first content received through the first communication from the mobile terminal 1900 [S100].
- a voice recognition function for receiving a user voice command from the video display device 100 may be activated. Since this is the same as described above, a detailed description will be omitted.
- the video display device 100 may receive a third voice command as shown in FIG. 24 [S200].
- the third voice command may be, for example, "Find music in the app”.
- the third voice command is input to a microphone (not shown) provided in the video display device 100 or input through a microphone (not shown) provided in the remote control device 200 to the video display device 100 Can be delivered.
- control unit 170 of the video display device 100 analyzes the third voice command, so that the user intends the third voice command, that is, the user through the execution screen of the multimedia app running on the mobile terminal. It can be understood that the user wants to search for other content [S210].
- AI Adritificial Intelligence
- the user does not necessarily have to input a voice command.
- the command may be input through the video display device 100 through a preset user input that is not voice (eg, a key button operation of the remote control device 200).
- the control unit 170 of the video display device 100 first communication (for example, the low power Bluetooth mode) to the mobile terminal 1900 to request a second communication connection for transmitting the execution screen of the multimedia app. ) Can be transmitted through [S220].
- the second communication connection request may also include a request to transmit an execution screen of the multimedia app.
- a second communication connection may be established between the video display device 100 and the mobile terminal 1900 [S230]. Even if the second communication is connected, the first communication is still maintained, so that the video display device 100 may continue to output the first content by receiving the first content data through the first communication.
- the mobile terminal 1900 may transmit the image data of the execution screen of the multimedia app to the image display device 100 through the second communication [S240].
- the image data may be a mirroring screen of the mobile terminal 1900.
- steps S220 and S230 for the second communication connection may be omitted, and thereafter the video display device 100 and the mobile terminal 1900 Intercommunication may also be performed through the first communication.
- the second communication may be one of the short-range wireless communication described above. In the following description, it is assumed that the second communication is Wi-Fi communication (but is not limited thereto).
- step S220 when the second communication is Wi-Fi communication, in step S220, when the video display device 100 requests a second communication connection, the Wi-Fi MAC address for the second communication connection may also be transmitted to the mobile terminal. .
- the mirroring screen of the mobile terminal 1900 may be transmitted from the mobile terminal 1900 to the video display device 100 according to the Miracast standard. That is, the second communication connection request described above may be understood as requesting that the video display device 100 trigger the Miracast to the mobile terminal 1900.
- the video display device 100 may overlap and display the execution screen 600 of the multimedia app on the user interface [S250]. Although not shown, the image display device 100 may output only the execution screen 600 of the multimedia app without displaying the user interface.
- the user may input a command to select desired content (hereinafter referred to as third content) while viewing the execution screen 600 in the video display device 100. That is, the video display device 100 may receive a third content selection command from the user [S260].
- the third content selection command may be coordinate information (but is not limited to) of displaying the third content on the execution screen 600.
- the third content selection command may be input through the voice recognition function described above, or may be input through a key button operation provided in the remote control device 200.
- the video display device 100 may transmit the third content selection command to the mobile terminal 1900 through a second communication, for example, through a user input back channel (UIBC) of Miracast standard.
- UIBC user input back channel
- the mobile terminal 1900 may execute third content and transmit data of the third content to the video display device 100 in response to the transmitted third content selection command [S290].
- the third content is, for example, audio content such as music, it may be transmitted through the first communication.
- the video display device 100 may receive the data of the third content and output the third content instead of the first content [S300].
- Content output and the user interface for the same are as described above, so detailed description will be omitted.
- 26 and 27 show a video display device according to the present invention.
- the video display device 100 may output the first content received through the first communication from the mobile terminal 1900.
- a voice recognition function for receiving a user voice command from the video display device 100 may be activated. Since this is the same as described above, a detailed description will be omitted.
- the video display device 100 may receive a fourth voice command, as shown in FIG. 26.
- the fourth voice command may be, for example, "Search on YouTube.”
- the fourth voice command is input to a microphone (not shown) provided in the video display device 100 or input through a microphone (not shown) provided in the remote control device 200 to the video display device 100. Can be delivered.
- the control unit 170 of the video display device 100 analyzes the fourth voice command, so that the user intends the fourth voice command, that is, the user searches the first content currently being output from a search engine such as YouTube. You can see that you want to search.
- AI Artificial Intelligence
- the command may be input through the video display device 100 through a preset user input (for example, a key button operation of the remote control device 200) that is not voice.
- the control unit 170 of the video display device 100 executes a search engine app (eg, YouTube app), and the sound source and metadata of the first content (eg, content title, creator, etc.)
- a search may be performed in the search engine app using at least one of the above, and the search result list 700 may be overlapped and displayed on the user interface as illustrated in FIG. 27.
- the image display device 100 may output only the search result list 700 without displaying the user interface.
- the video display device 100 may execute and output the selected item through the executed search engine app. At this time, output of the first content may be stopped or output together as multitasking.
- the video display device 100 and the mobile terminal 1900 when the video display device 100 and the mobile terminal 1900 are connected to each other in the first communication, the video display device 100 receives from the mobile terminal 1900 through the first communication. It has been described that the search is performed using at least one of the sound source and metadata of the first content. However, for the search, the video display device 100 and the mobile terminal 1900 are not necessarily connected to each other by first communication.
- the video display device 100, the control unit 170, when a fourth voice command is input the microphone (not shown) provided in the video display device 100 or the remote control device 200
- the equipped microphone may be continuously activated.
- the video display device 100 may receive the sound output through the speaker 1952 of the mobile terminal 100 through the microphone.
- the control unit 170 of the video display device 100 analyzes the waveform signal of the received sound and information about the first content output from the mobile terminal 100 (for example, the first Content metadata). Alternatively, the control unit 170 of the video display device 100 transmits the waveform signal of the received sound to an external server (for example, a Naver music search service server) (not shown) through an Internet network, and the external Information about the first content (eg, metadata of the first content) may be received from the server.
- an external server for example, a Naver music search service server
- the external Information about the first content eg, metadata of the first content
- the video display device 100 searches the search engine app using information about the first content, and the search result list 700 is displayed on the user interface as shown in FIG. 27. It can overlap and display.
- the image display device 100 may output only the search result list 700 without displaying the user interface.
- the video display device 100 may execute and output the selected item through the executed search engine app. At this time, output of the first content may be stopped or output together as multitasking.
- the above-described present invention can be embodied as computer readable codes on a medium on which a program is recorded.
- the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system are stored. Examples of computer-readable media include a hard disk drive (HDD), solid state disk (SSD), silicon disk drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. This includes, and is also implemented in the form of a carrier wave (eg, transmission over the Internet). Also, the computer may include a control unit of an image display device or a terminal. Accordingly, the above detailed description should not be construed as limiting in all respects, but should be considered illustrative. The scope of the invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Databases & Information Systems (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
본 발명은 스마트폰 등과 같은 이동단말기와 연동되어 다양한 기능을 수행할 수 있는 영상표시기기 및 그 제어방법을 제공하기 위한 것으로, 디스플레이부, 오디오 출력부, 이동단말기 및 원격제어장치와 통신을 하기 위한 무선통신부, 제 1 컨텐트를 재생하는 상기 이동단말기로부터 상기 무선통신부를 통해 수신한 제 1 통신 연결 요청에 반응하여 상기 이동단말기와 제 1 통신 연결을 확립하고, 제 1 통신을 통해 상기 이동단말기로부터 제 1 컨텐트를 수신하여 상기 오디오 출력부를 통해 출력하고, 상기 이동단말기의 제 1 컨텐트의 재생을 제어하는 유저 인터페이스를 상기 디스플레이부에 디스플레이하도록 제어하는 제어부를 포함하는 영상표시기기를 제공한다.
Description
본 발명은 사용자의 편의가 더욱 고려되어 영상표시기기의 사용이 구현될 수 있도록 하는 영상표시기기 및 그 제어 방법에 관한 것이다.
영상표시기기는 예를 들어, 사용자가 시청할 수 있는 방송영상을 수신하여 처리하는 기능을 갖춘 장치이다. 영상표시기기는 예를 들어, 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
다양한 컨텐츠를 포함한 디지털 방송을 이용하기 위하여 영상표시기기의 성능 향상 및 기능의 다양화가 이루어졌고, 향상된 영상표시기기의 성능을 통하여 단순히 방송국으로부터 영상신호를 수신하여 방송을 시청할 뿐만 아니라 각종 어플리케이션을 이용하여 게임 플레이, 음악 감상, 인터넷 쇼핑 등 영상표시기기를 통한 다양한 기능을 수행할 수 있게 되었다.
최근에는 스마트폰 등과 같은 이동단말기와 연동되어 다양한 기능을 수행할 수 있는 영상표시기기 및 그 제어방법에 대한 개발이 계속 요구되고 있다.
본 발명은 스마트폰 등과 같은 이동단말기와 연동되어 다양한 기능을 수행할 수 있는 영상표시기기 및 그 제어방법을 제공하는 것을 그 목적으로 한다.
상기 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 디스플레이부, 오디오 출력부, 이동단말기 및 원격제어장치와 통신을 하기 위한 무선통신부, 제 1 컨텐트를 재생하는 상기 이동단말기로부터 상기 무선통신부를 통해 수신한 제 1 통신 연결 요청에 반응하여 상기 이동단말기와 제 1 통신 연결을 확립하고, 제 1 통신을 통해 상기 이동단말기로부터 제 1 컨텐트를 수신하여 상기 오디오 출력부를 통해 출력하고, 상기 이동단말기의 제 1 컨텐트의 재생을 제어하는 유저 인터페이스를 상기 디스플레이부에 디스플레이하도록 제어하는 제어부를 포함하는 영상표시기기를 제공한다.
또한, 본 발명의 다른 측면에 따르면, 제 1 컨텐트를 재생하는 이동단말기로부터 제 1 통신 연결 요청에 반응하여 상기 이동단말기와 제 1 통신 연결을 확립하는 단계, 제 1 통신을 통해 상기 이동단말기로부터 제 1 컨텐트를 수신하여 오디오 출력부를 통해 출력하는 단계, 및 상기 이동단말기의 제 1 컨텐트의 재생을 제어하는 유저 인터페이스를 디스플레이하는 단계를 포함하는 영상표시기기의 제어 방법을 제공한다.
본 발명에 따른 영상표시기기 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.
본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명에 따른 영상표시기기는 스마트폰 등과 같은 이동단말기와 연동되어 다양한 기능을 수행할 수 있다.
구체적으로, 상기 이동단말기에서 재생 중인 컨텐트가 편리하게 상기 영상표시기기에서 출력될 수 있고, 상기 영상표시기기를 통해서도 편리하게 상기 이동단말기의 컨텐트 재생을 제어할 수 있다는 장점이 있다. .
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
도 1은 본 발명의 일실시예에 따른 영상표시기기를 포함한 전체 방송 시스템의 일예를 개략적으로 나타낸 도면이다.
도 2는 본 발명의 다른 일실시예에 따른 영상표시기기를 포함한 전체 방송 시스템의 다른 일예를 개략적으로 나타낸 도면이다.
도 3은 도 1 또는 도 2에 도시된 영상표시기기가 서비스 프로바이더에 접속하여 채널 정보 등을 수신하는 단계를 도시한 도면이다.
도 4는 도 3에 도시된 단계들에서 사용되는 데이터들의 일예를 도시한 도면이다.
도 5는 도 1 또는 도 2에 도시된 영상표시기기의 일예를 보다 상세히 도시한 도면이다.
도 6은 도 1 또는 도 2에 도시된 영상표시기기의 다른 일예를 보다 상세히 도시한 도면이다.
도 7 및 도 8은 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나를 셋탑박스와 디스플레이 장치로 구별하여 도시한 도면이다.
도 9는 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나가 제3의 디바이스들과 통신하는 과정을 설명하기 위한 도면이다.
도 10은 도 6에 도시된 제어부의 내부 블록도이다.
도 11은 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나의 플랫폼 구조도의 일예를 도시한 도면이다.
도 12는 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나의 플랫폼 구조도의 다른 일예를 도시한 도면이다.
도 13은 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나를 제어하는 원격제어장치의 제어 방법을 도시한 도면이다.
도 14는 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나를 제어하는 원격제어장치의 내부 블록도이다.
도 15는 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나가 제공하는 유저 인터페이스의 제1실시예를 도시한 도면이다.
도 16은 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나가 제공하는 유저 인터페이스의 제2실시예를 도시한 도면이다.
도 17는 본 발명의 일 실시 예와 관련된 사용자 단말기의 블록 구성도이다.
도 18은 본 발명에 따라 영상표시기기와 이동단말기 간에 연동되는 순서도이다.
도 19는 본 발명에 따라 연동되는 영상표시기기와 이동단말기를 도시한다.
도 20는 본 발명에 따라 영상표시기기와 이동단말기 간에 연동되는 순서도이다.
도 21 및 도 22는 본 발명에 따라 연동되는 영상표시기기와 이동단말기를 도시한다.
도 23은 본 발명에 따라 영상표시기기와 이동단말기 간에 연동되는 순서도이다.
도 24 및 도 25는 본 발명에 따라 연동되는 영상표시기기와 이동단말기를 도시한다.
도 26 및 도 27은 본 발명에 따른 영상표시기기를 도시한다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함을 고려하여 부여되는 것으로서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
한편, 본 명세서에서 기술되는 영상표시기기는, 예컨대 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 영상표시기기로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.
따라서, 본 발명에서 기술되는 영상표시기기는, 예를 들어 범용의 OS 커널 상에, 다양한 어플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 영상표시기기는, 보다 구체적으로 예를 들면, 네트워크 TV, HBBTV, 스마트 TV 등이 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
나아가, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
도 1은 본 발명의 일실시예에 따른 영상표시기기를 포함한 전체 방송 시스템의 일예를 개략적으로 나타낸 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 영상표시기기를 포함한 전체 방송 시스템은, 컨텐츠 제공자(Content Provider;CP)(10), 서비스 제공자(Service Provider;SP)(20), 네트워크 제공자(Network Provider; NP)(30) 및 HNED(40)로 구분될 수 있다. 상기 HNED(40) 는, 예를 들어 본 발명의 실시예에 따른 영상표시기기인 클라이언트(100)에 대응한다. 상기 클라이언트(100)는, 본 발명의 일실시예에 따른 영상표시기기에 해당하며, 상기 영상표시기기는 예를 들어, 네트워크 TV, 스마트 TV, IPTV 등이다.
컨텐츠 제공자(10)는, 각종 컨텐츠를 제작하여 제공한다. 컨텐츠 제공자(10)에는 도 1에서와 같이 지상파 방송 송출자(terrestrial broadcaster), 케이블 방송 사업자(cable SO(System Operator) 또는 MSO(Multiple System Operator), 위성 방송 송출자(satellite broadcaster), 인터넷 방송 송출자(Internet broadcaster) 등이 예시될 수 있다.
또한, 컨텐츠 제공자(10)는, 방송 컨텐츠 외에, 다양한 어플리케이션 등을 제공할 수도 있다. 이와 관련하여서는, 추후에 보다 상세히 설명하도록 하겠다.
서비스 제공자(20)는, 컨텐츠 제공자(10)가 제공하는 컨텐츠들을 서비스 패키지화하여 제공할 수 있다. 예를 들어, 도 1의 서비스 제공자(20)는, 제1 지상파 방송, 제2 지상파 방송, 케이블 MSO, 위성 방송, 다양한 인터넷 방송, 어플리케이션 등을 패키지화하여 사용자에게 제공할 수 있다.
한편, 서비스 제공자(20)는, 유니캐스트(unicast) 또는 멀티캐스트(multicast) 방식을 이용하여 클라이언트(100) 측에 서비스를 제공할 수 있다. 유니캐스트 방식은 하나의 송신자와 하나의 수신자 사이에 데이터를 1:1로 전송하는 방식이다. 예를 들어, 유니캐스트 방식의 경우 수신기에서 서버에 데이터를 요청하면, 서버는 요청에 따라 데이터를 수신기에 전송할 수 있다. 멀티캐스트 방식은 특정한 그룹의 다수의 수신자에게 데이터를 전송하는 방식이다. 예를 들어, 서버는 데이터를 미리 등록된 다수의 수신기에 한꺼번에 전송할 수 있다. 이러한 멀티캐스트 등록을 위해 IGMP(Internet Group Management Protocol) 프로토콜 등이 사용될 수 있다.
네트워크 제공자(30)는, 서비스를 클라이언트(100)에게 제공하기 위한 네트워크 망을 제공할 수 있다. 클라이언트(100)는 홈 네트워크(Home Network End User;HNED)를 구축하여 서비스를 제공받을 수도 있다.
상기와 같은 영상표시기기 시스템에서 전송되는 컨텐츠를 보호하기 위한 수단으로, 제한 수신(Conditional Access) 또는 컨텐츠 보호(Content Protection) 등이 사용될 수 있다. 이러한 제한 수신이나 컨텐츠 보호를 위한 하나의 예로서, 케이블카드(CableCARD), DCAS(Downloadable Conditional Access System)와 같은 방식이 사용될 수 있다.
한편, 클라이언트(100)도 네트워크를 통해, 컨텐츠를 제공하는 것이 가능하다. 이러한 경우, 상술한 바와 달리, 역으로, 클라이언트(100)가 컨텐츠 제공자가 될 수 있으며, 컨텐츠 제공자(10)가 클라이언트(100)로부터 컨텐츠를 수신할 수도 있다. 이와 같이 설계된 경우, 양방향 컨텐츠 서비스 또는 데이터 서비스가 가능한 장점이 있다.
도 2는 본 발명의 다른 일실시예에 따른 영상표시기기를 포함한 전체 방송 시스템의 다른 일예를 개략적으로 나타낸 도면이다.
도 2에 도시된 바와 같이, 본 발명의 다른 일실시예에 따른 영상표시기기(100)는 방송 네트워크 및 인터넷 네트워크와 연결되어 있다. 상기 영상표시기기(100)는 예를 들어, 네트워크 TV, 스마트 TV, HBBTV 등이다.
또한, 상기 영상표시기기(100)는 예를 들어, 방송 인터페이스(101), 섹션 필터(102), AIT 필터(103), 어플리케이션 데이터 처리부(104), 방송 데이터 처리부(111), 미디어 플레이어(106), 인터넷 프로토콜 처리부(107), 인터넷 인터페이스(108), 그리고 런타임 모듈(109)을 포함한다.
상기 방송 인터페이스(101)를 통해, AIT(Application Information Table) 데이터, 실시간 방송 컨텐트, 어플리케이션 데이터, 그리고 스트림 이벤트가 수신된다. 한편, 상기 실시간 방송 컨텐트는, 리니어 에이브이 컨텐트(Linear A/V Content)로 명명할 수도 있다.
상기 섹션 필터(102)는, 상기 방송 인터페이스(101)를 통해 수신된 4가지 데이터에 대한 섹션 필터링을 수행하여 AIT 데이터는 AIT 필터(103)로 전송하고, 리니어 에이브이 컨텐트는 방송 데이터 처리부(111)로 전송하고, 스트림 이벤트 및 어플리케이션 데이터는 어플리케이션 데이터 처리부(104)로 전송한다.
한편, 상기 인터넷 인터페이스(108)을 통해, 논 리니어 에이브이 컨텐트(Non-Linear A/V Content) 및 어플리케이션 데이터가 수신된다. 상기 논 리니어 에이브이 컨텐트는 예를 들어, COD(Content On Demand) 어플리케이션이 될 수도 있다.
상기 논 리니어 에이브이 컨텐트는, 미디어 플레이어(106)로 전송되며, 상기 어플리케이션 데이터는 런타임 모듈(109)로 전송된다.
나아가, 상기 런타임 모듈(109)은 도 2에 도시된 바와 같이 예를 들어, 어플리케이션 매니저 및 브라우저를 포함한다. 상기 어플리케이션 매니저는, 예컨대 AIT 데이터를 이용하여 인터랙티브 어플리케이션에 대한 라이프 싸이클을 컨트롤 한다. 그리고, 상기 브라우져는, 예컨대 상기 인터랙티브 어플리케이션을 표시하고 처리하는 기능을 수행한다.
도 3은 도 1 또는 도 2에 도시된 영상표시기기가 서비스 프로바이더에 접속하여 채널 정보 등을 수신하는 단계를 도시한 도면이다. 물론, 도 3은 일실시예이며, 도 3의 방법만으로 본 발명의 권리범위가 제한되는 것은 아니다.
서비스 프로바이더는 서비스 프로바이더 디스커버리 동작을 수행한다(S301). 영상표시기기는 SP 접속 요청(Service Provider Attachment Request) 신호를 전송한다(S302). SP 접속이 완료한 경우, 상기 영상표시기기는 프로비져닝 정보(provisioning information)를 수신한다(S303). 나아가, 상기 영상표시기기는 상기 서비스 프로바이더로부터 master SI 테이블을 수신하고(S304), Virtual Chnnanel Map 테이블을 수신하고(S305), Virtual Channel Description 테이블을 수신하고(S306), Source 테이블을 수신한다(S307).
보다 상세히 설명하면 다음과 같다.
상기 service provider discovery 는, IPTV 와 관련된 서비스를 제공하는 서비스 프로바이더들이 자신들의 서비스에 대한 정보를 제공하는 서버를 찾는 과정을 의미할 수 있다.
SD (service discovery) server에 대한 정보(예를 들어, SP discovery 정보)를 받을 수 있는 주소 목록을 찾는 방법은, 예를 들어 다음 3가지 이다. 첫째, 영상표시기기에 미리 설정된 주소 또는 사용자의 수동 동작으로 설정된 주소를 이용할 수 있다. 둘째, DHCP 기반 SP discovery 방법을 사용할 수 있다. 셋째, DNS SRV-based SP discovery 방법을 사용할 수 있다. 또한, 상기 영상표시기기는 위와 같은 3가지 방법 중 어느 하나에 의해 획득한 주소의 서버에 접속하여, SP 별 서비스 디스커버리에 필요한 정보를 담은 service provider discovery record 를 수신한다. 그리고, 이를 이용하여, 서비스 탐색 단계를 진행한다. 이와 같은 과정들은, push mode 또는 pull mode 모두 가능하다.
SP discovery record 의 SP attachment locator 로 지정된 SP attachment server 에 접속하여, 등록 절차(또는 service attachment 절차)를 수행한다.
나아가, SP authentication locator 로 지정되는 SP 의 authentication service server 에 접속하여 별도의 인증 절차를 수행한 다음, service authentication 절차를 수행할 수도 있다.
한편, service attachment 절차 성공 이후에 서버에서 영상표시기기로 전송되는 데이터는, provisioning information table 의 형태가 될 수도 있다.
영상표시기기는, service attachment 과정에서, 서버로 전송하는 데이터에 자신의 ID와 위치 정보를 포함하여 제공하고, Service attachment server 는 이를 바탕으로 영상표시기기가 가입한 서비스를 특정할 수가 있다. 나아가, 영상표시기기가 수신하고자 하는 Service Information 을 획득할 수 있는 주소 정보는, provisioning information table 의 형태로 제공된다. 상기 주소 정보는, master SI table의 접속 정보에 대응한다. 이와 같은 방법을 사용하는 경우, 가입자 별로 맞춤형 서비스를 제공하는 것이 용이하다.
그리고, 상기 Service Information 은, virtual channel map 에 대한 접속 정보 및 버전을 관리하는 master SI table record 와, 패키지 형태의 서비스 목록을 제공하는 virtual channel map table, 그리고 각 채널의 상세 정보를 포함하는 virtual channel description table, 그리고 실제 서비스를 access 할 수 있는 접속 정보를 포함하는 source table 등을 포함한다.
도 4는 도 3에 도시된 단계들에서 사용되는 데이터들의 일예를 도시한 도면이다.
도 4는, 도 3을 보다 상세히 도시한 도면이다. 이하, 도 4를 참조하여 SI 내 데이터들의 관계를 설명하면 다음과 같다.
Master SI table 은, 각 virtual channel map 을 받을 수 있는 위치 정보와, 각 virtual channel map 들의 버전 정보를 포함한다.
각 virtual channel map 은, virtual channel map identifier 로 유일하게 식별되며, virtual channel map version 은, virtual channel map 의 버전 정보를 나타낸다. 도 4에 도시된 master SI table 로부터 시작된 화살표 방향으로 연결된 모든 테이블 중 어느 하나의 테이블이 변경될 경우, 해당 테이블의 버전 증가와 함꼐 상위 모든 테이블(master SI table까지)의 버전이 증가한다. 따라서, master SI table 을 모니터링함으로써, 전체 SI 테이블 상의 변화를 바로 확인할 수 있는 장점이 있다.
예를 들어, source table에 변화가 발생한 경우, source table의 버전이 증가하고, 상기 source table 을 reference 하는 virtual channel description table 의 version 도 변경된다. 따라서, 하위 테이블의 변화는 상위 테이블의 변화를 야기시키며, 궁극적으로 master SI table의 버전이 변경된다.
Master SI table은, 서비스 제공자 마다 하나가 존재할 수도 있다. 그러나, 서비스의 구성이 지역별 또는 가입자(내지는 가입자 그룹)별로 다를 경우, 각 단위별 맞춤형 서비스를 제공하기 위해 상기 서비스 제공자는 복수개의 master SI table을 가지도록 설계한다. 이와 같이 설계된 경우, 가입자의 지역 및 가입 정보 등에 맞는 맞춤형 서비스를 master SI table 을 통해 효율적으로 제공하는 것이 가능하다.
Virtual channel map table은, 하나 이상의 virtual channel 을 가질 수 있으며, 채널의 상세 정보를 virtual channel map 에 포함시키는 것이 아니라, 상기 상세 정보를 획득할 수 있는 위치 정보를 포함한다. 상기 virtual channel map table 의 virtual channel description location 은, 채널 상세 정보를 포함하는 virtual channel description table 의 위치를 알려 준다.
Virtual channel description table 은 virtual channel 의 상세 정보를 포함하며, virtual channel map table 의 virtual channel description location 을 이용하여, 상기 virtual channel desctiprion table 에 access 할 수가 있다.
Source table 은, 실제 서비스를 접속하는데 필요한 접속 정보(예를 들어, IP 주소, 포트, AV 코덱, 전송 프로토콜 등)를 서비스별로 제공한다.
전술하여 설명한 master SI table, virtual channel map table, virtual channel description table, 그리고 source table 은, 논리적으로 4개의 분리된 flow 를 통해 전달되며, push mode 또는 pull mode 모두 가능하다. 한편, master SI table 은, 버전 관리를 위하여 멀티캐스트로 전송될 수 있으며, 멀티캐스트 스트림을 수신하여 버전 변화를 모니터링 한다.
도 5는 도 1 또는 도 2에 도시된 영상표시기기의 일예를 보다 상세히 도시한 도면이다. 다만, 도 5에 도시된 도면은 일실시예에 불과하며, 본 발명의 권리범위는 원칙적으로 도 5가 아닌 특허청구범위에 의해 결정되어야 한다.
영상표시기기(700)는, 네트워크 인터페이스부(Network Interface)(701), TCP/IP 매니저(TCP/IP Manager)(702), 서비스 전달 매니저(Service Delivery Manager)(703), 디멀티플렉서(Demux)(705), PSI&(PSIP and/or SI) 디코더(704), 오디오 디코더(Audio Decoder)(706), 비디오 디코더(Video Decoder)(707), 디스플레이부(Display A/V and OSD Module)(708), 서비스 제어 매니저(Service Control Manager)(709), 서비스 디스커버리 매니저(Service Discovery Manager)(710), 메타데이터 매니저(Metadata Manager)(712), SI&Metadata DB(711), UI 매니저(714), 그리고 서비스 매니저(713) 등을 포함하여 이루어 진다.
네트워크 인터페이스부(701)는 네트워크 망으로부터 수신되는 패킷(packet)들을 수신하고, 네트워크 망으로 패킷을 전송한다. 즉 네트워크 인터페이스부(701)는 네트워크 망을 통해 서비스 제공자로부터 서비스, 컨텐츠 등을 수신한다.
TCP/IP 매니저(702)는, 영상표시기기(700)로 수신되는 패킷과 영상표시기기(700)가 전송하는 패킷에 대하여, 즉 소스로부터 목적지까지의 패킷 전달에 관여한다. 그리고 TCP/IP 매니저(702)는 수신된 패킷을 적절한 프로토콜에 대응되도록 분류하고, 서비스 전달 매니저(705), 서비스 디스커버리 매니저(710), 서비스 제어 매니저(709) 및 메타데이터 매니저(712)로 분류된 패킷을 출력한다.
서비스 전달 매니저(703)는 수신되는 서비스 데이터의 제어를 담당한다. 예를 들어, 실시간 스트리밍(real-time streaming) 데이터를 제어하는 경우 RTP/RTCP를 사용할 수 있다. 상기 실시간 스트리밍 데이터를 RTP를 사용하여 전송하는 경우, 상기 서비스 전달 매니저(703)는 상기 수신된 데이터 패킷을 RTP에 따라 파싱(parsing)하여 디멀티플렉서(705)에 전송하거나 서비스 매니저(713)의 제어에 따라 SI&Metadata DB(711)에 저장한다. 그리고 RTCP를 이용하여 상기 네트워크 수신 정보를 서비스를 제공하는 서버측에 피드백(feedback)한다.
디멀티플렉서(705)는 수신된 패킷을 오디오, 비디오, PSI(Program Specific Information) 데이터 등으로 역다중화하여 각각 오디오/비디오 디코더(706, 707), PSI&(PSIP and/or SI) Decoder(704)에 전송한다.
PSI&(PSIP and/or SI) Decoder(704)는 예를 들어, PSI(Program Specific Information) 등의 서비스 정보를 디코딩한다. 즉, PSI&(PSIP and/or SI) Decoder(704)는 상기 디멀티플렉서(705)에서 역다중화된 PSI 섹션, PSIP(Program and Service Information Protocol) 섹션 또는 SI(Service Information) 섹션 등을 수신하여 디코딩한다.
또한 상기 PSI&(PSIP and/or SI) Decoder(704)는 상기 수신된 섹션들을 디코딩하여 서비스 정보에 관한 데이터베이스를 만들고, 상기 서비스 정보에 관한 데이터베이스는 SI&Metadata DB(711)에 저장한다.
오디오/비디오 디코더(706/707)는, 상기 디멀티플렉서(705)에서 수신된 비디오 데이터와 오디오 데이터를 디코딩한다. 상기 오디오 디코더(706)에서 디코딩된 오디오 데이터 및 상기 비디오 디코더(707)에서 디코딩된 비디오 데이터는 디스플레이부(708)를 통하여 사용자에게 제공된다.
UI 매니저(714) 및 서비스 매니저(713)는, 영상표시기기(700)의 전반적인 상태를 관리하고 유저 인터페이스를 제공하며, 다른 매니저를 관리한다.
UI 매니저(714)는 사용자를 위한 GUI(Graphic User Interface)를 OSD(On Screen Display) 등을 이용하여 제공하며, 사용자로부터 키 입력을 받아 상기 입력에 따른 수신기 동작을 수행한다. 예를 들어, 사용자로부터 채널선택에 관한 키 입력을 받으면 상기 키 입력신호를 서비스 매니저(713)에 전송한다.
서비스 매니저(713)는 서비스 전달 매니저(703), 서비스 디스커버리 매니저(710), 서비스 제어 매니저(709) 및 메타데이터 매니저(712) 등 서비스와 연관된 매니저를 제어한다.
또한 서비스 매니저(713)는 채널 맵(Channel Map)을 만들고 상기 유저 인터페이스 매니저(714)로부터 수신한 키 입력에 따라 상기 채널 맵을 이용하여 채널을 선택하다. 그리고 상기 서비스 매니저(713)는 PSI&(PSIP and/or SI) Decoder(704)로부터 채널의 서비스정보를 전송받아 선택된 채널의 오디오/비디오 PID(Packet Identifier)를 디멀티플렉서(705)에 설정한다.
서비스 디스커버리 매니저(710)는 서비스를 제공하는 서비스 제공자를 선택하는데 필요한 정보를 제공한다. 상기 서비스 매니저(713)로부터 채널선택에 관한 신호를 수신하면, 서비스 디스커버리 매니저(710)는 상기 정보를 이용하여 서비스를 찾는다.
서비스 제어 매니저(709)는 서비스의 선택과 제어를 담당한다. 예를 들어, 사용자가 기존의 방송방식과 같은 Live Broadcasting 서비스를 선택하는 경우 IGMP 또는 RTSP 등을 사용하고, VOD(Video On Demand)와 같은 서비스를 선택하는 경우에는 RTSP를 사용하여 서비스의 선택, 제어를 수행한다. 상기 RTSP 프로토콜은 실시간 스트리밍에 대해 트릭 모드(trick mode)를 제공할 수 있다. 또한, 서비스 제어 매니저(709)는 IMS(IP Multimedia Subsystem), SIP(Session Initiation Protocol)를 이용하여 IMC 게이트웨이를 통하는 세션을 초기화하고 관리할 수 있다. 상기 프로토콜들은 일 실시예이며, 구현 예에 따라 다른 프로토콜을 사용할 수도 있다.
메타데이터 매니저(712)는 서비스와 연관된 메타데이터를 관리하고 상기 메타데이터를 SI&Metadata DB(711)에 저장한다.
SI&Metadata DN(711)는 PSI&(PSIP and/or SI) Decoder(704)가 디코딩한 서비스 정보, 메타데이터 매니저(712)가 관리하는 메타데이터 및 서비스 디스커버리 매니저(710)가 제공하는 서비스 제공자를 선택하는데 필요한 정보를 저장한다. 또한 SI&Metadata DB(711)는 시스템에 대한 셋업 데이터 등을 저장할 수 있다.
SI&Metadata DB(711)는 비휘발성 메모리(NonVolatile RAM : NVRAM) 또는 플래쉬 메모리 등을 사용하여 구현될 수도 있다.
한편, 상기 IG(750)는, IMS 기반의 IPTV 서비스에 접근하기 위해 필요한 기능들을 모아 놓은 게이트웨이 이다.
도 6은 도 1 또는 도 2에 도시된 영상표시기기의 다른 일예를 보다 상세히 도시한 도면이다.
도 6을 참조하면, 본 발명의 일실시예에 의한 영상표시기기(100)는, 방송 수신부(105), 외부장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 디스플레이부(180), 오디오 출력부(185), 전원공급부(190), 및 촬영부(미도시)를 포함할 수 있다. 방송 수신부(105)는, 튜너(110), 복조부(120), 및 네트워크 인터페이스부(130)를 포함할 수 있다. 물론, 필요에 따라, 튜너(110)와 복조부(120)를 구비하면서 네트워크 인터페이스부(130)는 포함하지 않도록 설계하는 것도 가능하며, 반대로 네트워크 인터페이스부(130)를 구비하면서 튜너(110)와 복조부(120)는 포함하지 않도록 설계하는 것도 가능하다.
튜너(110)는, 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다.
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 모두 처리할 수 있다. 튜너(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.
또한, 튜너(110)는, ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
한편, 튜너(110)는, 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다.
복조부(120)는, 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 예컨대, 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 예컨대, COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(120)는, 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때, 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이부(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다.
외부장치 인터페이스부(135)는 외부 장치와 영상표시기기(100)를 접속할 수 있다. 이를 위해, 외부장치 인터페이스부(135)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
외부장치 인터페이스부(135)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(135)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시기기(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(135)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시기기(100)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.
무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시기기(100)는 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA (Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다.
또한, 외부장치 인터페이스부(135)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.
한편, 외부장치 인터페이스부(135)는, 인접하는 외부 장치 내의 어플리케이션 또는 어플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
네트워크 인터페이스부(130)는, 영상표시기기(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(130)는, 유선 네트워크와의 접속을 위해, 예를 들어 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, 예를 들어 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.
네트워크 인터페이스부(130)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. 특히, 영상표시기기(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 영상표시기기(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
한편, 네트워크 인터페이스부(130)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다. 그 외, 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
또한, 네트워크 인터페이스부(130)는, 네트워크를 통해, 공중에 공개(open)된 어플리케이션들 중 원하는 어플리케이션을 선택하여 수신할 수 있다.
실시 예에 따라, 네트워크 인터페이스부(130)는, 영상표시기기에서 게임 어플리케이션을 실행하는 경우, 상기 영상표시기기와 네트워크 연결된 사용자 단말기와 소정의 데이터를 송신 또는 수신할 수 있다. 또한, 게임 스코어를 저장하는 서버와 소정의 데이터를 송신 또는 수신할 수 있다
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수도 있다.
또한, 저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(130)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다.
또한, 저장부(140)는, 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(130)로부터 입력되는 어플리케이션 또는 어플리케이션 목록을 저장할 수 있다.
또한, 저장부(140)는, 후술하여 설명하는 다양한 플랫폼을 저장할 수도 있다.
또한, 실시 예에 따라, 저장부(140)는, 영상표시기기에서 게임 어플리케이션을 제공함에 있어서, 게임 컨트롤러로 사용된 사용자 단말기의 고유 정보 및 게임 플레이 정보를 저장할 수 있다.
저장부(140)는, 예를 들어 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시기기(100)는, 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 어플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
도 6은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수도 있다.
사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다.
예를 들어, 사용자입력 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 예를 들어, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
또한, 예를 들어, 사용자입력 인터페이스부(150)는, 사용자의 제스처를 센싱하는 센싱부(미도시)로부터 입력되는 제어 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센싱부(미도시)로 송신할 수 있다. 여기서, 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다.
제어부(170)는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(135)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
도 6에서는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 10을 참조하여 후술한다.
그 외, 제어부(170)는, 영상표시기기(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는, 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시기기(100)를 제어할 수 있다. 특히, 네트워크에 접속하여 사용자가 원하는 어플리케이션 또는 어플리케이션 목록을 영상표시기기(100) 내로 다운받을 수 있도록 할 수 있다.
예를 들어, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 그리고, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
다른 예로, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는, 영상을 표시하도록 디스플레이부(180)를 제어할 수 있다. 예를 들어, 튜너(110)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상을, 디스플레이부(180)에 표시하도록 제어할 수 있다. 이때, 디스플레이부(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는, 컨텐츠를 재생하도록 제어할 수 있다. 이때의 컨텐츠는, 영상표시기기(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠일 수 있다. 컨텐츠는, 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 중 적어도 하나일 수 있다.
한편, 본 발명의 실시예와 관련하여, 제어부(170)는, 홈 화면으로의 이동 입력에 따라, 디스플레이부(180)에 홈 화면을 표시하도록 제어할 수 있다.
홈 화면은, 컨텐츠 소스 별로 분류된 복수의 카드 오브젝트를 구비할 수 있다. 카드 오브젝트는, 방송 채널의 썸네일 리스트를 나타내는 카드 오브젝트, 방송 가이드 리스트를 나타내는 카드 오브젝트, 방송 예약 리스트 또는 녹화 리스트를 나타내는 카드 오브젝트, 상기 영상표시기기 내 또는 상기 영상표시기기에 접속된 장치 내의 미디어 리스트를 나타내는 카드 오브젝트 중 적어도 하나를 포함할 수 있다. 또한, 접속된 외부 장치 리스트를 나타내는 카드 오브젝트, 및 통화와 관련된 리스트를 나타내는 카드 오브젝트 중 적어도 하나를 더 포함할 수 있다.
또한, 홈 화면은, 실행 가능한 적어도 하나의 어플리케이션 항목을 구비하는 어플리케이션 메뉴를 더 구비할 수 있다.
한편, 제어부(170)는, 카드 오브젝트 이동 입력이 있는 경우, 해당 카드 오브젝트를 이동하여 표시하거나, 디스플레이부(180)에 표시되지 않는 카드 오브젝트를 디스플레이부(180)에 이동 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 홈 화면 내의 복수의 카드 오브젝트 중 소정 카드 오브젝트가 선택되는 경우, 해당 카드 오브젝트에 대응하는 영상을 디스플레이부(180)에 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 방송 영상을 표시하는 카드 오브젝트 내에, 수신되는 방송 영상과, 해당 방송 영상 관련 정보를 나타내는 오브젝트를 표시하도록 제어할 수 있다. 그리고, 이러한 방송 영상은 잠금 설정에 의해 그 크기가 고정되도록 제어할 수 있다.
한편, 제어부(170)는, 홈 화면 내에, 영상표시기기 내의 영상 설정, 오디오 설정, 화면 설정, 예약 설정, 원격제어장치의 포인터 설정, 네트워크 설정 중 적어도 하나의 설정을 위한 셋업 오브젝트를 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 홈 화면의 일 영역에, 로그인, 도움말 또는 나가기 항목에 대한 오브젝트를 표시하도록 제어할 수도 있다.
한편, 제어부(170)는, 홈 화면의 일 영역에, 전체 카드 오브젝트의 개수를 나타내거나 전체 카드 오브젝트 중 디스플레이부(180)에 표시되는 카드 오브젝트의 개수를 나타내는 오브젝트를 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 디스플레이부(180)에 표시되는 카드 오브젝트 중 소정 카드 오브젝트 내의 카드 오브젝트명이 선택되는 경우, 해당 카드 오브젝트를 전체화면으로서 디스플레이부(180)에 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 접속된 외부장치 또는 영상표시기기 내에서 착신 호가 수신되는 경우, 복수의 카드 오브젝트 중 통화 관련 카드 오브젝트를 포커싱하여 표시하거나, 디스플레이부(180) 내로 통화 관련 카드 오브젝트를 이동하여 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 어플리케이션 보기 항목에 진입하는 경우, 영상표시기기(100) 내 또는 외부 네트워크로부터 다운로드 가능한 어플리케이션 또는 어플리케이션 목록을 표시하도록 제어할 수 있다.
제어부(170)는, 다양한 유저 인터페이스와 더불어, 외부 네트워크로부터 다운로드되는 어플리케이션을 설치 및 구동하도록 제어할 수 있다. 또한, 사용자의 선택에 의해, 실행되는 어플리케이션에 관련된 영상이 디스플레이부(180)에 표시되도록 제어할 수 있다.
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다.
채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(135)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이부(180)에 표시할 수 있다. 한편, 이러한 썸네일 리스트 내의 썸네일 영상들은 차례로 또는 동시에 업데이트될 수 있다. 이에 따라 사용자는 복수의 방송 채널의 내용을 간편하게 파악할 수 있게 된다.
디스플레이부(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성한다.
디스플레이부(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등이 가능할 수 있다.
한편, 디스플레이부(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.
한편, 사용자의 제스처를 감지하기 위해, 상술한 바와 같이, 터치 센서, 음성 센서, 위치 센서, 동작 센서 중 적어도 하나를 구비하는 센싱부(미도시)가 영상표시기기(100)에 더 구비될 수 있다. 센싱부(미도시)에서 감지된 신호는 사용자입력 인터페이스부(150)를 통해 제어부(170)로 전달될 수 있다.
한편, 사용자를 촬영하는 촬영부(미도시)가 더 구비될 수 있다. 촬영부(미도시)에서 촬영된 영상 정보는 제어부(170)에 입력될 수 있다.
제어부(170)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센싱부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수도 있다.
전원 공급부(190)는, 영상표시기기(100) 전반에 걸쳐 해당 전원을 공급한다.
특히, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있는 제어부(170)와, 영상 표시를 위한 디스플레이부(180), 및 오디오 출력을 위한 오디오 출력부(185)에 전원을 공급할 수 있다.
이를 위해, 전원 공급부(190)는, 교류 전원을 직류 전원으로 변환하는 컨버터(미도시)를 구비할 수 있다. 한편, 예를 들어, 디스플레이부(180)가 다수의 백라이트 램프를 구비하는 액정패널로서 구현되는 경우, 휘도 가변 또는 디밍(dimming) 구동을 위해, PWM 동작이 가능한 인버터(미도시)를 더 구비할 수도 있다.
원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다.
또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 또는 진동을 출력할 수 있다.
상술한 영상표시기기(100)는, 고정형으로서 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다.
한편, 도 2에 도시된 영상표시기기(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시기기(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
한편, 영상표시기기(100)는 도 6에 도시된 바와 달리, 도 6에 도시된 튜너(110)와 복조부(120)를 구비하지 않고, 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)를 통해서, 영상 컨텐츠를 수신하고, 이를 재생할 수도 있다.
한편, 영상표시기기(100)는, 장치 내에 저장된 영상 또는 입력되는 영상의 신호 처리를 수행하는 영상신호 처리장치의 일예이다, 영상신호 처리장치의 다른 예로는, 도 6에서 도시된 디스플레이부(180)와 오디오 출력부(185)가 제외된 셋탑 박스, 상술한 DVD 플레이어, 블루레이 플레이어, 게임기기, 컴퓨터 등이 더 예시될 수 있다. 이 중 셋탑 박스에 대해서는 이하의 도 7 및 도 8을 참조하여 기술한다.
도 7 및 도 8은 본 발명의 실시예들에 따른 영상표시기기 중 어느 하나를 셋탑박스와 디스플레이 장치로 구별하여 도시한 도면이다.
우선 도 7에 대하여 설명하면, 셋탑 박스(250)와 디스플레이장치(300)는, 유선 또는 무선으로 데이터를 송신 또는 수신할 수 있다.
셋탑 박스(250)는, 네트워크 인터페이스부(255), 저장부(258), 신호 처리부(260), 사용자입력 인터페이스부(263), 및 외부장치 인터페이스부(265)를 포함할 수 있다.
네트워크 인터페이스부(255)는, 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 또한, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
저장부(258)는, 신호 처리부(260) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 외부장치 인터페이스부(265) 또는 네트워크 인터페이스부(255)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(258)는, 후술하는 도 11 및 도 12에 도시된 플랫폼을 저장할 수도 있다.
신호 처리부(260)는, 입력되는 신호의 신호 처리를 수행한다. 예를 들어, 입력되는 영상 신호의 역다중화 또는 복호화 등을 수행하며, 입력되는 음성 신호의 역다중화 또는 복호화를 수행할 수 있다. 이를 위해, 영상 디코더 또는 음성 디코더를 구비할 수 있다. 신호 처리된 영상 신호 또는 음성 신호는, 외부장치 인터페이스부(265)를 통해 디스플레이장치(300)로 전송될 수 있다.
사용자입력 인터페이스부(263)는, 사용자가 입력한 신호를 신호 처리부(260)로 전달하거나, 신호 처리부(260)로부터의 신호를 사용자에게 전달한다. 예를 들어, 로컬키(미도시) 또는 원격제어장치(200)를 통해 입력되는, 전원 온/오프, 동작 입력, 설정 입력 등의 다양한 제어 신호를 수신하여 신호 처리부(260)로 전달할 수 있다.
외부장치 인터페이스부(265)는, 유선 또는 무선으로 접속되는 외부장치와의 데이터 송신 또는 수신을 위한 인터페이스를 제공한다. 특히, 디스플레이장치(300)와의 데이터 송신 또는 수신을 위한 인터페이스를 제공한다. 그 외 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와의 데이터 송신 또는 수신을 위한 인터페이스를 제공하는 것도 가능하다.
한편, 셋탑 박스(250)는, 별도의 미디어(media) 재생을 위한 미디어 입력부(미도시)를 더 포함할 수 있다. 이러한 미디어 입력부의 예로는, 블루레이 입력부(미도시) 등이 예시될 수 있다. 즉, 셋탑 박스(250)는, 블루레이 플레이어를 구비하는 것이 가능하다. 입력되는 블루레이 디스크 등의 미디어는 신호 처리부(260)에서의 역다중화 또는 복호화 등의 신호 처리 이후, 그 표시를 위해, 외부장치 인터페이스부(265)를 통해 디스플레이장치(300)로 전송될 수 있다.
디스플레이장치(300)는, 튜너(270), 외부장치 인터페이스부(273), 복조부(275), 저장부(278), 제어부(280), 사용자입력 인터페이스부(283), 디스플레이부(290), 및 오디오 출력부(295)를 포함할 수 있다.
튜너(270), 복조부(275), 저장부(278), 제어부(280), 사용자입력 인터페이스부(283), 디스플레이부(290), 및 오디오 출력부(295)는, 상술한 도 6에서 기술한 튜너(110), 복조부(120), 저장부(140), 제어부(170), 사용자입력 인터페이스부(150), 디스플레이부(180), 및 오디오 출력부(185)에 대응하므로, 이에 대한 설명을 생략한다.
한편, 외부장치 인터페이스부(273)는, 유선 또는 무선으로 접속되는 외부장치와의 데이터 송신 또는 수신을 위한 인터페이스를 제공한다. 특히, 셋탑 박스(250)와의 데이터 송신 또는 수신을 위한 인터페이스를 제공한다.
이에 따라, 셋탑 박스(250)를 통해 입력되는 영상 신호 또는 음성 신호가 제어부(170)를 거쳐, 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력되게 된다.
한편, 도 8에 대하여 설명하면, 셋탑 박스(250)와 디스플레이장치(300)는, 도 7에 도시된 셋탑 박스(250)와 디스플레이장치(300)와 동일하나, 다만, 튜너(270) 및 복조부(275)의 위치가 디스플레이장치(300) 내가 아닌 셋탑 박스(250) 내에 위치하는 차이점이 존재한다. 이하에서는, 그 차이점 위주로 설명하도록 하겠다.
신호 처리부(260)는, 튜너(270) 및 복조부(275)를 통해 수신되는 방송 신호의 신호 처리를 수행할 수 있다. 또한, 사용자입력 인터페이스부(263)는, 채널 선택, 채널 저장 등의 입력을 수신할 수 있다.
도 9는 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나가 제3의 디바이스들과 통신하는 과정을 설명하기 위한 도면이다. 도 9에 도시된 영상표시기기는, 전술하여 설명한 본 발명의 실시예들에 의한 영상표시기기 중 어느 하나에 대응할 수가 있다.
도 9에 도시된 바와 같이, 본 발명의 일실시예에 의한 영상표시기기(100)는 방송국(210), 네트워크 서버(220) 또는 외부장치(230)와 통신할 수 있다.
영상표시기기기(100)는 방송국(210)에서 전송하는 영상신호를 포함하는 방송신호를 수신할 수 있다. 영상표시기기(100)는 방송신호에 포함되는 영상신호 및 음성신호 또는 데이터신호를 영상표시기기(100)에서 출력하기에 적합하도록 처리(process)할 수 있다. 영상표시기기(100)는 처리한 영상신호에 기초하는 영상 또는 오디오를 출력할 수 있다.
한편, 영상표시기기(100)는 네트워크 서버(220)와 통신할 수 있다. 네트워크 서버(220)는 임의의 네트워크를 통하여 영상표시기기(100)와 신호를 송수신할 수 있는 장치이다. 예를 들어, 네트워크 서버(220)는 유선 또는 무선 기지국을 통하여 영상표시기기(100)와 연결될 수 있는 휴대전화 단말기일 수 있다. 또한, 네트워크 서버(220)는 인터넷 네트워크를 통하여 영상표시기기(100)로 컨텐츠를 제공할 수 있는 장치일 수 있다. 컨텐츠 제공자는 네트워크 서버를 이용하여 영상표시기기(100)로 컨텐츠를 제공할 수 있다.
한편, 영상표시기기(100)는 외부장치(230)와 통신할 수 있다. 외부장치(230)는 유선 또는 무선으로 영상표시기기(100)와 직접 신호를 송수신할 수 있는 장치이다. 일예로, 외부장치(230)는 사용자가 사용하는 미디어 저장장치 또는 재생장치일 수 있다. 즉, 외부장치(230)는 예를 들어 카메라, DVD 또는 블루레이 플레이어, 퍼스널 컴퓨터 등에 해당한다.
방송국(210), 네트워크 서버(220), 또는 외부장치(230)는, 영상표시기기(100)로 영상신호를 포함하는 신호를 전송할 수 있다. 영상표시기기(100)는 입력되는 신호에 포함되는 영상신호에 기초하는 영상을 표시할 수 있다. 또한, 영상표시기기(100)는 방송국(210) 또는 네트워크 서버(220)에서 영상표시기기(100)로 전송하는 신호를 외부장치(230)로 전송할 수 있다. 또한, 외부장치(230)에서 영상표시기기(100)로 전송하는 신호를 방송국(210) 또는 네트워크 서버(220)로 전송할 수 있다. 즉, 영상표시기기(100)는 방송국(210), 네트워크 서버(220) 및 외부장치(230)에서 전송하는 신호에 포함되는 컨텐츠를 영상표시기기(100)에서 직접 재생하는 기능 뿐만 아니라, 이를 전달하는 기능도 포함한다.
도 10은 도 6에 도시된 제어부의 내부 블록도이다. 도 10 및 도 6을 참조하여 설명하면 다음과 같다.
본 발명의 일실시예에 의한 제어부(170)는, 역다중화부(310), 영상 처리부(320), OSD 생성부(340), 믹서(350), 프레임 레이트 변환부(355), 및 포맷터(360)를 포함할 수 있다. 그 외 음성 처리부(미도시), 데이터 처리부(미도시)를 더 포함할 수 있다.
역다중화부(310)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(310)에 입력되는 스트림 신호는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(135)에서 출력되는 스트림 신호일 수 있다.
영상 처리부(320)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(320)는, 영상 디코더(325), 및 스케일러(335)를 구비할 수 있다.
영상 디코더(325)는, 역다중화된 영상신호를 복호화하며, 스케일러(335)는, 복호화된 영상신호의 해상도를 디스플레이부(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다.
영상 디코더(325)는 다양한 규격의 디코더를 구비하는 것이 가능하다.
예를 들어, 역다중화된 영상 신호가 MPEG-2 규격의 부호화된 영상 신호인 경
우, MPEG-2 디코더에 의해 복호화될 수 있다.
또한, 예를 들어, 역다중화된 영상 신호가, DMB(Digital Multimedia Broadcasting) 방식 또는 DVB-H에 따른 H.264 규격의 부호화된 영상 신호인 경우, H.264 디코더에 의해 복호화될 수 있다.
한편, 영상 처리부(320)에서 복호화된 영상 신호는, 믹서(350)로 입력되게 된다.
OSD 생성부(340)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자입력 인터페이스부(150)로부터의 제어 신호에 기초하여, 디스플레이부(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 영상표시기기(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다.
예를 들어, OSD 생성부(340)는, 방송 영상의 자막 또는 EPG에 기반한 방송 정보를 표시하기 위한 신호를 생성할 수 있다.
믹서(350)는, OSD 생성부(340)에서 생성된 OSD 신호와 영상처리부(220)에서 영상 처리된 복호화된 영상 신호를 믹싱할 수 있다. 믹싱된 신호는 포맷터(360)에 제공된다. 복호화된 방송 영상 신호 또는 외부 입력 신호와 OSD 신호가 믹싱됨으로 인하여, 방송 영상 또는 외부 입력 영상 상에 OSD 가 오버레이 되어 표시될 수 있게 된다.
프레임 레이트 변환부(Frame Rate Conveter;FRC)(355)는, 입력되는 영상의 프레임 레이트를 변환할 수 있다. 예를 들어, 60Hz의 프레임 레이트를 120Hz 또는 240Hz로 변환한다. 60Hz의 프레임 레이트를 120Hz로 변환하는 경우, 제1 프레임과 제2 프레임 사이에, 동일한 제1 프레임을 삽입하거나, 제1 프레임과 제2 프레임으로부터 예측된 제3 프레임을 삽입하는 것이 가능하다. 60Hz의 프레임 레이트를 240Hz로 변환하는 경우, 동일한 프레임을 3개 더 삽입하거나, 예측된 프레임을 3개 삽입하는 것이 가능하다. 한편, 별도의 변환없이 입력되는 프레임 레이트를 유지하는 것도 가능하다.
포맷터(360)는, 프레임 레이트 변환부(355)의 출력 신호를 입력받아, 디스플레이부(180)에 적합하도록 신호의 포맷을 변경하여 출력한다. 예를 들어, R,G,B 데이터 신호를 출력할 수 있으며, 이러한 R,G,B 데이터 신호는, 낮은 전압 차분 신호(Low voltage differential signaling, LVDS) 또는 mini-LVDS로 출력될 수 있다.
한편, 제어부(170) 내의 음성 처리부(미도시)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 음성 처리부(미도시)는 다양한 디코더를 구비할 수 있다.
제어부(170) 내의 음성 처리부(미도시)는, 역다중화된 음성 신호가 부호화된 음성 신호인 경우, 이를 복호화할 수 있다. 예를 들어, 역다중화된 음성 신호는, MPEG-2 디코더, 또는 MPEG 4 디코더, 또는 AAC 디코더, 또는 AC-3 디코더에 의해 복호화될 수 있다.
또한, 제어부(170) 내의 음성 처리부(미도시)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다.
제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Program Guide) 정보일 수 있다. 예를 들어, EPG 정보는, ATSC방식인 경우, ATSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다.
ATSC-PSIP 정보 또는 DVB-SI 정보는, 상술한 스트림, 즉 MPEG-2 TS의 헤더(4 byte)
에 포함되는 정보일 수 있다.
한편, 도 10에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이므로, 당업자의 필요에 따라 다른 모듈을 추가하거나, 도시된 모듈 중 일부를 생략하는 것도 가능하다.
도 11은 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나의 플랫폼 구조도의 일예를 도시한 도면이다.
도 12는 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나의 플랫폼 구조도의 다른 일예를 도시한 도면이다.
본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나의 플랫폼은, 상술한 다양한 동작을 수행하기 위해, OS 기반의 소프트웨어를 구비할 수 있다.
우선, 도 11을 참조하여 설명하면, 본 발명의 실시예들에 따른 영상표시기 중 임의의 어느 하나의 플랫폼은, 분리형 플랫폼으로서, 레거시 시스템(Legacy System) 플랫폼(400)과 스마트 시스템 플랫폼(405)이 분리되어 설계될 수 있다. OS 커널(OS Kernel)(410)은, 레거시 시스템 플랫폼(400)과 스마트 시스템 플랫폼(405)에서 공통으로 사용될 수 있다.
레거시 시스템 플랫폼(400)은, OS 커널(410) 상의 드라이버(Driver)(420), 미들웨어(Middleware)(430), 어플리케이션층(Application)(450)을 포함할 수 있다.
한편, 스마트 시스템 플랫폼(405)은, OS 커널(410) 상의 라이브러리(Library)(435), 프레임워크(Framework)(440), 어플리케이션층(Application)(455)을 포함할 수 있다.
OS 커널(410)은, 운영체제(operating system)의 핵심으로써, 영상표시기기의 구동시, 하드웨어 드라이버 구동, 영상표시기기 내의 하드웨어와 프로세서의 보안, 시스템 자원의 효율적 관리, 메모리 관리, 하드웨어 추상화에 의한 하드웨어에 대한 인터페이스 제공, 멀티 프로세스, 및 멀티 프로세스에 따른 스케쥴 관리 등 중 적어도 하나를 수행할 수 있다. 한편, OS 커널(410)은, 파워 매니지먼트(power management) 등을 더 제공할 수도 있다.
OS 커널(410) 내의 하드웨어 드라이버는, 예를 들어, 디스플레이 드라이버, 와이파이 드라이버, 블루투스 드라이버, USB 드라이버, 오디오 드라이버, 파워 관리자(Power management), 바인더 드라이버(Binder Driver), 메모리 드라이버 등 중 적어도 하나를 포함할 수 있다.
또한, OS 커널(410) 내의 하드웨어 드라이버는, OS 커널(410) 내의 하드웨어 장치를 위한 드라이버로서, 캐릭터 장치 드라이버(character device driver)와, 블럭 장치 드라이버(block device), 및 네트워크 장치 드라이버(network device dirver)를 구비할 수 있다. 블럭 장치 드라이버는, 특정 블럭 단위로 데이터가 전송되므로 단위 크기 만큼을 보관할 버퍼가 필요할 수 있으며, 캐릭터 장치 드라이버는, 기본 데이터 단위 즉 캐릭터 단위로 전송하므로 버퍼가 필요없을 수도 있다.
이러한, OS 커널(410)은, 유닉스 기반(리눅스), 윈도우 기반 등 다양한 운영체제(OS) 기반의 커널로 구현될 수 있다. 또한, OS 커널(410)은, 공개(open)된 OS 커널로서, 다른 전자기기 등에서 사용가능한 범용일 수 있다.
드라이버(420)는, OS 커널(410)과 미들웨어(430) 사이에 위치하며, 미들웨어(430)와 더불어, 어플리케이션층(450)의 동작을 위해 디바이스를 구동한다. 예를 들어, 드라이버(420)는, 영상표시기기(100) 내의 마이컴(micom), 디스플레이 모듈, 그래픽 처리 유닛(GPU), 프레임 레이트 변환부(FRC), GPIO(General Purpose Input/Output Pin), HDMI, SDEC(System Decoder 또는 역다중화부), VDEC(Video Decoder), ADEC(Audio Decoder), PVR(Personal Video Recorder), 또는 I2C(Inter-Integrated Circuit) 등의 드라이버(driver)를 포함할 수 있다. 이러한 드라이버들은, OS 커널(410) 내의 하드웨어 드라이버와 연동하여 동작하게 된다.
또한, 드라이버(420)는, 원격제어장치(200), 특히 후술하는 공간 리모콘의 드라이버를 더 구비할 수 있다. 한편, 공간 리모콘의 드라이버는, 드라이버(420)외에, OS 커널(410) 또는 미들웨어(430) 내에 다양하게 구비될 수도 있다.
미들웨어(430)는, OS 커널(410)과 어플리케이션층(450) 사이에 위치하여, 다른 하드웨어 또는 소프트웨어 간에, 데이터를 주고 받을 수 있도록 중간에서 매개 역할을 할 수 있다. 이에 의해, 표준화된 인터페이스 제공이 가능하며, 다양한 환경 지원, 및 체계가 다른 업무와 상호 연동이 가능해진다.
레거시 시스템 플랫폼(400) 내의 미들웨어(430)의 예로, 데이터 방송 관련 미들웨어인 MHEG(Multimedia and Hypermedia information coding Experts Group)와 ACAP(Advanced Common Application Platform)의 미들웨어가 있을 수 있으며, 방송 정보 관련 미들웨어인 PSIP 또는 SI의 미들웨어, 그리고 주변기기 통신 관련 미들웨어인 DLNA 미들웨어 등이 있을 수 있다.
미들웨어(430) 상의 어플리케이션층(450), 즉 레거시 시스템 플랫폼(400) 내의 어플리케이션(450)층은, 예를 들어, 영상표시기기(100) 내의 다양한 메뉴 등에 관한 유저 인터페이스 어플리케이션(User Interface Application)을 포함할 수 있다. 이러한 미들웨어(430) 상의 어플리케이션층(450)은, 사용자의 선택에 의해 편집이 가능할 수 있으며, 네트워크를 통해 업데이트될 수 있다. 이러한 어플리케이션층(450)을 이용하여, 방송 영상 시청 중 원격제어장치의 입력에 따라, 다양한 유저 인터페이스 중 원하는 메뉴로의 진입이 가능하다.
또한, 레거시 시스템 플랫폼(400) 내의 어플리케이션층(450)은, TV 가이드 어플리케이션, 블루투스 어플리케이션, 예약(reservation) 어플리케이션, 디지털 영상 녹화(Digital Video Recoder;DVR) 어플리케이션, 핫키 어플리케이션 중 적어도 하나를 더 포함할 수 있다.
한편, 스마트 시스템 플랫폼(405) 내의 라이브러리(435)는, OS 커널(410)과 프레임워크(440) 사이에 위치하며, 프레임워크(440)의 기본을 형성할 수 있다. 예를 들어, 라이브러리(435)는, 보안 관련 라이브러리인 SSL(Secure Socket Layer), 웹 엔진 관련 라이브러리인 웹키트(WebKit), libc(c library), 비디오(video) 포맷과 오디오(audio) 포맷 등 미디어 관련 라이브러리인 미디어 프레임워크(Media Framework) 등을 포함할 수 있다. 이러한 라이브러리(435)는, C 또는 C++ 기반으로 작성될 수 있다. 또한, 프레임워크(440)를 통해 개발자에게 노출될 수 있다.
라이브러리(435)는, 코어 자바 라이브러리(core java library)와 가상 머신(Virtual Machine;VM)을 구비하는 런타임(runtime)(437)을 포함할 수 있다. 이러한 런타임(437)은, 라이브러리(435)와 함께 프레임워크(440)의 기본을 형성한다.
가상 머신(VM)은, 복수의 인스턴스, 즉 멀티태스킹을 수행할 수 있도록 하는 가상 머신일 수 있다. 한편, 어플리케이션층(455) 내의 각 어플리케이션에 따라 각 가상 머신(VM)이 할당되어 실행될 수 있으며, 이때, 복수의 인스턴스 사이의 스케쥴 조정 또는 인터커넥트(interconnect)를 위해, OS 커널(410) 내의 바인더(Binder) 드라이버(미도시)가 동작할 수 있다.
한편, 바인더 드라이버와 런타임(437)은, 자바 기반의 어플리케이션과, C 기반의 라이브러리를 연결해줄 수 있다.
한편, 라이브러리(435)와 런타임(437)은, 레가시 시스템의 미들웨어에 대응할 수 있다.
한편, 스마트 시스템 플랫폼(405) 내의 프레임워크(440)는, 어플리케이션층(455) 내의 어플리케이션의 기반이되는 프로그램을 포함한다. 프레임워크(440)는, 어떤 어플리케이션과도 호환 가능하며, 컴포넌트의 재사용, 이동 또는 교환이 가능할 수 있다. 프레임워크(440)는, 지원 프로그램, 다른 소프트웨어 구성 요소들을 엮어 주는 프로그램 등을 포함할 수 있다. 예를 들어, 리소스 매니저(resource manager), 어플리케이션의 액티비티와 관련한 액티비티 매니저(activity manager), 알림 매니저(notification manager), 어플리케이션 사이의 공유 정보를 요약하는 컨텐츠 제공자(content provider) 등을 포함할 수 있다. 이러한 프레임워크(440)는, 자바(JAVA) 기반으로 작성될 수 있다.
프레임워크(440) 상의 어플리케이션층(455)은, 영상표시기기(100) 내에서 구동되어 표시 가능한 다양한 프로그램을 포함한다. 예를 들어, 이메일(email), 단문 메시지 서비스(short message service;SMS), 달력(calendar), 지도(map), 브라우저(browser) 등 중 적어도 하나를 구비하는 코어 어플리케이션(Core Application)을 포함할 수 있다. 이러한 어플리케이션층(450)은, 자바(JAVA) 기반으로 작성될 수 있다.
또한, 어플리케이션층(455)은, 영상표시기기(100) 내에 저장되어 사용자에 의해 삭제 불가능한 어플리케이션(465)과, 외부장치 또는 네트워크를 통해 다운로드되어 저장되며, 사용자에 의해 설치 또는 삭제가 자유로운 어플리케이션(475)으로 구분될 수도 있다.
이러한 어플리케이션층(455) 내의 어플리케이션을 통해, 네트워크 접속에 의한, 인터넷 전화 서비스, 주문형 비디오(VOD) 서비스, 웹 앨범 서비스, 소셜 네트워킹 서비스(SNS), 위치기반 서비스(LBS), 지도 서비스, 웹 검색 서비스, 어플리케이션 검색 서비스 등이 수행될 수 있다. 또한, 게임, 일정관리 등 다양한 기능이 수행될 수 있다.
한편, 도 12를 참조하여 설명하면, 본 발명의 일실시예들에 따른 영상표시기기 중 임의의 어느 하나의플랫폼은, 통합형 플랫폼으로서, OS 커널(OS kernel)(510), 드라이버(520), 미들웨어(Middleware)(530), 프레임워크(Framework)(540), 및 어플리케이션층(Application)(550)을 포함할 수 있다.
도 12의 플랫폼은, 도 11과 비교하여, 도 11에 도시된 라이브러리(435)가 생략된 것과, 어플리케이션층(550)이 통합 레이어로 구비된다는 점에서 차이점이 있다. 그 외, 드라이버(520), 프레임워크(540)는, 도 11에 대응한다.
한편, 도 11에 도시된 라이브러리(435)가, 도 12에 도시된 미들웨어(530)에 병합된 것으로 설계하는 것이 가능하다. 즉, 미들웨어(530)는, 레가시 시스템 하의 미들웨어로, 데이터 방송 관련 미들웨어인 MHEG 또는 ACAP의 미들웨어, 방송 정보 관련 미들웨어인 PSIP 또는 SI의 미들웨어, 그리고 주변기기 통신 관련 미들웨어인 DLNA 미들웨어는, 물론, 영상표시
기기 시스템 하의 미들웨어로, 보안 관련 라이브러리인 SSL(Secure Socket Layer), 웹 엔진 관련 라이브러리인 웹키트(WebKit), libc, 미디어 관련 라이브러리인 미디어 프레임워크(Media Framework) 등을 포함할 수 있다. 한편, 상술한 런타임을 더 포함할 수도 있다.
어플리케이션층(550)은, 레가시 시스템 하의 어플리케이션으로, 메뉴 관련 어플리케이션, TV 가이드 어플리케이션, 예약 어플리케이션 등을 포함하고, 영상표시기기 시스템 하의 어플리케이션으로, 이메일, SMS, 달력, 지도, 브라우저 등을 포함할 수 있다.
한편, 어플리케이션층(550)은, 영상표시기기(100) 내에 저장되어 사용자에 의해 삭제 불가능한 어플리케이션(565)과, 외부장치 또는 네트워크를 통해 다운로드되어 저장되며, 사용자에 의해 설치 또는 삭제가 자유로운 어플리케이션(575)으로 구분될 수도 있다.
상술한 도 11 및 도 12의 플랫폼은 영상표시기기는 물론, 그 외 다양한 전자기기에서 범용으로 사용 가능하다. 한편, 도 11 및 도 12의 플랫폼은, 도 6에 도시된 저장부(140) 또는 제어부(170) 또는 별도의 프로세서(미도시)에, 저장 또는 탑재(loading)될 수도 있으며, 도 5에 도시된 SI&메타데이터 DB(711), UI 매니저(714), 서비스매니저(713)에 저장 또는 탑재될 수가 있다. 또한, 어플리케이션 실행을 위한 별도의 어플리케이션 프로세서(미도시)가 더 구비될 수도 있다.
도 13은 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나를 제어하는 원격제어장치의 제어 방법을 도시한 도면이다.
도 13의 (a)에 도시된 바와 같이, 디스플레이부(180)에 원격제어장치(200)에 대응하는 포인터(205)가 표시되는 것을 예시한다.
사용자는 원격제어장치(200)를 상하, 좌우(도 13의 (b)), 앞뒤(도 13의 (c))로 움직이거나 회전할 수 있다. 영상표시기기의 디스플레이부(180)에 표시된 포인터(205)는 원격제어장치
(200)의 움직임에 대응한다. 이러한 원격제어장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다.
도 13의 (b)는 사용자가 원격제어장치(200)를 왼쪽으로 이동하면, 영상표시기기의 디스플레이부(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다.
원격제어장치(200)의 센서를 통하여 감지된 원격제어장치(200)의 움직임에 관한 정보는 영상표시기기로 전송된다. 영상표시기기는 원격제어장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 영상표시기기는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.
도 13의 (c)는, 원격제어장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격제어장치(200)를 디스플레이부(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다. 이와 반대로, 사용자가 원격제어장치(200)를 디스플레이부(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다. 한편, 원격제어장치(200)가 디스플레이부(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격제어장치(200)가 디스플레이부(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.
한편, 원격제어장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격제어장치(200)가 디스플레이부(180)에서 멀어지거나 접근하도록 이동하는 경우, 상,하,좌,우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격제어장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격제어장치(200)의 상,하, 좌,우 이동에 따라 포인터(205)만 이동하게 된다.
한편, 포인터(205)의 이동속도나 이동방향은 원격제어장치(200)의 이동속도나 이동방향에 대응할 수 있다.
한편, 본 명세서에서의 포인터는, 원격제어장치(200)의 동작에 대응하여, 디스플레이부(180)에 표시되는 오브젝트를 의미한다. 따라서, 포인터(205)로 도면에 도시된 화살표 형상 외에 다양한 형상의 오브젝트가 가능하다. 예를 들어, 점, 커서, 프롬프트, 두꺼운 외곽선 등을 포함하는 개념일 수 있다. 그리고, 포인터(205)가 디스플레이부(180) 상의 가로축과 세로축 중 어느 한 지점(point)에 대응하여 표시되는 것은 물론, 선(line), 면(surface) 등 복수 지점에 대응하여 표시되는 것도 가능하다.
도 14는 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나를 제어하는 원격제어장치의 내부 블록도이다.
도면을 참조하여 설명하면, 원격제어장치(200)는 무선통신부(225), 사용자 입력부(235), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280)를 포함할 수 있다.
무선통신부(225)는 전술하여 설명한 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나와 신호를 송수신한다. 본 발명의 실시예들에 따른 영상표시기기들 중에서, 하나의 영상표시기기(100)를 일예로 설명하도록 하겠다.
본 실시예에서, 원격제어장치(200)는 RF 통신규격에 따라 영상표시기기(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비할 수 있다. 또한 원격제어장치(200)는 IR 통신규격에 따라 영상표시기기(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다.
본 실시예에서, 원격제어장치(200)는 영상표시기기(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 RF 모듈(221)을 통하여 전송한다.
또한, 원격제어장치(200)는 영상표시기기(100)가 전송한 신호를 RF 모듈(221)을 통하여 수신할 수 있다. 또한, 원격제어장치(200)는 필요에 따라 IR 모듈(223)을 통하여 영상표시기기(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(235)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(235)를 조작하여 원격제어장치(200)으로 영상표시기기(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(235)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 영상표시기기(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(235)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)으로 영상표시기기(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력부(235)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있다.
자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
일예로, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있다. 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 거리측정센서를 더 구비할 수 있으며, 이에 의해, 디스플레이부(180)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 영상표시기기(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 영상표시기기(100)의 제어 여부를 인지할 수 있다.
일예로, 출력부(250)는 사용자 입력부(235)가 조작되거나 무선 통신부(225)을 통하여 영상표시기기(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다.
전원공급부(260)는 원격제어장치(200)으로 전원을 공급한다. 전원공급부(260)는 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 어플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 영상표시기기(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 영상표시기기(100)는 소정 주파수 대역을 통하여 신호를 송수신한다. 원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 영상표시기기(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.
제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(235)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(225)를 통하여 영상표시기기(100)로 전송할 수 있다.
도 15는 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나가 제공하는 유저 인터페이스의 제1실시예를 도시한 도면이다.
도 16은 본 발명의 실시예들에 따른 영상표시기기 중 임의의 어느 하나가 제공하는 유저 인터페이스의 제2실시예를 도시한 도면이다.
도 17은 본 발명의 일 실시 예와 관련된 사용자 단말기의 블록 구성도(block diagram)이다.
상기 사용자 단말기는 이동 단말기로써, 상기 이동 단말기는 (1900)는 무선 통신부(1910), A/V(Audio/Video) 입력부(1920), 사용자 입력부(1930), 센싱부(1940), 출력부(1950), 메모리(1960), 인터페이스부(1970), 제어부(1980) 및 전원 공급부(1990) 등을 포함할 수 있다. 도 17에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(1910)는 이동 단말기(1900)와 무선 통신 시스템 사이 또는 이동 단말기(1900)와 이동 단말기(1900)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(1910)는 방송 수신 모듈(1911), 이동통신 모듈(1912), 무선 인터넷 모듈(1913), 근거리 통신 모듈(1914) 및 위치정보 모듈(1915) 등을 포함할 수 있다.
방송 수신 모듈(1911)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.
이동통신 모듈(1912)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(1913)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(1900)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈(1914)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), 와이파이(Wi-Fi), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
상기 무선 인터넷 모듈(1913) 또는 상기 근거리 통신 모듈(1914)은 소정의 영상표시기기와 데이터를 송신 또는 수신하여 사용자 단말기를 소정의 게임 어플리케이션의 사용자 컨트롤러로 사용되도록 할 수 있다.
예를 들어, 사용자가 영상표시기기에서 네트워크 연결된 사용자 단말기를 검색하고, 상기 검색 결과 중 사용자 컨트롤러로 사용할 사용자 단말기가 선택되면, 상기 영상표시기기는 선택된 사용자 단말기의 무선 통신부로 소정의 제어 신호를 전송하여, 상기 선택된 단말기를 사용자 컨트롤러로 사용하기 위한 동작을 수행할 수 있다. 또한, 사용자가 사용자 단말기를 통하여 소정의 신호를 입력한 경우, 상기 사용자 단말기는 무선 통신부를 통하여 영상표시기기로 상기 소정의 신호를 전송하여 게임 어플리케이션의 게임 진행에 반영할 수 있다.
위치정보 모듈(1915)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.
도 17를 참조하면, A/V(Audio/Video) 입력부(1920)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1921)와 마이크(1922) 등이 포함될 수 있다. 카메라(1921)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(1951)에 표시될 수 있다.
마이크(1922)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 마이크(1922)에는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(1930)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(1930)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
센싱부(1940)는 이동 단말기(1900)의 개폐 상태, 이동 단말기(1900)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(1900)의 현 상태를 감지하여 이동 단말기(1900)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(1900)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(1990)의 전원 공급 여부, 인터페이스부(1970)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(1940)는 근접 센서(1941)를 포함할 수 있다.
또한, 센싱부(1940)는 실시 예에 따라 사용자 단말기가 영상표시기기에서 실행중인 소정의 게임 어플리케이션의 사용자 컨트롤러로 사용되는 경우, 소정의 게임 진행 신호로 이용되기 위한 신호를 발생시킬 수 있다.
출력부(1950)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(1951), 음향 출력 모듈(1952), 알람부(1953), 및 햅틱 모듈(1954) 등이 포함될 수 있다.
디스플레이부(1951)는 이동 단말기(1900)에서 처리되는 정보를 표시(출력) 한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(1900)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(1951)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(1951)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(1951)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.
또한, 디스플레이부(1951)는 사용자 단말기(1900)가 소정의 영상표시기기에서 실행 중인 게임 어플리케이션의 사용자 컨트롤러로 사용되는 경우, 소정의 게임 진행 화면을 출력할 수 있다.
이동 단말기(1900)의 구현 형태에 따라 디스플레이부(1951)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(1900)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(1951)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(1951)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(1951)의 특정 부위에 가해진 압력 또는 디스플레이부(1951)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(1980)로 전송한다. 이로써, 제어부(1980)는 디스플레이부(1951)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
실시 예에 따라, 사용자 단말기가 영상표시기기에서 실행되는 게임 어플리케이션의 사용자 컨트롤러로 사용되는 경우, 터치 센서에 대한 터치 입력을 상기 게임의 진행에 반영할 수 있다.
도 17를 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(1941)가 배치될 수 있다. 상기 근접 센서(1941)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서(1941)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.
상기 근접 센서(1941)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향 출력 모듈(1952)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(1910)로부터 수신되거나 메모리(1960)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(1952)은 이동 단말기(1900)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(1952)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(1953)는 이동 단말기(1900)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(1953)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(1951)나 음성 출력 모듈(1952)을 통해서도 출력될 수 있어서, 그들(1951, 1952)은 알람부(1953)의 일부로 분류될 수도 있다.
햅틱 모듈(haptic module)( 1954)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(1954)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅틱 모듈(1954)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(1954)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(1954)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(1954)은 이동 단말기(1900)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
메모리(1960)는 제어부(1980)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(1960)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(1960)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(1900)는 인터넷(internet)상에서 상기 메모리(1960)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(1970)는 이동 단말기(1900)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(1970)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(1900) 내부의 각 구성 요소에 전달하거나, 이동 단말기(1900) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(1970)에 포함될 수 있다.
식별 모듈은 이동 단말기(1900)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(1900)와 연결될 수 있다.
제어부(controller, 1980)는 통상적으로 이동 단말기(1900)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(1980)는 멀티 미디어 재생을 위한 멀티미디어 모듈(1981)을 구비할 수도 있다. 멀티미디어 모듈(1981)은 제어부(1980) 내에 구현될 수도 있고, 제어부(1980)와 별도로 구현될 수도 있다.
상기 제어부(1980)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
또한, 상기 제어부(1980)는, 사용자 단말기가 영상표시기기에서 실행 중인 게임 어플리케이션의 사용자 컨트롤러로 사용되는 경우, 디스플레이부(1951)에 소정의 게임 실행 정보를 출력하고, 상기 사용자 단말기의 각 모듈 또는 센서에서 전달되는 신호를 상기 영상표시기기로 전송하도록 제어할 수 있다.
즉, 실시 예에 따라, 제어부(1980)는, 상기 영상표시기기로부터 사용자 컨트롤러로 선택되었음을 알리는 소정의 신호가 수신되면, 사용자 단말기를 사용자 컨트롤러 모드로 설정하여 소정의 게임 실행 정보를 무선 통신부(1910)를 통해 수신받아 디스플레이부(1951)에 출력하고, 터치 센서에서 감지되는 터치 신호, 위치 정보 모듈에서 판단되는 위치 변경 신호등을 무선 인터넷 모듈(1913) 또는 근거리 통신 모듈(1914)을 통하여 게임 어플리케이션을 실행 중인 영상표시기기로 전송하도록 제어할 수 있다.
전원 공급부(1990)는 제어부(1980)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
이하, 도 18 내지 도 27을 참조하여 본 발명에 대해 설명하겠다.
먼저, 도 18 및 도 19를 참조하여, 본 발명에 따른 영상표시기기와 이동단말기 간의 연동에 대해 설명하겠다. 도 18은 본 발명에 따라 영상표시기기와 이동단말기 간에 연동되는 순서도이고, 도 19는 본 발명에 따라 연동되는 영상표시기기와 이동단말기를 도시한다.
스마트폰, 태블릿PC 등과 같은 상기 이동단말기(1900)에서 멀티미디어 어플리케이션 (이하, 앱이라고 함)이 실행될 수 있다[S10]. 상기 멀티미디어 앱은, 오디오 컨텐트(예를 들면, 음악 등), 비디오 컨텐트(예를 들면, 영화 등)와 같은 멀티미디어 컨텐트를 실행하기 위한 앱으로 이해될 수 있다. 상기 멀티미디어 컨텐트는 상기 이동단말기 내에 저장되어 있는 것일 수도 있고, 외부 서버로부터 스트리밍 서비스를 통해 수신하는 것일 수도 있다.
이하에서는 설명의 간편함을 위해 상기 멀티미디어 앱이 음악 앱인 것으로 가정하고 설명하겠다.
상기 이동단말기(1900)에서 상기 음악 앱이 실행됨에 따라, 상기 이동단말기(1900)의 디스플레이부(1951)에는 상기 음악 앱의 실행 화면이 디스플레이될 수 있다. 그리고, 상기 이동단말기(1900)는 상기 음악 앱의 재생 리스트에 따른 제 1 컨텐트 (즉, 제 1 음악)을 출력할 수 있다[S20]. 여기서 재생 리스트라 함은 상기 음악 앱에서 컨텐트들이 소정 순서대로 연속적으로 재생될 수 있도록 나열된 리스트를 의미한다. 상기 재생 리스트에는 하나의 컨텐트만이 있을 수도 있고 복수의 컨텐트들이 있을 수도 있다.
제 1 컨텐트가 출력되는 중에, 상기 이동단말기(1900)에서 사용자 음성 명령을 입력 받기 위한 음성 인식 기능이 활성화될 수 있다. 상기 음성 인식 기능은 상기 음악 앱이 실행되는 중에 또는 그 전에 상기 이동단말기(1900)에 사전 설정된 사용자 명령 (예를 들면, 메뉴 아이콘 조작 또는 키버튼 조작)이 입력됨에 따라 활성화될 수 있다. 또는, 상기 음성 인식 기능은 상기 이동단말기(1900)에 전원이 켜지면 디폴트로 활성화되어 있을 수 있다.
상기 음성 인식 기능이 활성화된 다음, 상기 이동단말기(1900)는, 도 19에 도시된 바와 같이, 상기 마이크(1922)를 통해 제 1 음성명령을 수신할 수 있다[S30]. 제 1 음성명령은 예를 들면 "myTV에서 음악 틀어줘"와 같은 것일 수 있다.
그러면, 상기 이동단말기(1900)의 상기 제어부(1980)는 제 1 음성명령을 분석하여, 사용자가 제 1 음성명령의 의도, 즉 사용자는 "myTV"라는 기기명을 갖는 영상표시기기(100)에서 제 1 음악을 출력하기를 원한다는 것을 파악할 수 있다[S40]. 제 1 음성명령의 분석에는 AI(Aritificial Intelligence)가 활용될 수 있다.
상기 영상표시기기(100)에서 제 1 음악을 출력하기 위해 사용자가 음성 명령을 반드시 입력해야 하는 것은 아니다. 예를 들어, 상기 이동단말기(1900)에서 음성이 아닌 사전 설정된 사용자 명령 (예를 들면, 메뉴 아이콘 조작 또는 키버튼 조작)을 통해서도 상기 명령을 입력할 수 있다.
그러면, 상기 이동단말기(1900)의 상기 제어부(1980)는 상기 기기명을 갖는 영상표시기기(100)를 검색하기 위한 인쿼리(inquiry)를 상기 무선통신부(1910)을 통해 브로드캐스트할 수 있다[S50].
그러면, 상기 영상표시기기(100)의 상기 무선통신부(미도시)를 수신하고, 상기 인쿼리에 대한 응답을 상기 이동단말기(1900)로 전송할 수 있다[S60]. 상기 인쿼리를 수신하기 전에 상기 영상표시기기(100)는 전원이 미리 켜져 있거나, 주전원은 꺼지되 상기 인쿼리를 수신하기 위한 최소 구성요소에만 전원이 공급되어 있을 수 있다.
상기 인쿼리에 대한 응답을 수신함으로써, 상기 이동단말기(1900)는 상기 기기명을 갖는 영상표시기기(100) 를 검색할 수 있다.
이에, 상기 이동단말기(1900)의 상기 제어부(1980)는 상기 영상표시기기(100)으로 제 1 통신 연결 요청을 송신할 수 있다[S70].
이로써, 상기 이동단말기(1900)과 상기 영상표시기기(100) 간에 제 1 통신 연결이 확립될 수 있다[S80].
그러면, 상기 이동단말기(1900)는 현재 출력 중이던 제 1 컨텐트의 데이터를 제 1 통신을 통해 상기 영상표시기기(100)로 전송할 수 있다[S90].
그러면, 상기 영상표시기기(100)는 상기 제 1 컨텐트의 데이터를 수신하여 제 1 컨텐트를 출력할 수 있다[S100]. 제 1 컨텐트의 데이터가 상기 이동단말기에서 디코딩된 데이터라면 상기 영상표시기기(100)는 별도의 앱 실행할 필요 없이 제 1 컨텐트 데이터를 출력할 수 있다. 그러나, 제 1 컨텐트의 데이터가 상기 이동단말기(1900)에서 디코딩되지 않은 데이터라면 상기 영상표시기기(100)는 상기 데이터를 디코딩하기 위한 멀티미디어 앱을 실행하여 상기 데이터를 디코딩한 다음에 제 1 컨텐트를 출력할 수 있다.
또한, 상기 영상표시기기(100)의 상기 제어부(170)는, 도 19에 도시된 바와 같이, 제 1 컨텐트의 정보(예를 들면, 음악 제목 등)을 출력하고/하거나 제 2 컨텐트의 재생 제어 아이콘(예를 들면, "정지" 아이콘, "재생" 아이콘, "이전 곡" 아이콘, "다음 곡" 아이콘 등)을 디스플레이하기 위한 유저 인터페이스를 상기 디스플레이부(180)을 통해 출력할 수 있다.
제 1 통신은, 앞서 설명한 근거리 무선 통신 중 하나일 수 있다. 이하에서는 제 1 통신이 블루투스(이에 한정되는 것은 아님)인 것으로 가정하고 설명하겠다.
블루투스는 저전력 (Low Energy) 블루투스 모드와 클래식(Classic) 블루투스 모드를 포함한다. 저전력 블루투스 모드는 전송속도는 늦지만 전력소모가 작다는 특징이 있고, 클래식 블루투스 모드는 저전력 블루투스 모드 대비 전송속도는 빠르지만 전력소모가 크다는 특징이 있다.
제 1 통신은 클래식 블루투스(이에 한정되는 것은 아님)인 것으로 가정하겠다.
즉, 본 발명에 의하면, 상기 영상표시기기(100)가 상기 이동단말기(1900)의 블루투스 컨텐트 출력 장치(예를 들면, 블루투스 스피커) 역할을 할 수 있다.
제 1 컨텐트가 상기 영상표시기기(100)를 통해 출력되는 중에, 사용자는 상기 영상표시기기(100)를 통해서도 상기 이동단말기(1900)에서 실행 중인 멀티미디어 앱을 제어할 수도 있다. 이에 대해 도 20 내지 도 22를 더욱 참조하여 설명하겠다. 도 20는 본 발명에 따라 영상표시기기와 이동단말기 간에 연동되는 순서도이고, 도 21 및 도 22는 본 발명에 따라 연동되는 영상표시기기와 이동단말기를 도시한다.
앞서 설명한 바와 같이, 상기 영상표시기기(100)가 상기 이동단말기(1900)으로부터 제 1 통신을 통해 전송 받은 제 1 컨텐트를 출력할 수 있다[S100].
상기 영상표시기기(100)에서 사용자 음성 명령을 입력 받기 위한 음성 인식 기능이 활성화될 수 있다. 상기 음성 인식 기능은 제 1 컨텐트가 출력되는 중에 또는 그 전에 상기 영상표시기기(100)에 사전 설정된 사용자 명령 (예를 들면, 상기 원격제어장치(200)에서의 키버튼 조작)이 입력됨에 따라 활성화될 수 있다. 또는, 상기 음성 인식 기능은 상기 영상표시기기(100)에 전원이 켜지면 디폴트로 활성화되어 있을 수 있다.
상기 음성 인식 기능이 활성화된 다음, 상기 영상표시기기(100)는, 도 22에 도시된 바와 같이, 제 2 음성명령을 수신할 수 있다[S110]. 제 1 음성명령은 예를 들면 "다른 음악 틀어줘"와 같은 것일 수 있다. 제 1 음성명령은 상기 영상표시기기(100)에 구비된 마이크(미도시)로 입력되거나, 상기 원격제어장치(200)에 구비된 마이크(미도시)를 통해 입력되어 상기 영상표시기기(100)로 전달될 수 있다.
그러면, 상기 영상표시기기기(100)의 상기 제어부(170)는 제 2 음성명령을 분석하여, 사용자가 제 2 음성명령의 의도, 즉 사용자는 상기 영상표시기기(100)에서 다른 컨텐트 (즉, 다른 음악)를 출력하기를 원한다는 것을 파악할 수 있다[S120]. 제 2 음성명령의 분석에는 AI(Aritificial Intelligence)가 활용될 수 있다.
상기 영상표시기기(100)에서 다른 컨텐트를 출력하기 위해 사용자가 반드시 음성 명령을 입력해야 하는 것은 아니다. 예를 들어, 상기 영상표시기기(100)에서 음성이 아닌 사전 설정된 사용자 입력 (예를 들면, 상기 원격제어장치(200)의 키버튼 조작)을 통해서도 상기 명령을 입력할 수 있다.
그러면, 상기 영상표시기기(100)의 상기 제어부(170)는 상기 이동단말기(1900)에게 상기 재생 리스트를 요청할 수 있다[S130].
상기 재생 리스트를 요청하는 신호는 제 1 통신을 통해 상기 영상표시기기(100)에서 상기 이동단말기(1900)로 전송될 수 있다. 일 예로, 상기 재생 리스트를 요청하는 신호는 클래식 블루투스 모드의 AVRCP (Audio/Video Remote Control Profile)에 따라서 블루투스 통신(이에 한정되지 않음)을 통해 전송될 수 있다.
블루투스 통신에서 "프로파일(profile)"이란, 블루투스 어플리케이션을 구현할 때 특정 어플리케이션마다 사용해야 하는 블루투스 프로토콜의 종류 및 그 구조를 규정한 것으로 이해될 수 있다. 상기 AVRCP는 블루투스 통신이 행해지는 두 디바이스 간에 오디오 및 비디오 기능을 제어하기 위해 규정된 프로파일이다.
상기 요청을 수신한 상기 이동단말기(1900)는 상기 재생 리스트를 상기 영상표시기기(100)로 전송할 수 있다[S140]. 상기 재생 리스트는 앞서 설명한 제 1 통신(이에 한정되지 않음)을 통해 전송될 수 있다.
상기 영상표시기기(100)의 상기 제어부(170)는, 도 22에 도시된 바와 같이, 상기 전송된 재생 리스트(500)를 디스플레이하도록 제어할 수 있다[S150].
사용자는 상기 재생 리스트(500)를 보면서 원하는 컨텐트를 선택함으로써, 재생 리스트의 변경(예를 들면, 재생 순서 변경)을 위한 명령을 상기 영상표시기기(100)에 입력할 수 있다. 즉, 영상표시기기(100)는 사용자로부터 재생 리스트 변경 명령을 수신할 수 있다[S160].
상기 재생 리스트 변경 명령은 앞서 설명한 음성 인식 기능을 통해 입력될 수도 있고, 또는 상기 원격제어장치(200)에 구비된 키버튼 조작을 통해 입력할 수 있다.
그리고, 상기 영상표시기기(100)는 상기 재생 리스트 변경 명령을 상기 이동단말기(1900)로 전송할 수 있다[S170]. 상기 영상표시기기(100) 및 상기 이동단말기(1900) 간의 상기 재생 리스트 변경 명령은 제 1 통신, 예를 들면, 클래식 블루투스 모드의 AVRCP에 따라서 전송될 수 있다.
그러면, 상기 이동단말기(1900)는 상기 재생 리스트 변경 명령에 따라 상기 재생 리스트를 변경하고, 상기 변경된 재생 리스트에 따른 제 2 컨텐트(예를 들면 제 2 음악)의 데이터를 상기 영상표시기기(100)로 전송할 수 있다[S180].
제 2 컨텐트 데이터는 제 1 통신, 예를 들면, 클래식 블루투스 모드의 A2DP(Advanced Audio Distribution Profile)에 따라서 상기 이동단말기(1900)에서 상기 영상표시기기(100)로 전송될 수 있다. 상기 A2DP는 한 디바이스에서 다른 디바이스로의 멀티미디어 오디오 (특히 고음질 오디오) 전송에 관한 프로파일이다.
그러면, 상기 영상표시기기(100)는 상기 제 2 컨텐트의 데이터를 수신하여 제 1 컨텐트 대신에 제 2 컨텐트를 출력할 수 있다[S190]. 컨텐트 출력 및 이를 위한 유저 인터페이스에 대해서는 앞서 설명한 바와 같으므로 자세한 설명은 생략하도록 하겠다.
이상에서는 제 2 음성명령에 따라 상기 이동단말기(1900)에서 상기 영상표시기기(100)로 전달되는 재생 리스트를 이용하여 다른 컨텐트를 출력하는 것에 대해 설명하였다. 그러나, 본 발명은 반드시 재생 리스트 한정되는 것은 아니다. 제 2 음성명령에 따라 재생 리스트가 아닌 컨텐트 리스트가 상기 이동단말기(1900)에서 상기 영상표시기기(100)로 전송될 수 있다. 상기 컨텐트 리스트는 상기 이동단말기(1900)가 재생할 수 있는 컨텐트들이 재생 순서와는 상관 없이 파일명 또는 파일 생성 일자 순에 따라 나열된 리스트를 의미하는 것으로서, 컨텐트 폴더 자체를 의미할 수 있다.
상기 영상표시기기(100)는 상기 재생 리스트 대신에 상기 컨텐트 리스트를 디스플레이할 수 있고, 사용자에 의해 상기 컨텐트 리스트에서 소망 컨텐트가 선택되면, 상기 재생 리스트 변경 명령 대신에 상기 선택된 컨텐트 요청 명령을 상기 이동단말기(1900)로 전송하고, 상기 선택된 컨텐트의 데이터를 상기 이동단말기(1900)를 수신하여 출력할 수도 있다.
이상에서는 상기 영상표시기기(100)에서 디스플레이되는 상기 재생 리스트 또는 상기 컨텐트 리스트를 통해 사용자가 상기 이동단말기(1900)를 제어하여 사용자가 원하는 컨텐트가 상기 영상표시기기(100)에서 출력하는 것에 대해 설명하였다.
이하에서는, 상기 영상표시기기(100)에서 미러링되어 디스플레이되는 상기 이동단말기(1900)의 스크린 영상을 통해 사용자가 상기 이동단말기(1900)를 제어하여 사용자가 원하는 컨텐트가 상기 영상표시기기(100)에서 출력할 수도 있다. 이에 대해 도 23 내지 도 25를 참조하여 설명하겠다. 도 23은 본 발명에 따라 영상표시기기와 이동단말기 간에 연동되는 순서도이고, 도 24 및 도 25는 본 발명에 따라 연동되는 영상표시기기와 이동단말기를 도시한다.
앞서 설명한 바와 같이, 상기 영상표시기기(100)가 상기 이동단말기(1900)으로부터 제 1 통신을 통해 전송 받은 제 1 컨텐트를 출력할 수 있다[S100].
상기 영상표시기기(100)에서 사용자 음성 명령을 입력 받기 위한 음성 인식 기능이 활성화될 수 있다. 이에 대해서는 앞서 설명한 바와 같으므로, 자세한 설명은 생략하도록 하겠다.
상기 음성 인식 기능이 활성화된 다음, 상기 영상표시기기(100)는, 도 24에 도시된 바와 같이, 제 3 음성명령을 수신할 수 있다[S200]. 제 3 음성명령은 예를 들면 "앱에서 음악 찾아줘"와 같은 것일 수 있다. 제 3 음성명령은 상기 영상표시기기(100)에 구비된 마이크(미도시)로 입력되거나 상기 원격제어장치(200)에 구비된 마이크(미도시)를 통해 입력되어 상기 영상표시기기(100)로 전달될 수 있다.
그러면, 상기 영상표시기기기(100)의 상기 제어부(170)는 제 3 음성명령을 분석하여, 사용자가 제 3 음성명령의 의도, 즉 사용자는 상기 이동단말기에서 실행 중인 상기 멀티미디어 앱의 실행 화면을 통해 다른 컨텐트를 검색하기를 원한다는 것을 파악할 수 있다 [S210]. 제 3 음성명령의 분석에는 AI(Aritificial Intelligence)가 활용될 수 있다.
상기 영상표시기기(100)에서 상기 멀티미디어 앱의 실행 화면을 통해 다른 컨텐트를 검색하기 위해 사용자가 반드시 음성 명령을 입력해야 하는 것은 아니다. 예를 들어, 상기 영상표시기기(100)에서 음성이 아닌 사전 설정된 사용자 입력 (예를 들면, 상기 원격제어장치(200)의 키버튼 조작)을 통해서도 상기 명령을 입력할 수 있다.
그러면, 상기 영상표시기기(100)의 상기 제어부(170)는 상기 이동단말기(1900)에게 상기 멀티미디어 앱의 실행 화면 전송을 위한 제 2 통신 연결 요청을 제 1 통신(예를 들면, 상기 저전력 블루투스 모드)을 통해 전송할 수 있다[S220]. 제 2 통신 연결 요청은 상기 멀티미디어 앱의 실행 화면 전송 요청도 포함할 수 있다.
이에 상기 영상표시기기(100) 및 상기 이동단말기(1900) 간에 제 2 통신 연결이 확립될 수 있다[S230]. 제 2 통신이 연결되어라도 제 1 통신은 여전히 유지되어 상기 영상표시기기(100)는 제 1 컨텐트 데이터를 제 1 통신을 통해 전송 받아서 제 1 컨텐트를 계속 출력할 수 있다.
그리고, 상기 이동단말기(1900)는 상기 멀티미디어 앱의 실행 화면의 영상 데이터를 제 2 통신을 통해 상기 영상표시기기(100)로 전송할 수 있다[S240]. 상기 영상 데이터는 상기 이동단말기(1900)의 미러링 화면일 수 있다.
만약 제 1 통신으로 상기 멀티미디어 앱의 실행 화면 영상 데이터가 전송될 수 있다면 제 2 통신 연결을 위한 S220 및 S230 단계는 생략 될 수 있고, 그 이후 상기 영상표시기기(100) 및 상기 이동단말기(1900) 간의 통신도 제 1 통신을 통해 행해져도 무방하다.
제 2 통신은, 앞서 설명한 근거리 무선 통신 중 하나일 수 있는데, 이하에서는 제 2 통신이 와이파이 통신(이에 한정되는 것은 아님)인 것으로 가정하고 설명하겠다.
제 2 통신이 와이파이 통신인 경우, 상기 S220단계에서 상기 영상표시기기(100)가 제 2 통신 연결 요청을 할 때 제 2 통신 연결을 위한 와이파이 맥(MAC) 어드레스도 함께 상기 이동단말기로 전달할 수 있다.
상기 이동단말기(1900)의 미러링 화면은 미라캐스트(Miracast) 규격에 따라 상기 이동단말기(1900)에서 상기 영상표시기기(100)로 전송될 수 있다. 즉, 앞서 설명한 제 2 통신 연결 요청은 상기 영상표시기기(100)가 상기 이동단말기(1900)에게 미라캐스트를 트리거링할 것을 요청하는 것으로 이해될 수 있다.
상기 영상표시기기(100)는, 도 25에 도시된 바와 같이, 상기 멀티미디어 앱의 실행 화면(600)을 상기 유저 인터페이스 상에 오버랩하여 디스플레이할 수 있다[S250]. 비록 도시되지는 않았지만, 상기 영상표시기기(100)는 상기 유저 인터페이스를 디스플레이하지 않고 상기 멀티미디어 앱의 실행 화면(600)만을 출력할 수도 있다.
사용자는 상기 실행 화면(600)를 보면서 원하는 컨텐트(이하, 제 3 컨텐트라고 함)를 선택하는 명령을 상기 영상표시기기(100)에 입력할 수 있다. 즉, 영상표시기기(100)는 사용자로부터 제 3 컨텐트 선택 명령을 수신할 수 있다[S260]. 상기 제 3 컨텐트 선택 명령은 상기 실행 화면(600) 상에서 제 3 컨텐트가 표시되는 좌표 정보(이에 한정되지 않음)일 수 있다.
상기 제 3 컨텐트 선택 명령은 앞서 설명한 음성 인식 기능을 통해 입력될 수도 있고, 또는 상기 원격제어장치(200)에 구비된 키버튼 조작을 통해 입력할 수 있다.
그리고, 상기 영상표시기기(100)는 상기 제 3 컨텐트 선택 명령을 제 2 통신을 통해, 예를 들면 미라캐스트 규격의 UIBC (User Input Back Channel)을 통해 상기 이동단말기(1900)로 전송될 수 있다[S270].
상기 이동단말기(1900)는, 상기 전송된 제 3 컨텐트 선택 명령에 반응하여, 제 3 컨텐트를 실행하고, 제 3 컨텐트의 데이터를 상기 영상표시기기(100)로 전송할 수 있다[S290]. 제 3 컨텐트가 예컨대 음악과 같은 오디오 컨텐트인 경우에는 제 1 통신을 통해 전송될 수 있다.
그러면, 상기 영상표시기기(100)는 상기 제 3 컨텐트의 데이터를 수신하여 제 1 컨텐트 대신에 제 3 컨텐트를 출력할 수 있다[S300]. 컨텐트 출력 및 이를 위한 유저 인터페이스에 대해서는 앞서 설명한 바와 같으므로 자세한 설명은 생략하도록 하겠다.
이하에서는, 도 26 및 도 27을 참조하여 상기 영상표시기기(100)에서 출력 중인 컨텐트를 분석하여 인터넷 검색하는 것에 대해 설명 하겠다. 도 26 및 도 27은 본 발명에 따른 영상표시기기를 도시한다.
앞서 설명한 바와 같이, 상기 영상표시기기(100)가 상기 이동단말기(1900)으로부터 제 1 통신을 통해 전송 받은 제 1 컨텐트를 출력할 수 있다.
상기 영상표시기기(100)에서 사용자 음성 명령을 입력 받기 위한 음성 인식 기능이 활성화될 수 있다. 이에 대해서는 앞서 설명한 바와 같으므로, 자세한 설명은 생략하도록 하겠다.
상기 음성 인식 기능이 활성화된 다음, 상기 영상표시기기(100)는, 도 26에 도시된 바와 같이, 제 4 음성명령을 수신할 수 있다. 제 4 음성명령은 예를 들면 "유튜브에서 검색해줘"와 같은 것일 수 있다. 제 4 음성명령은 상기 영상표시기기(100)에 구비된 마이크(미도시)로 입력되거나 상기 원격제어장치(200)에 구비된 마이크(미도시)를 통해 입력되어 상기 영상표시기기(100)로 전달될 수 있다.
그러면, 상기 영상표시기기(100)의 상기 제어부(170)는 제 4 음성명령을 분석하여, 사용자가 제 4 음성명령의 의도, 즉 사용자는 현재 출력 중인 제 1 컨텐트에 대해 유튜브와 같은 검색 엔진에서 검색하기를 원한다는 것을 파악할 수 있다. 제 4 음성명령의 분석에는 AI(Artificial Intelligence)가 활용될 수 있다.
상기 영상표시기기(100)에서 제 1 컨텐트에 애해 검색엔징에서 검색하기 위해 사용자가 반드시 음성 명령을 입력해야 하는 것은 아니다. 예를 들어, 상기 영상표시기기(100)에서 음성이 아닌 사전 설정된 사용자 입력 (예를 들면, 상기 원격제어장치(200)의 키버튼 조작)을 통해서도 상기 명령을 입력할 수 있다.
그러면, 상기 영상표시기기(100)의 상기 제어부(170)는 검색엔진 앱 (예를 들면, 유튜브 앱)을 실행하고, 제 1 컨텐트의 음원, 메타데이터(예를 들면, 컨텐트 타이틀, 생성자 등) 중 적어도 하나를 이용하여 상기 검색 엔진 앱에서 검색을 하고, 그 검색 결과 리스트(700)를 도 27에 도시한 바와 같이, 상기 유저 인터페이스 상에 오버랩하여 디스플레이할 수 있다. 비록 도시되지는 않았지만, 상기 영상표시기기(100)는 상기 유저 인터페이스를 디스플레이하지 않고 상기 검색 결과 리스트(700)만을 출력할 수도 있다.
상기 검색 결과 리스트 중에서 한 항목이 선택되면, 상기 영상표시기기(100)는 상기 실행된 검색 엔진 앱을 통해 상기 선택된 항목을 실행하여 출력할 수 있다. 이 때, 제 1 컨텐트의 출력은 중지될 수도 있고 또는 멀티태스킹으로서 함께 출력될 수도 있다.
이상에서는 상기 영상표시기기(100)와 상기 이동단말기(1900)가 서로 제 1 통신으로 연결되어 있는 경우에, 상기 영상표시기기(100)가 상기 이동단말기(1900)로부터 제 1 통신을 통해 수신하는 제 1 컨텐트의 음원, 메타 데이터 중 적어도 하나를 이용하여 검색하는 것에 대해 설명하였다. 그러나, 상기 검색을 위해 반드시 상기 영상표시기기(100)와 상기 이동단말기(1900)가 서로 제 1 통신으로 연결되어 있어야 하는 것은 아니다.
예를 들면, 상기 영상표시기기(100)는 상기 제어부(170)는 제 4 음성명령이 입력되면, 상기 영상표시기기(100)에 구비된 마이크(미도시) 또는 상기 원격제어장치(200)에 구비된 마이크(미도시)가 계속 활성화되도록 할 수 있다.
그리고, 상기 영상표시기기(100)는 상기 이동단말기(100)의 스피커(1952)를 통해 출력되는 사운드를 상기 마이크롤 통해 입력 받을 수 있다.
그 다음, 상기 영상표시기기(100)의 상기 제어부(170)는 상기 입력 받은 사운드의 파형 신호를 분석하여 상기 이동단말기(100)에서 출력되고 있는 제 1 컨텐트에 대한 정보(예를 들면, 제 1 컨텐트의 메타데이터)를 파악할 수 있다. 또는 상기 영상표시기기(100)의 상기 제어부(170)는 인터넷 네트워크를 통해 상기 입력 받은 사운드의 파형 신호를 외부 서버 (예를 들면, 네이버 음악 검색 서비스 서버) (미도시)로 전송하고, 상기 외부 서버로부터 제 1 컨텐트에 대한 정보(예를 들면, 제 1 컨텐트의 메타데이터)를 수신할 수 있다.
그 다음, 상기 영상표시기기(100)는 제 1 컨텐트에 대한 정보를 이용하여 상기 검색 엔진 앱에서 검색을 하고, 그 검색 결과 리스트(700)를 도 27에 도시한 바와 같이, 상기 유저 인터페이스 상에 오버랩하여 디스플레이할 수 있다. 비록 도시되지는 않았지만, 상기 영상표시기기(100)는 상기 유저 인터페이스를 디스플레이하지 않고 상기 검색 결과 리스트(700)만을 출력할 수도 있다.
상기 검색 결과 리스트 중에서 한 항목이 선택되면, 상기 영상표시기기(100)는 상기 실행된 검색 엔진 앱을 통해 상기 선택된 항목을 실행하여 출력할 수 있다. 이 때, 제 1 컨텐트의 출력은 중지될 수도 있고 또는 멀티태스킹으로서 함께 출력될 수도 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 영상표시기기 또는 단말기의 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
Claims (20)
- 디스플레이부;오디오 출력부;이동단말기 및 원격제어장치와 통신을 하기 위한 무선통신부;제 1 컨텐트를 재생하는 상기 이동단말기로부터 상기 무선통신부를 통해 수신한 제 1 통신 연결 요청에 반응하여 상기 이동단말기와 제 1 통신 연결을 확립하고,제 1 통신을 통해 상기 이동단말기로부터 제 1 컨텐트를 수신하여 상기 오디오 출력부를 통해 출력하고,상기 이동단말기의 제 1 컨텐트의 재생을 제어하는 유저 인터페이스를 상기 디스플레이부에 디스플레이하도록 제어하는 제어부를 포함하는 영상표시기기.
- 제 1 항에 있어서, 상기 제어부는상기 이동단말기로부터 제 1 통신을 통해 컨텐트 재생 리스트를 수신하여 상기 유저 인터페이스 상에 오버랩되도록 디스플레이하도록 제어하는 것을 특징으로 하는 영상표시기기.
- 제 2 항에 있어서, 상기 제어부는,상기 재생 리스트의 재생 순서 변경을 위한 사용자 명령에 반응하여 상기 이동단말기로 제 1 통신을 통해 상기 재생 리스트의 재생 순서 변경을 요청하고,상기 이동단말기로부터 상기 재생 순서 변경에 따른 제 2 컨텐트를 제 1 통신을 통해 수신하여 상기 오디오 출력부를 통해 출력하는 것을 특징으로 하는 영상표시기기.
- 제 3 항에 있어서,제 1 통신은 블루투스 통신이고, 상기 재생 리스트는 AVRCP (Audio/Video Remote Control Profile)에 따라 전송되는 것을 특징으로 하는 영상표시기기.
- 제 4 항에 있어서,제 1 컨텐트 및 제 2 컨텐트는 블루투스 통신의 A2DP(Advanced Audio Distribution Profile)에 따라서 전송되는 것을 특징으로 하는 영상표시기기.
- 제 1 항에 있어서, 상기 제어부는,제 1 통신이 연결된 중에 제 2 통신 연결을 확립하고,상기 이동단말기로부터 제 1 통신을 통해 제 1 컨텐트를 수신하면서 제 2 통신을 통해 상기 이동단말기의 실행 화면이 미러링되어 상기 디스플레이부에 디스플레이되도록 제어하는 것을 특징으로 하는 영상표시기기.
- 제 4 항에 있어서, 상기 제어부는,상기 미러링된 실행 화면에서 제 3 컨텐트를 선택하는 사용자 명령을 제 2 통신을 통해 상기 이동단말기로 전송하고,제 1 통신을 통해 상기 이동단말기로부터 제 3 컨텐트를 수신하여 상기 오디오 출력부를 통해 출력하도록 제어하는 것을 특징으로 하는 영상표시기기.
- 제 7 항에 있어서,제 2 통신은 와이파이 통신이고, 상기 실행 화면은 미라캐스트 규격에 따라 미러링되는 것을 특징으로 하는 영상표시기기.
- 제 8 항에 있어서,제 3 컨텐트를 선택하는 사용자 명령은 상기 미라캐스트 규격의 UIBC (User Input Back Channel)을 통해 전송되는 것을 특징으로 하는 영상표시기기.
- 제 1 항에 있어서, 상기 제어부는,제 1 컨텐트의 음원을 분석하여 검색을 수행하고 검색 결과를 상기 유저 인터페이스 상에 오버랩되어 디스플레이되도록 제어하는 것을 특징으로 하는 영상표시기기.
- 제 1 컨텐트를 재생하는 이동단말기로부터 제 1 통신 연결 요청에 반응하여 상기 이동단말기와 제 1 통신 연결을 확립하는 단계;제 1 통신을 통해 상기 이동단말기로부터 제 1 컨텐트를 수신하여 오디오 출력부를 통해 출력하는 단계; 및상기 이동단말기의 제 1 컨텐트의 재생을 제어하는 유저 인터페이스를 디스플레이하는 단계를 포함하는 영상표시기기의 제어 방법.
- 제 11 항에 있어서,상기 이동단말기로부터 제 1 통신을 통해 컨텐트 재생 리스트를 수신하여 상기 유저 인터페이스 상에 오버랩되도록 디스플레이하는 단계를 더욱 포함하는 영상표시기기의 제어 방법.
- 제 12 항에 있어서,상기 재생 리스트의 재생 순서 변경을 위한 사용자 명령에 반응하여 상기 이동단말기로 제 1 통신을 통해 상기 재생 리스트의 재생 순서 변경을 요청하는 단계; 및상기 이동단말기로부터 상기 재생 순서 변경에 따른 제 2 컨텐트를 제 1 통신을 통해 수신하여 상기 오디오 출력부를 통해 출력하는 단계를 포함하는 영상표시기기의 제어 방법.
- 제 13 항에 있어서,제 1 통신은 블루투스 통신이고, 상기 재생 리스트는 AVRCP (Audio/Video Remote Control Profile)에 따라 전송되는 것을 특징으로 하는 영상표시기기의 제어 방법.
- 제 14 항에 있어서,제 1 컨텐트 및 제 2 컨텐트는 블루투스 통신의 A2DP(Advanced Audio Distribution Profile)에 따라서 전송되는 것을 특징으로 하는 영상표시기기의 제어 방법.
- 제 11 항에 있어서,제 1 통신이 연결된 중에 제 2 통신 연결을 확립하는 단계; 및상기 이동단말기로부터 제 1 통신을 통해 제 1 컨텐트를 수신하면서 제 2 통신을 통해 상기 이동단말기의 실행 화면이 미러링되어 디스플레이되는 단계;를 포함하는 영상표시기기의 제어 방법.
- 제 14 항에 있어서,상기 미러링된 실행 화면에서 제 3 컨텐트를 선택하는 사용자 명령을 제 2 통신을 통해 상기 이동단말기로 전송하는 단계; 및제 1 통신을 통해 상기 이동단말기로부터 제 3 컨텐트를 수신하여 상기 오디오 출력부를 통해 출력하는 단계를 포함하는 영상표시기기의 제어 방법.
- 제 17 항에 있어서,제 2 통신은 와이파이 통신이고, 상기 실행 화면은 미라캐스트 규격에 따라 미러링되는 것을 특징으로 하는 영상표시기기의 제어 방법.
- 제 18 항에 있어서,제 3 컨텐트를 선택하는 사용자 명령은 상기 미라캐스트 규격의 UIBC (User Input Back Channel)을 통해 전송되는 것을 특징으로 하는 영상표시기기의 제어 방법.
- 제 11 항에 있어서,제 1 컨텐트의 음원을 분석하여 검색을 수행하고 검색 결과를 상기 유저 인터페이스 상에 오버랩되도록 디스플레이하는 단계를 포함하는 영상표시기기의 제어 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/312,041 US12052473B2 (en) | 2019-01-15 | 2019-01-15 | Image display device and method for controlling the same |
PCT/KR2019/000583 WO2020149426A1 (ko) | 2019-01-15 | 2019-01-15 | 영상표시기기 및 그 제어방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2019/000583 WO2020149426A1 (ko) | 2019-01-15 | 2019-01-15 | 영상표시기기 및 그 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020149426A1 true WO2020149426A1 (ko) | 2020-07-23 |
Family
ID=71614174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2019/000583 WO2020149426A1 (ko) | 2019-01-15 | 2019-01-15 | 영상표시기기 및 그 제어방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US12052473B2 (ko) |
WO (1) | WO2020149426A1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111970554A (zh) * | 2020-08-07 | 2020-11-20 | 海信视像科技股份有限公司 | 一种图片显示方法和显示设备 |
CN114286153A (zh) * | 2021-09-18 | 2022-04-05 | 海信视像科技股份有限公司 | 一种基于蓝牙aoa的窗口调节方法以及显示设备 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112269551A (zh) * | 2020-10-22 | 2021-01-26 | 北京小米移动软件有限公司 | 一种跨设备显示信息的方法、装置及存储介质 |
US12126858B2 (en) * | 2022-12-21 | 2024-10-22 | Dish Network L.L.C. | Systems and methods for selective content distribution |
US12003826B1 (en) | 2022-12-21 | 2024-06-04 | Dish Network L.L.C. | Systems and methods for selective content distribution |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100231790A1 (en) * | 2006-12-29 | 2010-09-16 | Prodea Systems, Inc | Display inserts, overlays, and graphical user interfaces for multimedia systems |
US20140267910A1 (en) * | 2013-03-13 | 2014-09-18 | Samsung Electronics Co., Ltd. | Method of mirroring content from a mobile device onto a flat panel television, and a flat panel television |
US20170026686A1 (en) * | 2015-07-20 | 2017-01-26 | Google Inc. | Synchronizing audio content to audio and video devices |
KR20170011763A (ko) * | 2015-07-24 | 2017-02-02 | 엘지전자 주식회사 | 디지털 디바이스 및 상기 디지털 디바이스에서 데이터 처리 방법 |
WO2017022931A1 (ko) * | 2015-08-06 | 2017-02-09 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7546144B2 (en) * | 2006-05-16 | 2009-06-09 | Sony Ericsson Mobile Communications Ab | Mobile wireless communication terminals, systems, methods, and computer program products for managing playback of song files |
US8168876B2 (en) * | 2009-04-10 | 2012-05-01 | Cyberlink Corp. | Method of displaying music information in multimedia playback and related electronic device |
US9398339B2 (en) * | 2010-09-01 | 2016-07-19 | Lg Electronics Inc. | Image display apparatus and method for operating the same |
KR101788060B1 (ko) * | 2011-04-13 | 2017-11-15 | 엘지전자 주식회사 | 영상표시장치 및 이를 이용한 콘텐츠 관리방법 |
CN102760049A (zh) * | 2011-04-26 | 2012-10-31 | 蓝云科技股份有限公司 | 行动装置及其与具有显示功能的电子装置互动的方法 |
US20130027289A1 (en) * | 2011-07-27 | 2013-01-31 | Lg Electronics Inc. | Electronic device |
WO2015060640A1 (ko) * | 2013-10-25 | 2015-04-30 | 주식회사 다음카카오 | 채널 기반의 컨텐츠 중계 방법 및 시스템 |
US10127002B2 (en) * | 2014-04-10 | 2018-11-13 | Screenovate Technologies Ltd. | Method for real-time multimedia interface management |
US20160100277A1 (en) * | 2014-10-06 | 2016-04-07 | Voxx International Corporation | Secondary radio functionality integration in a vehicle |
KR102450840B1 (ko) * | 2015-11-19 | 2022-10-05 | 엘지전자 주식회사 | 전자 기기 및 전자 기기의 제어 방법 |
KR102627518B1 (ko) * | 2016-09-02 | 2024-01-23 | 엘지전자 주식회사 | 싱크 디바이스 및 그 제어 방법 |
US10897489B2 (en) * | 2017-12-07 | 2021-01-19 | Mcom Media Comunications Dmcc | Managing content casting |
US20230140108A1 (en) * | 2022-12-27 | 2023-05-04 | Shuki Perlman | Managing unlock and disconnect events between connected devices |
-
2019
- 2019-01-15 US US17/312,041 patent/US12052473B2/en active Active
- 2019-01-15 WO PCT/KR2019/000583 patent/WO2020149426A1/ko active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100231790A1 (en) * | 2006-12-29 | 2010-09-16 | Prodea Systems, Inc | Display inserts, overlays, and graphical user interfaces for multimedia systems |
US20140267910A1 (en) * | 2013-03-13 | 2014-09-18 | Samsung Electronics Co., Ltd. | Method of mirroring content from a mobile device onto a flat panel television, and a flat panel television |
US20170026686A1 (en) * | 2015-07-20 | 2017-01-26 | Google Inc. | Synchronizing audio content to audio and video devices |
KR20170011763A (ko) * | 2015-07-24 | 2017-02-02 | 엘지전자 주식회사 | 디지털 디바이스 및 상기 디지털 디바이스에서 데이터 처리 방법 |
WO2017022931A1 (ko) * | 2015-08-06 | 2017-02-09 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111970554A (zh) * | 2020-08-07 | 2020-11-20 | 海信视像科技股份有限公司 | 一种图片显示方法和显示设备 |
CN114286153A (zh) * | 2021-09-18 | 2022-04-05 | 海信视像科技股份有限公司 | 一种基于蓝牙aoa的窗口调节方法以及显示设备 |
Also Published As
Publication number | Publication date |
---|---|
US12052473B2 (en) | 2024-07-30 |
US20220030319A1 (en) | 2022-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012015118A1 (en) | Method for operating image display apparatus | |
WO2012081803A1 (ko) | 영상표시기기의 애플리케이션 메뉴 제공 방법 및 그에 따른 영상표시기기 | |
WO2015099343A1 (ko) | 디지털 디바이스 및 그 제어 방법 | |
WO2012015116A1 (en) | Image display apparatus and method for operating the same | |
WO2012015117A1 (en) | Method for operating image display apparatus | |
WO2012026651A1 (en) | Method for synchronizing contents and display device enabling the method | |
WO2011136458A1 (en) | Image display apparatus and method for operating the same | |
WO2012030024A1 (en) | Image display apparatus and method for operating the same | |
WO2016085094A1 (ko) | 멀티미디어 디바이스 및 그 제어 방법 | |
WO2011159006A1 (en) | Image display apparatus and method for operating the same | |
WO2012067344A2 (ko) | 웹브라우징 방법 및 그를 이용한 영상 표시 기기 | |
WO2016027933A1 (ko) | 디지털 디바이스 및 그 제어 방법 | |
WO2016143965A1 (en) | Display device and controlling method thereof | |
WO2011126202A1 (en) | Image display apparatus and method for operating the same | |
WO2017003022A1 (ko) | 디스플레이 디바이스 및 그 제어 방법 | |
WO2011132840A1 (en) | Image display apparatus and method for operating the same | |
WO2012026666A2 (en) | Method of providing game application and image display device using the same | |
WO2012046928A1 (ko) | 디스플레이 디바이스를 이용한 광고 컨텐츠 제작 방법 및 그에 따른 디스플레이 디바이스 | |
WO2016186254A1 (ko) | 디스플레이 디바이스 및 그 제어 방법 | |
WO2012081820A1 (en) | Network television processing multiple applications and method for controlling the same | |
WO2017034065A1 (ko) | 디스플레이 디바이스 및 그 제어 방법 | |
WO2020149426A1 (ko) | 영상표시기기 및 그 제어방법 | |
WO2012074189A1 (ko) | 화면 표시 제어 방법 및 그를 이용한 영상 표시 기기 | |
WO2012030025A1 (en) | Image display apparatus and method for operating the same | |
WO2016175361A1 (ko) | 디스플레이 디바이스 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19910707 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19910707 Country of ref document: EP Kind code of ref document: A1 |