Nothing Special   »   [go: up one dir, main page]

WO2016072565A1 - 화상출력장치, 이동 단말기 및 그것들의 제어 방법 - Google Patents

화상출력장치, 이동 단말기 및 그것들의 제어 방법 Download PDF

Info

Publication number
WO2016072565A1
WO2016072565A1 PCT/KR2015/002055 KR2015002055W WO2016072565A1 WO 2016072565 A1 WO2016072565 A1 WO 2016072565A1 KR 2015002055 W KR2015002055 W KR 2015002055W WO 2016072565 A1 WO2016072565 A1 WO 2016072565A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image output
apparatuses
output
mobile terminal
Prior art date
Application number
PCT/KR2015/002055
Other languages
English (en)
French (fr)
Inventor
이지혜
변진영
김성환
박영수
정지은
김아련
이봉수
박차라
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140153031A external-priority patent/KR102300927B1/ko
Priority claimed from KR1020140172365A external-priority patent/KR102246092B1/ko
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to EP15857942.5A priority Critical patent/EP3217679B1/en
Priority to US15/522,750 priority patent/US10365879B2/en
Publication of WO2016072565A1 publication Critical patent/WO2016072565A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • G06F16/9554Retrieval from the web using information identifiers, e.g. uniform resource locators [URL] by using bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/1095Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices the scanner comprising adaptations for scanning a record carrier that is displayed on a display-screen or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/06Consumer Electronics Control, i.e. control of another device by a display or vice versa
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3269Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of machine readable codes or marks, e.g. bar codes or glyphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Definitions

  • the present invention relates to an image output device having an image quality adjustment function, a mobile terminal capable of controlling the image output device, and a control method thereof.
  • the image output apparatus includes both an apparatus for receiving and displaying a broadcast, recording and reproducing a moving image, and an apparatus for recording and reproducing audio.
  • the image output apparatus may be, for example, a television, a smart TV, a computer monitor, an all-in-one PC (or all-in-one PC) in which a monitor and a main body are combined, a notebook computer, a projector, a tablet, a mobile terminal, and the like. Include.
  • the image output device As the functions of the image output device are diversified, in addition to broadcasting, playing a music or video file, a multimedia player has a complex function such as taking a picture or video, playing a game, and receiving a broadcast. Is implemented.
  • image output devices have been implemented as smart devices (for example, smart televisions). Accordingly, the image output device operates in conjunction with a mobile terminal, a computer, or a server as well as executing the Internet.
  • An object of the present invention is to provide an image output apparatus, a mobile terminal, and a control method thereof capable of adjusting image quality of a plurality of image output apparatuses using a mobile terminal.
  • Another object of the present invention is to provide an image output apparatus, a mobile terminal, and a control method thereof capable of adjusting the image quality of a plurality of image output apparatuses based on image quality information extracted through a mobile terminal.
  • Still another object of the present invention is to provide an image output apparatus, a mobile terminal, and a control method thereof capable of controlling a plurality of image output apparatuses using a mobile terminal.
  • a control method of a mobile terminal for controlling the image quality of a plurality of image output apparatuses according to an embodiment of the present invention for achieving the above object is based on an image corresponding to the plurality of image output apparatuses received through a camera. Generating a preview image and extracting image quality information of the plurality of image output apparatuses by using images corresponding to the plurality of image output apparatuses included in the preview image; And transmitting the extracted image quality information or the image quality correction data corresponding to the image quality information to at least one corresponding image output apparatus.
  • the extracting of the image quality information may include: outputting a preset screen used for extracting image quality information to the plurality of image output apparatuses based on a user's request, and outputting the image to the preset screen included in the preview image.
  • the image quality information may be extracted from a corresponding image.
  • a graphic object guiding an image quality information extraction region is output on a predetermined screen of the plurality of image output apparatuses, an indicator corresponding to the graphic object is output to the preview image, and the image quality information is extracted.
  • the step may be performed based on the indicator overlapping an image corresponding to a graphic object output to the plurality of image output apparatuses.
  • the output position of the graphic object guiding the image quality information extraction region is determined based on a position where the plurality of image output devices are arranged, and the indicator is disposed at a position that may correspond to the graphic object. It is characterized by.
  • the image quality information may include at least one of brightness information, color temperature information, RGB pixel value, contrast information, sharpness information, and hue information, and extracts the quality information.
  • the method may include extracting brightness information of the plurality of image output devices using images corresponding to the plurality of image output devices, and output brightnesses of the plurality of image output devices within a reference range based on the extracted brightness information. Determining whether it is included, when the output brightness of at least one of the plurality of image output devices is outside the reference range, the at least one image output device is configured to display the extracted brightness information so as to have brightness within the reference range. Transmitting to one image output apparatus and in a state where the plurality of image output apparatuses have brightness within the reference range, And extracting the color temperature information by using an image corresponding to a plurality of image output apparatuses.
  • the image quality information transmitted to at least one image output apparatus corresponding to the image quality adjustment target may be color temperature information extracted by using images corresponding to the plurality of image output apparatuses.
  • the method may further include recognizing an arrangement of the plurality of image output apparatuses by using images corresponding to the plurality of image output apparatuses included in the preview image before extracting the image quality information. It is characterized by.
  • the recognizing may include outputting a graphic object having different colors or shapes to the plurality of image output apparatuses based on a user's request, and having the different colors or shapes included in the preview image.
  • the arrangement of the plurality of image output apparatuses may be recognized based on an image corresponding to a graphic object.
  • the method may further include outputting a plurality of icons corresponding to the arrangement of the plurality of image output apparatuses to the display unit when the arrangement of the plurality of image output apparatuses is recognized.
  • At least one image output apparatus corresponding to the image quality adjustment target is selected through the plurality of icons.
  • the mobile terminal may belong to the same network as the plurality of image output apparatuses.
  • the bar code including network information is output to the plurality of image output apparatuses, and when the mobile terminal outputs an image corresponding to the bar code to the preview image according to a user's request, the bar code corresponding to the bar code corresponds to the bar code.
  • the network information is extracted using an image, and the network information is connected to the same network as the plurality of image output apparatuses using the extracted network information.
  • a control method of an image output apparatus capable of communicating with a mobile terminal may include receiving the image quality information or the image quality information when image quality information or image quality correction data corresponding to the image quality information is received from the mobile terminal. Adjusting the RGB output ratio based on the image quality correction data corresponding to the information, and adjusting the brightness based on the adjusted RGB output ratio.
  • the image quality information may include color temperature information of a plurality of image output apparatuses, and the RGB output ratio may be set to any one image output apparatus as a standard for adjusting image quality among the plurality of image output apparatuses. It is characterized in that determined based on the color temperature information for.
  • the adjusting of the brightness may include determining a degree of brightness to be adjusted by applying a predetermined weight associated with the RGB output.
  • the method may further include outputting a graphic object used for batch recognition of an image output apparatus based on a request of the mobile terminal and adjusting image quality information based on a request of the mobile terminal before adjusting the RGB output ratio.
  • the method may further include outputting a preset screen used for extraction.
  • the graphic screen may include a graphic object guiding the image quality information extraction region, and an output position of the graphic object guiding the image quality information extraction region may vary depending on the position at which the image output apparatus is disposed. It is done.
  • the mobile terminal for controlling the image quality of the plurality of image output apparatuses generates a preview image based on a camera and images corresponding to the plurality of image output apparatuses received through the camera, Extracting image quality information of the plurality of image output apparatuses using a display unit for outputting a preview image and images corresponding to the plurality of image output apparatuses included in the preview image, and adjusting image quality among the plurality of image output apparatuses. And a controller for transmitting the extracted image quality information or the image quality correction data corresponding to the image quality information to at least one image output apparatus corresponding to the image quality information.
  • the control unit may be further configured to, when a preset screen used for extracting image quality information is output to the plurality of image output apparatuses, based on a user's request, the controller is further configured to display the image from the image corresponding to the preset screen included in the preview image. Characterized in that the image quality information is extracted.
  • the graphic object may be configured to guide an image quality information extraction region on a predetermined screen of the plurality of image output apparatuses, and an indicator corresponding to the graphic object may be output to the preview image, and the controller may be configured to display the graphic object.
  • the image quality information may be extracted based on the overlapping of images corresponding to graphic objects output to the plurality of image output apparatuses.
  • a control method of a mobile terminal for controlling a plurality of image output apparatuses includes the steps of: requesting output of different identification information to the plurality of image output apparatuses, each of the plurality of image output apparatuses. Recognizing the arrangement of the plurality of image output apparatuses by using images corresponding to the different identification information included in the preview image received through the camera in a state where different identification information is output, and outputting the plurality of images And when the arrangement of the devices is recognized, controlling the plurality of image output devices by using images corresponding to the plurality of image output devices included in the preview image.
  • the recognizing arrangement of the plurality of image output apparatuses may include: counting the number of the plurality of image output apparatuses and the plurality of images using images corresponding to the different identification information included in the preview image. Identifying a location of each output device; requesting output of screen information including a predetermined grid pattern to the plurality of image output devices; and previewing the screen information when the screen information is output to each of the plurality of image output devices. And recognizing a relative arrangement of the plurality of image output apparatuses by using an image corresponding to the screen information included in the image.
  • the relative arrangement of the plurality of image output apparatuses may be recognized based on the size of the grid pattern included in the image corresponding to the plurality of image output apparatuses included in the preview image.
  • the determining of the relative arrangement of the plurality of image output apparatuses may include: an image corresponding to the first image output apparatus among the grid patterns included in the image corresponding to the plurality of image output apparatuses included in the preview image. If the size of the grid pattern included in the larger than the size of the grid pattern included in the image corresponding to the second image output device different from the first image output device, the first image output device is based on the mobile terminal; It is characterized by recognizing that it is disposed closer than the two image output apparatus.
  • the recognizing the arrangement of the plurality of image output apparatuses may further include determining postures of the plurality of image output apparatuses by using an image corresponding to the screen information included in the preview image. It is characterized by including.
  • the identification information may be output together with the screen information including the preset grid pattern.
  • the controlling of the plurality of image output apparatuses may include controlling the plurality of image output apparatuses so that one content is divided and output to the plurality of image output apparatuses based on the arrangement of the plurality of image output apparatuses. do.
  • the controlling may include determining a portion of the one content output to each image output apparatus based on images corresponding to the plurality of image output apparatuses included in the preview image. .
  • different portions of the one content are output to the plurality of image output apparatuses, and the portions output to each of the plurality of image output apparatuses vary according to the arrangement of the plurality of image output apparatuses. It is done.
  • the one portion of the one content may be included in the one image output apparatus based on the first position. Is output, and when the one image output apparatus is disposed at a second position different from the first position, the one image output apparatus includes the first portion of the one content based on the second position. And a second part different from the output.
  • the size of a portion of the one content output to each image output apparatus may vary depending on the relative arrangement of the plurality of image output apparatuses. do.
  • the first image output apparatus of the plurality of image output apparatuses when the first image output apparatus of the plurality of image output apparatuses is disposed closer to the mobile terminal than the second image output apparatus different from the first image output apparatus, the output to the first image output apparatus.
  • the size of the portion is larger than the size of the portion output from the second image output device.
  • the controlling may include outputting a picture corresponding to any one of the images to which the touch is applied when a touch is applied to any one of the images corresponding to the plurality of image output devices included in the preview image.
  • the plurality of image output apparatuses may be synchronized with respect to the apparatuses.
  • the synchronized category may include at least one of streaming, image quality, and volume.
  • the controlling may include controlling the plurality of image output apparatuses to output different volumes based on relative arrangement of the plurality of image output apparatuses when the category to be synchronized is the volume. do.
  • a mobile terminal for controlling a plurality of image output apparatuses includes a camera, a display unit for outputting a preview image received through the camera, and different identification information is output to the plurality of image output apparatuses.
  • the arrangement of the plurality of image output apparatuses is recognized by using images corresponding to the different identification information included in the preview image, and when the arrangement of the plurality of image output apparatuses is recognized, the preview image is added to the preview image.
  • a controller configured to control the plurality of image output apparatuses by using images corresponding to the plurality of image output apparatuses included.
  • the screen information including the grid pattern preset according to a user request is output to the plurality of image output apparatuses, and the control unit outputs the screen information to each of the plurality of image output apparatuses.
  • the relative arrangement of the plurality of image output apparatuses may be recognized by using an image corresponding to the screen information included in the preview image.
  • control unit controls the plurality of image output apparatuses so that one content is divided and output to the plurality of image output apparatuses based on the arrangement of the plurality of image output apparatuses.
  • the control unit may determine a portion of the one content output to each image output apparatus based on images corresponding to the plurality of image output apparatuses included in the preview image.
  • the controller may select an image output apparatus corresponding to any one of the images to which the touch is applied.
  • the plurality of image output apparatuses may be synchronized as a reference.
  • the image quality of a plurality of image output apparatuses can be adjusted by using a mobile terminal.
  • the present invention can adjust the image quality of the plurality of image output devices more conveniently using a mobile terminal, instead of going through a complicated process for adjusting the image quality of the plurality of image output devices.
  • a plurality of image outputs may be generated depending on the type and characteristics of the panel of the image output apparatus, or depending on the structure of the image output apparatus, the manufacturing method of the image output apparatus, or the output method of the image output apparatus.
  • the image quality of the devices is different from each other, the image quality of the plurality of image output apparatuses may be adjusted based on the image quality information extracted from the mobile terminal (outside of the image output apparatus). Accordingly, when the user views a plurality of image output apparatuses, the user may be provided with a screen without dissimilarity due to image quality difference.
  • the present invention can recognize the arrangement of the plurality of image output apparatuses using images corresponding to the plurality of image output apparatuses included in the preview image received through the camera.
  • the present invention may determine the number and position of each of the plurality of image output apparatus using the image corresponding to the different identification information included in the image corresponding to the plurality of image output apparatus.
  • the present invention may determine the relative arrangement and posture of the plurality of image output apparatuses by using the image corresponding to the screen information including the predetermined grid pattern included in the image corresponding to the plurality of image output apparatuses. Therefore, the present invention can solve the trouble of having to set the number, the arranged positions, the relative arrangements, the arranged postures, etc. of the image output apparatuses one by one in order to control a plurality of conventional image output apparatuses.
  • the present invention may control the plurality of image output apparatuses so that one content is divided and output to a plurality of image output apparatuses.
  • the present invention may set a portion to be output from each of the plurality of image output apparatuses of one content by using images corresponding to the plurality of image output apparatuses included in the preview image of the mobile terminal. Accordingly, the present invention can provide a GUI (Graphic User Interface) optimized for outputting content to a plurality of image output apparatuses.
  • GUI Graphic User Interface
  • the present invention selects any one reference image output apparatus using images corresponding to the plurality of image output apparatuses included in the preview image of the mobile terminal, and the plurality of image output apparatuses based on the reference image output apparatus. Can be synchronized. Therefore, the present invention not only eliminates the inconvenience that is conventionally caused by synchronizing each image output apparatus individually, but also performs more optimized synchronization based on a mobile terminal, that is, based on a user.
  • FIG. 1 is a conceptual diagram illustrating a system related to the present invention.
  • FIG. 2 is a block diagram illustrating a mobile terminal related to the present invention.
  • FIG. 3 is a block diagram for explaining an image output apparatus according to the present invention.
  • FIG. 4 is a flowchart representatively illustrating a method for controlling a mobile terminal according to an embodiment of the present invention.
  • FIG. 5 is a conceptual diagram illustrating the control method described with reference to FIG. 4.
  • FIG. 6 is a flowchart illustrating a method of adjusting image quality according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a method for communication connection between a mobile terminal and a plurality of image output apparatuses according to an exemplary embodiment.
  • FIG. 8 is a conceptual diagram illustrating the communication connection method described with reference to FIG. 7.
  • FIG. 9 is a flowchart illustrating a method of recognizing an arrangement of a plurality of image output apparatuses by a mobile terminal according to one embodiment of the present invention.
  • 10A and 10B are conceptual views illustrating a batch recognition method for the plurality of image output apparatuses described with reference to FIG. 9.
  • 11 and 12 are flowcharts illustrating a method of extracting image quality information of a plurality of image output apparatuses using a mobile terminal according to an embodiment of the present invention.
  • FIGS. 11 and 12 are conceptual views illustrating a method of extracting image quality information described with reference to FIGS. 11 and 12.
  • FIG. 14 is a flowchart illustrating a method of adjusting image quality by an image output apparatus according to an embodiment of the present invention.
  • 15 is a flowchart representatively illustrating a method for controlling a mobile terminal according to another embodiment of the present invention.
  • FIG. 16 is a conceptual diagram illustrating the control method described with reference to FIG. 15.
  • 17A, 17B, and 17C are conceptual views illustrating a method of recognizing a layout of a plurality of image output apparatuses by using a mobile terminal image corresponding to a plurality of image output apparatuses included in a preview image.
  • 18A, 18B, 18C, and 18D are conceptual views for explaining a method of dividing and outputting one content to a plurality of image output apparatuses using a mobile terminal.
  • 19A, 19B, 19C, and 19D are conceptual views for explaining a method of synchronizing a plurality of image output apparatuses using a mobile terminal.
  • FIG. 1 is a conceptual diagram for describing a system related to the present invention.
  • System may be composed of a mobile terminal 100, an image output device 200 and the communication network (300).
  • the mobile terminal described herein includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant, a portable multimedia player, a navigation, a slate PC , Tablet PCs, ultrabooks, wearable devices, such as smartwatches, glass glasses, head mounted displays, and the like. have.
  • any type of device may be included in the mobile terminal as long as it is capable of communicating with other devices and has a function of analyzing an image received through a camera.
  • the image output device 200 described in the present specification includes a television, a smart TV, a digital TV, a computer monitor, an all-in-one PC (or all-in-one PC) in which a monitor and a main body are combined, and a laptop computer. , Projector, tablet, digital signage, video wall, mobile terminal, and the like. That is, the image output apparatus 200 may include various types of devices capable of outputting screen information.
  • the mobile terminal 100 and the image output apparatus 200 may be connected to each other through a communication network 300.
  • the mobile terminal 100 and the image output apparatus 200 connected through such a communication network may transmit and receive data to each other or transmit a control command signal.
  • the communication network 300 formed to enable communication between the mobile terminal 100 and the image output apparatus 200 is a network connecting the mobile terminal 100 and the image output apparatus 200 to provide wired / wireless communication.
  • It may be a closed network such as a local area network (LAN), a wide area network (WAN), or the like, and is preferably an open type such as the Internet.
  • the Internet has many services in the TCP / IP protocol and its upper layers: HyperText Transfer Protocol (HTTP), Telnet, File Transfer Protocol (FTP), Domain Name System (DNS), Simple Mail Transfer Protocol (SMTP), and SNMP (The global open computer network architecture that provides the Simple Network Management Protocol (NFS), Network File Service (NFS), and Network Information Service (NIS).
  • HTTP HyperText Transfer Protocol
  • Telnet Telnet
  • FTP File Transfer Protocol
  • DNS Domain Name System
  • SMTP Simple Mail Transfer Protocol
  • SNMP The global open computer network architecture that provides the Simple Network Management Protocol (NFS), Network File Service (NFS), and Network Information Service (NIS).
  • NIS
  • the communication network 300 is Bluetooth (Bluetooth TM), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, Near field communication may be supported using at least one of Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, and Wireless Universal Serial Bus (Wireless USB) technologies.
  • Bluetooth Bluetooth TM
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • Near field communication may be supported using at least one of Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, and Wireless Universal Serial Bus (Wireless USB) technologies.
  • the mobile terminal 100 and the image output apparatus 200 may be connected to the same network through the communication network 300.
  • the image output device 200 may be a plurality of (200a, 200b, ..., 200n).
  • the mobile terminal 100 transmits a signal (or request) for controlling the plurality of image output apparatuses 200 to extract the image quality information of the plurality of image output apparatuses 200. Can be sent as one.
  • the mobile terminal 100 may transmit the extracted image quality information to the image output apparatus corresponding to the image quality adjustment target so that the image quality of at least one of the plurality of image output apparatuses is adjusted.
  • FIG. 2 is a block diagram illustrating a mobile terminal related to the present invention.
  • the mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a controller 180, and a power supply unit 190. ) May be included.
  • the components shown in FIG. 1A are not essential to implementing a mobile terminal, so that the mobile terminal described herein may have more or fewer components than those listed above.
  • the wireless communication unit 110 of the components, between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or the mobile terminal 100 and the external server It may include one or more modules that enable wireless communication therebetween.
  • the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of the broadcast receiving module 111, the mobile communication module 112, the wireless internet module 113, the short range communication module 114, and the location information module 115. .
  • the input unit 120 may include a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, an audio input unit, or a user input unit 123 for receiving information from a user. , Touch keys, mechanical keys, and the like.
  • the voice data or the image data collected by the input unit 120 may be analyzed and processed as a control command of the user.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information.
  • the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • Optical sensors e.g. cameras 121), microphones (see 122), battery gauges, environmental sensors (e.g.
  • the mobile terminal disclosed herein may use a combination of information sensed by at least two or more of these sensors.
  • the output unit 150 is used to generate an output related to sight, hearing, or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a hap tip module 153, and an optical output unit 154. can do.
  • the display unit 151 forms a layer structure with or is integrally formed with the touch sensor, thereby implementing a touch screen.
  • the touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and the user, and may also provide an output interface between the mobile terminal 100 and the user.
  • the interface unit 160 serves as a path to various types of external devices connected to the mobile terminal 100.
  • the interface unit 160 connects a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input / output (I / O) port, a video input / output (I / O) port, and an earphone port.
  • I / O audio input / output
  • I / O video input / output
  • earphone port an earphone port
  • the memory 170 stores data supporting various functions of the mobile terminal 100.
  • the memory 170 may store a plurality of application programs or applications driven in the mobile terminal 100, data for operating the mobile terminal 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication.
  • at least some of these application programs may exist on the mobile terminal 100 from the time of shipment for basic functions of the mobile terminal 100 (for example, a call forwarding, a calling function, a message receiving, and a calling function).
  • the application program may be stored in the memory 170 and installed on the mobile terminal 100 to be driven by the controller 180 to perform an operation (or function) of the mobile terminal.
  • the controller 180 In addition to the operation related to the application program, the controller 180 typically controls the overall operation of the mobile terminal 100.
  • the controller 180 may provide or process information or a function appropriate to a user by processing signals, data, information, and the like, which are input or output through the above-described components, or by driving an application program stored in the memory 170.
  • controller 180 may control at least some of the components described with reference to FIG. 1A in order to drive an application program stored in the memory 170. Furthermore, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 to drive the application program.
  • the power supply unit 190 receives power from an external power source and an internal power source under the control of the controller 180 to supply power to each component included in the mobile terminal 100.
  • the power supply unit 190 includes a battery, which may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of the mobile terminal according to various embodiments described below.
  • the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
  • the broadcast receiving module 111 of the wireless communication unit 110 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • Two or more broadcast receiving modules may be provided to the mobile terminal 100 for simultaneous broadcast reception or switching of broadcast channels for at least two broadcast channels.
  • the mobile communication module 112 may include technical standards or communication schemes (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), and EV).
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced) and the like to transmit and receive a radio signal with at least one of a base station, an external terminal, a server on a mobile communication network.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (DO)
  • WCDMA Wideband CDMA
  • HSDPA High
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the wireless internet module 113 refers to a module for wireless internet access and may be embedded or external to the mobile terminal 100.
  • the wireless internet module 113 is configured to transmit and receive wireless signals in a communication network according to wireless internet technologies.
  • wireless Internet technologies include Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), Wireless Fidelity (Wi-Fi) Direct, Digital Living Network Alliance (DLNA), Wireless Broadband (WiBro), and WiMAX (World).
  • the wireless Internet module 113 for performing a wireless Internet access through the mobile communication network 113 May be understood as a kind of mobile communication module 112.
  • the short range communication module 114 is for short range communication, and includes Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and NFC. (Near Field Communication), at least one of Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, Wireless USB (Wireless Universal Serial Bus) technology can be used to support short-range communication.
  • the short-range communication module 114 may be configured between a mobile terminal 100 and a wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or through the wireless area networks. ) And a network in which the other mobile terminal 100 (or an external server) is located.
  • the short range wireless communication network may be short range wireless personal area networks.
  • the other mobile terminal 100 is a wearable device capable of exchanging (or interworking) data with the mobile terminal 100 according to the present invention (for example, smartwatch, smart glasses). (smart glass), head mounted display (HMD).
  • the short range communication module 114 may sense (or recognize) a wearable device that can communicate with the mobile terminal 100, around the mobile terminal 100.
  • the controller 180 may include at least a portion of data processed by the mobile terminal 100 in the short range communication module ( The transmission may be transmitted to the wearable device through 114. Therefore, the user of the wearable device may use data processed by the mobile terminal 100 through the wearable device. For example, according to this, when a call is received by the mobile terminal 100, the user performs a phone call through the wearable device or when a message is received by the mobile terminal 100, the received through the wearable device. It is possible to check the message.
  • the location information module 115 is a module for obtaining a location (or current location) of a mobile terminal, and a representative example thereof is a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module.
  • GPS Global Positioning System
  • Wi-Fi Wireless Fidelity
  • the mobile terminal may acquire the location of the mobile terminal using a signal transmitted from a GPS satellite.
  • the mobile terminal may acquire the location of the mobile terminal based on information of the wireless access point (AP) transmitting or receiving the Wi-Fi module and the wireless signal.
  • the location information module 115 may perform any function of other modules of the wireless communication unit 110 to substitute or additionally obtain data regarding the location of the mobile terminal.
  • the location information module 115 is a module used to obtain the location (or current location) of the mobile terminal, and is not limited to a module that directly calculates or obtains the location of the mobile terminal.
  • the input unit 120 is for inputting image information (or signal), audio information (or signal), data, or information input from a user.
  • the mobile terminal 100 is one.
  • the plurality of cameras 121 may be provided.
  • the camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode.
  • the processed image frame may be displayed on the display unit 151 or stored in the memory 170.
  • the plurality of cameras 121 provided in the mobile terminal 100 may be arranged to form a matrix structure, and through the camera 121 forming a matrix structure in this way, the mobile terminal 100 may have various angles or focuses.
  • the plurality of pieces of image information may be input.
  • the plurality of cameras 121 may be arranged in a stereo structure to acquire a left image and a right image for implementing a stereoscopic image.
  • the microphone 122 processes external sound signals into electrical voice data.
  • the processed voice data may be variously used according to a function (or an application program being executed) performed by the mobile terminal 100. Meanwhile, various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in the process of receiving an external sound signal.
  • the user input unit 123 is for receiving information from a user. When information is input through the user input unit 123, the controller 180 may control an operation of the mobile terminal 100 to correspond to the input information. .
  • the user input unit 123 may be a mechanical input unit (or a mechanical key, for example, a button, a dome switch, a jog wheel, or the like positioned on the front / rear or side of the mobile terminal 100). Jog switch, etc.) and touch input means.
  • the touch input means may include a virtual key, a soft key, or a visual key displayed on the touch screen through a software process, or a portion other than the touch screen. It may be made of a touch key disposed in the.
  • the virtual key or the visual key may be displayed on the touch screen while having various forms, for example, graphic, text, icon, video, or the like. It can be made of a combination of.
  • the sensing unit 140 senses at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information, and generates a sensing signal corresponding thereto.
  • the controller 180 may control driving or operation of the mobile terminal 100 or perform data processing, function or operation related to an application program installed in the mobile terminal 100 based on the sensing signal. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
  • the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • the proximity sensor 141 may be disposed in an inner region of the mobile terminal covered by the touch screen described above or near the touch screen.
  • the proximity sensor 141 examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the proximity sensor 141 may be configured to detect the proximity of the object by the change of the electric field according to the proximity of the conductive object.
  • the touch screen (or touch sensor) itself may be classified as a proximity sensor.
  • the proximity sensor 141 may detect a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). have.
  • the controller 180 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern detected through the proximity sensor 141 as described above, and further, provides visual information corresponding to the processed data. It can be output on the touch screen. Further, the controller 180 may control the mobile terminal 100 to process different operations or data (or information) according to whether the touch on the same point on the touch screen is a proximity touch or a touch touch. .
  • the touch sensor applies a touch (or touch input) applied to the touch screen (or the display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. Detect.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the touch screen or capacitance generated at the specific portion into an electrical input signal.
  • the touch sensor may be configured to detect a position, an area, a pressure at the touch, a capacitance at the touch, and the like, when the touch object applying the touch on the touch screen is touched on the touch sensor.
  • the touch object is an object applying a touch to the touch sensor and may be, for example, a finger, a touch pen or a stylus pen, a pointer, or the like.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 180.
  • the controller 180 can know which area of the display unit 151 is touched.
  • the touch controller may be a separate component from the controller 180 or may be the controller 180 itself.
  • the controller 180 may perform different control or perform the same control according to the type of touch object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different control or the same control according to the type of touch object may be determined according to the operation state of the mobile terminal 100 or an application program being executed.
  • the touch sensor and the proximity sensor described above may be independently or combined, and may be a short (or tap) touch, a long touch, a multi touch, a drag touch on a touch screen. ), Flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. A touch can be sensed.
  • the ultrasonic sensor may recognize location information of a sensing object using ultrasonic waves.
  • the controller 180 can calculate the position of the wave generation source through the information detected from the optical sensor and the plurality of ultrasonic sensors.
  • the position of the wave source can be calculated using the property that the light is much faster than the ultrasonic wave, that is, the time that the light reaches the optical sensor is much faster than the time when the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generation source may be calculated using a time difference from the time when the ultrasonic wave reaches the light as the reference signal.
  • the camera 121 which has been described as the configuration of the input unit 120, includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or an image sensor), and a laser sensor.
  • a camera sensor eg, CCD, CMOS, etc.
  • a photo sensor or an image sensor
  • a laser sensor e.g., a laser sensor
  • the camera 121 and the laser sensor may be combined with each other to detect a touch of a sensing object with respect to a 3D stereoscopic image.
  • the photo sensor may be stacked on the display element, which is configured to scan the movement of the sensing object in proximity to the touch screen. More specifically, the photo sensor mounts a photo diode and a transistor (TR) in a row / column and scans contents mounted on the photo sensor by using an electrical signal that varies according to the amount of light applied to the photo diode. That is, the photo sensor calculates coordinates of the sensing object according to the amount of light change, and thus, the position information of the sensing object can be obtained.
  • TR transistor
  • the display unit 151 displays (outputs) information processed by the mobile terminal 100.
  • the display unit 151 may display execution screen information of an application program driven in the mobile terminal 100 or user interface (UI) and graphical user interface (GUI) information according to the execution screen information. .
  • UI user interface
  • GUI graphical user interface
  • the display unit 151 may be configured as a stereoscopic display unit for displaying a stereoscopic image.
  • the stereoscopic display unit may be a three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glasses-free method), a projection method (holographic method).
  • the sound output unit 152 may output audio data received from the wireless communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output unit 152 may also output a sound signal related to a function (for example, a call signal reception sound or a message reception sound) performed in the mobile terminal 100.
  • the sound output unit 152 may include a receiver, a speaker, a buzzer, and the like.
  • the haptic module 153 generates various haptic effects that a user can feel.
  • a representative example of the tactile effect generated by the haptic module 153 may be vibration.
  • the intensity and pattern of vibration generated by the haptic module 153 may be controlled by the user's selection or the setting of the controller. For example, the haptic module 153 may synthesize different vibrations and output or sequentially output them.
  • the haptic module 153 may be used to stimulate pins that vertically move with respect to the contact skin surface, jetting force or suction force of air through the jetting or suction port, grazing to the skin surface, contact of electrodes, and electrostatic force.
  • Various tactile effects can be generated, such as effects by the endothermic and the reproduction of a sense of cold using the elements capable of endotherm or heat generation.
  • the haptic module 153 may not only deliver a tactile effect through direct contact, but also may allow a user to feel the tactile effect through a muscle sense such as a finger or an arm. Two or more haptic modules 153 may be provided according to a configuration aspect of the mobile terminal 100.
  • the light output unit 154 outputs a signal for notifying occurrence of an event by using light of a light source of the mobile terminal 100.
  • Examples of events occurring in the mobile terminal 100 may be message reception, call signal reception, missed call, alarm, schedule notification, email reception, information reception through an application, and the like.
  • the signal output from the light output unit 154 is implemented as the mobile terminal emits light of a single color or a plurality of colors to the front or the rear.
  • the signal output may be terminated by the mobile terminal detecting the user's event confirmation.
  • the interface unit 160 serves as a path to all external devices connected to the mobile terminal 100.
  • the interface unit 160 receives data from an external device, receives power, transfers the power to each component inside the mobile terminal 100, or transmits data inside the mobile terminal 100 to an external device.
  • the port, audio input / output (I / O) port, video input / output (I / O) port, earphone port, etc. may be included in the interface unit 160.
  • the identification module is a chip that stores a variety of information for authenticating the usage rights of the mobile terminal 100, a user identification module (UIM), subscriber identity module (SIM), universal user authentication And a universal subscriber identity module (USIM).
  • a device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in the form of a smart card. Therefore, the identification device may be connected to the terminal 100 through the interface unit 160.
  • the interface unit 160 may be a passage for supplying power from the cradle to the mobile terminal 100 or may be input from the cradle by a user.
  • Various command signals may be a passage through which the mobile terminal 100 is transmitted.
  • Various command signals or power input from the cradle may operate as signals for recognizing that the mobile terminal 100 is correctly mounted on the cradle.
  • the memory 170 may store a program for the operation of the controller 180 and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.).
  • the memory 170 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.
  • the memory 170 may include a flash memory type, a hard disk type, a solid state disk type, an SSD type, a silicon disk drive type, and a multimedia card micro type. ), Card-type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read It may include at least one type of storage medium of -only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk and optical disk.
  • the mobile terminal 100 may be operated in connection with a web storage that performs a storage function of the memory 170 on the Internet.
  • the controller 180 controls the operation related to the application program, and generally the overall operation of the mobile terminal 100. For example, if the state of the mobile terminal satisfies a set condition, the controller 180 may execute or release a lock state that restricts input of a user's control command to applications.
  • controller 180 may perform control and processing related to voice call, data communication, video call, or the like, or may perform pattern recognition processing for recognizing handwriting input or drawing input performed on a touch screen as text and images, respectively. Can be. Furthermore, the controller 180 may control any one or a plurality of components described above in order to implement various embodiments described below on the mobile terminal 100 according to the present invention.
  • the power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery configured to be rechargeable, and may be detachably coupled to the terminal body for charging.
  • the power supply unit 190 may be provided with a connection port, the connection port may be configured as an example of the interface 160 is electrically connected to the external charger for supplying power for charging the battery.
  • the power supply unit 190 may be configured to charge the battery in a wireless manner without using the connection port.
  • the power supply unit 190 uses one or more of an inductive coupling based on a magnetic induction phenomenon or a magnetic resonance coupling based on an electromagnetic resonance phenomenon from an external wireless power transmitter. Power can be delivered.
  • various embodiments of the present disclosure may be implemented in a recording medium readable by a computer or a similar device using, for example, software, hardware, or a combination thereof.
  • FIG. 3 is a block diagram for explaining an image output apparatus according to the present invention.
  • the image output apparatus 200 may include a tuner 210, a demodulator 220, a signal input / output unit 230, an interface unit 240, and a controller 250. ), A storage unit 260, a display unit 270, and an audio output unit 280.
  • the external input device may be a separate device from the image output device 200 or may be included as one component of the image output device 200.
  • the tuner 210 selects an RF broadcast signal corresponding to a channel selected by a user from a radio frequency (RF) broadcast signal received through an antenna, and converts the RF broadcast signal into an intermediate frequency signal or a baseband image. Convert to voice signal. For example, if the RF broadcast signal is a digital broadcast signal, the tuner 210 converts the RF broadcast signal into a digital IF signal (DIF). On the other hand, if the RF broadcast signal is an analog broadcast signal, the tuner 210 converts the RF broadcast signal into an analog baseband video / audio signal (CVBS / SIF). As such, the tuner 210 may be a hybrid tuner capable of processing digital broadcast signals and analog broadcast signals.
  • RF radio frequency
  • the digital IF signal DIF output from the tuner 210 is input to the demodulator 220, and the analog baseband video / audio signal CVBS / SIF output from the tuner 210 is input to the controller 260.
  • the tuner 220 may receive an RF broadcast signal of a single carrier according to an Advanced Television Systems Committee (ATSC) scheme or an RF broadcast signal of multiple carriers according to a digital video broadcasting (DVB) scheme.
  • ATSC Advanced Television Systems Committee
  • DVD digital video broadcasting
  • the present invention is not limited thereto, and the image output apparatus 200 may include a plurality of tuners, for example, first and second tuners.
  • the first tuner may receive a first RF broadcast signal corresponding to a broadcast channel selected by a user
  • the second tuner may sequentially or periodically receive a second RF broadcast signal corresponding to a previously stored broadcast channel.
  • the second tuner may convert the RF broadcast signal into a digital IF signal (DIF) or an analog baseband video / audio signal (CVBS / SIF) in the same manner as the first tuner.
  • DIF digital IF signal
  • CVBS / SIF analog baseband video / audio signal
  • the demodulator 220 receives the digital IF signal DIF converted by the tuner 210 and performs a demodulation operation. For example, if the digital IF signal DIF output from the tuner 210 is an ATSC scheme, the demodulator 220 performs 8-VSB (8-Vestigal Side Band) demodulation. In this case, the demodulator 220 may perform channel decoding such as trellis decoding, de-interleaving, Reed Solomon decoding, and the like. To this end, the demodulator 220 may include a trellis decoder, a de-interleaver, a reed solomon decoder, and the like.
  • the demodulator 220 performs coded orthogonal frequency division modulation (COFDMA) demodulation.
  • the demodulator 220 may perform channel decoding such as convolutional decoding, deinterleaving, and Reed Solomon decoding.
  • the demodulator 220 may include a convolution decoder, a deinterleaver and a Reed-Solomon decoder.
  • the signal input / output unit 230 is connected to an external device to perform signal input and output operations, and for this purpose, may include an A / V input / output unit (not shown) and a wireless communication unit (not shown).
  • a / V input / output part is Ethernet (Ethernet) terminal, USB terminal, CVBS (Composite Video Banking Sync) terminal, component terminal, S-video terminal (analog), DVI (Digital Visual Interface) terminal, HDMI (High Definition Multimedia Interface) terminal , MHL (Mobile High-definition Link) terminal, RGB terminal, D-SUB terminal, IEEE 1394 terminal, SPDIF terminal, a liquid (Liquid) HD terminal and the like.
  • the digital signal input through these terminals may be transmitted to the controller 250.
  • an analog signal input through the CVBS terminal and the S-video terminal may be converted into a digital signal through an analog-digital converter (not shown) and transmitted to the controller 250.
  • the wireless communication unit may perform a wireless internet connection.
  • the wireless communication unit performs wireless Internet access by using a wireless LAN (Wi-Fi), a wireless broadband (Wibro), a world interoperability for microwave access (Wimax), a high speed downlink packet access (HSDPA), or the like. can do.
  • the wireless communication unit may perform near field communication with other electronic devices.
  • the wireless communication unit may perform short range wireless communication using Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like. have.
  • RFID Radio Frequency Identification
  • IrDA infrared data association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • the signal input / output unit 230 is a video signal or an audio provided from an external device such as a digital versatile disk (DVD) player, a Blu-ray player, a game device, a camcorder, a computer (laptop), a mobile device, a smart phone, or the like.
  • the signal and the data signal may be transmitted to the controller 250.
  • the video signal, audio signal, and data signal of various media files stored in an external storage device such as a memory device or a hard disk may be transmitted to the controller 250.
  • the video signal, the audio signal, and the data signal processed by the controller 250 may be output to another external device.
  • the signal input / output unit 230 may be connected to a set-top box, for example, a set-top box for an IPTV (Internet Protocol TV) through at least one of the various terminals described above to perform signal input and output operations.
  • the signal input / output unit 230 may transmit the video signal, the audio signal, and the data signal processed by the set-top box for the IPTV to the control unit 250 to enable bidirectional communication, and may be processed by the control unit 250.
  • the signals can also be passed to set-top boxes for IPTV.
  • the IPTV may include ADSL-TV, VDSL-TV, FTTH-TV, etc. classified according to a transmission network.
  • the digital signal output from the demodulator 220 and the signal output unit 230 may include a stream signal TS.
  • the stream signal TS may be a signal multiplexed with a video signal, an audio signal, and a data signal.
  • the stream signal TS may be an MPEG-2 TS (Transprt Stream) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, and the like.
  • the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.
  • the interface unit 240 may receive an input signal for power control, channel selection, screen setting, etc. from the external input device 200, or may transmit a signal processed by the controller 260 to the external input device 200. .
  • the interface unit 240 and the external input device 200 may be connected by wire or wirelessly.
  • a sensor unit may be provided, and the sensor unit is configured to detect the input signal from a remote controller, for example, a remote controller.
  • the network interface unit (not shown) provides an interface for connecting the image output apparatus 200 to a wired / wireless network including an internet network.
  • the network interface unit 230 may include an Ethernet terminal for connection with a wired network, and for connection with a wireless network, a WLAN (Wi-Fi) or Wibro (Wireless). Broadband, Wimax (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA) communication standards, and the like may be used.
  • the network interface unit can access a predetermined web page through a network. That is, by accessing a predetermined web page through the network, it is possible to send or receive data with the server.
  • content or data provided by a content provider or a network operator may be received. That is, content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider may be received through a network.
  • the network interface unit may select and receive a desired application from among applications that are open to the public through the network.
  • the controller 250 may control the overall operation of the image output apparatus 200. More specifically, the controller 250 is formed to control the generation and output of the image. For example, the controller 250 may control the tuner 210 to tune an RF broadcast signal corresponding to a channel selected by a user or a previously stored channel.
  • the controller 250 may include a demultiplexer, an image processor, an audio processor, a data processor, and an on screen display (OSD) generator.
  • the controller 250 may include a CPU or a peripheral device in hardware.
  • the controller 250 may demultiplex the stream signal TS, for example, the MPEG-2 TS, into a video signal, an audio signal, and a data signal.
  • the stream signal TS for example, the MPEG-2 TS
  • the controller 250 may perform image processing, for example, decoding on the demultiplexed image signal. More specifically, the control unit 250 decodes the encoded video signal of the MPEG-2 standard using the MPEG-2 decoder, and H according to the Digital Multimedia Broadcasting (DMB) method or the DVB-H using the H.264 decoder. The encoded video signal of the .264 standard can be decoded. In addition, the controller 250 may process the image such that brightness, tint, color, etc. of the image signal are adjusted. The image signal processed by the controller 250 may be transmitted to the display unit 270 or may be transmitted to an external output device (not shown) through an external output terminal.
  • DMB Digital Multimedia Broadcasting
  • the controller 250 may perform voice processing, for example, decoding on the demultiplexed voice signal. More specifically, the control unit 250 decodes the encoded audio signal of the MPEG-2 standard by using the MPEG-2 decoder, and MPEG-4 Bit Sliced Arithmetic Coding (BSAC) standard according to the DMB method using the MPEG 4 decoder. The encoded audio signal may be decoded, and the encoded audio signal of the AAC (Advanced Audio Codec) standard of MPEG 2 according to the satellite DMB scheme or DVB-H may be decoded using the AAC decoder. In addition, the controller 250 may process a base, treble, and volume control. The voice signal processed by the controller 250 may be transmitted to the audio output unit 280, for example, a speaker, or may be transmitted to an external output device.
  • BSAC MPEG-4 Bit Sliced Arithmetic Coding
  • the controller 250 may perform signal processing on the analog baseband video / audio signal CVBS / SIF.
  • the analog baseband video / audio signal CVBS / SIF input to the controller 250 may be an analog baseband video / audio signal output from the tuner 210 or the signal input / output unit 230.
  • the signal processed image signal is displayed through the display unit 270, and the signal processed audio signal is output through the audio output unit 280.
  • the controller 250 may perform data processing, for example, decoding on the demultiplexed data signal.
  • the data signal may include EPG (Electronic Program Guide) information including broadcast information such as a start time and an end time of a broadcast program broadcast in each channel.
  • EPG information may include, for example, TSC-PSIP (ATSC-Program and System Information Protocol) information in the ATSC scheme, and DVB-Service Information (DVB-SI) in the DVB scheme.
  • ATSC-PSIP information or DVB-SI information may be included in a header (4 bytes) of MPEG-2 TS.
  • the controller 250 may perform a control operation for OSD processing.
  • the controller 250 displays an OSD for displaying various types of information in the form of a graphic or text based on at least one of an image signal and a data signal or an input signal received from the external input device 200. You can generate a signal.
  • the OSD signal may include various data such as a user interface screen, a menu screen, a widget, and an icon of the image output apparatus 200.
  • the storage unit 260 may store a program for signal processing and control of the controller 250, or may store a signal processed video signal, an audio signal, and a data signal.
  • the storage unit 260 may include a flash memory, a hard disk, a multimedia card micro type, a card type memory (for example, SD or XD memory), random access (RAM), and the like.
  • memory RAM
  • static random access memory SRAM
  • read-only memory ROM
  • EEPROM electrically erasable programmable read-only memory
  • PROM programmable read-only memory
  • magnetic memory magnetic disk
  • optical disk At least one of the storage medium may include.
  • the display unit 270 may generate a driving signal by converting an image signal, a data signal, an OSD signal, etc. processed by the controller 250 into an RGB signal. Through this, the display unit 270 outputs an image.
  • the display unit 270 may include a plasma display panel (PDP), a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT-LCD), and an organic light emitting diode (Organic).
  • PDP plasma display panel
  • LCD liquid crystal display
  • TFT-LCD thin film transistor liquid crystal display
  • Organic light emitting diode Organic light emitting diode
  • Light Emitting Diode (OLED) a flexible display (flexible display), a three-dimensional display (3D display), it can be implemented in various forms such as an electronic ink display (e-ink display).
  • the display 280 may be implemented as a touch screen to perform a function of an input device.
  • the audio output unit 280 outputs a voice signal processed by the controller 250, for example, a stereo signal or 5.1 signals.
  • the audio output unit 280 may be implemented by various types of speakers.
  • a photographing unit (not shown) for photographing the user may be further provided.
  • the photographing unit (not shown) may be implemented by one camera, but is not limited thereto and may be implemented by a plurality of cameras.
  • the image information photographed by the photographing unit (not shown) is input to the controller 270.
  • a sensing unit including at least one of a touch sensor, a voice sensor, a position sensor, and a motion sensor may be further provided in the image output apparatus 200. have.
  • the signal detected by the sensing unit may be transmitted to the controller 250 through the user input interface unit 240.
  • the controller 250 may detect a user's gesture by combining or combining an image photographed from a photographing unit or a sensed signal from a sensing unit (not shown).
  • the power supply unit (not shown) supplies the corresponding power throughout the image output apparatus 200.
  • power may be supplied to the controller 250, which may be implemented in the form of a system on chip (SOC), a display unit 270 for displaying an image, and an audio output unit 280 for audio output. Can be.
  • SOC system on chip
  • the power supply unit may include a converter (not shown) for converting AC power into DC power.
  • a converter for example, when the display unit 270 is implemented as a liquid crystal panel having a plurality of backlight lamps, an inverter (not shown) capable of PWM operation may be further provided for driving of variable brightness or dimming. It may be.
  • the external input device is connected to the interface unit 240 by wire or wirelessly, and transmits an input signal generated according to a user input to the interface unit 240.
  • the external input device may include a remote controller, a mouse, a keyboard, and the like.
  • the remote controller may transmit an input signal to the interface unit 240 through Bluetooth, RF communication, infrared communication, UWB (Ultra Wideband), ZigBee, or the like.
  • the remote controller can be implemented as a space remote control device.
  • the space remote control device may generate an input signal by detecting an operation of the main body in the space.
  • the external input device may include a mobile terminal according to an embodiment of the present invention.
  • the image output apparatus 200 receives at least one of ATSC (8-VSB) digital broadcasting, DVB-T (COFDM) digital broadcasting, ISDB-T (BST-OFDM) digital broadcasting, and the like. It can be implemented as a fixed digital broadcast receiver possible.
  • the image output apparatus 200 may include terrestrial DMB digital broadcasting, satellite DMB digital broadcasting, ATSC-M / H digital broadcasting, DVB-H digital broadcasting, and media flow. Link Only) may be implemented as a mobile digital broadcast receiver capable of receiving at least one of digital broadcasting and the like.
  • the image output device 200 may be implemented as a digital broadcast receiver for cable, satellite communication, IPTV.
  • the image quality adjustment function may be performed.
  • picture quality refers to picture quality such as color tone and brightness in an image output apparatus.
  • the picture quality adjusting function includes brightness, contrast, color, and the like of a back light. Brightness, chroma, hue, saturation, luminance, sharpness, tint white balance and color temperature, RGB pixel values, etc. It means the function to adjust.
  • the image output apparatus 200 may adjust the image quality according to a user's request or control of the controller.
  • the image output apparatus 200 may perform color calibration through the image quality adjustment function.
  • the color correction refers to a process of setting an output characteristic of the image output apparatus 200 to a reference color or another device (for example, another image output apparatus 200).
  • the color calibration may be referred to as color compensation or color correction.
  • the image output apparatus 200 may adjust color balance (white balance), for example, by using an image quality adjusting function.
  • the white balance may be adjusted using the color temperature.
  • the said color temperature is one of the methods of displaying the light of a light source. Specifically, the color temperature may be understood as a numerical representation of the color of the light source using the absolute temperature.
  • the unit of measurement for color temperature is K (Kelvin, Kelvin).
  • the color temperature may be defined by an International Commission on Illumination (CIE) 1931 color space chromaticity diagram (hereinafter referred to as 'CIE chromaticity diagram').
  • CIE International Commission on Illumination
  • 'CIE chromaticity diagram' The color temperature defined through the CIE chromaticity chart may mean a correlated color temperature.
  • colors with low color temperatures are named warm colors (yellowish white through red), and colors with high color temperatures (eg 5000K or higher) are cold It is named cool colors (bluish white).
  • cool colors blue white
  • the plurality of image output apparatus 200 may have different image quality (for example, white balance) despite the same setting (setting).
  • the plurality of image output apparatuses 200 may have different image quality according to the type and characteristics of the panel of the image output apparatus despite the same output setting (setting). This includes the case of the same product (eg, at least two products generated in one production line) having different image quality depending on the inherent characteristics of the hardware configuration constituting the panel.
  • the case where the plurality of image output apparatuses have different image quality may further include the case where the same products are set to different settings based on a user request.
  • the plurality of image output apparatuses may have different image quality according to differences in the structure of the image output apparatus (the structure of the panel), the manufacturing method of the image output apparatus, or the output method of the image output apparatus.
  • the present invention can perform an image quality adjustment function (for example, color calibration) for a plurality of image output devices having different image quality.
  • the image output apparatus 200 of the present invention may control the RGB signal (RGB output value, RGB output ratio) to adjust the image quality (eg, white balance).
  • the image output apparatus 200 of the present invention may adjust the color temperature by controlling the RGB signal to adjust the white balance.
  • the image output apparatus 200 corresponding to the image quality adjustment target to correspond to the white balance of the image output apparatus 200 which is a standard of image quality adjustment among the plurality of image output apparatuses 200 through the image quality adjustment function.
  • the white balance can be adjusted.
  • the image output apparatus corresponding to the image quality adjustment target when the color temperature of the image output apparatus corresponding to the image quality adjustment target is higher than the color temperature of the image output apparatus as the reference, the image output apparatus corresponding to the image quality adjustment target is bluer than the image output apparatus as the reference image. Will light up.
  • the image output apparatus corresponding to the image quality adjustment target may reduce the output of the B (Blue) signal among the RGB signals or increase the output of the R (Red) signal to lower the color temperature.
  • the image output apparatus corresponding to the image quality adjustment target when the color temperature of the image output apparatus corresponding to the image quality adjustment target is lower than the color temperature of the image output apparatus as the reference, the image output apparatus corresponding to the image quality adjustment target is light of a red type than the image output apparatus as the reference image. Will be displayed.
  • the image output apparatus corresponding to the image quality adjustment target may reduce the color temperature by increasing the output of the B (Blue) signal or reducing the output of the R (Red) signal among the RGB signals.
  • the image output apparatus of the present invention can perform an image quality adjustment function so as to correspond to the image quality of any one image output apparatus as a reference among the plurality of image output apparatuses.
  • the present invention can use a mobile terminal to perform an image quality adjustment function such that the image quality of an image output apparatus corresponding to an image quality adjustment target among the plurality of image output apparatuses corresponds to the image quality of any one image output apparatus. have.
  • FIG. 4 is a flowchart illustrating a control method of a mobile terminal according to an exemplary embodiment of the present invention
  • FIG. 5 is a conceptual diagram for explaining the control method described with reference to FIG. 4.
  • the mobile terminal 100 of the present invention outputs an image (hereinafter, referred to as a 'preview image') 310 received through the camera 121 provided in the mobile terminal to the display unit 151. can do. Specifically, the mobile terminal 100 of the present invention generates a preview image 310 based on the images corresponding to the plurality of image output apparatuses received through the camera, and displays the preview image 310 on the display unit 151. Can be output to an image (hereinafter, referred to as a 'preview image') 310 received through the camera 121 provided in the mobile terminal to the display unit 151. can do. Specifically, the mobile terminal 100 of the present invention generates a preview image 310 based on the images corresponding to the plurality of image output apparatuses received through the camera, and displays the preview image 310 on the display unit 151. Can be output to
  • the preview image 310 may be output to the display unit 151 based on the execution of an application including a function of activating the camera 121. Execution of the application may be performed based on selection (or touch) of an icon of the application.
  • the mobile terminal 100 of the present invention may perform image analysis on the preview image 310 output to the display unit 151.
  • the image analysis may mean extracting color information, brightness information, etc. of at least some images included in the preview image 310.
  • images corresponding to the plurality of image output apparatuses 200a and 200b included in the preview image 310 received through the camera are extracted by using 300a and 300b (S310).
  • the display unit 151 of the mobile terminal 100 may output a preview image 310 received through the camera based on the execution of the application associated with the camera activation function.
  • the preview image 310 may include images 300a and 300b corresponding to the plurality of image output apparatuses 200a and 200b according to a user's control.
  • the images 300a and 300b corresponding to the plurality of image output apparatuses may be configured such that the user faces the camera 121 provided in the mobile terminal 100 toward the plurality of image output apparatuses 200a and 200b.
  • it may be included in the preview image 310. That is, the mobile terminal 100 of the present invention generates a preview image 310 based on the images corresponding to the plurality of image output apparatuses received through the camera, and displays the preview image 310 on the display unit 151. You can print
  • the preview image 310 corresponds to at least a portion of the image 300a and the second image output apparatus 200b corresponding to at least a portion of the first image output apparatus 200a among the plurality of image output apparatuses 200a and 200b.
  • An image 300b may be output.
  • the controller 180 of the mobile terminal 100 uses the images 300a and 300b corresponding to the plurality of image output apparatuses included in the preview image 310 to display the plurality of image output apparatuses 200a and 200b.
  • the quality information of can be extracted.
  • the extracted image quality information is information extracted through the images 300a and 300b corresponding to the plurality of image output apparatuses included in the preview image 310 and includes color information (color temperature information, RGB pixel values, contrast). , Sharpness (sharpness), hue, brightness information, and the like.
  • the mobile terminal 100 may request the output of the preset screen 400 used for extracting the image quality information from the plurality of image output apparatuses 200a and 200b.
  • the preset screen 400 may be implemented in various forms.
  • the preset screen 400 may be a white screen.
  • the plurality of image output apparatuses 200 may output preset screens having different image quality according to panel characteristics.
  • the preset screen 400 may be a white screen output as a file (data) formed by the same algorithm is executed.
  • the screens preset by the same file are output in the plurality of image output apparatuses 200, the plurality of image output apparatuses 200 may differ from each other according to the settings (eg, RGB output ratios, brightness, etc.) set in the plurality of image output apparatuses themselves.
  • a preset screen having image quality eg, white balance
  • the graphic object 500 may be output to the preset screen 400.
  • the graphic object 500 may serve to guide the quality information extraction region.
  • the indicator 600 corresponding to the graphic object may be output to the preview image 310 of the mobile terminal 100.
  • the controller 180 may extract image quality information of the plurality of image output apparatuses based on the indicator 600 overlapping an image corresponding to the graphic object included in the preview image 310.
  • the controller 180 may process that the indicator 600 overlaps an image corresponding to the graphic object 500 as an image quality information extraction command.
  • the controller 180 may display images 300a and 300b corresponding to the plurality of image output apparatuses included in the preview image 310 while the preset screen 400 is output to the plurality of image output apparatuses 200. ), The image quality information of the plurality of image output apparatuses can be extracted.
  • the controller 180 extracts image quality information of the first image output apparatus 200a by using an image 300a corresponding to the first image output apparatus 200a included in the preview image 310. can do.
  • the controller 180 may extract image quality information of the second image output apparatus 200b using the image 300b corresponding to the second image output apparatus 200b included in the preview image 310. have.
  • a preset screen 400 may be output to the first and second image output apparatuses 200a and 200b.
  • the controller 180 may use the first image output apparatus (eg, an image corresponding to the preset screen 400 output to the first image output apparatus 200a included in the preview image 310).
  • the picture quality information of 200a) can be extracted.
  • the controller 180 may use the second image output apparatus 200b by using an image corresponding to the preset screen 400 output to the second image output apparatus 200b included in the preview image 310.
  • the quality information of can be extracted.
  • the step of transmitting the extracted image quality information or the image quality correction data corresponding to the image quality information to at least one image output apparatus corresponding to the image quality adjustment target among the plurality of image output apparatuses (S320).
  • the controller 180 controls the image output apparatus 200b as one of the plurality of image output apparatuses 200a and 200b when the image output apparatus 200b corresponds to an image quality adjustment target.
  • the extracted image quality information or the image quality correction data corresponding to the image quality information may be transmitted.
  • the controller 180 transmits the extracted image quality information or the image quality correction data corresponding to the image quality information so that the image quality of at least one image output apparatus of the plurality of image output apparatuses is adjusted. Can be.
  • the image quality information transmitted to one of the image output apparatuses may be image quality information of each of the plurality of image output apparatuses. Further, the image quality correction data corresponding to the image quality information may be the image quality information of any one image output apparatus as a reference. And an image quality difference value (eg, a brightness difference value or a color temperature difference value) based on the image quality information of the image output apparatus.
  • an image quality difference value eg, a brightness difference value or a color temperature difference value
  • the image output apparatus 200b corresponding to the image quality adjustment target that receives the image quality information extracted from the mobile terminal or the image quality correction data corresponding to the image quality information may output the image quality correction data corresponding to the received image quality information or the image quality information. To adjust the picture quality. A more specific method of adjusting the image quality will be described later with reference to FIG. 14.
  • a plurality of image output apparatuses 200a and 200b having different image quality may be output to (a) of FIG. 5. Specifically, when the same file (image) is output to the display units 270a and 270b of the plurality of image output apparatuses, the plurality of image output apparatuses 200a and 200b may have different image quality.
  • the controller 180 uses the images 300a and 300b corresponding to the plurality of image output apparatuses included in the preview image 310 received through the camera, and the plurality of image output apparatuses 200a and 200b. Information quality can be extracted.
  • the controller 180 of the mobile terminal can request the output of the preset screen 400 used for extracting image quality information from the plurality of image output apparatuses 200a and 200b.
  • a preset screen 400 may be output to the plurality of image output apparatuses 200a and 200b.
  • the preset screen 400 may output a graphic object 500 for guiding the image quality information extraction region.
  • the indicator 600 corresponding to the graphic object may be output to the preview image 310 output to the mobile terminal.
  • the graphic object output to the plurality of image output apparatuses 200a and 200b by the indicator 600 output to the preview image 310 by a user request (movement)
  • the controller 180 of the mobile terminal may extract image quality information of the plurality of image output apparatuses 200a and 200b.
  • the controller 180 of the mobile terminal transmits the extracted image quality information or the image quality to at least one image output apparatus (eg, 200b) corresponding to an image quality adjustment target among the plurality of image output apparatuses 200a and 200b.
  • Image quality correction data corresponding to the information may be transmitted.
  • the image output apparatus 200b that has received the image quality information or the image quality correction data corresponding to the image quality information has an image quality using the received image quality information or the image quality correction data, as shown in FIG. Can be adjusted.
  • the present invention can more easily adjust the image quality of the plurality of image output apparatuses using the mobile terminal. Therefore, it is possible to eliminate the inconvenience that the user has to manually adjust the image quality of the image output apparatus in several steps.
  • the present invention even when a plurality of image output apparatuses output a specific screen according to the same output setting, when the image quality is different according to the panel characteristics, it is measured outside the plurality of image output apparatuses (measured by the mobile terminal).
  • the image quality of the plurality of image output apparatuses can be adjusted based on the image quality information. Accordingly, the present invention can provide the user with a heterogeneous screen by adjusting the image quality of the plurality of image output apparatuses.
  • FIG. 6 is a flowchart illustrating a method of adjusting image quality according to an embodiment of the present invention.
  • the image output apparatus may independently transmit and receive data or control commands with the mobile terminal, or adjust the image quality by the image output apparatus itself.
  • the image output apparatus is connected to the controller and controlled by the controller (for example, when the image output apparatus corresponds to a monitor and the controller corresponds to the main body PC), the image output is from above.
  • the description of the apparatus and the description of the image output apparatus hereinafter will be analogous to the contents of the controller device (for example, the main body PC).
  • image quality adjustment of the plurality of image output apparatuses 200 using the mobile terminal 100 may be performed through an image quality related application.
  • the application related to image quality adjustment may include a function of transmitting and receiving data and control commands between the mobile terminal 100 and the image output apparatus 200.
  • the image quality adjustment-related application may be implemented as at least one user interface for each step performed to adjust the image quality of the plurality of image output apparatuses 200.
  • the application related to image quality adjustment may perform different operations (functions) according to a target to be installed (stored). For example, an image quality adjustment related application installed in the mobile terminal 100 and an image quality adjustment related application installed in the image output apparatus 200 may perform different operations.
  • the mobile terminal 100 and the plurality of image output apparatuses 200 may execute an image quality adjustment related application based on a user request.
  • the image quality adjustment related application may be received from a server or installed in the mobile terminal 100 and the plurality of image output apparatuses 200 through a portable recording medium such as USB, USIM, SD card, CD, or the like. .
  • the image output apparatus 200 may include a barcode including link information that can be installed in the mobile terminal 100.
  • a barcode including link information For example, QR code
  • QR code QR code
  • the controller 180 of the mobile terminal 100 may activate a camera to output a preview image to the display unit 151 and output an image corresponding to the barcode to the preview image based on a user request.
  • the controller 180 may extract link information using the image corresponding to the bar code, and receive (download) an image quality adjustment related application from an external device (for example, a server) using the extracted link information.
  • FIG. 7 is a flowchart illustrating a method for communication connection between a mobile terminal and a plurality of image output apparatuses according to an embodiment of the present invention
  • FIG. 8 is a conceptual diagram for describing the communication connection method described with reference to FIG. 7.
  • an application related to image quality adjustment may be executed (S102).
  • a function of activating a camera may be linked.
  • the controller 180 of the mobile terminal 100 activates the camera based on the execution of the application related to image quality adjustment, and displays the preview image 310 received through the camera on the display unit 151.
  • the preview image 310 may be generated based on images corresponding to the plurality of image output apparatuses 200 received through the camera.
  • the plurality of image output apparatuses 200 may be connected to the same network by user setting.
  • the plurality of image output apparatuses 200 may include barcodes (eg, QR codes) 600a including network information (eg, network names, network addresses (IP addresses), etc.) related to the connected network. May be output.
  • the barcode 600a may further include information (eg, image output device model name, serial number, etc.) related to the plurality of image output apparatuses 200 connected to the network.
  • the barcode 600a includes information related to the controller device (for example, a controller device model name and a series). Number, etc.) may be further included.
  • the preview image 310 output to the display unit 151 of the mobile terminal 100 includes a barcode 600a output to any one of the plurality of image output apparatuses 200 according to a user request (or control).
  • the corresponding image 600b may be included.
  • the controller 180 of the mobile terminal 100 uses the image 600b corresponding to the barcode 600a included in the preview image 310 to obtain information (eg, network information) included in the barcode. Can be extracted (S108).
  • a bar code 600a including network information may be output to any one of the plurality of image output apparatuses 200a.
  • the preview image 310 output to the display unit 151 of the mobile terminal 100 may include an image 600b corresponding to the barcode.
  • the controller 180 of the mobile terminal can extract the network information using the image 600b corresponding to the barcode.
  • controller 180 of the mobile terminal 100 may access the same network as the plurality of image output apparatuses 200 using the extracted network information (S110).
  • the mobile terminal 100 uses the extracted network information.
  • a plurality of image output apparatuses 200 can be connected to a connected network.
  • the step of recognizing the arrangement of the plurality of image output apparatuses using the mobile terminal proceeds (S200).
  • FIGS. 10A and 10B illustrate a layout recognition method for a plurality of image output apparatuses described with reference to FIG. 9. It is a conceptual diagram for illustration.
  • the mobile terminal 100 of the present invention uses a plurality of image output apparatuses to select an image output apparatus corresponding to an image quality adjustment target or any one image output apparatus as a reference for image quality adjustment among the plurality of image output apparatuses 200. Recognizing the arrangement for the step may be performed (S200).
  • the mobile terminal 100 may detect a user request for recognizing the arrangement of the plurality of image output apparatuses (S202).
  • the display unit 151 of the mobile terminal 100 may output a button 330 associated with a function of recognizing the arrangement of a plurality of image output devices, and the user request is selected (or, Touch).
  • the display unit 151 of the mobile terminal includes a progress bar for guiding a preview image 310 received through a camera and adjusting image quality.
  • At least one of the 320 and the button 330 associated with a function of recognizing the arrangement of the plurality of image output apparatuses may be output.
  • the controller 180 of the mobile terminal may request output of a graphic object to a plurality of image output apparatuses (S204).
  • Graphic objects 510a having different colors or shapes may be output to each of the plurality of image output apparatuses 200a and 200b in operation S206. Specifically, a graphic object having a first shape is output to the first image output apparatus 200a among the plurality of image output apparatuses 200, and a second form different from the first form to the second image output apparatus 200b. A graphic object having a may be output.
  • the different shapes may include not only a case where the shape (shape) of the graphic object is different, but also a case in which the shape of the graphic object is the same but different in color (or brightness, saturation, etc.).
  • the controller 180 of the mobile terminal controls the plurality of images.
  • the output device 200a or 200b may request the output of the graphic object 510a.
  • the graphic objects 510a may be output to the plurality of image output apparatuses 200a and 200b in response to the request.
  • the plurality of image output apparatuses 200a and 200b may respectively output graphic objects 510a having different colors or shapes.
  • the graphic objects 510a having different colors or shapes output to the plurality of image output apparatuses 200a and 200b may have different colors or may be different from each other in FIG. 10B. As shown, they may have different shapes from each other.
  • images corresponding to the graphic objects may be output to the preview image 310 output to the mobile terminal.
  • the controller 180 of the mobile terminal may recognize the arrangement of the plurality of image output apparatuses using the image 510b corresponding to the graphic object included in the preview image 310 (S208). For example, the controller 180 of the mobile terminal outputs an image corresponding to the graphic object having the first shape on the left side and the image corresponding to the graphic object having the second shape is the right side in the preview image 310. On the other hand, the image output apparatus 200a outputting the graphic object having the first form is arranged on the left side, and the image output apparatus 200b outputting the graphic object having the second form is arranged on the right side. It can be recognized (judged).
  • the controller 180 of the mobile terminal may output a plurality of icons corresponding to the plurality of image output apparatuses to the display unit 151 to correspond to the recognized arrangement (S210). Specifically, when the controller 180 of the mobile terminal recognizes the arrangement of the plurality of image output apparatuses 200, the plurality of image output apparatuses 200 uses the number of graphic objects 510a having different colors or shapes. ) And the number of icons corresponding to the number can be output. Also, the controller 180 of the mobile terminal may determine the output positions of the plurality of icons 700 based on the arrangement of the plurality of image output apparatuses recognized through the image 510b corresponding to the graphic object.
  • the plurality of icons 700 may be output in advance before recognizing the arrangement of the plurality of image output apparatuses 200.
  • the number of the plurality of icons 700 may be determined based on the number of the plurality of image output apparatuses 200 connected to the same network during the communication connection. If the plurality of icons 700 are output before batch recognition, when the batch recognition process is performed, the controller 180 associates the plurality of image output apparatuses 200 with the plurality of icons 700, respectively.
  • the plurality of icons 700 may be moved and output to correspond to the arrangement of the plurality of image output apparatuses 200 recognized in the batch recognition process.
  • the plurality of icons 700a and 700b may be associated with the plurality of image output apparatuses 200a and 200b, respectively.
  • the first icon 700a of the plurality of icons may be associated with the first image output apparatus 200a
  • the second icon 700b may be associated with the second image output apparatus 200b.
  • the plurality of icons 700a and 700b may be output to correspond to the arrangement of the plurality of image output apparatuses 200a and 200b.
  • the controller 180 of the mobile terminal may determine the plurality of image output apparatuses 200a, 200b, 200c, and 200d determined through the graphic objects 510a having different colors or shapes. Based on the number of, a plurality of icons 700a, 700b, 700c, and 700d may be output.
  • the controller 180 of the mobile terminal may output the plurality of icons 700a, 700b, 700c, and 700d to correspond to the positions where the plurality of image output apparatuses 200a, 200b, 200c, and 200d are disposed.
  • the preview image of the mobile terminal is displayed on the graphic object output to the image output apparatus.
  • the corresponding indicator may be output.
  • the controller 180 of the mobile terminal overlaps the indicator with an image corresponding to a graphic object output to the plurality of image output apparatuses. It is also possible to recognize the arrangement of the plurality of image output apparatuses.
  • the present invention even if the mobile terminal 100 and the plurality of image output apparatus 200 is a communication connection, the mobile terminal 100 does not recognize the arrangement of the plurality of image output apparatus 200 only by the communication connection.
  • the conventional problem can be solved.
  • the user can more intuitively identify the position where the plurality of image output apparatuses are arranged through the mobile terminal, and more conveniently use the image output apparatus or the image quality adjustment standard corresponding to the image quality adjustment target among the plurality of image output apparatuses. Any one image output apparatus can be selected.
  • the image quality information of the plurality of image output apparatuses is extracted using the mobile terminal (S300).
  • FIGS. 11 and 12 are flowcharts illustrating a method of extracting image quality information of a plurality of image output apparatuses by using a mobile terminal according to an embodiment of the present invention
  • FIGS. 13A and 13B illustrate the image quality described with reference to FIGS. 11 and 12. It is a conceptual diagram for explaining the information extraction method.
  • step S302 the mobile terminal of the present invention selects one of the plurality of image output apparatuses, which is a standard of image quality adjustment, or at least one image output apparatus corresponding to the image quality adjustment target (S302).
  • At least one image output apparatus that is a standard of the image quality adjustment or at least one image output device corresponding to the image quality adjustment target may be selected through the plurality of icons 700 output in steps S200 to S210.
  • the controller 180 of the mobile terminal is selected.
  • the image output apparatus 200a corresponding to the selected icon 700a may be selected as an image output apparatus as a standard of image quality adjustment, or may be selected as an image output apparatus corresponding to an image quality target.
  • the image output apparatus corresponding to the selected icon is an image output apparatus that is a standard of image quality adjustment or an image output device that corresponds to an image quality target may be determined according to a user setting.
  • three or more icons may be output to the display unit 151 of the mobile terminal.
  • the controller 180 of the mobile terminal may select the image output device corresponding to the selected icon as the image output device as a standard of image quality adjustment.
  • the controller 180 of the mobile terminal may select image output devices corresponding to the selected at least two icons as the image output devices corresponding to the image quality adjustment target.
  • the mobile terminal receives a request for extracting image quality information (S304).
  • the display unit 151 of the mobile terminal may output a button associated with the image quality information extraction function.
  • the image quality information extraction request may be a touch applied to the button.
  • the controller 180 of the mobile terminal can request a screen switching to the plurality of image output apparatuses 200 (S306).
  • the screen change request may be understood as requesting an output of a preset screen 400 used for image quality extraction.
  • the plurality of image output apparatuses 200 receiving the screen switching request may output a preset screen which is moved to extract the quality information (S308).
  • the preset screen 400 may be implemented in various forms.
  • the preset screen 400 may be a white screen.
  • the plurality of image output apparatuses 200 may output preset screens having different image quality according to panel characteristics.
  • the preset screen 400 may be a white screen output as a file (data) formed by the same algorithm is executed. In this case, even if a preset screen is output by the same file in the plurality of image output apparatuses 200, preset screens having different image quality may be output according to settings set in the plurality of image output apparatuses themselves.
  • the graphic object 500a may be output to the preset screen 400.
  • the graphic object 500 may serve to guide the quality information extraction region.
  • the indicator 600 corresponding to the graphic object may be output to the preview image 310 of the mobile terminal 100.
  • An output position of the graphic object 500a guiding the image quality information extraction region may be determined based on a position where the plurality of image output apparatuses are arranged. For example, as illustrated in FIG. 13A, when the first image output apparatus 200a is disposed on the left side of the second image output apparatus 200b, the graphic object output to the first image output apparatus 200a is provided. 500a may be output to the right portion of the display unit of the first image output apparatus. On the contrary, as shown in (a) of FIG. 13B, when the first image output apparatus 200a is disposed on the right side of the second image output apparatus 200a, it is output to the first image output apparatus 200a. The graphic object 500a may be output on the left portion of the display unit of the first image output apparatus.
  • the position at which the graphic object is output in the image output apparatus may be determined based on the mobile terminal requesting screen switching to a plurality of image output apparatuses.
  • the screen change request may include information related to the output position of the graphic object.
  • the image output apparatus receiving the screen change request may output the graphic object based on information related to an output position of the graphic object.
  • the indicator 600 output to the preview image 310 of the mobile terminal may be disposed at a position that may correspond to the graphic object.
  • the position that may correspond to the graphic object means a position that may correspond to the image 500b corresponding to the graphic object included in the preview image 310.
  • the preview image 310 of the mobile terminal when the graphic object 500a guiding the image quality information extraction region is output on the preset screen 400 output to the plurality of image output apparatuses, the preview image 310 of the mobile terminal is output. ) May output an image 500b corresponding to the graphic object 500a.
  • the indicator 600 output on the preview image 310 of the mobile terminal may be output at a position capable of corresponding to the image 500b corresponding to the graphic object.
  • the output position of the indicator 600 may be determined based on the number and arrangement of the plurality of image output apparatuses 200a to 200d.
  • the plurality of image output apparatuses 200a to 200d are at least three (for example, four)
  • the plurality of image outputs are output to the preview image 310 of the mobile terminal.
  • a plurality of indicators 600 (for example, four) may be output to correspond to the number of devices.
  • the plurality of indicators 600 may be output at a position capable of corresponding to a graphic object output to the plurality of image output apparatuses, that is, a position capable of corresponding to an image corresponding to a graphic object included in the preview image. have.
  • the position at which the indicator 600 is output is an image 510b corresponding to the graphic object 510a having different colors or shapes used by the mobile terminal to recognize the arrangement of the plurality of image output apparatuses in steps S200 to S210. May be output to correspond to the output position.
  • the graphic object 500a for guiding the image quality information extraction region may have graphic objects 510a having different shapes, which are output to recognize the arrangement of the plurality of image output devices. ) May be output to correspond to at least one of the output positions.
  • the controller 180 of the mobile terminal may determine a position corresponding to the image 510b corresponding to the different graphic objects in the preview image 310. Thereafter, when a request for extracting image quality information is applied, the controller 180 of the mobile terminal can output the indicator 600 at the determined position.
  • the mobile terminal extracts the image quality information of the plurality of image output apparatuses (S310).
  • the controller 180 of the mobile terminal may extract image quality information of the plurality of image output apparatuses using images 300a and 300b corresponding to the plurality of image output apparatuses included in the preview image 310 received through the camera. have.
  • the controller 180 of the mobile terminal outputs a preset screen 400 used for extracting image quality information to the plurality of image output apparatuses 200a and 200b based on a user request (image information extraction request)
  • the image quality information may be extracted from an image corresponding to the preset screen included in the preview image 310.
  • the graphic object 500a for guiding the image quality information extraction region is output to the preset screen 400 of the plurality of image output apparatuses 200a and 200b, and the graphic object to the preview image 310 of the mobile terminal.
  • An indicator 600 corresponding to 500a may be output.
  • the controller 180 of the mobile terminal is configured to overlap the image 500b corresponding to the graphic object 500a output to the plurality of image output apparatuses, and thus the image quality of the plurality of image output apparatuses. Information can be extracted.
  • the extracted image quality information may mean information extracted by using images 300a and 300b corresponding to a plurality of image output apparatuses.
  • the controller 180 of the mobile terminal may transmit the extracted image quality information to an image output apparatus corresponding to an image quality adjustment target among a plurality of image output apparatuses (S320).
  • the plurality of image output apparatuses 200 may output a preset screen including a graphic object guiding a region for extracting image quality information based on a screen change request of the mobile terminal (S308).
  • the controller 180 of the mobile terminal may extract image quality information of the plurality of image output apparatuses based on the indicator 600 overlapping an image corresponding to the graphic object output to the plurality of image output apparatuses.
  • the image quality information may include at least one of brightness information, color temperature information, RGB pixel value, contrast information, sharpness information, and saturation information.
  • the controller 180 of the mobile terminal may include brightness information, color temperature information, RGB pixel value, contrast information, sharpness information, and saturation from an image corresponding to a preset screen of a plurality of image output apparatuses included in the preview image. Information and the like can be extracted.
  • the controller 180 may extract image quality information of the plurality of image output apparatuses based on the indicator 600 overlapping an image corresponding to the graphic object included in the preview image 310.
  • the controller 180 may process that the indicator 600 overlaps the image 500b corresponding to the graphic object 500a as an image quality information extraction command.
  • the mobile terminal may extract brightness information of the plurality of image output apparatuses by using a preset screen output to the plurality of image output apparatuses (S312).
  • the controller 180 of the mobile terminal may determine brightness of backlights of the plurality of image output apparatuses by extracting brightness information of the plurality of image output apparatuses.
  • the preset screen may be a screen output by the same RGB output signal.
  • the plurality of image output apparatuses 200 may have different color temperatures as the backlight brightness (output brightness) is different.
  • the image output apparatus may have a color temperature of the first value.
  • the RGB output ratio of the image output apparatus is 1: 1: 1 and the backlight brightness is 50
  • the image output apparatus may have a color temperature of a second value different from the first value.
  • the brightness information of the plurality of image output apparatuses may be extracted in order to adjust the image quality (for example, white balance) in a state where the plurality of image output apparatuses have backlight brightness within a reference range.
  • the image quality for example, white balance
  • the mobile terminal can determine whether output brightness of the plurality of image output apparatuses is within a reference range (S314).
  • the controller 180 of the mobile terminal may extract RGB pixel values of each of the plurality of image output apparatuses by using an image corresponding to a preset screen of the plurality of image output apparatuses included in the preview image.
  • the extracted RGB pixel value is an RGB pixel value extracted through an image corresponding to a preset screen included in the preview image of the mobile terminal, and may be different from an RGB pixel value output from a plurality of image output devices. have. This is because RGB pixel values output from the plurality of image output apparatuses may be differently measured from outside according to the brightness of the backlight.
  • the controller 180 of the mobile terminal may determine whether output brightness of the plurality of image output apparatuses 200 is within a reference range based on the extracted RGB pixel values. For example, the controller 180 of the mobile terminal may store a preset value (or matrix) used to determine backlight brightness in brightness information (extracted RGB values) extracted from the plurality of image output apparatuses. Based on the multiplied value, it may be determined whether output brightness of the plurality of image output apparatuses falls within a reference range.
  • step S314 when the output brightness of at least one of the plurality of image output apparatuses is out of the reference range, the controller 180 of the mobile terminal is at least one image output apparatus having output brightness outside the reference range. Information or brightness correction data corresponding to the brightness information may be transmitted.
  • the controller 180 of the mobile terminal extracts the extracted at least one image output device to have brightness within the reference range. Brightness information or brightness correction data may be transmitted to the at least one image output apparatus.
  • the brightness information may be brightness information of each of the plurality of image output apparatuses.
  • the brightness correction data corresponding to the brightness information may include brightness information of one image output apparatus as a reference and an image output corresponding to an image quality adjustment target.
  • the at least one image output device having an output brightness outside the reference range may be an image output device corresponding to an image quality adjustment target. That is, the controller 180 of the mobile terminal may determine whether the output brightness of the plurality of image output apparatuses is within a reference range based on the image output apparatus that is a standard of image quality adjustment among the plurality of image output apparatuses.
  • the image output device may adjust the output brightness based on the received brightness information or brightness correction data.
  • the image output apparatus 200 having received the brightness information may adjust the brightness of the backlight so as to have the brightness within the reference range based on the output brightness of the image output apparatus, which is a reference of image quality adjustment.
  • steps S315 and S316 may be omitted.
  • the color temperature information is extracted using images corresponding to the plurality of image output apparatuses while the plurality of image output apparatuses have brightness within the reference range (S317).
  • the controller 180 of the mobile terminal may extract color temperatures of the plurality of image output apparatuses 200 by using an image corresponding to the preset screen 400 included in the preview image 310.
  • the controller 180 of the mobile terminal can transmit the extracted color temperature information to the image output apparatus corresponding to the image quality adjustment target (S318).
  • the controller 180 of the mobile terminal extracts color temperature information of the plurality of image output apparatuses 200, and uses the color temperature information as at least one image corresponding to an image quality adjustment target among the plurality of image output apparatuses. Can be sent to the output device.
  • the image quality information transmitted to the at least one image output apparatus corresponding to the image quality adjustment target in step S320 may be color temperature information extracted by using images corresponding to the plurality of image output apparatuses in step S318. Can be.
  • the present invention can extract image quality information from the mobile terminal (outside of the image output apparatus).
  • the user extracts the image quality information of the plurality of image output apparatuses only if the indicator included in the preview image corresponds to the image corresponding to the graphic object output to the image output apparatus, and the image quality adjustment target Since the extracted image quality information can be transmitted to the image output apparatus corresponding to the above, convenience is enhanced.
  • the image output apparatus adjusts the image quality of the image output apparatus using the image quality information (S400).
  • FIG. 14 is a flowchart illustrating a method of adjusting image quality by an image output apparatus according to an embodiment of the present invention.
  • the image output apparatus 200 corresponding to the image quality adjustment target may receive image quality information or image quality correction data corresponding to the image quality information from the mobile terminal (S402).
  • the image quality information may include at least one of brightness information, color temperature information, RGB pixel value, contrast information, sharpness information, and hue information of the plurality of image output apparatuses.
  • the image output apparatus corresponding to the image quality adjustment target may adjust the RGB output ratio based on the image quality information (S404).
  • the image output apparatus 200 corresponding to the image quality adjustment target may adjust the RGB output ratio based on the received image quality information when the image quality information is received from the mobile terminal 100.
  • the received image quality information may include image quality information of a plurality of image output apparatuses, that is, image quality information extracted through an image corresponding to a preset screen of the plurality of image output apparatuses included in the preview image of the mobile terminal.
  • the image quality information may include color temperature information of a plurality of image output apparatuses.
  • the image quality information may include color temperature information of the image output apparatus, which is a standard for image quality adjustment, and color temperature information of the image output apparatus corresponding to the image quality adjustment target among the plurality of image output apparatuses.
  • the image output apparatus 200 corresponding to the image quality adjustment target adjusts the image quality so as to correspond to the white balance of the image output apparatus 200 which is a standard of image quality adjustment among the plurality of image output apparatuses 200 through the image quality adjustment function.
  • the white balance of the image output apparatus 200 corresponding to the object may be adjusted.
  • the image output apparatus corresponding to the image quality adjustment target when the color temperature of the image output apparatus corresponding to the image quality adjustment target is higher than the color temperature of the image output apparatus as the reference, the image output apparatus corresponding to the image quality adjustment target is bluer than the image output apparatus as the reference image. Will light up.
  • the image output apparatus corresponding to the image quality adjustment target may reduce the output of the B (Blue) signal among the RGB signals or increase the output of the R (Red) signal to lower the color temperature.
  • the image output apparatus corresponding to the image quality adjustment target when the color temperature of the image output apparatus corresponding to the image quality adjustment target is lower than the color temperature of the image output apparatus as the reference, the image output apparatus corresponding to the image quality adjustment target is light of a red type than the image output apparatus as the reference image. Will be displayed.
  • the image output apparatus corresponding to the image quality adjustment target may reduce the color temperature by increasing the output of the B (Blue) signal or reducing the output of the R (Red) signal among the RGB signals.
  • Adjusting the RGB output ratio described above can be understood as changing the gain of each RGB configuration.
  • the present invention is not limited thereto, and the image output apparatus 200 corresponding to the image quality adjustment target may control at least one of R, G, and B signals so as to correspond to the color temperature of the image output apparatus as a reference for image quality adjustment. .
  • the image output apparatus 200 corresponding to the image quality adjustment target adjusts the brightness based on the adjusted RGB output ratio (S406).
  • the image output apparatus 200 corresponding to the image quality adjustment target may perform the image quality adjustment function by adjusting the RGB output ratio based on the image quality information (color temperature information). At this time, when the RGB output ratio is adjusted, the brightness (or luminance) of the image output apparatus 200 may be changed.
  • the image output apparatus 200 corresponding to the image quality adjustment target may adjust (control) the backlight brightness based on the adjusted RGB output ratio.
  • the image output apparatus 200 corresponding to the image quality adjustment target may determine the degree of brightness to be adjusted by applying a predetermined weight associated with the RGB output.
  • Each of R, G, and B has different brightness characteristics due to its unique color. Accordingly, the brightness output from the R signal at the specific signal value and the brightness output from the G or B signal at the specific signal value may be different.
  • the image output apparatus 200 corresponding to the image quality adjustment target may determine the degree to which the brightness of the backlight is adjusted by adjusting a predetermined weight associated with the RGB output.
  • the preset weights for R, G, and B are 2: 7: 1.
  • the image output apparatus 200 multiplies the RGB output ratio (1: 1: 1) by the preset weight (2: 7: 1) before the adjustment.
  • specific values can be derived.
  • the specific value may be a value related to the brightness (luminance) of the image output apparatus.
  • the brightness before adjusting the RGB output ratio may be 10.
  • the image output apparatus corresponding to the image quality adjustment target can adjust the RGB output ratio so as to have the color temperature of the image output apparatus as the reference for the image quality adjustment.
  • the RGB output ratio of the image output apparatus 200 corresponding to the image quality adjustment target may be changed from 1: 1: 1 to 1: 0.5: 1.
  • the image output apparatus 200 corresponding to the image quality adjustment target multiplies the changed RGB output ratio (1: 0.5: 1) by the preset weight (2: 7: 1), and then adjusts the RGB output ratio.
  • We can calculate the value related to the brightness (luminance) of (1 * 2 + 0.5 * 7 + 1 * 1 7.5).
  • the image output apparatus 200 corresponding to the image quality adjustment target determines the degree of brightness to be adjusted based on the brightness before adjusting the RGB output ratio (for example, 10) and the brightness after adjusting the RGB output ratio (for example, 7.5). Can be.
  • the image output apparatus 200 corresponding to the image quality adjustment target may increase the backlight brightness by 2.5.
  • the image output apparatus 200 corresponding to the image quality adjustment target, to determine the degree of brightness to be adjusted by applying the preset weight, and based on the determined value backlight brightness Can be reduced.
  • the method of adjusting the brightness or the color temperature by using the image quality adjusting function of the image output apparatus 200 has been described.
  • the above description can be applied analogously or similarly by adjusting various properties related to image quality such as RGB pixel value, contrast, sharpness, saturation, and the like.
  • a picture quality adjustment function (color calibration) for the image output apparatus can be performed.
  • a plurality of image output apparatuses 200 may output a preview screen for checking the result of the image quality adjustment (S408).
  • the preview screen may be a specific image (arbitrary image) output to each of the plurality of image output apparatuses 200.
  • the mobile terminal 100 when the preview screen is output to the plurality of image output apparatuses, the mobile terminal 100 outputs a button associated with the function of terminating the image quality adjustment function or a button associated with the function of performing the image quality adjustment function again. Can be.
  • the process may be performed again by sequentially returning to any one of steps S300 to S306.
  • the operation of the image output apparatus 200 described above may be understood to be performed by the controller 250 of the image output apparatus 200.
  • the controller unit is a main body (computer (PC) or server)
  • the above description of the image output apparatus may be understood as being performed by a controller (for example, a processor) provided in a controller device (for example, a computer or a server).
  • the present invention can adjust the image quality of a plurality of image output apparatuses using a mobile terminal. In this way, the present invention can adjust the image quality of the plurality of image output devices more conveniently using a mobile terminal, instead of going through a complicated process for adjusting the image quality of the plurality of image output devices.
  • a plurality of image outputs may be generated depending on the type and characteristics of the panel of the image output apparatus, or depending on the structure of the image output apparatus, the manufacturing method of the image output apparatus, or the output method of the image output apparatus.
  • the image quality of the devices is different from each other, the image quality of the plurality of image output apparatuses may be adjusted based on the image quality information extracted from the mobile terminal (outside of the image output apparatus). Accordingly, when the user views a plurality of image output apparatuses, the user may be provided with a screen without dissimilarity due to image quality difference.
  • FIG. N when at least two images in one form (Fig. N) is shown in the form of 2 by 2, the image shown in the upper left “first drawing”, the right The image shown at the top is referred to as “second drawing”, the image shown at the bottom right is referred to as “third drawing” and the image shown at the bottom left is called “fourth drawing”.
  • an image received through the camera 121 provided in the mobile terminal 100 (hereinafter, A 'preview image' 310 may be output.
  • the mobile terminal 100 of the present invention generates a preview image 310 based on the images corresponding to the plurality of image output apparatuses received through the camera, and displays the preview image 310 on the display unit 151. Can be output to
  • the preview image 310 may be output to the display unit 151 based on the execution of an application including a function of activating the camera 121. Execution of the application may be performed based on selection (or touch) of an icon of the application.
  • the mobile terminal 100 of the present invention may perform image analysis on the preview image 310 output to the display unit 151.
  • the image analysis may mean extracting shape (shape) information, color information, brightness information, etc. of at least some images included in the preview image 310.
  • the mobile terminal 100 of the present invention may control the plurality of image output apparatuses 200 based on the result of the image analysis.
  • the mobile terminal 100 may independently transmit and receive data or control commands with the plurality of image output apparatuses 200.
  • Each of the plurality of image output apparatuses 200 may perform a specific function based on the data or a control command.
  • the specific function may include changing attribute information such as content output, streaming, image quality, volume, and the like.
  • the mobile terminal can transmit and receive data or control commands with the controller. Thereafter, the controller can control the plurality of image output devices connected to the controller based on the transmitted / received data or a control command.
  • the image output apparatus 200 may communicate with the mobile terminal 100.
  • the image output apparatus 200 may independently communicate with the mobile terminal 100 through a wireless communication unit.
  • the image output apparatus 200 may perform a specific function based on data or a control command received from the mobile terminal 100.
  • the image output apparatus 200 when connected to the controller, it may perform a specific function based on the control of the controller. Control of the controller device may be performed based on data or control commands transmitted and received between the mobile terminal and the controller device.
  • the content may be output.
  • the content includes all kinds of data (or screen information) output from the image output apparatus.
  • data or screen information
  • an image, a video, a web page, an application, or an image output apparatus It can contain functions that can be executed in.
  • the content may be output to the image output apparatus 200 based on a user's request or control of the controller.
  • the content may be output under the control of the mobile terminal 100.
  • the transmitted content may be output to the image output apparatus 200.
  • the content output to the image output apparatus 200 may be at least part of one content.
  • the plurality of image output apparatuses 200 may be synchronized based on the control of the mobile terminal 100.
  • the synchronization means matching timing of execution between tasks performed in a plurality of image output apparatuses or matching output information output from the plurality of image output apparatuses equally.
  • the image output apparatus 200 may control at least one of streaming, image quality, and volume.
  • the streaming refers to a method of downloading and playing contents (files) such as images, sounds, and animations from the Internet in a memory unit in real time without downloading.
  • contents such as images, sounds, and animations from the Internet in a memory unit in real time without downloading.
  • streaming refers to a method in which a part of the content is received and can be played at the same time, instead of being downloaded after the entire content is played.
  • streaming may mean not only playing content on the Internet by streaming, but also playing content transmitted from a mobile terminal by streaming.
  • streaming in the present invention may mean a video playback time.
  • a video reproduction time point reproduced by each image output apparatus 200 may be referred to as streaming.
  • the mobile terminal 100 controls the image output apparatus 200 in which the moving image reproduction timings are different in the plurality of image output apparatuses.
  • the video may be controlled to be played at the same playback time.
  • synchronization of image quality or volume may be performed based on data or control commands transmitted from the mobile terminal 100.
  • the synchronization on the image quality may refer to controlling the plurality of image output apparatuses to be output at the same image quality
  • the synchronization on the volume may mean controlling the output of the plurality of image output apparatuses at the same volume. have.
  • the synchronization for the image quality and the synchronization for the volume may be performed based on the mobile terminal.
  • the plurality of image output apparatuses may be synchronized so that the image quality of the plurality of image output apparatuses extracted from the mobile terminal and the volume of the plurality of image output apparatuses extracted from the mobile terminal are the same.
  • the first and second image output apparatuses of the plurality of image output apparatuses are output at the same volume (for example, size 3), when the volume extracted from the mobile terminal is different (for example, the first image).
  • the volume level 3 of the output device, the volume level 2) of the second image output device, and the first and second image output devices may be synchronized to have the same volume based on the mobile terminal.
  • the second image output apparatus may be disposed farther than the first image output apparatus based on the mobile terminal, and the volume of the second image output apparatus is measured by the mobile terminal. It can be increased to have the same volume as the volume of the device. That is, when synchronization is performed based on the mobile terminal of the present invention, the plurality of image output apparatuses may have different output values. However, the output values of the plurality of image output apparatuses based on the mobile terminal may be the same.
  • synchronization described in the present invention may mean controlling a plurality of image output apparatuses to have the same image quality or volume based on the mobile terminal based on data (information) measured (extracted) by the mobile terminal. have.
  • the present invention provides the arrangement of a plurality of image output apparatuses, characteristics of components (eg, panels) of the image output apparatus itself, external factors (eg, shadows) even when specific content is output at the same setting value.
  • the plurality of image output apparatuses may be synchronized based on the mobile terminal. Therefore, according to the present invention, by synchronizing a plurality of image output apparatuses based on externally measured data (information), contents can be provided (outputted) to a user without a sense of heterogeneity through a plurality of image output apparatuses.
  • FIG. 15 is a flowchart schematically illustrating a control method of a mobile terminal according to another embodiment of the present invention
  • FIG. 16 is a conceptual diagram for explaining the control method described with reference to FIG. 15.
  • the mobile terminal 100 and the plurality of image output apparatuses 200 may access the same network based on user settings. For example, when the plurality of image output apparatuses 200 are connected to the same network (for example, a local area network or Wi-Fi), the mobile terminal 100 determines the plurality of images based on a user setting.
  • the output device 200 may be connected to a connected network.
  • a bar code including network information may be output to the plurality of image output apparatuses 200 based on a user request or a request of a mobile terminal.
  • the mobile terminal 100 extracts the network information using a camera (from an image corresponding to the barcode included in the preview image 310), and uses the extracted network information to output the plurality of image output apparatuses 200. Can connect to the connected network.
  • the step of requesting the output of the different identification information to the plurality of image output apparatus 200 is performed (S410).
  • the plurality of image output apparatuses 200 that are requested to output the identification information may be at least two image output apparatuses connected to the same network as the mobile terminal 100.
  • the request for the different identification information 520 may be performed in various ways.
  • the controller 180 of the mobile terminal outputs the plurality of images based on a preset touch applied to a region where the preview image 310 is output while the preview image 310 is output.
  • the device 200 may request the output of different identification information 520.
  • the preset type of touch may be a touch associated with a function of requesting output of identification information to the plurality of image output apparatuses 200.
  • a short (or tap) touch or a long touch long touch, multi touch, drag touch, flick touch, pinch-in touch, pinch-out touch, swipe It may include a swype touch, a hovering touch, and the like.
  • the controller 180 outputs the plurality of images based on the touch of the preset method applied to the images 300 corresponding to the plurality of image output apparatuses 200 included in the preview image 310.
  • the device 200 may request to output different identification information.
  • an icon associated with a function of requesting output of different identification information to the plurality of image output apparatuses 200 may be output to the display unit 151.
  • the icon may overlap the preview image 310 on the display unit 151 or may be output in an area other than the region where the preview image 310 is output.
  • the controller 180 may request the output of different identification information to the plurality of image output apparatuses 200 based on the touch applied to the icon (based on the selection of the icon).
  • the mobile terminal 100 may execute an application associated with a function of controlling the image output apparatus based on a user request.
  • the application may be associated with a function for activating a camera.
  • the controller 180 may activate the camera based on the execution of an application associated with the function of controlling the image output apparatus, and output the preview image 310 received through the camera to the display unit 151.
  • the controller 180 may request the output of different identification information 520 to the plurality of image output apparatuses 200 based on the execution of the function of controlling the image output apparatus and the associated application. .
  • the identification information 520 means information used for recognizing the arrangement of the plurality of image output apparatuses 200.
  • the identification information 520 may be a unique number of each of the plurality of image output apparatuses or may be identification information transmitted from a mobile terminal.
  • the image output apparatus 200 when the image output apparatus 200 receives a request for outputting identification information 520 from the mobile terminal 100, the image output apparatus 200 outputs the unique number of the image output apparatus 200 to the display unit 270 of the image output apparatus. can do.
  • the unique number of the image output apparatus 200 may be different for each image output apparatus.
  • the image output apparatus 200 may receive the identification information 520 together with a request for outputting the identification information 520 from the mobile terminal 100.
  • the mobile terminal 100 may transmit different identification information 520 to the plurality of image output apparatuses 200.
  • the image output apparatus 200 may output the identification information 520 received from the mobile terminal based on the request.
  • the mobile terminal 100 in the state where different identification information 520 is output to each of the plurality of image output apparatuses 200, the mobile terminal 100 is included in the preview image received through the camera 121. Recognizing the arrangement of the plurality of image output apparatuses 200 by using the image corresponding to the identification information 520 is performed (S420).
  • the camera 121 provided in the mobile terminal is disposed to face the plurality of image output apparatuses 200.
  • the image 300 corresponding to the above may be output.
  • the controller 180 may recognize (determine) the number and arrangement of the plurality of image output apparatuses 200 by using the images 620 corresponding to the different identification information included in the preview image 310.
  • the controller 180 may output the number of the plurality of image output apparatuses 200 and the plurality of image outputs using the images 620 corresponding to the different identification information 520 included in the preview image 310.
  • the location of each of the devices 200 may be identified.
  • the controller 180 may determine that there are n image output devices 200.
  • the controller 180 outputs an image 620a corresponding to the first identification information (eg, LG3PJ) 520a at the first location, and the second identification information different from the first identification information 520a (
  • the image output apparatus 200a outputting the first identification information 520a may be the first. It may be recognized that the image output apparatus 200b disposed at the position and outputting the second identification information 520b is disposed at the second position.
  • the identification information 520 may be a graphic object having different shapes or different colors.
  • the plurality of image output apparatuses 200 may output graphic objects transmitted together with requests for different identification information of the mobile terminal.
  • the mobile terminal 100 may transmit data (information) related to output of graphic objects having different shapes to each of the plurality of image output apparatuses 200.
  • the mobile terminal 100 may transmit data (information) related to the output of graphic objects having different colors to each of the plurality of image output apparatuses 200.
  • the controller 180 of the mobile terminal 100 may have different shapes or shapes included in the preview image 310.
  • the number and positions of the plurality of image output apparatuses 200 may be determined using the image 620 corresponding to the graphic object having color.
  • the mobile terminal uses a plurality of images using the images 300 corresponding to the plurality of image output apparatuses 200 included in the preview image 310.
  • the step of controlling the output device 200 is performed (S430).
  • the controller 180 uses the images 300 corresponding to the plurality of image output apparatuses so that one content is divided and outputted to the plurality of image output apparatuses 200. 200) can be controlled.
  • controller 180 may synchronize the plurality of image output apparatuses using the images 300 corresponding to the plurality of image output apparatuses.
  • a preview image 310 received through a camera may be output to the display unit 151 of the mobile terminal 100.
  • the image 121 corresponds to the plurality of image output apparatuses 200a, 200b,... Images 300a, 300b,... May be included.
  • the plurality of image output apparatuses 200a and 200b may belong to the same network as the mobile terminal 100.
  • the controller 180 of the mobile terminal 100 may request the output of different identification information 520a and 520b to the plurality of image output apparatuses 200a and 200b.
  • Different identification information 520a and 520b may be output to the plurality of image output apparatuses 200a and 200b based on the request.
  • different identification information 520a and 520b are outputted to the plurality of image output apparatuses 200a and 200b in the preview image 310 output to the display unit 151 of the mobile terminal 100.
  • Images 620a and 620b corresponding to other identification information 520a and 520b may be included.
  • the controller 180 of the mobile terminal can recognize the arrangement of the plurality of image output apparatuses 200a and 200b by using images 620a and 620b corresponding to different identification information included in the preview image 310. . Specifically, the controller 180 may determine the number of the plurality of image output apparatuses 200a and 200b and the plurality of image output apparatuses 200a and 200b based on the images 620a and 620b corresponding to the identification information. Identify locations.
  • the controller 180 determines that the plurality of image output apparatuses 200 are displayed. It can be recognized that 12 are arranged. In addition, the controller 180 may recognize a location where each of the plurality of image output apparatuses 200 is disposed based on the images corresponding to the different identification information.
  • the controller 180 uses the images 300 corresponding to the plurality of image output apparatuses included in the preview image 310 to output the plurality of image output apparatuses 200. Can be controlled.
  • 17A, 17B, and 17C are conceptual views illustrating a method of recognizing a layout of a plurality of image output apparatuses by using a mobile terminal image corresponding to a plurality of image output apparatuses included in a preview image.
  • the controller 180 of the mobile terminal can request the output of the screen information 630 including the preset grid pattern to the plurality of image output apparatuses 200.
  • the screen information 630 including the preset grid pattern may be requested together with a request for different identification information in step S410.
  • the screen information including the preset grid pattern is included in the different identification information. That is, when different identification information is requested in step S410, the plurality of image output apparatuses 200 may overlap and output the identification information 520 together with the screen information including the preset grid pattern. In this case, different identification information 520 may overlap each other in the state in which screen information 530 including a predetermined grid pattern is output to the plurality of image output apparatuses 200.
  • the screen information 530 including the preset grid pattern may be used to determine a relative arrangement in which a plurality of image output devices are disposed or to determine a posture in which the plurality of image output devices are arranged. Can be used.
  • the preset grid pattern refers to a pattern in which horizontal and vertical straight lines cross at right angles at equal intervals, and as illustrated in FIG. 17A, a figure generated by the horizontal and vertical straight lines (for example, , Squares) may be formed such that two colors having a predetermined color difference (for example, white and black) intersect so as not to overlap each other.
  • the same screen information 530 including a preset grid pattern may be output to the plurality of image output apparatuses 200.
  • the first image output apparatus 200a of the plurality of image output apparatuses 200 includes 6 by 4 rectangles, and black in (1, 1).
  • the screen information 530 including the grid pattern may be output.
  • the first image output apparatus 200a may be applied to the remaining image output apparatuses other than the first image output apparatus 200a (for example, the second image output apparatus 200b).
  • a 6by 4 rectangle is included, and the screen information 530 including a black grid pattern in (1, 1) may be output.
  • the screen information 530 may include various images that may be used to determine a relative arrangement or posture in which a plurality of image output apparatuses are disposed. For example, at least two graphic objects having a preset shape may be included. An image displayed in a predetermined pattern may be included in the screen information 530.
  • the screen information 530 may include an image in which the same graphic object (eg, a black circle) is displayed at regular intervals up, down, left, and right in an n x m matrix.
  • the grid information is included in the screen information 630.
  • the related information may be analogously applied even when the various images are included in the screen information.
  • the preview image 310 includes an image corresponding to the screen information 530 including the preset grid pattern. 630 may be included.
  • the controller 180 of the mobile terminal uses an image corresponding to the screen information 530 included in the preview image.
  • the relative arrangement of the plurality of image output apparatuses 200 may be recognized.
  • the relative arrangement of the plurality of image output apparatuses 200 refers to a position where the plurality of image output apparatuses 200 is placed on the basis of the mobile terminal 100.
  • the relative arrangement of the plurality of image output apparatuses 200 may mean a position at which an image output apparatus different from the one is placed based on any one of the plurality of image output apparatuses.
  • the relative arrangement of the plurality of image output apparatuses 200 may be recognized through a distance between the mobile terminal 100 and each image output apparatus 200. At this time, the controller 180 of the mobile terminal 100 outputs the screen information 530 including the preset grid pattern to the plurality of image output apparatuses 200, so that the screen information included in the preview image 310 is output.
  • the relative arrangement of the plurality of image output apparatuses 200a and 200b may be recognized using the images 630a and 630b corresponding to 530.
  • the relative arrangement of the plurality of image output apparatuses 200a and 200b may correspond to the size of the grid pattern included in the images 300a and 300b corresponding to the plurality of image output apparatuses included in the preview image 310.
  • the screen sizes of the plurality of image output apparatuses 200a and 200b are all the same.
  • the controller 180 of the mobile terminal corresponds to the first image output apparatus 200a among the grid patterns included in the images 300a and 300b corresponding to the plurality of image output apparatuses included in the preview image 310.
  • the grid pattern 630b included in the image 300b of the grid pattern 630a included in the image 300a corresponds to the second image output apparatus 200b different from the first image output apparatus 200a. If larger than, the first image output apparatus 200a may be located closer to the second image output apparatus 200b based on the mobile terminal 100.
  • the screen information 530 including the grid pattern preset according to the request of the mobile terminal may be output to the plurality of image output apparatuses 200a and 200b having the same screen size.
  • Identification information 520a or 520b may be output to the screen information 530 including the preset grid pattern.
  • the preview image 310 output to the display unit 151 of the mobile terminal 100 includes images 300a and 300b corresponding to the plurality of image output devices 200a and 200b and different identification information 520a, Images 620a and 620b and lattice patterns 630a and 630b corresponding to 520b may be included.
  • the controller 180 of the mobile terminal 100 may have different sizes of the grid pattern 530 output to the plurality of image output apparatuses 200a and 200b having the same screen size in the preview image 310. Based on this, the relative arrangement of the plurality of image output apparatuses 200a and 200b can be determined.
  • the controller 180 of the mobile terminal extracts the attribute information by user setting or from a plurality of image output apparatuses connected to the same network, so that the plurality of image output apparatuses 200a and 200b have the same screen size. It can be recognized that.
  • the size of the grid pattern 630a included in the image 300a corresponding to the first image output apparatus 200a corresponds to the second image output apparatus 200b. If it is larger than the size of the grid pattern 630b included in 300b, the controller 180 may display the first image output apparatus 200a based on the mobile terminal 100 as illustrated in the second drawing of FIG. 17A. It can be recognized that is disposed closer to the second image output apparatus 200b.
  • 17A is a side view of a mobile terminal and a system of a plurality of image output apparatuses of the present invention, viewed from the side.
  • the screen information 530 including the preset grid pattern output to the plurality of image output apparatuses 200a and 200b is based on the request for outputting different identification information 520 from the mobile terminal.
  • the display information may be output based on a request for outputting the screen information 530 including the preset grid pattern separately from the mobile terminal.
  • the identification information 520 and the screen information 530 including the preset grid pattern may be output together.
  • the controller 180 of the mobile terminal 100 has different screen sizes of the plurality of image output apparatuses according to user settings or based on attribute information extracted from a plurality of image output apparatuses connected to the same network. You can judge that.
  • the control unit 180 of the mobile terminal returns to the plurality of image output apparatuses 200a and 200b, and the screen information 530 including the preset grid pattern is output to the plurality of image output apparatuses 200a and 200b.
  • the postures of the plurality of image output apparatuses 200a and 200b may be determined using the images 630a and 630b corresponding to the screen information 530.
  • the first image output apparatus 200a of the plurality of image output apparatuses 200 is disposed horizontally, and is different from the first image output apparatus 200a.
  • the second image output apparatus 200b may be disposed vertically.
  • the controller 180 of the mobile terminal includes screen information included in the images 300a and 300b corresponding to the first and second image output apparatuses included in the preview image 310 (grid patterns 630a and 630b). ), It may be determined whether the first and second image output apparatuses 200a and 200b are disposed horizontally or vertically.
  • the grid pattern 630a included in the image 300a corresponding to the first image output apparatus 200a in the preview image 310 is nxm (for example, 6 ⁇ 4)
  • the first image output apparatus 200a is determined to be placed horizontally
  • the grid pattern 630b included in the image 300b corresponding to the second image output apparatus 200b is mxn (for example, 4 x). In the case of 6), it may be determined that the second image output apparatus 200b is vertically placed.
  • the controller 180 of the mobile terminal is included in the preview image 310 in a state in which screen information 530 including a predetermined grid pattern is output to a plurality of image output apparatuses 200a and 200b. Using the images 630a and 630b corresponding to the screen information 530, it may be determined whether the plurality of image output apparatuses 200a and 200b are inclined.
  • the plurality of image output apparatuses 200a and 200b may output the screen information 530 including the grid pattern preset according to a request of the mobile terminal 100.
  • the preview image 310 output to the display unit 151 of the mobile terminal includes images 300a and 300b corresponding to the plurality of image output apparatuses 200a and 200b.
  • 300b) may include images 630a and 630b corresponding to the screen information 530.
  • the controller 180 may determine the postures of the plurality of image output apparatuses 200a and 200b using the images 630a and 630b corresponding to the screen information. Specifically, the controller 180 is based on the shape of the grid pattern 630a, 630b included in the image 300a corresponding to the plurality of image output apparatuses 200a, 200b. ) Can be determined whether or not tilted.
  • the controller 180 may have a rectangular shape in which the figure included in the grid 630a included in the image 300a corresponding to the first image output apparatus 200a among the plurality of image output apparatuses is rectangular. Based on this, it may be determined that the first image output apparatus 200a is arranged in parallel with respect to the mobile terminal 100. In addition, the controller 180 is based on the fact that the shape of the figure included in the grid pattern 630b included in the image 300b corresponding to the second image output apparatus 200b among the plurality of image output apparatuses is not rectangular. Thus, it may be determined that the second image output apparatus 200b is inclined with respect to the mobile terminal 100 or with respect to the first image output apparatus 200a.
  • the controller 180 may include a grid pattern adjacent to the other side 210b in which the length (size) of the grid pattern adjacent to one side 210a of the grid pattern 630b included in the second image output apparatus is opposite to the one side. Based on the longer (large) than the length (size) of, as shown in the second drawing of FIG. 17C, one side 210a of the second image output apparatus 200b is based on the mobile terminal. 2 can be determined to be closer than the other side (210b) of the image output apparatus (200b). That is, the controller 180 may determine that the second image output apparatus 200b is inclined such that the other side 210b of the second image output apparatus 200b is farther away.
  • 17C is a plan view from above of a system including a mobile terminal and a plurality of image output apparatuses of the present invention.
  • the screen information 530 including the preset grid pattern may further include a graphic object corresponding to an edge.
  • the mobile terminal can more easily distinguish each of the plurality of image output apparatuses by using an image corresponding to the graphic object corresponding to the edge.
  • the present invention eliminates the trouble of having to designate (set) the position where the plurality of image output apparatuses are arranged one by one when installing a plurality of image output apparatuses in the past, and the plurality of image output apparatuses more intuitively and conveniently. It is possible to determine (recognize) the arrangement of.
  • 18A, 18B, 18C, and 18D are conceptual views for explaining a method of dividing and outputting one content to a plurality of image output apparatuses using a mobile terminal.
  • the mobile terminal 100 of the present invention may control the plurality of image output apparatuses 200 so that one content 810 is divided and output to the plurality of image output apparatuses 200.
  • the controller 180 controls the plurality of image output apparatuses such that one content 810 is divided and outputted to the plurality of image output apparatuses 200 based on the arrangement of the plurality of image output apparatuses 200. 200) can be controlled.
  • the display unit 151 of the mobile terminal 100 may output an icon 710 associated with a content output function.
  • the icon 710 may be output based on the recognition of the images 300a and 300b corresponding to the plurality of image output apparatuses 200a and 200b in the preview image 310.
  • the icon 710 may be output based on the output of the preview image 310, or may correspond to a region in which the preview image 310 is output, or a plurality of image output apparatuses included in the preview image 310.
  • the image 300 may be output based on a preset touch applied to the image 300.
  • the preset type of touch may be a long touch applied to an area where the preview image 310 is output, or images 300a and 300b corresponding to a plurality of image output apparatuses included in the preview image 310. It may be a long touch or a multi touch applied to at least one of).
  • One content 810 may be divided and output to the plurality of image output apparatuses 200a and 200b.
  • the controller 180 of the mobile terminal is an image corresponding to the image output apparatuses 200a and 200b included in the preview image 310 output to the display unit 151 of the mobile terminal 100.
  • at least one image output apparatus to which one content is divided and output may be selected.
  • a preset method is set for images corresponding to two image output apparatuses among images corresponding to the four image output apparatuses.
  • the controller 180 selects an image output device corresponding to the touched image and outputs the selected image.
  • One content can be divided and output to the device.
  • an icon 710 associated with a content output function may be output to the display unit 151 of the mobile terminal 100.
  • the icon 710 may output a preview image 310, or may recognize images 300a and 300b corresponding to a plurality of image output devices from the preview image 310, or the plurality of image output devices. At least one of the corresponding images 300a and 300b may be selected or output based on a preset touch applied to the preview image 310.
  • the controller 180 may receive any one content to be divided and output to the plurality of image output apparatuses 200 from the user.
  • the controller 180 displays a screen 320 for selecting a portion of the contents to be output to the plurality of image output apparatuses 200 as shown in the second drawing of FIG. 18B. You can print
  • the controller 180 outputs a plurality of images instead of the preview image 310 based on the touch applied to the icon 710 output to the display unit 151 while the preview image 310 is output.
  • the screen 320 for selecting a part output on the device 200 may be output.
  • a guide line 350 and an output icon 720 corresponding to one content 810, images 300a and 300b corresponding to a plurality of image output apparatuses may be output on the screen 320.
  • the one content 810 may include all kinds of data 720 that can be output from at least one of the mobile terminal and the image output apparatus.
  • the content 810 may include an image, a video, a web page, and the like.
  • the controller 180 may set a part of the output to the plurality of image output apparatuses even when the video is played on the screen 320.
  • the guide line 350 may be formed to correspond to the images 300a and 300b corresponding to the plurality of image output apparatuses included in the preview image 310.
  • the guide line 350 corresponds to images 300a and 300b corresponding to the plurality of image output apparatuses included in the preview image 310 immediately before the icon 710 associated with the content output function is selected. It may be formed to.
  • the controller 180 controls the guide line 350 corresponding to the selected image. May be output to the screen 320.
  • the controller 180 moves the content 810 or enlarges the size of the content 810 based on a preset touch applied to the content 810 output to the display unit 151. Can be shrunk. For example, the controller 180 may move the content 180 based on a drag touch starting at one point of the region where the content 810 is output. In addition, the controller 180 reduces the content 810 based on a pinch-in touch applied to an area where the content 810 is output, or an area where the content 810 is output. The content 810 may be enlarged based on a pinch-out touch or a double tap touch.
  • the controller 180 may change the size of the guide line 350 based on a preset touch applied to the guide line 350. For example, the size of the guide line 350 may vary based on a drag touch starting from the guide line 350. Even if the size of the guideline 350 varies, the size ratio of the guideline 350 may be maintained.
  • the controller 180 is a part of one content 810 output to each of the image output apparatuses 200a and 200b based on the images 300a and 300b corresponding to the image output apparatuses included in the preview image 310.
  • 810a and 810b may be determined.
  • the controller 180 may use the guide lines 350 corresponding to the images 300a and 300b corresponding to the image output apparatus included in the preview image 310, respectively.
  • Portions 810a and 810b of one piece of content 810 to be output may be determined (set).
  • the controller 180 displays one piece of content corresponding to the guideline 350 corresponding to the image 300a corresponding to the first image output apparatus.
  • the content may be set as a portion 810a to be output to the first image output apparatus.
  • the controller 180 outputs the content corresponding to the guideline 350 corresponding to the image 300b corresponding to the second image output apparatus among the guide lines 350 to the second image output apparatus among the one content. It can be set as the portion 810b to be.
  • the controller 180 controls a portion of the contents 810a and 810b to be applied to the plurality of image output apparatuses 200a and 200b based on the touch applied to the output icon 720 output to the display unit 151.
  • the plurality of image output apparatuses 200a and 200b may be controlled to be output.
  • the first image output apparatus 200a may include a guide line corresponding to the image 300a corresponding to the first image output apparatus from the guide line 350 outputted to the mobile terminal among one content 810 ( The first portion 810a of the content corresponding to 350 may be output.
  • the second image output apparatus 200a may include a guide line 350 corresponding to an image 300b corresponding to the second image output apparatus from the guide line 350 outputted to the mobile terminal among one content 810.
  • the first portion 810a of the content corresponding to the second portion 810b of the other content may be output.
  • the controller 180 may control the plurality of image output apparatuses 200a and 200b such that one content 810 is divided and output to the plurality of image output apparatuses 200a and 200b.
  • the controller 180 may control the plurality of image output apparatuses 200a and 200b to output different portions of content to the plurality of image output apparatuses 200a and 200b.
  • the controller 180 transmits only the content corresponding to the first portion 810a of one content to the first image output apparatus 200a, and only the content corresponding to the second portion 810b is the second image. It may transmit to the output device 200b.
  • the controller 180 transmits one content 810 to each of the plurality of image output apparatuses 200a and 200b and transmits information related to the first portion 810a to the first image output apparatus 200a.
  • information related to the second portion 810b may be transmitted to the second image output apparatus 200b.
  • the first image output apparatus 200a may output only content corresponding to the first portion of one content based on the information related to the first portion 810a.
  • the second image output apparatus 200b may output only content corresponding to the second portion of one content based on the information related to the second portion 810b.
  • the controller 180 of the mobile terminal 100 transmits the information related to the first portion 810a to the first image output apparatus 200a.
  • Information related to the second portion 810b may be transmitted to the second image output apparatus 200b.
  • different portions 810a and 810b of one content 810 are output to the plurality of image output apparatuses 200a and 200b, and portions output to each of the plurality of image output apparatuses are the plurality of image output apparatuses. It may vary depending on the arrangement of the.
  • the image when any one of the plurality of image output apparatuses 200a and 200b is disposed at the first position, the image may be any one of the images.
  • the first portion 810a of one content 810 may be output to the output device 200a based on the first position.
  • the one output apparatus 200a may include the first image output apparatus 200a. Based on the second position, the second portion 810b different from the first portion 810a of the one piece of content 180 may be output.
  • the first portion 810a of one content 810 is output to the first image output apparatus 200a.
  • a second portion 810b of one content 810 may be output to the second image output apparatus 200b.
  • the first image output apparatus 200a is located to the right of the second image output apparatus 200b, the second portion 810b of one content 810 is output to the first image output apparatus 200a.
  • the first portion 810a of one content 180 may be output to the second image output apparatus 200b.
  • the size of the portions 810a and 810b that are output to each image output apparatus among one content 810 is the size of the plurality of image output apparatuses. It may vary depending on the relative arrangement.
  • the first image output apparatus 200a of the plurality of image output apparatuses 200a and 200b is disposed closer to the mobile terminal 100 than the second image output apparatus 200b different from the first image output apparatus.
  • the size of the portion 810a output to the first image output apparatus 200a may be larger than the size of the portion 810b output to the second image output apparatus 200b.
  • the display unit 151 of the mobile terminal 100 displays a screen for selecting a portion (area) to be output from the plurality of image output apparatuses 200a and 200b among one content.
  • 320 may be output.
  • the screen 320 may output a guide line 350, one content 810, and an output icon 720 corresponding to the images 300a and 300b corresponding to the plurality of image output apparatuses.
  • the guide line 350 may be output to correspond to the images 300a and 300b corresponding to the plurality of image output apparatuses included in the preview image 310. That is, when the first image output apparatus 200a is disposed closer than the second image output apparatus 200b based on the mobile terminal 100, an image corresponding to the first image output apparatus included in the preview image 310.
  • the 300a may be larger than the image 300b corresponding to the second image output apparatus.
  • the guide line 350 may be formed to correspond to the images 300a and 300b.
  • the controller 180 outputs the first portion 810a of one content 810 to the first image output apparatus 200a.
  • the plurality of image output apparatuses 200a and 200b may be output to the second image output apparatus 200b such that a second portion 810b having a size smaller than the size of the first portion 810a of one piece of content 810 is output. 200b) can be controlled.
  • the first and second image output apparatuses 200a and 200b respectively include portions having different sizes of contents according to the relative arrangement of the first and second image output apparatuses. Can be output. That is, even though the first and second image output apparatuses 200a and 200b have the same screen size, the first image output apparatus 200a is disposed closer to the second image output apparatus 200b based on the mobile terminal. In this case, a larger portion 810a of the content than the portion 810b output to the second image output apparatus may be output.
  • a portion 810b of the content 810 that is smaller than the size of the portion 810a output to the first image output apparatus 200a may be output to the second image output apparatus 200b.
  • the controller 180 of the mobile terminal can output different contents to each image output apparatus.
  • the controller 180 may include an image corresponding to the first image output apparatus 200a among the images 300a and 300b corresponding to the plurality of image output apparatuses 200a and 200b included in the preview image 310.
  • the first content may be output to the first image output apparatus 200a.
  • the controller 180 selects the first content after the image 300b corresponding to the second image output apparatus 200b is selected among the images 300a and 300b corresponding to the plurality of image output apparatuses 200a and 200b.
  • the second content different from the second content is selected, the second content may be output to the second image output apparatus 200b.
  • the controller 180 may output a screen 320 for selecting an area in which the selected content is to be output.
  • the content described in FIGS. 18B and 18D may be inferred to select (set) the size (area) of the content output from each image output apparatus.
  • the above description may be analogously applied even when at least one of the plurality of image output apparatuses is disposed horizontally or vertically or inclinedly.
  • the above description also applies to the case where one side of at least one image output apparatus among the plurality of image output apparatuses is arranged closer or farther than the other side of the mobile terminal with respect to the mobile terminal.
  • the present invention can divide and output one content to a plurality of image output apparatuses, and to one of the plurality of image output apparatuses according to the arrangement, relative arrangement, and posture of the plurality of image output apparatuses. You can decide the size, shape and position of the part to be printed. Accordingly, the present invention can provide a user interface capable of outputting one piece of content through a plurality of image output apparatuses from a user's point of view (a mobile terminal's point of view).
  • 19A, 19B, 19C, and 19D are conceptual views for explaining a method of synchronizing a plurality of image output apparatuses using a mobile terminal.
  • the controller 180 of the mobile terminal may apply the touch.
  • the plurality of image output apparatuses 200a to 200d may be synchronized with respect to the image output apparatus 200b corresponding to the image 300b.
  • the synchronized category may include at least one of streaming, image quality, and volume.
  • Streaming in the present invention may mean a video (or music) playback time. Specifically, when one video is reproduced in the plurality of image output apparatuses 200 of the present invention, a video reproduction time point reproduced by each image output apparatus 200 may be referred to as streaming. Synchronizing streaming may be taken to mean coinciding a time point at which a video is played in a plurality of image output apparatuses.
  • one video may be divided and reproduced (outputted) in the plurality of image output apparatuses 200a to 200d.
  • the image is reproduced by at least one image output apparatus 200a among the plurality of image output apparatuses as shown in the first drawing of FIG. 19A.
  • the playback time of the moving picture may be different from the remaining image output apparatuses 300b to 300d.
  • the controller 180 applies one of the images 300a to 300d corresponding to the plurality of image output apparatuses 200a to 200d included in the preview image. Based on the touch, the plurality of image output apparatuses 200b corresponding to the touched image 300b may be set as the reference image output apparatus.
  • the controller 180 is based on the touch applied to any one of the images 300a to 300d corresponding to the plurality of image output devices.
  • the icon 730a associated with the streaming synchronization function may be output to the display unit 151.
  • the image 300b corresponding to the reference image output apparatus to which touch is applied among the images 300a to 300d corresponding to the plurality of image output apparatuses included in the preview image An indicator indicating that the reference image output device is displayed may be displayed.
  • the controller 180 selects one of the images 300b corresponding to the plurality of image output apparatuses included in the preview image 310, and then selects the image 300b.
  • An indicator indicating that the selection is made may overlap the preview image 310.
  • the controller 180 controls the plurality of image output apparatuses 200a based on a video playback time of the reference image output apparatus 200b corresponding to the selected image 300b. To 200d) can be matched.
  • controller 180 may adjust the image quality of the plurality of image output apparatuses 200a to 200d by using the images 300a to 300d corresponding to the plurality of image output apparatuses included in the preview image.
  • the plurality of image output apparatuses 200a to 200d may have different image quality due to an external environment.
  • the external environment 1000 may be a shadow, lighting, or the like.
  • the image quality of the plurality of image output apparatuses 200a to 200d may be different from each other due to the characteristic difference of the product component itself even though the setting value set in each image output apparatus is different or set to the same setting value. In this case, the user may feel that the plurality of image output apparatuses 200 are output with different image quality.
  • the present invention may synchronize the image quality of the plurality of image output apparatuses 200 based on the image quality of the plurality of image output apparatuses extracted from the mobile terminal 100.
  • the plurality of image output apparatuses 200a to 200d may have different image quality when viewed from the viewpoint of an external entrance (mobile terminal).
  • the controller 180 may link the icon 730b associated with the image quality synchronization function. ) Can be printed.
  • controller 180 may set the plurality of image output apparatuses 200b corresponding to any one image 300b to which the touch is applied as the reference image output apparatus.
  • the controller 180 may extract image quality information of the plurality of image output apparatuses by using the images 300a to 300d corresponding to the plurality of image output apparatuses included in the preview image 310.
  • the extracted image quality information may include brightness, contrast, color, brightness, saturation, saturation, luminance, and sharpness of back light. sharpness, tint white balance and color temperature, RGB pixel values, and the like.
  • the controller 180 controls the plurality of image output apparatuses 200a to 200 based on the image quality information extracted from the image 300b to which the touch is applied. 200d) image quality can be adjusted.
  • the image corresponding to the second image output apparatus 200b is provided in a state where the image quality of the first to fourth image output apparatuses 200a to 200d is different from each other.
  • the controller 180 based on the image quality information extracted from the image 300b corresponding to the second image output apparatus 200b, the remaining image having a different image quality information than the extracted image quality information.
  • the image quality of the output devices 200a, 200c, and 200d can be adjusted.
  • the controller 180 generates the image output apparatuses 200a, 200b, and 200d corresponding to the image quality adjustment target based on the image quality information extracted from the images 300a to 300d corresponding to the plurality of image output apparatuses.
  • the corrected correction data may be image quality information itself extracted from an image corresponding to each image output apparatus, the image quality information of an image 300b corresponding to a reference image output apparatus, and corresponding images 300a, 300c, 300d) may be an image quality difference value (eg, a brightness difference value or a color temperature difference value).
  • the image output apparatuses 200a, 200c, and 200d which have received correction data from the mobile terminal among the plurality of image output apparatuses 200a to 200d may adjust the image quality based on the correction data.
  • the correction data is included in the correction data.
  • Information on a part of which the image quality is different may be included.
  • the first and fourth image output apparatuses 200a and 200d may adjust the image quality of only the portion based on the information on the portion of which the image quality is different.
  • the present invention controls the plurality of image output apparatuses so that a plurality of image output apparatuses output the same image quality based on a mobile terminal (based on a user), thereby providing a plurality of image output apparatuses to the user without any discomfort.
  • Content can be output through
  • the controller 180 selects a button 730c associated with the volume synchronization function. Can be output.
  • the controller 180 controls a preset sound (eg, a plurality of image output apparatuses 200a and 200b). For example, the output of a test sound) can be requested.
  • the controller 180 requests the preset sound output from the plurality of image output apparatuses to the first image output apparatus 200a, and then the second image output apparatus 200b different from the first image output apparatus 200a. ) May request the preset sound output. That is, the controller 180 may request output of preset sounds sequentially for each image output apparatus, rather than requesting output of preset sounds to the plurality of image output apparatuses 200a and 200b simultaneously. In this case, the order of outputting a predetermined sound among the plurality of image output apparatuses may be determined based on the arrangement of the plurality of image output apparatuses.
  • the controller may control the controller.
  • the controller 180 may detect the output sound and determine a volume (eg, volume: 3) of the first image output apparatus 200a based on the detected sound.
  • a second image output apparatus different from the first image output apparatus is output.
  • the controller 180 detects the output sound and based on the detected sound, the volume of the second image output apparatus 200b (for example, volume: 2) can be judged.
  • the controller 180 may perform volume synchronization based on the volume of the reference image output apparatus 200a among the plurality of image output apparatuses 200a and 200b based on the volumes of the first and second image output apparatuses.
  • the reference image output apparatus 200a may be an image output apparatus 200a corresponding to an image to which a touch is applied among images corresponding to a plurality of image output apparatuses included in the preview image.
  • the controller 180 may adjust the volume of the remaining image output apparatus 200b except for the reference image output apparatus among the plurality of image output apparatuses so as to be equal to the volume of the reference image output apparatus 200a. For example, as illustrated in the third drawing of FIG. 19C, the controller 180 may adjust the volume of the second image output device to volume: 3.
  • the controller 180 may control the plurality of image output apparatuses to output different volumes based on the relative arrangement of the plurality of image output apparatuses.
  • the plurality of image output apparatuses 200a and 200b may be arranged to have different distances with respect to the mobile terminal.
  • the first image output apparatus 200a is disposed closer to the mobile terminal 100 than the second image output apparatus 200b as an example.
  • the controller 180 controls the plurality of image output apparatuses ( 200a and 200b may sequentially output preset sounds 900a and 900b.
  • the first and second image output apparatuses may be set to output the same volume level (eg, volume: 3).
  • the mobile terminal 100 may detect that the volume of the first image output apparatus is greater than the volume of the second image output apparatus. This is because the first image output apparatus is arranged closer to the mobile terminal than the second image output apparatus.
  • the controller 180 may adjust the volume of the image output apparatus 200b having a difference from the volume of the reference image output apparatus 200a among the plurality of image output apparatuses based on the sensed volume level. That is, even if the same volume output value (for example, volume: 3) is set in the first and second image output apparatuses 200a and 200b, the controller 180 is based on the volume of the volume detected by the mobile terminal.
  • the volume of the plurality of image output apparatuses can be synchronized.
  • the controller 180 increases the volume of the image output apparatus 200b disposed relatively farther than the reference image output apparatus 200a even if the volume of the plurality of image output apparatuses has the same volume output value. It is possible to reduce the volume of the image output apparatus disposed relatively closer.
  • the controller 180 may adjust the volume of the plurality of image output apparatuses in various ways based on the relative arrangement of the plurality of image output apparatuses. For example, when a plurality of image output apparatuses are arranged in a 3x3 form, even if the plurality of image output apparatuses have the same volume output value, the image output apparatuses having different volume levels detected by the image output apparatus arranged in the center It may be less than the volume of the detected volume. In this case, the controller 180 may increase the volume of the image output apparatus disposed at the center.
  • the controller 180 may control the volume of the plurality of image output apparatuses based on the sound quality setting. Specifically, the controller 180 increases the volume of the image output apparatus disposed at the outer side of the plurality of image output apparatuses to output the sound output from the plurality of image output apparatuses in stereo sound quality, and outputs the image disposed therein. The volume of the device can be reduced. That is, the controller 180 may control the volume of the plurality of image output apparatuses in various ways based on the sound quality setting, and the volume control method of the plurality of image output apparatuses according to the sound quality setting may be determined by user setting. .
  • an icon 730a associated with the streaming synchronization function an icon 730b associated with the image quality synchronization function, and an icon 730c associated with the volume synchronization function are output.
  • the icons 730a to 730c may be touched in a preset manner (for example, a touch applied to any one of images corresponding to a plurality of image output apparatuses) according to a user's setting. Based on the addition, may be output together or optionally output.
  • the icons 730a to 730c may be selectively output based on a touch method applied to the preview image 310.
  • the controller 180 when a first type of touch is applied to the preview image 310, the controller 180 outputs an icon 730a associated with a streaming synchronization function, and different from the first method on the preview image 310.
  • the icon 730b associated with the image quality synchronization function may be output.
  • the first and second touch may apply the various touch methods described above, and the type of the icon output according to the touch method may be determined by user setting.
  • the operation of the image output apparatus 200 described above may be understood to be performed by the controller 250 of the image output apparatus 200.
  • the controller unit for example, the image output apparatus corresponds to a monitor, and the controller unit is a main body (computer (PC) or server)
  • the above description of the image output apparatus may be understood as being performed by a controller (for example, a processor) provided in a controller device (for example, a computer or a server).
  • a controller for example, a processor
  • a controller device for example, a computer or a server
  • the above description of the image output apparatus may be analogously applied to the control unit provided in the controller unit controlling the plurality of image output apparatuses connected to the controller unit.
  • the present invention may recognize the arrangement of the plurality of image output apparatuses using images corresponding to the plurality of image output apparatuses included in the preview image received through the camera.
  • the present invention may determine the number and position of each of the plurality of image output apparatus using the image corresponding to the different identification information included in the image corresponding to the plurality of image output apparatus.
  • the present invention may determine the relative arrangement and posture of the plurality of image output apparatuses by using the image corresponding to the screen information including the predetermined grid pattern included in the image corresponding to the plurality of image output apparatuses. Therefore, the present invention can solve the trouble of having to set the number, the arranged positions, the relative arrangements, the arranged postures, etc. of the image output apparatuses one by one in order to control a plurality of conventional image output apparatuses.
  • the present invention may control the plurality of image output apparatuses so that one content is divided and output to a plurality of image output apparatuses.
  • the present invention may set a portion to be output from each of the plurality of image output apparatuses of one content by using images corresponding to the plurality of image output apparatuses included in the preview image of the mobile terminal. Accordingly, the present invention can provide a GUI (Graphic User Interface) optimized for outputting content to a plurality of image output apparatuses.
  • GUI Graphic User Interface
  • the present invention selects any one reference image output apparatus using images corresponding to the plurality of image output apparatuses included in the preview image of the mobile terminal, and the plurality of image output apparatuses based on the reference image output apparatus. Can be synchronized. Therefore, the present invention not only eliminates the inconvenience that is conventionally caused by synchronizing each image output apparatus individually, but also performs more optimized synchronization based on a mobile terminal, that is, based on a user.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes implementations in the form of carrier waves (eg, transmission over the Internet).
  • the computer may include the controller 180 of the terminal. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Telephone Function (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 화질 조정 기능을 구비한 화상출력장치에 관한 것이다. 본 발명의 일 실시 예에 따른 복수의 화상출력장치의 화질을 제어하기 위한 이동 단말기의 제어방법은, 카메라를 통해 수신되는 상기 복수의 화상출력장치에 해당하는 이미지를 토대로 프리뷰 영상을 생성하고, 상기 프리뷰 영상에 포함된 상기 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 화질정보를 추출하는 단계 및 상기 복수의 화상출력장치 중 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치에 상기 추출된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 전송하는 단계를 포함한다.

Description

화상출력장치, 이동 단말기 및 그것들의 제어 방법
본 발명은 화질 조정 기능을 구비한 화상출력장치 및 화상출력장치를 제어하는 것이 가능한 이동 단말기 및 그것들의 제어방법에 관한 것이다.
화상출력장치는 방송을 수신하여 표시하거나, 동영상을 기록 및 재생하는 장치와 오디오를 기록 및 재생하는 장치를 모두 포함한다. 상기 화상출력장치는 예를 들어, 텔레비전, 스마트 TV, 컴퓨터 모니터, 모니터와 본체가 결합된 올인원 PC(all-in-one PC, 또는 일체형 PC), 노트북 컴퓨터, 프로젝터, 테블릿, 이동 단말기 등을 포함한다.
이와 같은 화상출력장치는 기능이 다양화됨에 따라, 방송이나, 음악이나 동영상 파일의 재생 기능 외에도, 사진이나 동영상의 촬영, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가, 최근에는 화상출력장치가 스마트 기기(예를 들어, 스마트 텔레비전)로서 구현되고 있다. 이에 따라, 화상출력장치는 인터넷 등의 실행은 물론 이동 단말기, 컴퓨터 또는 서버(Server)와 연동하여 동작한다.
한편, 최근에는 사용자가 복수의 화상출력장치를 사용하여 화면정보를 출력하는 경우가 증가하고 있고, 이에 따라 복수의 화상출력장치의 화질을 조정하는 기능 및 방법에 대한 지속적인 개발이 진행되고 있다.
또한, 최근에는 사용자가 복수의 화상출력장치를 사용하여 화면정보를 출력하는 경우가 증가함에 따라 이동 단말기를 이용하여 복수의 화상출력장치를 제어하는 방안을 고려해볼 수 있다.
본 발명의 일 목적은 이동 단말기를 이용하여 복수의 화상출력장치의 화질을 조정하는 것이 가능한 화상출력장치, 이동 단말기 및 그것의 제어방법을 제공하는 데에 있다.
본 발명의 다른 목적은 복수의 화상출력장치의 화질을 이동 단말기를 통해 추출된 화질정보에 근거하여 조정하는 것이 가능한 화상출력장치, 이동 단말기 및 그것의 제어방법을 제공하는 데에 있다.
본 발명의 또 다른 목적은 이동 단말기를 이용하여 복수의 화상출력장치를 제어하는 것이 가능한 화상출력장치, 이동 단말기 및 그것의 제어방법을 제공하는 데에 있다.
본 발명의 또 다른 목적은 이동 단말기를 이용하여 복수의 화상출력장치의 배치를 인식하고, 상기 인식된 배치에 근거하여 하나의 컨텐츠를 상기 복수의 화상출력장치에 나누어 출력하는 것이 가능한 화상출력장치, 이동 단말기 및 그것의 제어방법을 제공하는 데에 있다.
본 발명의 또 다른 목적은 이동 단말기를 이용하여 복수의 화상출력장치를 동기화하는 것이 가능한 화상출력장치, 이동 단말기 및 그것의 제어방법을 제공하는 데에 있다.
상술한 과제를 달성하기 위한 본 발명의 일 실시 예에 따른 복수의 화상출력장치의 화질을 제어하기 위한 이동 단말기의 제어방법은, 카메라를 통해 수신되는 상기 복수의 화상출력장치에 해당하는 이미지를 토대로 프리뷰 영상을 생성하고, 상기 프리뷰 영상에 포함된 상기 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 화질정보를 추출하는 단계 및 상기 복수의 화상출력장치 중 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치에 상기 추출된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 전송하는 단계를 포함한다.
실시 예에 있어서, 상기 화질정보를 추출하는 단계는, 사용자 요청에 근거하여 상기 복수의 화상출력장치에 화질정보 추출에 이용되는 기 설정된 화면이 출력되면, 상기 프리뷰 영상에 포함된 상기 기 설정된 화면에 해당하는 이미지로부터 상기 화질정보를 추출하는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치의 기 설정된 화면에는 화질정보 추출영역을 가이드하는 그래픽 객체가 출력되고, 상기 프리뷰 영상에는 상기 그래픽 객체에 대응되는 인디케이터가 출력되며, 상기 화질정보를 추출하는 단계는, 상기 인디케이터가 상기 복수의 화상출력장치에 출력된 그래픽 객체에 해당하는 이미지에 오버랩되는 것에 근거하여 수행되는 것을 특징으로 한다.
실시 예에 있어서, 상기 화질정보 추출영역을 가이드하는 그래픽 객체의 출력위치는 상기 복수의 화상출력장치가 배치된 위치에 근거하여 결정되고, 상기 인디케이터는 상기 그래픽 객체에 대응되는 것이 가능한 위치에 배치되는 것을 특징으로 한다.
실시 예에 있어서, 상기 화질정보는 밝기정보, 색 온도 정보, RGB 픽셀값, 콘트라스트(Contrast) 정보, 샤프니스(Sharpness) 정보, 채도(hue) 정보 중 적어도 하나를 포함하고, 상기 화질정보를 추출하는 단계는, 상기 복수의 화상출력장치에 해당하는 이미지를 이용해 상기 복수의 화상출력장치의 밝기정보를 추출하는 단계, 상기 추출된 밝기정보에 근거하여 상기 복수의 화상출력장치의 출력밝기가 기준범위 내에 포함되는지 판단하는 단계, 상기 복수의 화상출력장치 중 적어도 하나의 출력밝기가 상기 기준범위를 벗어나는 경우, 상기 적어도 하나의 화상출력장치가 상기 기준범위 내의 밝기를 가지도록 상기 추출된 밝기정보를 상기 적어도 하나의 화상출력장치로 전송하는 단계 및 상기 복수의 화상출력장치가 상기 기준범위 내의 밝기를 갖는 상태에서, 상기 복수의 화상출력장치에 해당하는 이미지를 이용해 상기 색 온도 정보를 추출하는 단계를 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치로 전송되는 화질정보는 상기 복수의 화상출력장치에 해당하는 이미지를 이용하여 추출된 색 온도 정보인 것을 특징으로 한다.
실시 예에 있어서, 상기 화질정보를 추출하는 단계 이전에, 상기 프리뷰 영상에 포함된 상기 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 배치를 인식하는 단계를 더 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 인식하는 단계는, 사용자 요청에 근거하여 상기 복수의 화상출력장치에 서로 다른 색상 또는 형태를 갖는 그래픽 객체가 출력되면, 상기 프리뷰 영상에 포함된 상기 서로 다른 색상 또는 형태를 갖는 그래픽 객체에 대응되는 이미지에 근거하여 상기 복수의 화상출력장치의 배치를 인식하는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치의 배치가 인식되면, 상기 복수의 화상출력장치의 배치에 대응되는 복수의 아이콘을 상기 디스플레이부에 출력하는 단계를 더 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치는 상기 복수의 아이콘을 통해 선택되는 것을 특징으로 한다.
실시 예에 있어서, 상기 이동 단말기는 상기 복수의 화상출력장치와 동일한 네트워크에 속하는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치에는 네트워크 정보가 포함된 바코드가 출력되고, 상기 이동 단말기는, 사용자 요청에 따라 상기 프리뷰 영상에 상기 바코드에 해당하는 이미지가 출력되면, 상기 바코드에 해당하는 이미지를 이용하여 상기 네트워크 정보를 추출하고, 상기 추출된 네트워크 정보를 이용하여 상기 복수의 화상출력장치와 동일한 네트워크에 접속하는 것을 특징으로 한다.
본 발명의 일 실시 예에 따른 이동 단말기와 통신이 가능한 화상출력장치의 제어방법은, 상기 이동단말기로부터 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터가 수신되면, 상기 수신된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터에 근거하여 RGB 출력비율을 조정하는 단계 및 상기 조정된 RGB 출력비율에 근거하여 밝기를 조정하는 단계를 포함한다.
실시 예에 있어서, 상기 수신된 화질정보에는 복수의 화상출력장치에 대한 색 온도 정보가 포함되고, 상기 RGB 출력비율은 상기 복수의 화상출력장치 중 화질 조정의 기준이 되는 어느 하나의 화상출력장치에 대한 색 온도 정보에 근거하여 결정되는 것을 특징으로 한다.
실시 예에 있어서, 상기 밝기를 조정하는 단계는, 상기 RGB 출력과 관련된 기 설정된 가중치를 적용하여 상기 조정될 밝기 정도를 결정하는 것을 특징으로 한다.
실시 예에 있어서, 상기 RGB 출력비율을 조정하는 단계 이전에, 상기 이동 단말기의 요청에 근거하여 화상출력장치의 배치 인식에 사용되는 그래픽 객체를 출력하는 단계 및 상기 이동 단말기의 요청에 근거하여 화질정보 추출에 이용되는 기 설정된 화면을 출력하는 단계를 더 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 기 설정된 화면에는 화질정보 추출영역을 가이드하는 그래픽 객체가 출력되고, 상기 화질정보 추출영역을 가이드하는 그래픽 객체의 출력위치는 상기 화상출력장치가 배치된 위치에 따라 달라지는 것을 특징으로 한다.
본 발명의 일 실시 예에 따른 복수의 화상출력장치의 화질을 제어하기 위한 이동 단말기는, 카메라, 상기 카메라를 통해 수신되는 상기 복수의 화상출력장치에 해당하는 이미지를 토대로 프리뷰 영상을 생성하고, 상기 프리뷰 영상을 출력하는 디스플레이부 및 상기 프리뷰 영상에 포함된 상기 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 화질정보를 추출하고, 상기 복수의 화상출력장치 중 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치에 상기 추출된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 전송하는 제어부를 포함한다.
실시 예에 있어서, 상기 제어부는, 사용자 요청에 근거하여 상기 복수의 화상출력장치에 화질정보 추출에 이용되는 기 설정된 화면이 출력되면, 상기 프리뷰 영상에 포함된 상기 기 설정된 화면에 해당하는 이미지로부터 상기 화질정보를 추출하는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치의 기 설정된 화면에는 화질정보 추출영역을 가이드하는 그래픽 객체가 출력되고, 상기 프리뷰 영상에는 상기 그래픽 객체에 대응되는 인디케이터가 출력되며, 상기 제어부는, 상기 인디케이터가 상기 복수의 화상출력장치에 출력된 그래픽 객체에 해당하는 이미지에 오버랩되는 것에 근거하여 상기 화질정보를 추출하는 것을 특징으로 한다.
본 발명의 다른 실시 예에 따른 복수의 화상출력장치를 제어하기 위한 이동 단말기의 제어방법은, 상기 복수의 화상출력장치로 서로 다른 식별정보의 출력을 요청하는 단계, 상기 복수의 화상출력장치 각각에 서로 다른 식별정보가 출력된 상태에서, 카메라를 통해 수신되는 프리뷰 영상에 포함된 상기 서로 다른 식별정보에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 배치를 인식하는 단계 및 상기 복수의 화상출력장치의 배치가 인식되면, 상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치를 제어하는 단계를 포함한다.
실시 예에 있어서, 상기 복수의 화상출력장치의 배치를 인식하는 단계는, 상기 프리뷰 영상에 포함된 상기 서로 다른 식별정보에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 개수 및 상기 복수의 화상출력장치 각각의 위치를 식별하는 단계, 상기 복수의 화상출력장치로 기 설정된 격자무늬가 포함된 화면정보의 출력을 요청하는 단계 및 상기 복수의 화상출력장치 각각에 상기 화면정보가 출력되면, 상기 프리뷰 영상에 포함된 상기 화면정보에 해당하는 이미지를 이용하여, 상기 복수의 화상출력장치의 상대배치를 인식하는 단계를 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치의 상대배치는, 상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지에 포함된 격자무늬의 크기에 근거하여 인식되는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치의 상대배치를 인식하는 단계는, 상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지에 포함된 격자무늬 중 제1 화상출력장치에 해당하는 이미지에 포함된 격자무늬의 크기가 상기 제1 화상출력장치와 다른 제2 화상출력장치에 해당하는 이미지에 포함된 격자무늬의 크기보다 크면, 상기 이동 단말기를 기준으로 상기 제1 화상출력장치가 상기 제2 화상출력장치보다 더 가까운 곳에 배치되었다고 인식하는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치의 배치를 인식하는 단계는, 상기 프리뷰 영상에 포함된 상기 화면정보에 해당하는 이미지를 이용하여, 상기 복수의 화상출력장치의 자세를 판단하는 단계를 더 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 식별정보는 상기 기 설정된 격자무늬가 포함된 화면정보와 함께 출력 가능한 것을 특징으로 한다.
실시 예에 있어서, 상기 제어하는 단계는, 상기 복수의 화상출력장치의 배치에 근거하여, 하나의 컨텐츠가 상기 복수의 화상출력장치에 나누어져 출력되도록 상기 복수의 화상출력장치를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어하는 단계는, 상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지에 근거하여, 각 화상출력장치에 출력되는 상기 하나의 컨텐츠의 일부분을 결정하는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치에는 상기 하나의 컨텐츠 중 서로 다른 일부분이 출력되고, 상기 복수의 화상출력장치 각각에 출력되는 상기 일부분은 상기 복수의 화상출력장치의 배치에 따라 달라지는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치 중 어느 하나의 화상출력장치가 제1 위치에 배치된 경우, 상기 어느 하나의 화상출력장치에는 상기 제1 위치에 근거하여 상기 하나의 컨텐츠 중 제1 부분이 출력되고, 상기 어느 하나의 화상출력장치가 상기 제1 위치와 다른 제2 위치에 배치된 경우, 상기 어느 하나의 화상출력장치에는 상기 제2 위치에 근거하여 상기 하나의 컨텐츠 중 상기 제1 부분과 다른 제2 부분이 출력되는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치가 동일한 화면크기를 갖는 경우, 상기 하나의 컨텐츠 중 각 화상출력장치에 출력되는 일부분의 크기는 상기 복수의 화상출력장치의 상대배치에 따라 달라지는 것을 특징으로 한다.
실시 예에 있어서, 상기 복수의 화상출력장치 중 제1 화상출력장치가 상기 제1 화상출력장치와 다른 제2 화상출력장치보다 상기 이동 단말기에 더 가깝게 배치된 경우, 상기 제1 화상출력장치에 출력되는 상기 일부분의 크기는 상기 제2 화상출력장치에서 출력되는 상기 일부분의 크기보다 큰 것을 특징으로 한다.
실시 예에 있어서, 상기 제어하는 단계는, 상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지 중 어느 하나의 이미지에 터치가 가해지면, 상기 터치가 가해진 어느 하나의 이미지에 해당하는 화상출력장치를 기준으로 상기 복수의 화상출력장치를 동기화하는 것을 특징으로 한다.
실시 예에 있어서, 상기 동기화되는 카테고리는, 스트리밍, 화질 및 음량 중 적어도 하나를 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어하는 단계는, 상기 동기화되는 카테고리가 음량인 경우, 상기 복수의 화상출력장치의 상대배치에 근거하여 서로 다른 음량을 출력하도록 상기 복수의 화상출력장치를 제어하는 것을 특징으로 한다.
본 발명의 다른 실시 예에 따른 복수의 화상출력장치를 제어하기 위한 이동 단말기는, 카메라, 상기 카메라를 통해 수신되는 프리뷰 영상을 출력하는 디스플레이부 및 상기 복수의 화상출력장치에 서로 다른 식별정보가 출력된 상태에서, 상기 프리뷰 영상에 포함된 상기 서로 다른 식별정보에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 배치를 인식하고, 상기 복수의 화상출력장치의 배치가 인식되면, 상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치를 제어하는 제어부를 포함한다.
실시 예에 있어서, 상기 복수의 화상출력장치에는, 사용자 요청에 근거하여 기 설정된 격자무늬가 포함된 화면정보가 출력되고, 상기 제어부는, 상기 복수의 화상출력장치 각각에 상기 화면정보가 출력되면, 상기 프리뷰 영상에 포함된 상기 화면정보에 해당하는 이미지를 이용하여, 상기 복수의 화상출력장치의 상대배치를 인식하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어부는, 상기 복수의 화상출력장치의 배치에 근거하여, 하나의 컨텐츠가 상기 복수의 화상출력장치에 나누어져 출력되도록 상기 복수의 화상출력장치를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어부는, 상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지에 근거하여, 각 화상출력장치에 출력되는 상기 하나의 컨텐츠의 일부분을 결정하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어부는, 상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지 중 어느 하나의 이미지에 터치가 가해지면, 상기 터치가 가해진 어느 하나의 이미지에 해당하는 화상출력장치를 기준으로 상기 복수의 화상출력장치를 동기화하는 것을 특징으로 한다.
본 발명은 이동 단말기를 이용하여 복수의 화상출력장치의 화질을 조정할 수 있다. 이를 통해, 본 발명은 복수의 화상출력장치의 화질조정을 위해 복잡한 과정을 거치는 대신, 이동 단말기를 이용하여 보다 편리하게 복수의 화상출력장치의 화질을 조정할 수 있다.
또한, 본 발명은 동일한 출력설정임에도 불구하고 화상출력장치의 패널 종류 및 특성에 따라, 또는 화상출력장치의 구조, 화상출력장치의 제조방식 또는 화상출력장치의 출력방식의 차이에 따라 복수의 화상출력장치의 화질이 서로 상이한 경우, 이동 단말기(화상출력장치의 외부)에서 추출된 화질정보에 근거하여 복수의 화상출력장치의 화질을 조정할 수 있다. 이에 따라, 사용자는 복수의 화상출력장치을 시청할 때 화질차이에 의한 이질감 없는 화면을 제공받을 수 있다.
본 발명은 카메라를 통해 수신되는 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 복수의 화상출력장치의 배치를 인식할 수 있다. 또한, 본 발명은 복수의 화상출력장치에 해당하는 이미지에 포함된 서로 다른 식별정보에 해당하는 이미지를 이용하여 복수의 화상출력장치의 각각의 개수 및 위치를 판단할 수 있다. 또한, 본 발명은 복수의 화상출력장치에 해당하는 이미지에 포함된 기 설정된 격자무늬가 포함된 화면정보에 해당하는 이미지를 이용하여 복수의 화상출력장치의 상대배치 및 자세 등을 판단할 수 있다. 따라서, 본 발명은 종래의 복수의 화상출력장치를 제어하기 위해 일일이 화상출력장치의 개수, 배치된 위치, 상대배치 및 배치된 자세 등을 설정해야하는 번거로움을 해소할 수 있다.
또한, 본 발명은 복수의 화상출력장치에 하나의 컨텐츠가 나누어져 출력되도록 상기 복수의 화상출력장치를 제어할 수 있다. 이 때, 본 발명은 이동 단말기의 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 하나의 컨텐츠 중 복수의 화상출력장치 각각에서 출력될 일부분을 설정할 수 있다. 따라서, 본 발명은 복수의 화상출력장치에 컨텐츠를 출력하는 데에 최적화된 GUI(Graphic User Interface)를 제공할 수 있다.
또한, 본 발명은 이동 단말기의 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 어느 하나의 기준 화상출력장치를 선택하고, 상기 기준 화상출력장치를 기준으로 상기 복수의 화상출력장치를 동기화할 수 있다. 따라서, 본 발명은 종래에 각 화상출력장치 개별적으로 동기화함으로써 발생되던 번거로움을 해소할 수 있을 뿐만 아니라, 이동 단말기를 기준으로, 즉 사용자를 기준으로 보다 최적화된 동기화를 수행할 수 있다.
도 1은 본 발명과 관련된 시스템을 설명하기 위한 개념도이다.
도 2는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.
도 3은 본 발명과 관련된 화상출력장치를 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 이동 단말기의 제어방법을 대표적으로 나타내는 흐름도이다.
도 5는 도 4에서 살펴본 제어방법을 설명하기 위한 개념도이다.
도 6은 본 발명의 일 실시 예에 따른 화질 조정 방법을 나타내는 흐름도이다.
도 7은 본 발명의 일 실시 예에 따른 이동 단말기와 복수의 화상출력장치가 통신연결하는 방법을 나타내는 흐름도이다.
도 8은 도 7에서 살펴본 통신연결 방법을 설명하기 위한 개념도이다.
도 9는 본 발명의 일 실시 에에 따른 이동 단말기가 복수의 화상출력장치의 배치를 인식하는 방법을 나타내는 흐름도이다.
도 10a 및 도 10b는 도 9에서 살펴본 복수의 화상출력장치에 대한 배치 인식 방법을 설명하기 위한 개념도이다.
도 11 및 도 12는 본 발명의 일 실시 예에 따른 이동 단말기를 이용하여 복수의 화상출력장치의 화질정보를 추출하는 방법을 나타내는 흐름도이다.
도 13a 및 도 13b는 도 11 및 도 12에서 살펴본 화질정보 추출 방법을 설명하기 위한 개념도이다.
도 14는 본 발명의 일 실시 예에 따른 화상출력장치가 화질을 조정하는 방법을 나타내는 흐름도이다.
도 15는 본 발명의 다른 실시 예에 따른 이동 단말기의 제어방법을 대표적으로 나타내는 흐름도이다.
도 16은 도 15에서 살펴본 제어방법을 설명하기 위한 개념도이다.
도 17a, 도 17b 및 도 17c는 이동 단말기가 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 복수의 화상출력장치의 배치를 인식하는 방법을 설명하기 위한 개념도이다.
도 18a, 도 18b, 도 18c 및 도 18d는 이동 단말기를 이용하여 하나의 컨텐츠를 복수의 화상출력장치에 나누어 출력하는 방법을 설명하기 위한 개념도이다.
도 19a, 도 19b, 도 19c 및 도 19d는 이동 단말기를 이용하여 복수의 화상출력장치를 동기화하는 방법을 설명하기 위한 개념도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1을 참조하면, 도 1은 본 발명과 관련된 시스템을 설명하기 위한 개념도이다.
본 발명의 일 실시 예에 따른 시스템은 이동 단말기(100), 화상출력장치(200) 및 통신망(300) 등으로 구성될 수 있다.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.
이상에서 언급되진 않았지만, 상기 이동 단말기에는 타 기기와 통신이 가능하고, 카메라를 통해 수신되는 영상을 분석하는 기능이 구비된 단말기라면 어떤 종류의 기기도 포함될 수 있다.
본 명세서에서 설명되는 화상출력장치(200)에는 텔레비전, 스마트 TV, 디지털 TV, 컴퓨터 모니터, 모니터와 본체가 결합된 올인원 PC(all-in-one PC, 또는 일체형 PC), 노트북 컴퓨터(laptop computer), 프로젝터, 테블릿, 디지털 사이니지,비디오 월, 이동 단말기 등이 포함될 수 있다. 즉, 상기 화상출력장치(200)는 화면정보를 출력하는 것이 가능한 다양한 형태의 기기를 포함할 수 있다.
한편, 상기 이동 단말기(100) 및 화상출력장치(200)는 통신망(300)을 통해 상호 통신 연결될 수 있다. 이러한 통신망을 통해 연결된 이동 단말기(100) 및 화상출력장치(200)는 서로 데이터를 송수신하거나, 제어명령 신호를 전달할 수 있다.
이동 단말기(100)와 화상출력장치(200)의 통신이 가능하도록 형성되는 통신망(300)은, 이동 단말기(100)와 화상출력장치(200)를 연결하는 망(Network)으로서 유/무선 통신이 가능한 모든 통신망을 말한다. LAN(Local Area Network), WAN(Wide Area Network)등의 폐쇄형 네트워크일 수 있으며, 인터넷(Internet)과 같은 개방형인 것이 바람직하다. 인터넷은 TCP/IP 프로토콜 및 그 상위계층에 존재하는 여러 서비스, 즉 HTTP(HyperText Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol), SNMP(Simple Network Management Protocol), NFS(Network File Service), NIS(Network Information Service)를 제공하는 전세계적인 개방형 컴퓨터 네트워크 구조를 의미한다.
또한, 상기 통신망(300)은 근거리 통신(Short range communication)이 가능하도록, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
본 발명의 일 실시 예에 따른 이동 단말기(100) 및 화상출력장치(200)는 상기 통신망(300)을 통해 동일한 네트워크에 접속할 수 있다. 여기서, 상기 화상출력장치(200)는 복수개(200a, 200b,...,200n)일 수 있다. 이동 단말기(100)는 복수의 화상출력장치(200)의 화질정보를 추출하기 위해 복수의 화상출력장치(200)를 제어하는 신호(또는, 요청)를 상기 복수의 화상출력장치(200) 중 적어도 하나로 전송할 수 있다.
또한, 이동 단말기(100)는 복수의 화상출력장치 중 적어도 하나의 화질이 조정되도록, 추출된 화질정보를 화질 조정 대상에 해당하는 화상출력장치로 전송할 수 있다.
이하에서는, 도 2 및 도 3을 참조하여 본 발명의 일 실시 예에 따른 이동 단말기 및 화상출력장치를 구성하는 구성요소에 대해 보다 구체적으로 살펴본다.
도 2를 참조하면, 도 2는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.
상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.
이하에서는, 위에서 살펴본 이동 단말기(100)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 1a를 참조하여 보다 구체적으로 살펴본다.
먼저, 무선 통신부(110)에 대하여 살펴보면, 무선 통신부(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(100)에 제공될 수 있다.
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.
근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 다른 이동 단말기(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 이동 단말기(100)는 본 발명에 따른 이동 단말기(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(114)은, 이동 단말기(100) 주변에, 상기 이동 단말기(100)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 이동 단말기(100)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(114)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 이동 단말기(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 이동 단말기(100)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 이동 단말기(100)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.
위치정보 모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 이동 단말기는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 이동 단말기의 위치를 획득할 수 있다. 다른 예로서, 이동 단말기는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 이동 단말기의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 이동 단말기의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 이동 단말기의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
다음으로, 입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 이동 단말기(100) 는 하나 또는 복수의 카메라(121)를 구비할 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 이동 단말기(100)에 구비되는 복수의 카메라(121)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(121)를 통하여, 이동 단말기(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동 단말기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 이동 단말기(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 이동 단말기(100)의 전/후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
한편, 센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 이동 단말기(100)의 구동 또는 동작을 제어하거나, 이동 단말기(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(180)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(180)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 이동 단말기(100)를 제어할 수 있다.
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치입력)을 감지한다.
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(180)와 별도의 구성요소일 수 있고, 제어부(180) 자체일 수 있다.
한편, 제어부(180)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 이동 단말기(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.
한편, 입력부(120)의 구성으로 살펴본, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.
카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.
상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(153)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(153)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(153)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(153)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
광출력부(154)는 이동 단말기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
광출력부(154)가 출력하는 신호는 이동 단말기가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 이동 단말기가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.
인터페이스부(160)는 이동 단말기(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(160)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(160)에 포함될 수 있다.
한편, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(160)를 통하여 단말기(100)와 연결될 수 있다.
또한, 상기 인터페이스부(160)는 이동 단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.
메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(170)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.
한편, 앞서 살펴본 것과 같이, 제어부(180)는 응용 프로그램과 관련된 동작과, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(180)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다.
또한, 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(180)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 이동 단말기(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부(190)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다.
또한, 전원공급부(190)는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(160)의 일 예로서 구성될 수 있다.
다른 예로서, 전원공급부(190)는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원공급부(190)는 외부의 무선 전력 전송장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
이하에서는, 도 3을 참조하여, 도 2에서 설명한 이동 단말기와 통신이 가능한 화상출력장치(300)에 대해 보다 구체적으로 설명한다. 도 3은 본 발명과 관련된 화상출력장치를 설명하기 위한 블록도이다.
본 발명의 일 실시 예에 따른 화상출력장치(200)는 화상출력장치(200)는, 튜너(210), 복조부(220), 신호 입출력부(230), 인터페이스부(240), 제어부(250), 저장부(260), 디스플레이부(270) 및 오디오 출력부(280)를 포함한다. 다만, 외부 입력 장치는 화상출력장치(200)와 별도의 장치이나, 화상출력장치(200)의 일 구성요소로 포함될 수도 있다.
도 3을 참조하면, 튜너(210)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 대응하는 RF 방송 신호를 선택하고, RF 방송 신호를 중간 주파수 신호 또는 베이스 밴드 영상/음성 신호로 변환한다. 예를 들어, RF 방송 신호가 디지털 방송 신호이면, 튜너(210)는 RF 방송 신호를 디지털 IF 신호(DIF)로 변환한다. 반면, RF 방송 신호가 아날로그 방송 신호이면, 튜너(210)는 RF 방송 신호를 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)로 변환된다. 이와 같이, 튜너(210)는 디지털 방송 신호와 아날로그 방송 신호를 처리할 수 있는 하이브리드 튜너일 수 있다.
튜너(210)에서 출력되는 디지털 IF 신호(DIF)는 복조부(220)로 입력되고, 튜너(210)에서 출력되는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)는 제어부(260)로 입력될 수 있다. 튜너(220)는 ATSC(Advanced Television Systems Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
비록 도면에는 하나의 튜너(210)가 도시되나, 이에 한정되지 않고, 화상출력장치(200)는 다수의 튜너, 예를 들어, 제 1 및 제 2 튜너를 구비할 수 있다. 이런 경우, 제 1 튜너는 사용자가 선택한 방송 채널에 대응하는 제 1 RF 방송 신호를 수신하고, 제 2 튜너는 기저장된 방송 채널에 대응하는 제 2 RF 방송 신호를 순차적으로 또는 주기적으로 수신할 수 있다. 제 2 튜너는 제 1 튜너와 마찬가지 방식으로 RF 방송 신호를 디지털 IF 신호(DIF) 또는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)로 변환할 수 있다.
복조부(220)는 튜너(210)에서 변환되는 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 예를 들어, 튜너(210)에서 출력되는 디지털 IF 신호(DIF)가 ATSC 방식이면, 복조부(220)는 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 이때, 복조부(220)는 트렐리스 복호화, 디인터리빙(de-interleaving), 리드 솔로몬 복호화 등의 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(220)는 트렐리스 디코더(Trellis decoder), 디인터리버(de-interleaver) 및 리드 솔로몬 디코더(Reed Solomon decoder) 등을 구비할 수 있다.
다른 예를 들어, 튜너(210)에서 출력되는 디지털 IF 신호(DIF)가 DVB 방식이면, 복조부(220)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 이때, 복조부(220)는 컨벌루션 복호화, 디인터리빙, 리드 솔로몬 복호화 등의 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(220)는 컨벌루션 디코더(convolution decoder), 디인터리버 및 리드-솔로몬 디코더 등을 구비할 수 있다.
신호 입출력부(230)는 외부 기기와 연결되어 신호 입력 및 출력 동작을 수행하고, 이를 위해, A/V 입출력부(미도시됨) 및 무선 통신부(미도시됨)를 포함할 수 있다.
A/V 입출력부는 이더넷(Ethernet) 단자, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, MHL (Mobile High-definition Link) 단자, RGB 단자, D-SUB 단자, IEEE 1394 단자, SPDIF 단자, 리퀴드(Liquid) HD 단자 등을 포함할 수 있다. 이러한 단자들을 통해 입력되는 디지털 신호는 제어부(250)에 전달될 수 있다. 이때, CVBS 단자 및 S-비디오 단자를 통해 입력되는 아날로그 신호는 아날로그-디지털 변환부(미도시)를 통해 디지털 신호로 변환되어 제어부(250)로 전달될 수 있다.
무선 통신부는 무선 인터넷 접속을 수행할 수 있다. 예를 들어, 무선 통신부는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등을 이용하여 무선 인터넷 접속을 수행할 수 있다. 또한, 무선 통신부는 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 예를 들어, 무선 통신부는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등을 이용하여 근거리 무선 통신을 수행할 수 있다.
신호 입출력부(230)는 DVD(Digital Versatile Disk) 플레이어, 블루레이(Blu-ray) 플레이어, 게임기기, 캠코더, 컴퓨터(노트북), 휴대기기, 스마트 폰 등과 같은 외부 기기로부터 제공되는 영상 신호, 음성 신호 및 데이터 신호를 제어부(250)로 전달할 수 있다. 또한, 메모리장치, 하드디스크 등과 같은 외부 저장 장치에 저장된 다양한 미디어 파일의 영상 신호, 음성 신호 및 데이터 신호를 제어부(250)로 전달할 수 있다. 또한, 제어부(250)에 의해 처리된 영상 신호, 음성 신호 및 데이터 신호를 다른 외부 기기로 출력할 수 있다.
신호 입출력부(230)는 상술한 각종 단자 중 적어도 하나를 통해 셋톱 박스, 예를 들어, IPTV(Internet Protocol TV)용 셋톱 박스와 연결되어 신호 입력 및 출력 동작을 수행할 수 있다. 예를 들어, 신호 입출력부(230)는 양방향 통신이 가능하도록 IPTV용 셋톱 박스에 의해 처리된 영상 신호, 음성 신호 및 데이터 신호를 제어부(250)로 전달할 수 있고, 제어부(250)에 의해 처리된 신호들을 IPTV용 셋톱 박스로 전달할 수도 있다. 여기서, IPTV는 전송 네트워크에 따라 구분되는 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함할 수 있다.
복조부(220) 및 신호 출력부(230)에서 출력되는 디지털 신호는 스트림 신호(TS)를 포함할 수 있다. 스트림 신호(TS)는 영상 신호, 음성 신호 및 데이터 신호가 다중화된 신호일 수 있다. 예를 들어, 스트림 신호(TS)는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transprt Stream)일 수 있다. 여기서, MPEG-2 TS는 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
인터페이스부(240)는 외부 입력 장치(200)로부터 전원 제어, 채널 선택, 화면 설정 등을 위한 입력 신호를 수신하거나, 제어부(260)에 의해 처리된 신호를 외부 입력 장치(200)로 전송할 수 있다. 인터페이스부(240)와 외부 입력 장치(200)는 유선 또는 무선으로 연결될 수 있다.
상기 인터페이스부(240)의 일 예로서, 센서부가 구비될 수 있으며, 센서부는 원격조정기, 예를 들어 리모컨으로부터 상기 입력 신호를 감지하도록 이루어진다.
네트워크 인터페이스부(미도시)는, 화상출력장치(200)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(230)는, 유선 네트워크와의 접속을 위해, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.
네트워크 인터페이스부(미도시)는, 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다. 그 외, 콘텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
또한, 네트워크 인터페이스부(미도시)는, 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
제어부(250)는 화상출력장치(200)의 전반적인 동작을 제어할 수 있다. 보다 구체적으로, 제어부(250)는 영상의 생성 및 출력을 제어하도록 형성된다. 예를 들어, 제어부(250)는 사용자가 선택한 채널 또는 기저장된 채널에 대응하는 RF 방송 신호를 튜닝(tuning)하도록 튜너(210)를 제어할 수 있다. 비록 도면에는 도시되지 않았으나, 제어부(250)는 역다중화부, 영상 처리부, 음성 처리부, 데이터 처리부, OSD(On Screen Display) 생성부 등을 포함할 수 있다. 또한, 제어부(250)는 하드웨어적으로 CPU 나 주변기기 등을 포함할 수 있다.
제어부(250)는 스트림 신호(TS), 예를 들어, MPEG-2 TS를 역다중화하여 영상 신호, 음성 신호 및 데이터 신호로 분리할 수 있다.
제어부(250)는 역다중화된 영상 신호에 대한 영상 처리, 예를 들어, 복호화를 수행할 수 있다. 좀더 상세하게, 제어부(250)는 MPEG-2 디코더를 이용하여 MPEG-2 규격의 부호화된 영상 신호를 복호화하고, H.264 디코더를 이용하여 DMB(Digital Multimedia Broadcasting) 방식 또는 DVB-H에 따른 H.264 규격의 부호화된 영상 신호를 복호화할 수 있다. 또한, 제어부(250)는 영상 신호의 밝기(brightness), 틴트(tint) 및 색조(color) 등이 조절되도록 영상 처리할 수 있다. 제어부(250)에 의해 영상 처리된 영상 신호는 디스플레이부(270)로 전달되거나, 외부 출력 단자를 통해 외부 출력 장치(미도시)로 전달될 수 있다.
제어부(250)는 역다중화된 음성 신호에 대한 음성 처리, 예를 들어, 복호화를 수행할 수 있다. 좀더 상세하게, 제어부(250)는 MPEG-2 디코더를 이용하여 MPEG-2 규격의 부호화된 음성 신호를 복호화하고, MPEG 4 디코더를 이용하여 DMB 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호를 복호화하며, AAC 디코더를 이용하여 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호를 복호화할 수 있다. 또한, 제어부(250)는 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. 제어부(250)에서 처리된 음성 신호는 오디오 출력부(280), 예를 들어, 스피커로 전달되거나, 외부 출력 장치로 전달될 수 있다.
제어부(250)는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)에 대한 신호 처리를 수행할 수 있다. 여기서, 제어부(250)에 입력되는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)는 튜너(210) 또는 신호 입출력부(230)에서 출력된 아날로그 베이스 밴드 영상/음성신호일 수 있다. 신호 처리된 영상 신호는 디스플레이부(270)를 통해 표시되고, 신호 처리된 음성 신호는 오디오 출력부(280)를 통해 출력된다.
제어부(250)는 역다중화된 데이터 신호에 대한 데이터 처리, 예를 들어, 복호화를 수행할 수 있다. 여기서, 데이터 신호는 각각의 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Program Guide) 정보를 포함할 수 있다. EPG 정보는, 예를 들어, ATSC 방식에서는 TSC-PSIP(ATSC-Program and System Information Protocol) 정보를 포함하고, DVB 방식에서는 DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. ATSC-PSIP 정보 또는 DVB-SI 정보는 MPEG-2 TS의 헤더(4 byte)에 포함될 수 있다.
제어부(250)는 OSD 처리를 위한 제어 동작을 수행할 수 있다. 좀더 상세하게, 제어부(250)는 영상 신호 및 데이터 신호 중 적어도 하나 또는 외부 입력 장치(200)로부터 수신되는 입력 신호에 근거하여 각종 정보를 그래픽(Graphic)이나 텍스트(Text) 형태로 표시하기 위한 OSD 신호를 생성할 수 있다. OSD 신호는 화상출력장치(200)의 사용자 인터페이스 화면, 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다.
저장부(260)는 제어부(250)의 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상 신호, 음성 신호 및 데이터 신호를 저장할 수도 있다. 저장부(260)는 플래시 메모리(flash memory), 하드디스크(hard disk), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 저장매체를 포함할 수 있다.
디스플레이부(270)는 제어부(250)에 의해 처리된 영상 신호, 데이터 신호, OSD 신호 등을 RGB 신호로 변환하여 구동 신호를 생성할 수 있다. 이를 통하여, 디스플레이부(270)는 영상을 출력하게 된다. 디스플레이부(270)는 플라즈마 디스플레이 패널(Plasma Display Panel: PDP), 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT- LCD), 유기 발광 다이오드(Organic Light Emitting Diode: OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 등의 다양한 형태로 구현될 수 있다. 또한, 디스플레이(280)는 터치 스크린으로 구현되어 입력 장치의 기능도 수행할 수 있다.
오디오 출력부(280)는 제어부(250)에 의해 처리된 음성 신호, 예를 들어, 스테레오 신호 또는 5.1 채 신호를 출력한다. 오디오 출력부(280)는 다양한 형태의 스피커로 구현될 수 있다.
한편, 사용자를 촬영하는 촬영부(미도시)를 더 구비할 수 있다. 촬영부(미도시)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 촬영부(미도시)에서 촬영된 영상 정보는 제어부(270)에 입력된다.
한편, 사용자의 제스처를 감지하기 위해, 상술한 바와 같이, 터치 센서, 음성 센서, 위치 센서, 동작 센서 중 적어도 하나를 구비하는 센싱부(미도시)가 화상출력장치(200)에 더 구비될 수 있다. 센싱부(미도시)에서 감지된 신호는 사용자입력 인터페이스부(240)를 통해 제어부(250)로 전달될 수 있다.
제어부(250)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센싱부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수도 있다.
전원 공급부(미도시)는, 화상출력장치(200) 전반에 걸쳐 해당 전원을 공급한다. 특히, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있는 제어부(250)와, 영상 표시를 위한 디스플레이부(270), 및 오디오 출력을 위한 오디오 출력부(280)에 전원을 공급할 수 있다.
이를 위해, 전원 공급부(미도시)는, 교류 전원을 직류 전원으로 변환하는 컨버터(미도시)를 구비할 수 있다. 한편, 예를 들어, 디스플레이부(270)가 다수의 백라이트 램프를 구비하는 액정패널로서 구현되는 경우, 휘도 가변 또는 디밍(dimming) 구동을 위해, PWM 동작이 가능한 인버터(미도시)를 더 구비할 수도 있다.
외부 입력 장치는 유선 또는 무선으로 인터페이스부(240)와 연결되며,사용자 입력에 따라 생성되는 입력 신호를 인터페이스부(240)로 전송한다. 외부 입력 장치는 원격조정기, 마우스, 키보드 등을 포함할 수 있다. 원격조정기는 블루투스(Bluetooth), RF 통신, 적외선 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 통해 입력 신호를 인터페이스부(240)로 전송할 수 있다. 원격조정기는 공간 원격 제어 장치로서 구현될 수 있다. 공간 원격 제어 장치는 공간에서 본체의 동작을 감지하여 입력 신호를 생성할 수 있다. 상기 외부 입력 장치는 본 발명의 일 실시 예에 따른 이동 단말기를 포함할 수 있다.
화상출력장치(200)는 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 고정형 디지털 방송 수신기로 구현될 수 있다. 또한, 화상출력장치(200)는 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 이동형 디지털 방송 수신기로 구현될 수 있다. 또한, 화상출력장치(200)는 케이블, 위성통신, IPTV용 디지털 방송 수신기로 구현될 수 있다.
위에서 살펴본 것과 같은 구성요소들 중 적어도 하나 이상을 포함하는 것이 가능한 본 발명의 일 실시 예에 따른 화상출력장치에서는, 화질 조정 기능을 수행할 수 있다. 여기서, 화질(picture quality)은 화상출력장치에서 색조, 밝기와 같은 화상의 질을 의미하는 것으로, 상기 화질 조정 기능은, 백 라이트(back light)의 밝기, 콘트라스트(contrast), 색상(color), 명도(brightness), 채도(chroma, hue), 포화도(saturation), 휘도(luminance), 선예도(sharpness), 색조(tint) 화이트 밸런스(white balance) 및 색 온도(color temperature), RGB픽셀값 등을 조정하는 기능을 의미한다. 화상출력장치(200)는 사용자의 요청, 또는 제어부의 제어에 따라 화질을 조정할 수 있다.
본 발명의 일 실시 예에 따른 화상출력장치(200)는 상기 화질 조정 기능을 통해 색 보정(color calibration)을 수행할 수 있다. 상기 색 보정은 화상출력장치(200)의 출력 특성을 기준 색이나 다른 장치(예를 들어, 다른 화상출력장치(200))에 맞게 설정하는 과정을 의미한다. 상기 색 보정(color calibration)은 color compensation 또는 색 조정(color correction) 등으로 명명될 수 있다.
상기 화상출력장치(200)는 화질 조정 기능을 이용하여, 일 예로, 색 조화(화이트 밸런스(white balance))를 조정할 수 있다. 상기 화이트 밸런스는 색 온도를 이용하여 조절될 수 있다. 상기 색 온도는 것으로, 광원의 빛을 표시하는 방법 중 하나이다. 구체적으로, 색 온도는 광원의 색을 절대온도를 이용해 숫자로 표시한 것으로 이해될 수 있다. 색 온도의 측정단위는 K(Kelvin, 캘빈)를 사용한다.
상기 색 온도는 International Commission on Illumination(CIE) 1931 color space chromaticity diagram(이하, 'CIE색도표'라 함)에 의해 정의될 수 있다. 상기 CIE색도표를 통해 정의되는 색 온도는 상관 색온도(correlated color temperature)를 의미할 수 있다.
일반적으로, 낮은 색 온도(예를 들어, 2700-3000K)를 갖는 색상은 따뜻한 색상(warm colors, yellowish white through red)으로 명명되고, 높은 색 온도(예를 들어, 5000K 이상)를 갖는 색상은 차가운 색상(cool colors, bluish white)으로 명명된다. 즉, 광원은 색 온도가 낮을수록 붉은색 계열의 빛을 띄고, 색 온도가 높을수록 푸른색 계열의 빛을 띄게 된다.
한편, 본 발명의 일 실시 예에 따른 복수의 화상출력장치(200)는 동일한 세팅(setting)에도 불구하고 서로 다른 화질(예를 들어, 화이트 밸런스)을 가질 수 있다. 구체적으로, 복수의 화상출력장치(200)는 동일한 출력설정(세팅)임에도 불구하고, 화상출력장치의 패널 종류 및 특성에 따라 서로 다른 화질을 가질 수 있다. 이는, 동일한 제품(예를 들어, 어느 하나의 생산 라인에서 생성된 적어도 두 개의 제품)의 경우, 패널을 구성하는 하드웨어적인 구성 고유의 특성에 따라 서로 다른 화질을 갖는 경우도 포함한다.
다른 예로, 복수의 화상출력장치가 서로 다른 화질을 가지는 경우는 동일한 제품들이 사용자 요청에 근거하여 서로 다른 세팅으로 설정된 경우를 더 포함할 수도 있다.
또 다른 예로, 상기 복수의 화상출력장치는 화상출력장치의 구조(패널의 구조), 화상출력장치의 제조방식 또는 화상출력장치의 출력방식의 차이에 따라 서로 다른 화질을 가질 수 있다.
본 발명은, 위에서 설명한 것과 같이, 서로 다른 화질을 갖는 복수의 화상출력장치에 대하여 화질 조정 기능(예를 들어, 색 보정(color calibration))을 수행할 수 있다. 구체적으로, 본 발명의 화상출력장치(200)는 화질(예를 들어, 화이트 밸런스)을 조정하기 위해 RGB신호(RGB출력값, RGB 출력비율)를 제어할 수 있다. 구체적으로, 본 발명의 화상출력장치(200)는 화이트 밸런스를 조정하기 위하여 RGB 신호를 제어하여 색 온도를 조정할 수 있다.
즉, 본 발명에서는 화질 조정 기능을 통해, 복수의 화상출력장치(200) 중 화질 조정의 기준이 되는 화상출력장치(200)의 화이트 밸런스에 대응되도록 화질 조정 대상에 해당하는 화상출력장치(200)의 화이트 밸런스를 조정할 수 있다.
예를 들어, 화질 조정 대상에 해당하는 화상출력장치의 색 온도가 기준이 되는 화상출력장치의 색 온도보다 높은 경우, 화질 조정 대상에 해당하는 화상출력장치는 기준이 되는 화상출력장치보다 푸른색 계열의 빛을 띄게 된다. 이 때, 화질 조정 대상에 해당하는 화상출력장치는 RGB신호 중 B(Blue)신호의 출력을 줄이거나, R(Red)신호의 출력을 증가시켜 색 온도를 낮출 수 있다.
반대로, 화질 조정 대상에 해당하는 화상출력장치의 색 온도가 기준이 되는 화상출력장치의 색 온도보다 낮은 경우, 화질 조정 대상에 해당하는 화상출력장치는 기준이 되는 화상출력장치보다 붉은색 계열의 빛을 띄게 된다. 이 때, 화질 조정 대상에 해당하는 화상출력장치는 RGB신호 중 B(Blue)신호의 출력을 증가시키거나, R(Red)신호의 출력을 감소시켜 색 온도를 낮출 수 있다.
이를 통해, 본 발명의 화상출력장치는 복수의 화상출력장치 중 기준이 되는 어느 하나의 화상출력장치의 화질에 대응되도록 화질 조정 기능을 수행할 수 있다.
한편, 본 발명은 복수의 화상출력장치 중 화질 조정 대상에 해당하는 화상출력장치의 화질이 기준이 되는 어느 하나의 화상출력장치의 화질에 대응되도록 하는 화질 조정 기능을 수행하기 위해 이동 단말기를 이용할 수 있다.
이하에서는, 본 발명의 일 실시 예에 따른 화상출력장치의 화질 조정 기능에 이용되는 이동 단말기의 제어방법을 첨부된 도면을 참조하여 보다 구체적으로 살펴본다.
도 4는 본 발명의 일 실시 예에 따른 이동 단말기의 제어방법을 대표적으로 나타내는 흐름도이고, 도 5는 도 4에서 살펴본 제어방법을 설명하기 위한 개념도이다.
우선, 본 발명의 이동 단말기(100)는 이동 단말기에 구비된 카메라(121)를 통해 수신되는 영상(이하, '프리뷰 영상(preview image)'라 함)(310)을 디스플레이부(151)에 출력할 수 있다. 구체적으로, 본 발명의 이동 단말기(100)는 카메라를 통해 수신되는 상기 복수의 화상출력장치에 해당하는 이미지를 토대로 프리뷰 영상(310)을 생성하고, 상기 프리뷰 영상(310)을 디스플레이부(151)에 출력할 수 있다.
상기 프리뷰 영상(310)은 카메라(121)를 활성화시키는 기능이 포함된 애플리케이션이 실행되는 것에 근거하여 디스플레이부(151)에 출력될 수 있다. 상기 애플리케이션의 실행은 애플리케이션의 아이콘이 선택(또는 터치)되는 것에 근거하여 수행될 수 있다.
또한, 본 발명의 이동 단말기(100)는 디스플레이부(151)에 출력된 프리뷰 영상(310)에 대한 영상분석을 수행할 수 있다. 상기 영상분석은 프리뷰 영상(310)에 포함된 적어도 일부의 이미지에 대한 색상정보, 밝기정보 등을 추출하는 것을 의미할 수 있다.
위에서 설명한 기능들을 포함하는 것이 가능한 본 발명의 일 실시 예에 따른 이동 단말기(100)에서는, 카메라를 통해 수신되는 프리뷰 영상(310)에 포함된 복수의 화상출력장치(200a, 200b)에 해당하는 이미지(300a, 300b)를 이용하여 상기 복수의 화상출력장치의 화질정보를 추출하는 단계가 진행된다(S310).
이동 단말기(100)의 디스플레이부(151)에는 카메라 활성화 기능과 연계된 애플리케이션이 실행되는 것에 근거하여, 카메라를 통해 수신되는 프리뷰 영상(310)이 출력될 수 있다.
상기 프리뷰 영상(310)에는, 사용자의 제어에 따라, 복수의 화상출력장치(200a, 200b)에 해당하는 이미지(300a, 300b)가 포함될 수 있다. 구체적으로, 상기 복수의 화상출력장치에 해당하는 이미지(300a, 300b)는 사용자가 이동 단말기(100)에 구비된 카메라(121)를 복수의 화상출력장치(200a, 200b)를 향하도록 이동 단말기를 제어함으로써, 상기 프리뷰 영상(310)에 포함될 수 있다. 즉, 본 발명의 이동 단말기(100)는 카메라를 통해 수신되는 상기 복수의 화상출력장치에 해당하는 이미지를 토대로 프리뷰 영상(310)을 생성하고, 상기 프리뷰 영상(310)을 디스플레이부(151)에 출력할 수 있다.
이하에서는, 설명의 편의를 위해 복수의 화상출력장치가 두 개인 것을 예로 들어 설명한다. 그러나, 이하에서 설명하는 내용은 복수의 화상출력장치가 두 개인 경우에 한정되는 것이 아닌, 세 개 이상인 경우에도 동일/유사하게 유추적용할 것이다.
상기 프리뷰 영상(310)에는 복수의 화상출력장치(200a, 200b) 중 제1 화상출력장치(200a)의 적어도 일부에 해당하는 이미지(300a) 및 제2 화상출력장치(200b)의 적어도 일부에 해당하는 이미지(300b)가 출력될 수 있다.
또한, 이동 단말기(100)의 제어부(180)는 상기 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a, 300b)를 이용하여 상기 복수의 화상출력장치(200a, 200b)의 화질정보를 추출할 수 있다. 상기 추출된 화질정보는 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a, 300b)를 통해 추출된 정보로서, 색상정보(색 온도 정보, RGB 픽셀값, 콘트라스트(Contrast), 샤프니스(선예도, Sharpness), 채도(hue)) 및 밝기 정보 등을 포함할 수 있다.
이 때, 이동 단말기(100)는 복수의 화상출력장치(200a, 200b)로 화질정보 추출에 이용되는 기 설정된 화면(400)에 대한 출력을 요청할 수 있다. 상기 기 설정된 화면(400)은 다양한 형태로 구현될 수 있으며, 일 예로, 화이트 스크린(white screen)일 수 있다.
예를 들어, 상기 기 설정된 화면(400)은 화상출력장치(200)의 RGB신호 값이 각각 255인 상태로 출력되는 화면일 수 있다(예를 들어, (R, G, B) = (255, 255, 255). 이 경우, 상기 복수의 화상출력장치(200)에서는 패널 특성에 따라 서로 다른 화질의 기 설정된 화면이 출력될 수 있다.
다른 예로, 상기 기 설정된 화면(400)은 동일한 알고리즘에 의해 형성되는 파일(데이터)이 실행됨에 따라 출력되는 화이트 스크린일 수 있다. 이 경우, 상기 복수의 화상출력장치(200)에서는 동일한 파일에 의해 기 설정된 화면이 출력되더라도, 복수의 화상출력장치 자체에서 세팅된 설정(예를 들어, RGB출력비율, 밝기 등)에 따라 서로 다른 화질(예를 들어, 화이트 밸런스)을 갖는 기 설정된 화면이 출력될 수 있다.
상기 기 설정된 화면(400)에는 그래픽 객체(500)가 출력될 수 있다. 상기 그래픽 객체(500)는 화질정보 추출영역을 가이드하는 역할을 할 수 있다. 한편, 이동 단말기(100)의 프리뷰 영상(310)에는 상기 그래픽 객체에 대응되는 인디케이터(600)가 출력될 수 있다.
제어부(180)는 상기 인디케이터(600)가 프리뷰 영상(310)에 포함된 상기 그래픽 객체에 대응되는 이미지에 오버랩되는 것에 근거하여 상기 복수의 화상출력장치의 화질정보를 추출할 수 있다. 구체적으로, 제어부(180)는 상기 인디케이터(600)가 상기 그래픽 객체(500)에 해당하는 이미지에 오버랩되는 것을 화질정보 추출명령으로 처리할 수 있다.
제어부(180)는 상기 복수의 화상출력장치(200)에 상기 기 설정된 화면(400)이 출력된 상태에서, 상기 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a, 300b)를 이용하여 상기 복수의 화상출력장치의 화질정보를 추출할 수 있다.
예를 들어, 제어부(180)는 프리뷰 영상(310)에 포함된 제1 화상출력장치(200a)에 해당하는 이미지(300a)를 이용하여, 상기 제1 화상출력장치(200a)의 화질정보를 추출할 수 있다. 또한, 제어부(180)는 프리뷰 영상(310)에 포함된 제2 화상출력장치(200b)에 해당하는 이미지(300b)를 이용하여, 상기 제2 화상출력장치(200b)의 화질정보를 추출할 수 있다.
보다 구체적으로, 상기 제1 및 제2 화상출력장치(200a, 200b)에는 기 설정된 화면(400)이 출력될 수 있다. 이 상태에서, 제어부(180)는 상기 프리뷰 영상(310)에 포함된, 제1 화상출력장치(200a)에 출력된 기 설정된 화면(400)에 해당하는 이미지를 이용하여 상기 제1 화상출력장치(200a)의 화질정보를 추출할 수 있다. 또한, 제어부(180)는 상기 프리뷰 영상(310)에 포함된, 제2 화상출력장치(200b)에 출력된 기 설정된 화면(400)에 해당하는 이미지를 이용하여 상기 제2 화상출력장치(200b)의 화질정보를 추출할 수 있다.
이후, 본 발명에서는 복수의 화상출력장치 중 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치에 추출된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 전송하는 단계가 진행된다(S320).
구체적으로, 제어부(180)는, 복수의 화상출력장치(200a, 200b) 중 어느 하나의 화상출력장치(200b)가 화질 조정 대상에 해당하는 경우, 상기 어느 하나의 화상출력장치(200b)로 상기 추출된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 전송할 수 있다. 다시 말해, 제어부(180)는 복수의 화상출력장치 중 적어도 하나의 화상출력장치의 화질이 조정되도록, 상기 적어도 하나의 화상출력장치로 추출된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 전송할 수 있다.
상기 어느 하나의 화상출력장치로 전송된 화질정보는 복수의 화상출력장치 각각의 화질정보일 수 있다, 또한, 상기 화질정보에 대응하는 화질 보정 데이터는 기준이 되는 어느 하나의 화상출력장치의 화질정보와 상기 어느 하나의 화상출력장치의 화질정보에 근거한 화질 차이값(예를 들어, 밝기 차이값, 또는 색 온도 차이값)일 수 있다.
상기 이동 단말기로부터 추출된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 수신한 화질 조정 대상에 해당하는 화상출력장치(200b)는 상기 수신된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 이용하여 화질을 조정할 수 있다. 화질을 조정하는 보다 구체적인 방법에 대해서는 도 14를 참조하여 후술하기로 한다.
이상에서 설명한 내용은 도 5를 참조하면 더욱 명확하게 이해될 것이다.
도 5를 참조하면, 도 5의 (a)에는 서로 다른 화질을 갖는 복수의 화상출력장치(200a, 200b)가 출력될 수 있다. 구체적으로, 상기 복수의 화상출력장치의 디스플레이부(270a, 270b)에 동일한 파일(이미지)가 출력되는 경우, 상기 복수의 화상출력장치(200a, 200b)는 서로 다른 화질을 가질 수 있다.
이 때, 제어부(180)는 카메라를 통해 수신되는 프리뷰 영상(310)에 포함된 상기 복수의 화상출력장치에 해당하는 이미지(300a, 300b)를 이용하여, 상기 복수의 화상출력장치(200a, 200b)의 화질정보를 추출할 수 있다.
이 때, 이동 단말기의 제어부(180)는 상기 복수의 화상출력장치(200a, 200b)로 화질정보 추출에 사용되는 기 설정된 화면(400)에 대한 출력을 요청할 수 있다. 이에 응답하여, 도 5의 (b)에 도시된 것과 같이, 상기 복수의 화상출력장치(200a, 200b)에는 기 설정된 화면(400)이 출력될 수 있다.
도 5의 (b)에 도시된 것과 같이, 상기 기 설정된 화면(400)에는 화질정보 추출영역을 가이드하는 그래픽 객체(500)가 출력될 수 있다. 또한, 이동 단말기에 출력된 프리뷰 영상(310)에는 상기 그래픽 객체에 대응되는 인디케이터(600)가 출력될 수 있다.
도 5의 (b)에 도시된 것과 같이, 상기 프리뷰 영상(310)에 출력된 인디케이터(600)가 사용자 요청(이동)에 의해 상기 복수의 화상출력장치(200a, 200b)에 출력된 그래픽 객체(500)에 해당하는 이미지에 대응되면, 이동 단말기의 제어부(180)는 상기 복수의 화상출력장치(200a, 200b)의 화질정보를 추출할 수 있다.
이후, 이동 단말기의 제어부(180)는 상기 복수의 화상출력장치(200a, 200b) 중 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치(예를 들어, 200b)에 상기 추출된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 전송할 수 있다.
상기 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 수신한 화상출력장치(200b)는, 도 5의 (c)에 도시된 것과 같이, 상기 수신된 화질정보 또는 상기 화질 보정 데이터를 이용하여 화질을 조정할 수 있다.
이러한 구성을 통해, 본 발명은 이동 단말기를 이용하여 보다 간편하게 복수의 화상출력장치의 화질을 조정할 수 있다. 따라서, 사용자가 여러 단계에 걸쳐 화상출력장치의 화질을 일일이 조정해야하는 불편함을 제거할 수 있다.
또한, 본 발명에 따르면, 복수의 화상출력장치에서 동일한 출력세팅에 따라 특정 화면을 출력하더라도, 패널 특성에 따라 서로 다른 화질을 갖는 경우, 복수의 화상출력장치 외부에서 측정된(이동 단말기에서 측정된) 화질정보에 근거하여 복수의 화상출력장치의 화질을 조정할 수 있다. 이에 따라, 본 발명은 복수의 화상출력장치의 화질을 조정하여 사용자에게 이질감 없는 화면을 제공할 수 있다.
이하에서는, 도 4 및 도 5에서 설명한 내용을 포함하는, 본 발명의 일 실시 예에 따른 이동 단말기와 화상출력장치의 제어방법을 첨부된 도면을 참조하여 보다 구체적으로 설명한다.
우선, 도 6을 참조하여 본 발명의 일 실시 예에 따른 전반적인 제어방법을 설명한다. 도 6은 본 발명의 일 실시 예에 따른 화질 조정 방법을 나타내는 흐름도이다.
앞서 설명한 것과 같이, 본 발명의 일 실시 예에 따른 화상출력장치는 각각 독립적으로 이동 단말기와 데이터 또는 제어명령을 송수신하거나, 화상출력장치 자체적으로 화질을 조정할 수 있다.
한편, 화상출력장치가 제어기기에 연결되어, 상기 제어기기에 의해 제어되는 경우(예를 들어, 화상출력장치가 모니터에 해당하고, 제어기기가 본체(PC)에 해당하는 경우), 위에서 화상출력장치에 대해 설명한 내용 및 이하에서 화상출력장치에 대해 설명할 내용은 제어기기(예를 들어, 본체(PC))에 대한 내용으로 동일/유사하게 유추적용 가능하다.
우선, 본 발명의 일 실시 예에 따른 이동 단말기(100)를 이용한 복수의 화상출력장치(200)의 화질 조정은 화질 조정 관련 애플리케이션을 통해 수행될 수 있다. 상기 화질 조정 관련 애플리케이션은 이동 단말기(100)와 화상출력장치(200) 사이의 데이터 및 제어명령을 송수신하는 기능을 포함할 수 있다. 또한, 상기 화질 조정 관련 애플리케이션은 복수의 화상출력장치(200)의 화질 조정에 수행되는 각 단계별로 적어도 하나의 사용자 인터페이스로 구현될 수 있다.
상기 화질 조정 관련 애플리케이션은 설치(저장)되는 대상에 따라 서로 다른 동작(기능)을 수행할 수 있다. 예를 들어, 이동 단말기(100)에 설치된 화질 조정 관련 애플리케이션과 화상출력장치(200)에 설치된 화질 조정 관련 애플리케이션은 서로 다른 동작을 수행할 수 있다.
다시 돌아와, 이동 단말기(100) 및 복수의 화상출력장치(200)는, 사용자 요청에 근거하여 화질 조정 관련 애플리케이션을 실행할 수 있다. 상기 화질 조정 관련 애플리케이션은 서버(Server)로부터 수신되거나, USB, USIM, SD Card, CD 등과 같이 휴대가 가능한 기록매체를 통해 이동 단말기(100) 및 복수의 화상출력장치(200)에 설치될 수 있다.
만약, 화질 조정 관련 애플리케이션이 화상출력장치(200)에만 설치되고, 이동 단말기(100)에는 설치되지 않은 경우, 화상출력장치(200)에는 이동 단말기(100)에 설치 가능한 링크정보가 포함된 바코드(예를 들어, QR코드)가 출력될 수 있다.
이동 단말기(100)의 제어부(180)는 카메라를 활성화시켜 디스플레이부(151)에 프리뷰 영상을 출력하고, 사용자 요청에 근거하여 상기 프리뷰 영상에 상기 바코드에 해당하는 이미지를 출력할 수 있다. 제어부(180)는 상기 바코드에 해당하는 이미지를 이용하여 링크정보를 추출하고, 상기 추출된 링크정보를 이용해 외부 기기(예를 들어, 서버)로부터 화질 조정 관련 애플리케이션을 수신(다운로드)할 수 있다.
이동 단말기(100) 및 복수의 화상출력장치(200)에서 상기 화질 조정 관련 애플리케이션이 실행되면, 본 발명에서는 이동 단말기(100)와 복수의 화상출력장치(200) 사이의 통신 연결하는 단계가 진행된다(S100).
이하에서는, 도 7 및 도 8을 참조하여, 이동 단말기(100)와 복수의 화상출력장치(200)를 통신 연결하는 방법에 대해 보다 구체적으로 설명한다.
도 7은 본 발명의 일 실시 예에 따른 이동 단말기와 복수의 화상출력장치가 통신연결하는 방법을 나타내는 흐름도이고, 도 8은 도 7에서 살펴본 통신연결 방법을 설명하기 위한 개념도이다.
이동 단말기(100) 및 복수의 화상출력장치(200)에서는 화질 조정 관련 애플리케이션이 실행될 수 있다(S102).
이동 단말기(100)에 설치된 화질 조정 관련 애플리케이션은, 위에서 언급한 것과 같이, 카메라를 활성화시키는 기능이 연계되어 있을 수 있다. 이 때, 이동 단말기(100)의 제어부(180)는, 상기 화질 조정 관련 애플리케이션이 실행되는 것에 근거하여, 카메라를 활성화하고, 상기 카메라를 통해 수신되는 프리뷰 영상(310)을 디스플레이부(151)에 출력할 수 있다(S104). 여기서, 상기 프리뷰 영상(310)은 상기 카메라를 통해 수신되는 상기 복수의 화상출력장치(200)에 해당하는 이미지를 토대로 생성될 수 있다.
한편, 복수의 화상출력장치(200)는 사용자 설정에 의해 서로 동일한 네트워크에 접속된 상태일 수 있다. 상기 복수의 화상출력장치(200)에는, 상기 접속된 네트워크와 관련된 네트워크 정보(예를 들어, 네트워크 이름, 네트워크 주소(IP 주소) 등)가 포함된 바코드(예를 들어, QR코드)(600a)가 출력될 수 있다. 상기 바코드(600a)는 네트워크에 접속된 복수의 화상출력장치(200)와 관련된 정보(예를 들어, 화상출력장치 모델명, 일련번호 등)을 더 포함할 수 있다.
상기 복수의 화상출력장치(200)가 제어기기(예를 들어, PC)에 연결되어 통신을 수행하는 경우, 상기 바코드(600a)에는 상기 제어기기와 관련된 정보(예를 들어, 제어기기 모델명, 일련번호 등)가 더 포함될 수 있다.
이동 단말기(100)의 디스플레이부(151)에 출력된 프리뷰 영상(310)에는, 사용자 요청(또는 제어)에 따라, 상기 복수의 화상출력장치(200) 중 어느 하나에 출력된 바코드(600a)에 해당하는 이미지(600b)가 포함될 수 있다. 이동 단말기(100)의 제어부(180)는, 상기 프리뷰 영상(310)에 포함된 바코드(600a)에 해당하는 이미지(600b)를 이용하여 상기 바코드에 포함된 정보(예를 들어, 네트워크 정보)를 추출할 수 있다(S108).
예를 들어, 도 8에 도시된 것과 같이, 복수의 화상출력장치(200) 중 어느 하나(200a)에는 네트워크 정보가 포함된 바코드(600a)가 출력될 수 있다. 이 때, 이동 단말기(100)의 디스플레이부(151)에 출력된 프리뷰 영상(310)에는 상기 바코드에 해당하는 이미지(600b)가 포함될 수 있다. 이동 단말기의 제어부(180)는 상기 바코드에 해당하는 이미지(600b)를 이용해 상기 네트워크 정보를 추출할 수 있다.
이후, 이동 단말기(100)의 제어부(180)는, 상기 추출된 네트워크 정보를 이용하여 복수의 화상출력장치(200)와 동일한 네트워크에 접속할 수 있다(S110).
예를 들어, 상기 복수의 화상출력장치(200)가 동일한 네트워크(예를 들어, 근거리 통신망 또는 Wi-Fi)에 접속된 상태이면, 이동 단말기(100)는 상기 추출된 네트워크 정보를 이용하여, 상기 복수의 화상출력장치(200)가 접속된 네트워크에 접속할 수 있다.
다시 도 6으로 돌아와, 본 발명에서는 이동 단말기를 이용해 복수의 화상출력장치의 배치를 인식하는 단계가 진행된다(S200).
이하에서는, 도 9 내지 도 10b을 참조하여, 이동 단말기(100)가 복수의 화상출력장치(200)의 배치를 인식하는 방법에 대해 보다 구체적으로 설명한다.
도 9는 본 발명의 일 실시 에에 따른 이동 단말기가 복수의 화상출력장치의 배치를 인식하는 방법을 나타내는 흐름도이고, 도 10a 및 도 10b는 도 9에서 살펴본 복수의 화상출력장치에 대한 배치 인식 방법을 설명하기 위한 개념도이다.
본 발명의 이동 단말기(100)는 복수의 화상출력장치(200) 중 화질 조정 대상에 해당하는 화상출력장치 또는 화질 조정의 기준이 되는 어느 하나의 화상출력장치를 선택하기 위해, 복수의 화상출력장치에 대한 배치를 인식하는 단계를 수행할 수 있다(S200).
이를 위해, 이동 단말기(100)에서는 복수의 화상출력장치의 배치를 인식하기 위한 사용자 요청을 감지할 수 있다(S202). 이동 단말기(100)의 디스플레이부(151)에는 복수의 화상출력장치의 배치를 인식하는 기능과 연계된 버튼(330)이 출력될 수 있으며, 상기 사용자 요청은 상기 버튼(330)이 선택(또는, 터치)되는 것일 수 있다.
예를 들어, 도 10a의 (a)에 도시된 것과 같이, 이동 단말기의 디스플레이부(151)에는 카메라를 통해 수신되는 프리뷰 영상(310), 화질을 조정하는 단계를 가이드하는 진행바(progress bar)(320) 및 복수의 화상출력장치의 배치를 인식하는 기능과 연계된 버튼(330) 중 적어도 하나가 출력될 수 있다.
이동 단말기의 제어부(180)는 상기 사용자 요청이 가해지면, 복수의 화상출력장치로 그래픽 객체에 대한 출력을 요청할 수 있다(S204).
상기 복수의 화상출력장치(200a, 200b) 각각에는 상기 요청에 응답하여 서로 다른 색상 또는 형태를 갖는 그래픽 객체(510a)가 출력될 수 있다(S206). 구체적으로, 상기 복수의 화상출력장치(200) 중 제1 화상출력장치(200a)에는 제1 형태를 갖는 그래픽 객체가 출력되고, 제2 화상출력장치(200b)에는 제1 형태와 다른 제2 형태를 갖는 그래픽 객체가 출력될 수 있다.
여기서, 서로 다른 형태를 갖는다는 것은 그래픽 객체의 형태(모양) 자체가 다른 경우 뿐만 아니라, 그래픽 객체의 형태는 동일하지만 색상(또는 명도, 채도 등)이 상이한 경우도 포함할 수 있다.
예를 들어, 도 10a의 (a)에 도시된 것과 같이, 복수의 화상출력장치의 배치를 인식하는 기능과 연계된 버튼(330)이 터치되면, 이동 단말기의 제어부(180)는, 복수의 화상출력장치(200a, 200b)로 그래픽 객체(510a)의 출력을 요청할 수 있다. 상기 복수의 화상출력장치(200a, 200b)에는, 도 10a의 (b)에 도시된 것과 같이, 상기 요청에 응답하여 그래픽 객체(510a)가 출력될 수 있다. 이 때, 상기 복수의 화상출력장치(200a, 200b)는 각각 서로 다른 색상 또는 형태를 갖는 그래픽 객체(510a)가 출력될 수 있다.
상기 도 10a의 (b)에 도시된 것과 같이, 상기 복수의 화상출력장치(200a, 200b)에 출력된 서로 다른 색상 또는 형태를 갖는 그래픽 객체(510a)는 서로 상이한 색상을 갖거나, 도 10b에 도시된 것과 같이, 서로 상이한 모양을 갖을 수 있다.
상기 복수의 화상출력장치(200)에 서로 다른 형태를 갖는 그래픽 객체가 출력되면, 이동 단말기에 출력된 프리뷰 영상(310)에는 상기 그래픽 객체에 해당하는 이미지들이 출력될 수 있다.
이후, 이동 단말기의 제어부(180)는, 프리뷰 영상(310)에 포함된 그래픽 객체에 해당하는 이미지(510b)를 이용해 복수의 화상출력장치의 배치를 인식할 수 있다(S208). 예를 들어, 이동 단말기의 제어부(180)는, 프리뷰 영상(310)에서 제1 형태를 갖는 그래픽 객체에 해당하는 이미지가 좌측편에 출력되고, 제2 형태를 갖는 그래픽 객체에 해당하는 이미지가 우측편에 출력되면, 상기 제1 형태를 갖는 그래픽 객체를 출력한 화상출력장치(200a)가 좌측에 배치되어 있고, 상기 제2 형태를 갖는 그래픽 객체를 출력한 화상출력장치(200b)가 우측에 배치되어 있다고 인식(판단)할 수 있다.
이후, 이동 단말기의 제어부(180)는, 복수의 화상출력장치에 대응되는 복수의 아이콘을 상기 인식된 배치에 대응되도록 디스플레이부(151)에 출력할 수 있다(S210). 구체적으로, 이동 단말기의 제어부(180)는, 복수의 화상출력장치(200)의 배치를 인식할 때, 서로 다른 색상 또는 형태를 갖는 그래픽 객체(510a)의 개수를 이용해 복수의 화상출력장치(200)의 개수를 파악하고, 상기 개수에 대응되는 수만큼 아이콘(700)을 출력할 수 있다. 또한, 이동 단말기의 제어부(180)는 상기 그래픽 객체에 해당하는 이미지(510b)를 통해 인식된 복수의 화상출력장치의 배치에 근거하여, 상기 복수의 아이콘(700)의 출력위치를 결정할 수 있다.
다른 예로, 상기 복수의 아이콘(700)들은 복수의 화상출력장치(200)의 배치를 인식하기 전에 미리 출력되어 있을 수 있다. 이 때, 상기 복수의 아이콘(700)의 수는 통신 연결을 수행하는 과정에서 동일한 네트워크에 접속한 복수의 화상출력장치(200)의 수에 근거하여 결정될 수 있다. 상기 복수의 아이콘(700)이 배치 인식 전에 출력되어 있으면, 이동 단말기의 제어부(180)는 배치 인식 과정이 수행되면, 상기 복수의 화상출력장치(200)와 복수의 아이콘(700)을 각각 연계시키고, 상기 배치 인식 과정에서 인식된 복수의 화상출력장치(200)의 배치에 대응되도록 상기 복수의 아이콘(700)을 이동시켜 출력할 수 있다.
도 10a의 (b)에 도시된 것과 같이, 상기 복수의 아이콘(700a, 700b)는 복수의 화상출력장치(200a, 200b)와 각각 연계되어 있을 수 있다. 구체적으로, 복수의 아이콘 중 제1 아이콘(700a)은 제1 화상출력장치(200a)와 연계되고, 제2 아이콘(700b)는 제2 화상출력장치(200b)와 연계될 수 있다.
나아가, 상기 복수의 아이콘(700a, 700b)은 상기 복수의 화상출력장치(200a, 200b)의 배치에 대응되도록 출력될 수 있다. 예를 들어, 도 10b에 도시된 것과 같이, 이동 단말기의 제어부(180)는 서로 다른 색상 또는 형태를 갖는 그래픽 객체(510a)를 통해 판단된 복수의 화상출력장치(200a, 200b, 200c, 200d)의 개수에 근거하여, 복수의 아이콘(700a, 700b, 700c, 700d)을 출력할 수 있다. 또한, 이동 단말기의 제어부(180)는 상기 복수의 아이콘(700a, 700b, 700c, 700d)을 복수의 화상출력장치(200a, 200b, 200c, 200d)가 배치된 위치에 대응되도록 출력할 수 있다.
한편, 도시되진 않았지만, 복수의 화상출력장치의 개수가 미리 설정된 경우(예를 들어, 사용자 설정 또는 통신 연결과정에서 미리 파악된 경우), 이동 단말기의 프리뷰 영상에는 화상출력장치에 출력되는 그래픽 객체에 대응되는 인디케이터가 출력될 수 있다. 이동 단말기의 제어부(180)는 사용자 요청에 근거하여 복수의 화상출력장치에 그래픽 객체가 출력되면, 상기 인디케이터가 상기 복수의 화상출력장치에 출력된 그래픽 객체에 해당하는 이미지에 오버랩되는 것에 근거하여 상기 복수의 화상출력장치의 배치를 인식할 수도 있다.
이를 통해, 본 발명은 이동 단말기(100)와 복수의 화상출력장치(200)가 통신 연결이 되더라도, 상기 통신 연결만으로는 이동 단말기(100)가 복수의 화상출력장치(200)의 배치를 인식하지 못하는 종래의 문제점을 해결할 수 있다. 또한, 사용자는 보다 직관적으로 이동 단말기를 통해 복수의 화상출력장치가 배치된 위치를 파악하고, 이를 이용해 보다 편리하게 복수의 화상출력장치 중 화질 조정 대상에 해당하는 화상출력장치 또는 화질 조정의 기준이 되는 어느 하나의 화상출력장치를 선택할 수 있다.
다시 도 6으로 돌아와, 본 발명에서는 이동 단말기를 이용해 복수의 화상출력장치의 화질정보를 추출하는 단계가 진행된다(S300).
이하에서는, 도 11 내지 도 13b을 참조하여, 이동 단말기(100)가 복수의 화상출력장치(200)의 배치를 인식하는 방법에 대해 보다 구체적으로 설명한다.
도 11 및 도 12는 본 발명의 일 실시 예에 따른 이동 단말기를 이용하여 복수의 화상출력장치의 화질정보를 추출하는 방법을 나타내는 흐름도이고, 도 13a 및 도 13b는 도 11 및 도 12에서 살펴본 화질정보 추출 방법을 설명하기 위한 개념도이다.
본 발명의 이동 단말기에서는 복수의 화상출력장치 중 화질 조정의 기준이 되는 어느 하나의 화상출력장치 또는 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치를 선택하는 단계가 진행된다(S302).
상기 화질 조정의 기준이 되는 어느 하나의 화상출력장치 또는 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치는 상기 S200 내지 S210단계에서 출력된 복수의 아이콘(700)을 통해 선택될 수 있다.
예를 들어, 도 13a에 도시된 것과 같이, 이동 단말기의 디스플레이부(151)에 출력된 복수의 아이콘(700a, 700b) 중 어느 하나의 아이콘(700a)이 선택되면, 이동 단말기의 제어부(180)는 상기 선택된 아이콘(700a)에 대응되는 화상출력장치(200a)를 화질 조정의 기준이 되는 화상출력장치로 선택하거나, 화질 조정 대상에 해당하는 화상출력장치로 선택할 수 있다.
선택된 아이콘에 대응되는 화상출력장치가 화질 조정의 기준이 되는 화상출력장치인지 화질 조정 대상에 해당하는 화상출력장치인지 여부는, 사용자 설정에 따라 결정될 수 있다.
다른 예로, 도 13b의 (b)에 도시된 것과 같이, 복수의 화상출력장치가 적어도 세 개 이상인 경우, 세 개 이상의 아이콘이 이동 단말기의 디스플레이부(151)에 출력될 수 있다. 이 경우, 상기 세 개 이상의 아이콘 중 어느 하나의 아이콘이 선택되면, 이동 단말기의 제어부(180)는 상기 선택된 아이콘에 대응되는 화상출력장치를 화질 조정의 기준이 되는 화상출력장치로 선택할 수 있다. 또한, 상기 세 개의 아이콘 중 적어도 두 개의 아이콘이 선택되면, 이동 단말기의 제어부(180)는 상기 선택된 적어도 두 개의 아이콘에 대응되는 화상출력장치들을 화질 조정 대상에 해당하는 화상출력장치로 선택할 수 있다.
이후, 이동 단말기에서는 화질정보 추출을 요청받는 단계가 진행된다(S304). 이동 단말기의 디스플레이부(151)에는 화질정보 추출 기능과 연계된 버튼이 출력될 수 있다. 상기 화질정보 추출 요청은 상기 버튼에 터치가 가해지는 것일 수 있다.
상기 화질정보 추출 요청이 가해지면, 이동 단말기의 제어부(180)는 복수의 화상출력장치(200)로 화면전환을 요청할 수 있다(S306). 상기 화면전환 요청은 화질추출에 이용되는 기 설정된 화면(400)에 대한 출력을 요청하는 것으로 이해될 수 있다.
상기 화면전환 요청을 받는 복수의 화상출력장치(200)는 화질 정보 추출에 이동되는 기 설정된 화면을 출력할 수 있다(S308). 앞서 설명한 것과 같이, 상기 기 설정된 화면(400)은 다양한 형태로 구현될 수 있으며, 일 예로, 화이트 스크린(white screen)일 수 있다.
예를 들어, 상기 기 설정된 화면(400)은 화상출력장치(200)의 RGB신호 값이 각각 255인 상태로 출력되는 화면일 수 있다(예를 들어, (R, G, B) = (255, 255, 255). 이 경우, 상기 복수의 화상출력장치(200)에서는 패널 특성에 따라 서로 다른 화질의 기 설정된 화면이 출력될 수 있다.
다른 예로, 상기 기 설정된 화면(400)은 동일한 알고리즘에 의해 형성되는 파일(데이터)이 실행됨에 따라 출력되는 화이트 스크린일 수 있다. 이 경우, 상기 복수의 화상출력장치(200)에서는 동일한 파일에 의해 기 설정된 화면이 출력되더라도, 복수의 화상출력장치 자체에서 세팅된 설정에 따라 서로 다른 화질의 기 설정된 화면이 출력될 수 있다.
상기 기 설정된 화면(400)에는 그래픽 객체(500a)가 출력될 수 있다. 상기 그래픽 객체(500)는 화질정보 추출영역을 가이드하는 역할을 할 수 있다. 한편, 이동 단말기(100)의 프리뷰 영상(310)에는 상기 그래픽 객체에 대응되는 인디케이터(600)가 출력될 수 있다.
상기 화질정보 추출영역을 가이드하는 그래픽 객체(500a)의 출력위치는 상기 복수의 화상출력장치가 배치된 위치에 근거하여 결정될 수 있다. 예를 들어, 도 13a에 도시된 것과 같이, 제1 화상출력장치(200a)가 제2 화상출력장치(200b)의 좌측에 배치된 경우, 상기 제1 화상출력장치(200a)에 출력되는 그래픽 객체(500a)는 제1 화상출력장치의 디스플레이부에서 우측부분에 출력될 수 있다. 반대로, 도 13b의 (a)에 도시된 것과 같이, 상기 제1 화상출력장치(200a)가 제2 화상출력장치(200a)의 우측에 배치된 경우, 상기 제1 화상출력장치(200a)에 출력되는 그래픽 객체(500a)는 제1 화상출력장치의 디스플레이부에서 좌측부분에 출력될 수 있다.
상기 화상출력장치에서 그래픽 객체가 출력되는 위치는 이동 단말기가 복수의 화상출력장치로 화면 전환을 요청하는 것에 근거하여 결정될 수 있다. 구체적으로, 상기 화면 전환 요청에는 그래픽 객체의 출력위치와 관련된 정보가 포함될 수 있다. 상기 화면 전환 요청을 받은 화상출력장치는 상기 그래픽 객체의 출력위치와 관련된 정보에 근거하여, 상기 그래픽 객체를 출력할 수 있다.
또한, 이동 단말기의 프리뷰 영상(310)에 출력되는 인디케이터(600)는 상기 그래픽 객체에 대응되는 것이 가능한 위치에 배치될 수 있다. 상기 그래픽 객체에 대응되는 것이 가능한 위치는 프리뷰 영상(310)에 포함된 상기 그래픽 객체에 해당하는 이미지(500b)에 대응될 수 있는 위치를 의미한다.
예를 들어, 도 13a에 도시된 것과 같이, 복수의 화상출력장치에 출력된 기 설정된 화면(400)에 화질정보 추출영역을 가이드하는 그래픽 객체(500a)가 출력되면, 이동 단말기의 프리뷰 영상(310)에는 상기 그래픽 객체(500a)에 해당하는 이미지(500b)가 출력될 수 있다. 여기서, 상기 이동 단말기의 프리뷰 영상(310)에 출력된 인디케이터(600)는 상기 그래픽 객체에 해당하는 이미지(500b)에 대응하는 것이 가능한 위치에 출력될 수 있다.
다른 예로, 도 13b의 (b)에 도시된 것과 같이, 상기 인디케이터(600)는 복수의 화상출력장치(200a 내지 200d)의 수 및 배치에 근거하여 출력위치가 결정될 수 있다.
도 13b의 (b)에 도시된 것과 같이, 복수의 화상출력장치(200a 내지 200d)가 적어도 세 개 이상인 경우(예를 들어, 4개), 이동 단말기의 프리뷰 영상(310)에는 복수의 화상출력장치의 개수에 대응되도록 복수의 인디케이터(600)(예를 들어, 4개)가 출력될 수 있다. 또한, 상기 복수의 인디케이터(600)는 상기 복수의 화상출력장치에 출력된 그래픽 객체에 대응되는 것이 가능한 위치, 즉 프리뷰 영상에 포함된 그래픽 객체에 해당하는 이미지에 대응되는 것이 가능한 위치에 출력될 수 있다.
상기 인디케이터(600)가 출력되는 위치는 상기 S200 내지 S210 단계에서 이동 단말기가 복수의 화상출력장치의 배치를 인식하는데 이용된 서로 다른 색상 또는 형태를 갖는 그래픽 객체(510a)에 해당하는 이미지(510b)가 출력된 위치에 대응되도록 출력될 수도 있다. 구체적으로, 화질정보 추출영역을 가이드하는 그래픽 객체(500a)는, 도 10a 및 도 10b에 도시된 것과 같이, 복수의 화상출력장치의 배치를 인식하기 위해 출력된 서로 다른 형태를 갖는 그래픽 객체(510a)가 출력된 위치 중 적어도 하나에 대응되도록 출력될 수 있다. 이 때, 이동 단말기의 제어부(180)는 상기 프리뷰 영상(310)에서 서로 다른 그래픽 객체에 해당하는 이미지(510b)에 해당하는 위치를 결정할 수 있다. 이후, 이동 단말기의 제어부(180)는 화질정보 추출 요청이 가해지면, 상기 결정된 위치에 인디케이터(600)를 출력할 수 있다.
이후, 이동 단말기에서는 프리뷰 영상(310)에 출력된 인디케이터가 기 설정된 화면에 포함된 그래픽 객체에 해당하는 이미지에 오버랩되면, 복수의 화상출력장치의 화질정보를 추출하는 단계가 진행된다(S310).
이동 단말기의 제어부(180)는 카메라를 통해 수신되는 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a, 300b)를 이용하여 복수의 화상출력장치의 화질정보를 추출할 수 있다.
구체적으로, 이동 단말기의 제어부(180)는 사용자 요청(화질정보 추출 요청)에 근거하여 상기 복수의 화상출력장치(200a, 200b)에 화질정보 추출에 이용되는 기 설정된 화면(400)이 출력되면, 상기 프리뷰 영상(310)에 포함된 상기 기 설정된 화면에 해당하는 이미지로부터 상기 화질정보를 추출할 수 있다.
앞서 설명한 것과 같이, 복수의 화상출력장치(200a, 200b)의 기 설정된 화면(400)에는 화질정보 추출영역을 가이드하는 그래픽 객체(500a)가 출력되고, 이동 단말기의 프리뷰 영상(310)에는 그래픽 객체(500a)에 대응되는 인디케이터(600)가 출력될 수 있다. 이동 단말기의 제어부(180)는 상기 인디케이터(600)가 상기 복수의 화상출력장치에 출력된 그래픽 객체(500a)에 해당하는 이미지(500b)에 오버랩되는 것에 근거하여, 상기 복수의 화상출력장치의 화질정보를 추출할 수 있다.
여기서, 상기 추출된 화질정보는 복수의 화상출력장치에 해당하는 이미지(300a, 300b)를 이용하여 추출된 정보를 의미할 수 있다.
이동 단말기의 제어부(180)는, 상기 추출된 화질정보를 복수의 화상출력장치 중 화질 조정 대상에 해당하는 화상출력장치로 전송할 수 있다(S320).
이하에서는, 도 12를 참조하여, 이동 단말기가 복수의 화상출력장치의 화질정보를 추출하는 방법 및 이동 단말기와 화상출력장치의 제어방법을 보다 구체적으로 설명한다.
도 11에서 설명한 것과 같이, 복수의 화상출력장치(200)는 이동 단말기의 화면 전환 요청에 근거하여, 화질정보 추출영역을 가이드하는 그래픽 객체가 포함된 기 설정된 화면을 출력할 수 있다(S308).
이후, 이동 단말기의 제어부(180)는 인디케이터(600)가 상기 복수의 화상출력장치에 출력된 그래픽 객체에 해당하는 이미지에 오버랩되는 것에 근거하여 복수의 화상출력장치의 화질정보를 추출할 수 있다.
여기서, 상기 화질정보는 밝기정보, 색 온도 정보, RGB픽셀값, 콘트라스트 정보, 샤프니스 정보, 채도 정보 중 적어도 하나를 포함할 수 있다. 구체적으로, 이동 단말기의 제어부(180)는, 상기 프리뷰 영상에 포함된 복수의 화상출력장치의 기 설정된 화면에 해당하는 이미지로부터 밝기정보, 색 온도 정보, RGB픽셀값, 콘트라스트 정보, 샤프니스 정보, 채도 정보 등을 추출할 수 있다.
제어부(180)는 상기 인디케이터(600)가 프리뷰 영상(310)에 포함된 상기 그래픽 객체에 대응되는 이미지에 오버랩되는 것에 근거하여 상기 복수의 화상출력장치의 화질정보를 추출할 수 있다. 구체적으로, 제어부(180)는 상기 인디케이터(600)가 상기 그래픽 객체(500a)에 해당하는 이미지(500b)에 오버랩되는 것을 화질정보 추출명령으로 처리할 수 있다.
우선, 이동 단말기에서는, 상기 복수의 화상출력장치에 출력된 기 설정된 화면을 이용하여 상기 복수의 화상출력장치의 밝기정보를 추출할 수 있다(S312). 여기서, 이동 단말기의 제어부(180)는, 복수의 화상출력장치의 밝기정보를 추출하여 복수의 화상출력장치의 백라이트 밝기를 판단할 수 있다.
구체적으로, 기 설정된 화면은 동일한 RGB 출력신호에 의해 출력되는 화면일 수 있다. 이 때, 복수의 화상출력장치(200)는 동일한 RGB출력비율을 갖는 신호(기 설정된 화면)을 출력하더라도, 백라이트 밝기(출력밝기)가 상이함에 따라 서로 다른 색 온도를 가질 수 있다.
예를 들어, 화상출력장치의 RGB출력비율이 1:1:1이고, 백라이트 밝기가 100인 경우, 화상출력장치는 제1 값의 색 온도를 가질 수 있다. 그러나, 화상출력장치의 RGB출력비율이 1:1:1이고, 백라이트 밝기가 50인 경우, 화상출력장치는 제1 값과 다른 제2 값의 색 온도를 가질 수 있다.
따라서, 본 발명에서는 복수의 화상출력장치가 기준범위 내의 백라이트 밝기를 가지는 상태에서 화질(예를 들어, 화이트 밸런스)을 조정하기 위해, 복수의 화상출력장치의 밝기정보를 추출할 수 있다.
이후, 이동 단말기에서는 복수의 화상출력장치의 출력밝기가 기준범위 내인지 여부를 판단할 수 있다(S314).
이동 단말기의 제어부(180)는 프리뷰 영상에 포함된, 복수의 화상출력장치의 기 설정된 화면에 해당하는 이미지를 이용하여 복수의 화상출력장치 각각의 RGB픽셀값을 추출할 수 있다. 여기서, 상기 추출된 RGB픽셀값은 이동 단말기의 프리뷰 영상에 포함된 기 설정된 화면에 해당하는 이미지를 통해 추출된 RGB픽셀값으로, 실제 복수의 화상출력장치에서 출력하는 RGB픽셀값과는 상이할 수 있다. 이는, 복수의 화상출력장치에서 출력하는 RGB픽셀값이 백라이트 밝기에 따라 외부에서 다르게 측정될 수 있기 때문이다.
이동 단말기의 제어부(180)는 상기 추출된 RGB픽셀값에 근거하여 상기 복수의 화상출력장치(200)의 출력밝기가 기준범위 내인지 여부를 판단할 수 있다. 예를 들어, 이동 단말기의 제어부(180)는, 상기 복수의 화상출력장치로부터 추출된 밝기 정보(추출된 RGB값)에 백라이트 밝기를 판단하기 위해 사용되는 기 설정된 값(또는 행렬(matrix))를 곱하여 추출된 값에 근거하여, 상기 복수의 화상출력장치의 출력밝기가 기준범위 내에 포함되는지 여부를 판단할 수 있다.
상기 S314단계의 판단 결과, 복수의 화상출력장치 중 적어도 하나의 출력밝기가 기준범위를 벗어나는 경우, 이동 단말기의 제어부(180)는 상기 기준범위를 벗어나는 출력밝기를 갖는 적어도 하나의 화상출력장치로 밝기정보 또는 상기 밝기정보에 대응하는 밝기 보정 데이터를 전송할 수 있다. 다시 말해, 이동 단말기의 제어부(180)는 상기 복수의 화상출력장치 중 적어도 하나의 출력밝기가 상기 기준범위를 벗어나는 경우, 상기 적어도 하나의 화상출력장치가 상기 기준범위 내의 밝기를 가지도록 상기 추출된 밝기정보 또는 밝기 보정 데이터를 상기 적어도 하나의 화상출력장치로 전송할 수 있다.
상기 밝기정보는 복수의 화상출력장치 각각의 밝기정보일 수 있다, 또한, 상기 밝기정보에 대응하는 밝기 보정 데이터는 기준이 되는 어느 하나의 화상출력장치의 밝기정보와 화질 조정 대상에 해당하는 화상출력장치의 밝기정보에 근거한 밝기 차이값일 수 있다.여기서, 상기 기준범위를 벗어나는 출력밝기를 갖는 적어도 하나의 화상출력장치는 화질 조정 대상에 해당하는 화상출력장치일 수 있다. 즉, 이동 단말기의 제어부(180)는 복수의 화상출력장치 중 화질 조정의 기준이 되는 화상출력장치를 기준으로 복수의 화상출력장치의 출력밝기가 기준범위 내인지 여부를 판단할 수 있다.
화상출력장치(예를 들어, 화질 조정 대상에 해당하는 화상출력장치)는 상기 밝기정보 또는 밝기 보정 데이터가 수신되면, 상기 수신된 밝기정보 또는 밝기 보정 데이터에 근거하여 출력밝기를 조정할 수 있다. 구체적으로, 상기 밝기정보를 수신한 화상출력장치(200)는 화질 조정의 기준이 되는 화상출력장치의 출력밝기를 기준으로 기준범위 내의 밝기를 가지도록, 백라이트의 밝기를 조정할 수 있다.
상기 복수의 화상출력장치의 출력밝기가 기준범위 내인 경우, 상기 S315 및 S316단계는 생략될 수 있다.
이후, 이동 단말기에서는 상기 복수의 화상출력장치가 상기 기준범위 내의 밝기를 갖는 상태에서, 상기 복수의 화상출력장치에 해당하는 이미지를 이용해 상기 색 온도 정보를 추출하는 단계가 진행된다(S317).
구체적으로, 이동 단말기의 제어부(180)는, 프리뷰 영상(310)에 포함된 기 설정된 화면(400)에 해당하는 이미지를 이용해 복수의 화상출력장치(200)의 색 온도를 추출할 수 있다.
이후, 이동 단말기의 제어부(180)는 화질 조정 대상에 해당하는 화상출력장치로 상기 추출된 색 온도 정보를 전송할 수 있다(S318). 구체적으로, 이동 단말기의 제어부(180)는, 복수의 화상출력장치(200)에 대한 색 온도 정보를 추출하고, 상기 색 온도 정보를 복수의 화상출력장치 중 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치로 전송할 수 있다.
즉, 상기 S320단계에서, 상기 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치로 전송되는 화질정보는, 상기 S318단계에서 상기 복수의 화상출력장치에 해당하는 이미지를 이용하여 추출된 색 온도 정보일 수 있다.
이러한 구성을 통해, 본 발명은 이동 단말기(화상출력장치의 외부)에서 화질정보를 추출할 수 있다. 또한, 본 발명에 따르면, 사용자는 프리뷰 영상에 포함된 인디케이터가 화상출력장치에 출력된 그래픽 객체에 해당하는 이미지에 대응시키기만 하면, 상기 복수의 화상출력장치의 화질정보를 추출하고, 화질 조정 대상에 해당하는 화상출력장치로 상기 추출된 화질정보를 전송할 수 있으므로, 편의성이 증진된다.
다시 도 6으로 돌아와, 본 발명에서는 화상출력장치가 화질정보를 이용하여 화상출력장치의 화질을 조정하는 단계가 진행된다(S400).
이하에서는, 화상출력장치가 화질정보에 근거하여 화질을 조정하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 설명한다.
도 14는 본 발명의 일 실시 예에 따른 화상출력장치가 화질을 조정하는 방법을 나타내는 흐름도이다.
화질 조정 대상에 해당하는 화상출력장치(200)는 이동 단말기로부터 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 수신할 수 있다(S402).
상기 화질정보에는 복수의 화상출력장치의 밝기정보, 색 온도 정보, RGB 픽셀값, 콘트라스트 정보, 샤프니스 정보, 채도(hue) 정보 중 적어도 하나가 포함될 수 있다.
화질 조정 대상에 해당하는 화상출력장치는 상기 화질정보에 근거하여 RGB출력비율을 조정할 수 있다(S404). 구체적으로, 화질 조정 대상에 해당하는 화상출력장치(200)는 이동 단말기(100)로부터 화질정보가 수신되면, 상기 수신된 화질정보에 근거하여 RGB 출력비율을 조정할 수 있다.
상기 수신된 화질정보에는 복수의 화상출력장치의 화질정보, 즉, 이동 단말기의 프리뷰 영상에 포함된 복수의 화상출력장치의 기 설정된 화면에 해당하는 이미지를 통해 추출된 화질정보가 포함될 수 있다.
상기 화질정보에는 복수의 화상출력장치의 색 온도 정보가 포함될 수 있다. 예를 들어, 상기 화질정보에는 복수의 화상출력장치 중 화질 조정의 기준이 되는 화상출력장치의 색 온도 정보 및 화질 조정 대상에 해당하는 화상출력장치의 색 온도 정보가 포함될 수 있다.
즉, 화질 조정 대상에 해당하는 화상출력장치(200)는 화질 조정 기능을 통해, 복수의 화상출력장치(200) 중 화질 조정의 기준이 되는 화상출력장치(200)의 화이트 밸런스에 대응되도록 화질 조정 대상에 해당하는 화상출력장치(200)의 화이트 밸런스를 조정할 수 있다.
예를 들어, 화질 조정 대상에 해당하는 화상출력장치의 색 온도가 기준이 되는 화상출력장치의 색 온도보다 높은 경우, 화질 조정 대상에 해당하는 화상출력장치는 기준이 되는 화상출력장치보다 푸른색 계열의 빛을 띄게 된다. 이 때, 화질 조정 대상에 해당하는 화상출력장치는 RGB신호 중 B(Blue)신호의 출력을 줄이거나, R(Red)신호의 출력을 증가시켜 색 온도를 낮출 수 있다.
반대로, 화질 조정 대상에 해당하는 화상출력장치의 색 온도가 기준이 되는 화상출력장치의 색 온도보다 낮은 경우, 화질 조정 대상에 해당하는 화상출력장치는 기준이 되는 화상출력장치보다 붉은색 계열의 빛을 띄게 된다. 이 때, 화질 조정 대상에 해당하는 화상출력장치는 RGB신호 중 B(Blue)신호의 출력을 증가시키거나, R(Red)신호의 출력을 감소시켜 색 온도를 낮출 수 있다.
이상에서 설명한 RGB출력비율을 조정한다는 것은 RGB 각 구성의 Gain을 변경하는 것으로 이해되어질 수 있다.
다만, 이에 한정되지 않고, 화질 조정 대상에 해당하는 화상출력장치(200)는 화질 조정의 기준이 되는 화상출력장치의 색 온도에 대응되도록 R, G, B 중 적어도 하나의 신호를 제어할 수 있다.
이후, 화질 조정 대상에 해당하는 화상출력장치(200)에서는 조정된 RGB 출력비율에 근거하여 밝기를 조정하는 단계가 진행된다(S406).
구체적으로, 화질 조정 대상에 해당하는 화상출력장치(200)는 화질정보(색 온도 정보)에 근거하여 RGB출력비율을 조정하여, 화질 조정 기능을 수행할 수 있다. 이 때, RGB출력비율이 조정되면, 화상출력장치(200)의 밝기(또는 휘도)는 변경될 수 있다.
이 때, 화질 조정 대상에 해당하는 화상출력장치(200)는 조정된 RGB출력비율에 근거하여, 백라이트 밝기를 조정(제어)할 수 있다. 여기서, 상기 화질 조정 대상에 해당하는 화상출력장치(200)는 RGB출력과 관련된 기 설정된 가중치를 적용하여 조정될 밝기 정도를 결정할 수 있다.
R, G, B 각각은 고유의 색상에 의해 서로 다른 밝기 특성을 가지게 된다. 이에 따라, R 신호가 특정 신호값에서 출력하는 밝기와 G 또는 B 신호가 상기 특정 신호값에서 출력하는 밝기는 상이할 수 있다.
화질 조정 대상에 해당하는 화상출력장치(200)는 이러한 RGB출력과 관련된 기 설정된 가중치를 조정하여 백라이트의 밝기가 조정되는 정도를 결정할 수 있다.
예를 들어, R, G, B에 대한 상기 기 설정된 가중치를 2: 7: 1이라 가정한다. RGB출력비율이 조정되기 전 1:1:1인 경우, 화상출력장치(200)는 상기 조정되기 전 RGB출력비율(1:1:1)에 상기 기 설정된 가중치(2:7:1)을 곱한 후 더하여 특정 값을 도출할 수 있다. 여기서 특정 값은, 화상출력장치의 밝기(휘도)와 관련된 값일 수 있다. 위와 같은 연산을 수행하면(1*2+1*7+1*1=10), 상기 RGB출력비율 조정 전의 밝기는 10일 수 있다.
한편, 화질 조정 대상에 해당하는 화상출력장치는 화질 조정의 기준이 되는 화상출력장치의 색 온도를 갖도록, RGB 출력비율을 조정할 수 있다.
예를 들어, 화질 조정 대상에 해당하는 화상출력장치(200)의 RGB출력비율은 1:1:1에서 1:0.5:1로 변경될 수 있다.
이 경우, 화질 조정 대상에 해당하는 화상출력장치(200)는 변경된 RGB출력비율(1:0.5:1)에 상기 기 설정된 가중치(2:7:1)를 곱하여, RGB출력비율 조정 후 화상출력장치의 밝기(휘도)와 관련된 값을 연산할 수 있다(1*2+0.5*7+1*1=7.5).
화질 조정 대상에 해당하는 화상출력장치(200)는 RGB출력비율 조정 전의 밝기(예를 들어, 10)와 RGB출력비율 조정 후의 밝기(예를 들어, 7.5)에 근거하여, 상기 조정될 밝기 정도를 결정할 수 있다.
이와 같은 경우, 화질 조정 대상에 해당하는 화상출력장치(200)는 백라이트 밝기를 2.5에 대응되는 만큼 증가시킬 수 있다.
반면, RGB 중 어느 하나의 출력비율이 증가하는 경우라면, 화질 조정 대상에 해당하는 화상출력장치(200)는, 상기 기 설정된 가중치를 적용하여 조정될 밝기 정도를 결정하고, 결정된 값에 근거하여 백라이트 밝기를 감소시킬 수 있다.
이상에서는 화상출력장치(200)의 화질 조정 기능을 이용하여 밝기 또는 색온도를 조정하는 방법에 대하여 설명하였다. 위에서 설명한 내용은, RGB픽셀값, 콘트라스트, 샤프니스, 채도 등 화질과 관련된 다양한 속성들을 조정하는 방법으로 동일/유사하게 유추적용 가능하다.이러한 과정을 통해, 본 발명에서는 이동 단말기를 이용하여, 복수의 화상출력장치에 대한 화질 조정 기능(색 보정(color calibration))을 수행할 수 있다.
이후, 복수의 화상출력장치(200)에는 화질 조정 이후, 화질 조정 결과를 확인하기 위한 미리보기 화면이 출력될 수 있다(S408). 상기 미리보기 화면은 복수의 화상출력장치(200) 각각에 출력되는 특정 이미지(임의의 이미지)일 수 있다.
도시되진 않았지만, 상기 미리보기 화면이 복수의 화상출력장치에 출력되면, 이동 단말기(100)에는 화질 조정 기능을 종료하는 기능이 연계된 버튼 또는 화질 조정 기능을 다시 수행하는 기능이 연계된 버튼이 출력될 수 있다.
여기서, 상기 화질 조정 기능을 다시 수행하는 기능이 연계된 버튼이 선택되면, S300단계 내지 S306 단계 중 어느 하나의 단계로 회기하여 순차적으로 다시 수행될 수 있다.
이상에서 설명한 화상출력장치(200)에 대한 동작은, 화상출력장치(200)의 제어부(250)에 의해 수행되는 것으로 이해될 수 있다. 또한, 복수의 화상출력장치가 제어기기에 연결되어, 상기 제어기기에 의해 제어되는 경우(예를 들어, 화상출력장치가 모니터에 해당하고, 제어기기가 본체(컴퓨터(PC), 또는 서버)에 해당하는 경우), 위에서 화상출력장치에 대해 설명한 내용은 제어기기(예를 들어,컴퓨터(PC), 또는 서버)에 구비된 제어부(예를 들어, 프로세서(processor))가 수행하는 것으로 이해될 수 있다.
이상에서 설명한 것과 같이, 본 발명은 이동 단말기를 이용하여 복수의 화상출력장치의 화질을 조정할 수 있다. 이를 통해, 본 발명은 복수의 화상출력장치의 화질조정을 위해 복잡한 과정을 거치는 대신, 이동 단말기를 이용하여 보다 편리하게 복수의 화상출력장치의 화질을 조정할 수 있다.
또한, 본 발명은 동일한 출력설정임에도 불구하고 화상출력장치의 패널 종류 및 특성에 따라, 또는 화상출력장치의 구조, 화상출력장치의 제조방식 또는 화상출력장치의 출력방식의 차이에 따라 복수의 화상출력장치의 화질이 서로 상이한 경우, 이동 단말기(화상출력장치의 외부)에서 추출된 화질정보에 근거하여 복수의 화상출력장치의 화질을 조정할 수 있다. 이에 따라, 사용자는 복수의 화상출력장치을 시청할 때 화질차이에 의한 이질감 없는 화면을 제공받을 수 있다.
이하에서는 이와 같이 구성된 이동 단말기에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.
또한, 이하에서는 첨부된 도면을 참조하여 설명할 때, 하나의 도면(도 N)에서 적어도 두 개의 이미지가 2 by 2 형태로 도시된 경우, 좌측 상단에 도시된 이미지를 "제1 도면", 우측 상단에 도시된 이미지를 "제2 도면", 우측 하단에 도시된 이미지를 "제3 도면" 및 좌측 하단에 도시된 이미지를 "제4 도면"이라 명명한다.
한편, 하나의 도면(도 N)에 적어도 두 개의 이미지가 상단에서 하단방향으로 일렬로 도시된 경우, 제일 상단에 있는 이미지부터 순차적으로 "제1 도면, 제2 도면, ..."이라고 명명한다.
도 2에서 살펴본 것과 같은 구성요소들 중 적어도 하나 이상을 포함하는 것이 가능한 본 발명의 일 실시 예에 따른 이동 단말기에서는, 이동 단말기(100)에 구비된 카메라(121)를 통해 수신되는 영상(이하, '프리뷰 영상(preview image)'라 함)(310)이 출력될 수 있다.
구체적으로, 본 발명의 이동 단말기(100)는 카메라를 통해 수신되는 상기 복수의 화상출력장치에 해당하는 이미지를 토대로 프리뷰 영상(310)을 생성하고, 상기 프리뷰 영상(310)을 디스플레이부(151)에 출력할 수 있다.
상기 프리뷰 영상(310)은 카메라(121)를 활성화시키는 기능이 포함된 애플리케이션이 실행되는 것에 근거하여 디스플레이부(151)에 출력될 수 있다. 상기 애플리케이션의 실행은 애플리케이션의 아이콘이 선택(또는 터치)되는 것에 근거하여 수행될 수 있다.
또한, 본 발명의 이동 단말기(100)는 디스플레이부(151)에 출력된 프리뷰 영상(310)에 대한 영상분석을 수행할 수 있다. 상기 영상분석은 프리뷰 영상(310)에 포함된 적어도 일부의 이미지에 대한 형상(형태)정보, 색상정보, 밝기정보 등을 추출하는 것을 의미할 수 있다.
본 발명의 이동 단말기(100)는 상기 영상분석을 수행한 결과에 근거하여 복수의 화상출력장치(200)를 제어할 수 있다.
구체적으로, 이동 단말기(100)는 각각 독립적으로 복수의 화상출력장치(200)와 데이터 또는 제어명령을 송수신할 수 있다. 복수의 화상출력장치(200) 각각은 상기 데이터 또는 제어명령에 근거하여 특정 기능을 수행할 수 있다. 상기 특정 기능은 컨텐츠 출력, 스트리밍, 화질, 음량 등과 같은 속성정보를 변경하는 것 등을 포함할 수 있다.
한편, 상기 복수의 화상출력장치가 제어기기에 연결되어, 상기 제어기기에 의해 제어되는 경우(예를 들어, 화상출력장치가 모니터에 해당하고, 제어기기가 본체(PC)에 해당하는 경우), 이동 단말기는 상기 제어기기와 데이터 또는 제어명령을 송수신할 수 있다. 이후, 상기 제어기기는 상기 송수신된 데이터 또는 제어명령에 근거하여, 상기 제어기기에 연결된 복수의 화상출력장치를 제어할 수 있다.
도 3에서 살펴본 것과 같은 구성요소들 중 적어도 하나 이상을 포함하는 것이 가능한 본 발명의 일 실시 예에 따른 화상출력장치(200)는, 이동 단말기(100)와 통신을 수행할 수 있다. 일 예로, 상기 화상출력장치(200)는 무선 통신부를 통해 독립적으로 이동 단말기(100)와 통신을 수행할 수 있다. 화상출력장치(200)는 상기 이동 단말기(100)로부터 수신되는 데이터 또는 제어명령에 근거하여 특정 기능을 수행할 수 있다.
한편, 화상출력장치(200)는 제어기기에 연결된 경우, 상기 제어기기의 제어에 근거하여 특정 기능을 수행할 수 있다. 상기 제어기기의 제어는 이동 단말기와 제어기기 사이에서 송수신되는 데이터 또는 제어명령에 근거하여 수행될 수 있다.
이하에서는, 화상출력장치(200)와 이동 단말기(100)가 각각 독립적으로 통신을 수행하는 것을 예로 들어 설명한다. 이에 대한 내용은, 이동 단말기(100)와 제어기기 사이에서 통신을 수행하고, 상기 제어기기에 의해 화상출력장치(200)가 제어되는 경우에도 동일/유사하게 유추적용될 수 있다.
한편, 본 발명의 화상출력장치(200)에서는 컨텐츠가 출력될 수 있다. 상기 컨텐츠는 화상출력장치에서 출력 가능한 모든 종류의 데이터(또는 화면정보)를 포함하며, 일 예로, 이미지(image), 동영상(video), 웹 페이지(web page), 애플리케이션(application) 또는 화상출력장치에서 실행 가능한 기능들을 포함할 수 있다.
상기 컨텐츠는 사용자의 요청, 또는 제어기기의 제어에 근거하여 화상출력장치(200)에 출력될 수 있다. 또한, 본 발명의 화상출력장치(200)에서는 이동 단말기(100)의 제어에 의해 컨텐츠가 출력될 수 있다. 구체적으로, 화상출력장치(200)에는 이동 단말기(100)로부터 컨텐츠가 전송되면, 상기 전송된 컨텐츠가 출력될 수 있다. 여기서, 상기 화상출력장치(200)에 출력되는 컨텐츠는 하나의 컨텐츠 중 적어도 일부일 수 있다.
한편, 복수의 화상출력장치(200)는 이동 단말기(100)의 제어에 근거하여 동기화(synchronization)가 진행될 수 있다. 상기 동기화는 복수의 화상출력장치에서 수행되는 작업들 사이의 수행 시기를 맞추는 것 또는 상기 복수의 화상출력장치에서 출력되는 출력정보를 서로 동일하게 맞추는 것을 의미한다.
화상출력장치(200)에서는 스트리밍(streaming), 화질 및 음량 중 적어도 하나를 제어할 수 있다. 상기 스트리밍은 인터넷에서 영상이나 음향, 애니메이션 등의 컨텐츠(파일)을 메모리부에 다운로드받아 재생하던 것을 다운로드 없이 실시간으로 재생하는 방법을 말한다. 즉, 스트리밍은 컨텐츠 전체를 전부 다운로드받은 후 재생하는 것이 아닌, 컨텐츠 일부를 전송받음과 동시에 재생이 가능한 방법을 의미한다.
본 발명에서의 스트리밍은 인터넷에서 컨텐츠를 스트리밍으로 재생하는 것 뿐만 아니라, 이동 단말기에서 전송되는 컨텐츠를 스트리밍으로 재생하는 것을 의미할 수 있다. 나아가, 본 발명에서의 스트리밍은 동영상 재생 시점을 의미할 수도 있다. 구체적으로, 본 발명의 복수의 화상출력장치(200)에서 하나의 동영상이 재생되는 경우, 각 화상출력장치(200)에서 재생되는 동영상 재생 시점을 스트리밍이라 명명할 수 있다. 상기 복수의 화상출력장치(200)에서 재생되는 동영상의 재생 시점(스트리밍)이 상이한 경우, 이동 단말기(100)는 상기 동영상 재생 시점이 상이한 화상출력장치(200)를 제어하여 복수의 화상출력장치에서 동일한 재생 시점에 동영상이 재생되도록 제어할 수 있다.
한편, 복수의 화상출력장치(200)에서는 이동 단말기(100)로부터 전송되는 데이터 또는 제어명령에 근거하여 화질 또는 음량에 대한 동기화가 진행될 수 있다. 여기서, 상기 화질에 대한 동기화는, 상기 복수의 화상출력장치가 동일한 화질로 출력되도록 제어하는 것을 말하며, 상기 음량에 대한 동기화는 상기 복수의 화상출력장치가 동일한 음량으로 출력되도록 제어하는 것을 의미할 수 있다.
여기서, 상기 화질에 대한 동기화, 상기 음량에 대한 동기화는 이동 단말기를 기준으로 수행될 수 있다. 구체적으로, 복수의 화상출력장치는, 이동 단말기에서 추출되는 복수의 화상출력장치의 화질, 이동 단말기에서 추출되는 복수의 화상출력장치의 음량이 동일해지도록 동기화될 수 있다.
예를 들어, 복수의 화상출력장치 중 제1 및 제2 화상출력장치가 동일한 음량(예를 들어, 크기 3)으로 출력되더라도, 이동 단말기에서 추출되는 음량이 상이한 경우(예를 들어, 제1 화상출력장치의 음량 크기 3, 제2 화상출력장치의 음량 크기 2), 제1 및 제2 화상출력장치는 이동 단말기를 기준으로 동일한 음량을 갖도록 동기화될 수 있다. 이 경우, 상기 제2 화상출력장치는 이동 단말기를 기준으로 상기 제1 화상출력장치보다 먼 곳에 배치된 경우일 수 있으며, 상기 제2 화상출력장치의 음량은 이동 단말기에서 측정된 상기 제1 화상출력장치의 음량과 동일한 음량을 갖도록 커질 수 있다. 즉, 본 발명의 이동 단말기를 기준으로 한 동기화가 수행되면, 복수의 화상출력장치는 서로 다른 출력값을 가질 수 있다. 그러나, 이동 단말기를 기준으로 살펴본 복수의 화상출력장치의 출력값은 동일할 수 있다.
즉, 본원발명에서 설명되는 동기화는, 이동 단말기에서 측정(추출)되는 데이터(정보)에 근거하여, 복수의 화상출력장치가 상기 이동 단말기를 기준으로 동일한 화질 또는 음량을 갖도록 제어하는 것을 의미할 수 있다.
이러한 구성을 통해, 본원발명은 특정 컨텐츠가 동일한 설정값으로 출력되더라도 복수의 화상출력장치의 배치, 화상출력장치 자체의 구성요소(예를 들어, 패널) 특성, 외부적 요인(예를 들어, 그림자 또는 주변 물체)에 의해 복수의 화상출력장치가 서로 상이한 화질 또는 음량으로 출력되는 경우, 이동 단말기를 기준으로 복수의 화상출력장치를 동기화할 수 있다. 따라서, 본 발명은 복수의 화상출력장치를 외부에서 측정된 데이터(정보)에 근거하여 동기화함으로써, 사용자에게 복수의 화상출력장치를 통해 이질감 없이 컨텐츠를 제공(출력)할 수 있다.
이하에서는 이동 단말기를 이용하여 복수의 화상출력장치를 제어하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 살펴본다. 도 15는 본 발명의 다른 실시 예에 따른 이동 단말기의 제어방법을 대표적으로 나타내는 흐름도이고, 도 16은 도 15에서 살펴본 제어방법을 설명하기 위한 개념도이다.
우선, 이동 단말기를 이용하여 복수의 화상출력장치를 제어하기 위해, 이동 단말기(100)를 이용하여 복수의 화상출력장치(200)를 인식하는 방법에 대하여 구체적으로 설명한다.
이동 단말기(100) 및 복수의 화상출력장치(200)는 사용자 설정에 근거하여, 동일한 네트워크에 접속할 수 있다. 예를 들어, 상기 복수의 화상출력장치(200)가 동일한 네트워크(예를 들어, 근거리 통신망 또는 Wi-Fi)에 접속된 상태이면, 이동 단말기(100)는 사용자 설정에 근거하여, 상기 복수의 화상출력장치(200)가 접속된 네트워크에 접속할 수 있다.
다른 예로, 상기 복수의 화상출력장치(200)에는, 사용자 요청 또는 이동 단말기의 요청에 근거하여, 네트워크 정보가 포함된 바코드가 출력될 수 있다. 이동 단말기(100)는 카메라를 이용하여(프리뷰 영상(310)에 포함된 상기 바코드에 해당하는 이미지로부터) 상기 네트워크 정보를 추출하고, 상기 추출된 네트워크 정보를 이용하여 상기 복수의 화상출력장치(200)가 접속된 네트워크에 접속할 수 있다.
이후, 본 발명에서는, 복수의 화상출력장치(200)로 서로 다른 식별정보의 출력을 요청하는 단계가 진행된다(S410). 상기 식별정보의 출력을 요청받는 복수의 화상출력장치(200)는 이동 단말기(100)와 동일한 네트워크에 접속된 적어도 두 개의 화상출력장치일 수 있다.
상기 서로 다른 식별정보(520)의 요청은, 다양한 방식으로 수행될 수 있다.
예를 들어, 이동 단말기의 제어부(180)는 프리뷰 영상(310)이 출력된 상태에서, 상기 프리뷰 영상(310)이 출력된 영역에 기 설정된 방식의 터치가 가해지는 것에 근거하여 상기 복수의 화상출력장치(200)로 서로 다른 식별정보(520)의 출력을 요청할 수 있다. 상기 기 설정된 방식의 터치는 상기 복수의 화상출력장치(200)로 식별정보의 출력을 요청하는 기능과 연계된 터치일 수 있으며, 일 예로, 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등을 포함할 수 있다. 또한, 제어부(180)는 상기 프리뷰 영상(310)에 포함된 복수의 화상출력장치(200)에 해당하는 이미지(300)에 상기 기 설정된 방식의 터치가 가해지는 것에 근거하여, 상기 복수의 화상출력장치(200)로 서로 다른 식별정보의 출력을 요청할 수 있다.
다른 예로, 디스플레이부(151)에는 복수의 화상출력장치(200)로 서로 다른 식별정보의 출력을 요청하는 기능이 연계된 아이콘이 출력될 수 있다. 상기 아이콘은 디스플레이부(151) 상에서 프리뷰 영상(310)에 오버랩되거나, 상기 프리뷰 영상(310)이 출력된 영역 이외의 영역에 출력될 수 있다. 제어부(180)는 상기 아이콘에 터치가 가해지는 것에 근거하여(상기 아이콘이 선택되는 것에 근거하여), 상기 복수의 화상출력장치(200)로 서로 다른 식별정보의 출력을 요청할 수 있다.
또 다른 예로, 이동 단말기(100)는 사용자 요청에 근거하여, 화상출력장치를 제어하는 기능이 연계된 애플리케이션을 실행할 수 있다. 상기 애플리케이션에는 카메라를 활성화시키는 기능이 연계되어 있을 수 있다. 제어부(180)는 상기 화상출력장치를 제어하는 기능과 연계된 애플리케이션이 실행되는 것에 근거하여 카메라를 활성화하고, 상기 카메라를 통해 수신되는 프리뷰 영상(310)을 디스플레이부(151)에 출력할 수 있다. 또한, 제어부(180)는, 상기 화상출력장치를 제어하는 기능과 연게된 애플리케이션이 실행되는 것에 근거하여, 상기 복수의 화상출력장치(200)로 서로 다른 식별정보(520)의 출력을 요청할 수 있다.
상기 식별정보(520)는 복수의 화상출력장치(200)의 배치를 인식하는데 이용되는 정보를 의미한다. 상기 식별정보(520)는 복수의 화상출력장치 각각의 고유번호이거나, 이동 단말기로부터 전송된 식별정보일 수 있다.
예를 들어, 화상출력장치(200)는 이동 단말기(100)로부터 식별정보(520)의 출력 요청이 수신되면, 화상출력장치(200)의 고유번호를 화상출력장치의 디스플레이부(270)에 출력할 수 있다. 상기 화상출력장치(200)의 고유번호는 각 화상출력장치별로 다를 수 있다.
다른 예로, 화상출력장치(200)는 이동 단말기(100)로부터 식별정보(520)의 출력 요청과 함께 상기 식별정보(520)를 수신할 수 있다. 상기 이동 단말기(100)는 복수의 화상출력장치(200)로 서로 다른 식별정보(520)를 전송할 수 있다. 화상출력장치(200)는 상기 요청에 근거하여, 상기 이동 단말기로부터 수신한 식별정보(520)를 출력할 수 있다.
이후, 본 발명에서는 복수의 화상출력장치(200) 각각에 서로 다른 식별정보(520)가 출력된 상태에서, 이동 단말기(100)가 카메라(121)를 통해 수신되는 프리뷰 영상에 포함된 상기 서로 다른 식별정보(520)에 해당하는 이미지를 이용하여 복수의 화상출력장치(200)의 배치를 인식하는 단계가 진행된다(S420).
이동 단말기의 디스플레이부(151)에 출력된 프리뷰 영상(310)에는 이동 단말기에 구비된 카메라(121)가 복수의 화상출력장치(200)를 향하도록 배치됨에 따라 상기 복수의 화상출력장치(200)에 해당하는 이미지(300)가 출력될 수 있다.
이 상태에서, 상기 복수의 화상출력장치(200) 각각에 서로 다른 식별정보(520)가 출력되면, 프리뷰 영상(310)에는 상기 복수의 화상출력장치에 해당하는 이미지(200)에 상기 서로 다른 식별정보(520)에 해당하는 이미지(620)가 출력될 수 있다.
제어부(180)는, 프리뷰 영상(310)에 포함된 상기 서로 다른 식별정보에 해당하는 이미지(620)를 이용하여 복수의 화상출력장치(200)의 개수 및 배치를 인식(판단)할 수 있다.
구체적으로, 제어부(180)는 상기 프리뷰 영상(310)에 포함된 서로 다른 식별정보(520)에 해당하는 이미지(620)를 이용하여 복수의 화상출력장치(200)의 개수 및 상기 복수의 화상출력장치(200) 각각의 위치를 식별할 수 있다.
예를 들어, 프리뷰 영상(310)에 포함된 식별정보에 해당하는 이미지(620)가 n개이면, 제어부(180)는 복수의 화상출력장치(200)가 n개 있다고 판단할 수 있다. 또한, 제어부(180)는 제1 식별정보(예를 들어, LG3PJ)(520a)에 해당하는 이미지(620a)가 제1 위치에 출력되고, 제1 식별정보(520a)와 다른 제2 식별정보(예를 들어, AFSDK)(520b)에 해당하는 이미지(620b)가 상기 제1 위치와 다른 제2 위치에 출력되면, 상기 제1 식별정보(520a)를 출력한 화상출력장치(200a)가 제1 위치에 배치되고, 상기 제2 식별정보(520b)를 출력한 화상출력장치(200b)가 제2 위치에 배치되었다고 인식할 수 있다.
한편, 상기 식별정보(520)는 서로 다른 형태 또는 서로 다른 색상을 갖는 그래픽 객체일 수 있다. 일 예로, 복수의 화상출력장치(200)에는 이동 단말기의 서로 다른 식별정보의 요청과 함께 전송된 그래픽 객체가 출력될 수 있다. 여기서, 상기 이동 단말기(100)는 서로 다른 형태를 갖는 그래픽 객체의 출력과 관련된 데이터(정보)를 복수의 화상출력장치(200) 각각에 전송할 수 있다. 또는, 상기 이동 단말기(100)는 서로 다른 색상을 갖는 그래픽 객체의 출력과 관련된 데이터(정보)를 복수의 화상출력장치(200) 각각에 전송할 수 있다. 상기 복수의 화상출력장치(200)에 각각 서로 다른 형태 또는 색상을 갖는 그래픽 객체(520)가 출력되면, 이동 단말기(100)의 제어부(180)는 프리뷰 영상(310)에 포함된 서로 다른 형태 또는 색상을 갖는 그래픽 객체에 해당하는 이미지(620)를 이용하여 복수의 화상출력장치(200)의 개수 및 위치를 판단할 수 있다.
이후, 상기 복수의 화상출력장치(200)의 배치가 인식되면, 이동 단말기가 상기 프리뷰 영상(310)에 포함된 복수의 화상출력장치(200)에 해당하는 이미지(300)를 이용하여 복수의 화상출력장치(200)를 제어하는 단계가 진행된다(S430).
예를 들어, 제어부(180)는 상기 복수의 화상출력장치에 해당하는 이미지(300)를 이용하여 하나의 컨텐츠가 상기 복수의 화상출력장치(200)에 나누어져 출력되도록 상기 복수의 화상출력장치(200)를 제어할 수 있다.
다른 예로, 제어부(180)는 상기 복수의 화상출력장치에 해당하는 이미지(300)를 이용하여 상기 복수의 화상출력장치를 동기화할 수 있다.
상기 하나의 컨텐츠를 나누어 출력하거나 복수의 화상출력장치를 동기화하는 방법은, 이하 도 18a 내지 도 19d를 참조하여 보다 구체적으로 후술하기로 한다.
이상에서 살펴본 내용은 도 16을 참조하면 보다 명확하게 이해될 것이다.
도 16을 참조하면, 이동 단말기(100)의 디스플레이부(151)에는 카메라를 통해 수신되는 프리뷰 영상(310)이 출력될 수 있다. 또한, 상기 프리뷰 영상(310)에는, 카메라(121)가 복수의 화상출력장치(200a, 200b, ...)를 향함에 따라 복수의 화상출력장치(200a, 200b, ...)에 해당하는 이미지(300a, 300b, ...)가 포함될 수 있다.
이하에서는, 설명의 편의를 위해 복수의 화상출력장치가 두 개인 것을 예로 들어 설명한다. 그러나, 이하에서 설명하는 내용은 복수의 화상출력장치가 두 개인 경우에 한정되는 것이 아니라, 도 5에 도시된 것과 같이, 세 개 이상인 경우에도 동일/유사하게 유추적용할 것이다.
여기서, 상기 복수의 화상출력장치(200a, 200b)는 이동 단말기(100)와 동일한 네트워크에 속할 수 있다.
이후, 이동 단말기(100)의 제어부(180)는 상기 복수의 화상출력장치(200a, 200b)로 서로 다른 식별정보(520a, 520b)의 출력을 요청할 수 있다. 상기 복수의 화상출력장치(200a, 200b)에는 상기 요청에 근거하여 서로 다른 식별정보(520a, 520b)가 출력될 수 있다. 또한, 이동 단말기(100)의 디스플레이부(151)에 출력된 프리뷰 영상(310)에는 상기 복수의 화상출력장치(200a, 200b)에 서로 다른 식별정보(520a, 520b)가 출력됨에 따라, 상기 서로 다른 식별정보(520a, 520b)에 해당하는 이미지(620a, 620b)가 포함될 수 있다.
이동 단말기의 제어부(180)는 프리뷰 영상(310)에 포함된 서로 다른 식별정보에 해당하는 이미지(620a, 620b)를 이용하여, 복수의 화상출력장치(200a, 200b)의 배치를 인식할 수 있다. 구체적으로, 제어부(180)는 상기 식별정보에 해당하는 이미지(620a, 620b)에 근거하여, 복수의 화상출력장치(200a, 200b)의 개수 및 상기 복수의 화상출력장치(200a, 200b) 각각의 위치를 식별할 수 있다.
예를 들어, 제어부(180)는, 도 16에 도시된 것과 같이, 프리뷰 영상(310)에 포함된 서로 다른 식별정보에 해당하는 이미지의 개수가 12개로 판단되면, 복수의 화상출력장치(200)가 12개 배치되었다고 인식할 수 있다. 또한, 제어부(180)는 상기 서로 다른 식별정보에 해당하는 이미지에 근거하여, 복수의 화상출력장치(200) 각각이 배치된 위치를 인식할 수 있다.
이후, 제어부(180)는 상기 복수의 화상출력장치의 배치가 인식되면, 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300)를 이용하여 복수의 화상출력장치(200)를 제어할 수 있다.
이하에서는, 복수의 화상출력장치의 배치를 인식하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 설명한다. 도 17a, 도 17b 및 도 17c는 이동 단말기가 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 복수의 화상출력장치의 배치를 인식하는 방법을 설명하기 위한 개념도이다.
이동 단말기의 제어부(180)는 복수의 화상출력장치(200)로 기 설정된 격자무늬가 포함된 화면정보(630)의 출력을 요청할 수 있다. 상기 기 설정된 격자무늬가 포함된 화면정보(630)는 상기 S410 단계에서 서로 다른 식별정보에 대한 요청과 함께 요청될 수 있다.
다른 예로, 상기 기 설정된 격자무늬가 포함된 화면정보는 상기 서로 다른 식별정보에 포함되는 것으로 이해될 수도 있다. 즉, 상기 S410단계에서 서로 다른 식별정보가 요청되면, 복수의 화상출력장치(200)에는 기 설정된 격자무늬가 포함된 화면정보와 함께 상기 식별정보(520)가 오버랩되어 출력될 수 있다. 이 때, 상기 복수의 화상출력장치(200)에는 기 설정된 격자무늬가 포함된 화면정보(530)가 출력된 상태에서, 서로 다른 식별정보(520)가 오버랩될 수 있다.
본 발명의 일 실시 예에 따른 기 설정된 격자무늬가 포함된 화면정보(530)는 복수의 화상출력장치가 배치된 상대배치를 판단하거나, 상기 복수의 화상출력장치가 배치된 자세를 판단하는 데에 이용될 수 있다. 상기 기 설정된 격자무늬는 가로 및 세로의 직선이 같은 간격으로 직각으로 교차해나가는 모양의 무늬를 의미하며, 도 17a에 도시된 것과 같이, 상기 가로 및 세로의 직선에 의해 생성된 도형(예를 들어, 사각형)에 기 설정된 색상 차이를 갖는 두 개의 색상(예를 들어, 흰색 및 검은색)이 겹쳐지지 않게 교차되도록 형성될 수 있다.
복수의 화상출력장치(200)에는 기 설정된 격자무늬가 포함된 동일한 화면정보(530)가 출력될 수 있다. 예를 들어, 도 17a의 제1 도면에 도시된 것과 같이, 복수의 화상출력장치(200) 중 제1 화상출력장치(200a)에는 6 by 4의 사각형이 포함되고, (1,1)에서 검정색인 격자무늬가 포함된 화면정보(530)가 출력될 수 있다. 이 때, 복수의 화상출력장치(200) 중 상기 제1 화상출력장치(200a) 외의 나머지 화상출력장치(예를 들어, 제2 화상출력장치(200b))에는 상기 제1 화상출력장치(200a)에 출력된 화면정보(530)와 동일하게, 6by 4의 사각형이 포함되고, (1,1)에서 검정색인 격자무늬가 포함된 화면정보(530)가 출력될 수 있다.
한편, 상기 화면정보(530)에는 복수의 화상출력장치가 배치된 상대배치나 자세를 판단하는 데에 이용될 수 있는 다양한 이미지가 포함될 수 있으며, 일 예로, 기 설정된 형태를 갖는 적어도 두 개의 그래픽 객체가 일정한 패턴으로 표시된 이미지가 화면정보(530)에 포함될 수 있다. 예를 들어, 상기 화면정보(530)에는 동일한 그래픽 객체(예를 들어, 검정색 동그라미)가 n x m 행렬로 상하 좌우 일정한 간격으로 표시된 이미지가 포함될 수 있다.
이하에서는 상기 화면정보(630)에 기 설정된 격자무늬가 포함된 것을 예로 들어 설명하지만, 이와 관련된 내용은 상기 다양한 이미지가 화면정보에 포함된 경우에도 동일/유사하게 유추적용 가능할 것이다.
상기 복수의 화상출력장치(200)에 기 설정된 격자무늬가 포함된 화면정보(530)가 출력됨에 따라, 프리뷰 영상(310)에는 상기 기 설정된 격자무늬가 포함된 화면정보(530)에 해당하는 이미지(630)가 포함될 수 있다.
이동 단말기의 제어부(180)는 상기 복수의 화상출력장치(200a, 200b) 각각에 상기 화면정보(530)가 출력되면, 상기 프리뷰 영상에 포함된 상기 화면정보(530)에 해당하는 이미지를 이용하여, 상기 복수의 화상출력장치(200)의 상대배치를 인식할 수 있다.
상기 복수의 화상출력장치(200)의 상대배치는 이동 단말기(100)를 기준으로 상기 복수의 화상출력장치(200)가 놓인 위치를 의미한다. 다른 말로, 상기 복수의 화상출력장치(200)의 상대배치는 복수의 화상출력장치 중 어느 하나를 기준으로 상기 어느 하나와 다른 화상출력장치가 놓인 위치를 의미할 수도 있다.
상기 복수의 화상출력장치(200)의 상대배치는 이동 단말기(100)와 각 화상출력장치(200) 사이의 거리를 통해 인식될 수 있다. 이 때, 이동 단말기(100)의 제어부(180)는 복수의 화상출력장치(200)에 기 설정된 격자무늬가 포함된 화면정보(530)가 출력됨에 따라 프리뷰 영상(310)에 포함된 상기 화면정보(530)에 해당하는 이미지(630a, 630b)를 이용하여 복수의 화상출력장치(200a, 200b)의 상대배치를 인식할 수 있다.
구체적으로, 상기 복수의 화상출력장치(200a, 200b)의 상대배치는, 상기 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a, 300b)에 포함된 격자무늬의 크기에 근거하여 인식될 수 있다. 여기서, 복수의 화상출력장치(200a, 200b)의 화면크기가 모두 동일하다고 가정한다.
예를 들어, 이동 단말기의 제어부(180)는 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a, 300b)에 포함된 격자무늬 중 제1 화상출력장치(200a)에 해당하는 이미지(300a)에 포함된 격자무늬(630a)의 크기가 상기 제1 화상출력장치(200a)와 다른 제2 화상출력장치(200b)에 해당하는 이미지(300b)에 포함된 격자무늬(630b)의 크기보다 크면, 이동 단말기(100)를 기준으로 상기 제1 화상출력장치(200a)가 상기 제2 화상출력장치(200b)보다 더 가까운 곳에 배치되었다고 인식할 수 있다.
도 17a의 제1 도면에 도시된 것과 같이, 화면크기가 동일한 복수의 화상출력장치(200a, 200b)에는 이동 단말기의 요청에 근거하여 기 설정된 격자무늬가 포함된 화면정보(530)가 출력될 수 있다. 상기 기 설정된 격자무늬가 포함된 화면정보(530)에는 식별정보(520a 또는 520b)가 출력될 수 있다.
이에 따라, 이동 단말기(100)의 디스플레이부(151)에 출력된 프리뷰 영상(310)에는 복수의 화상출력장치(200a, 200b)에 해당하는 이미지(300a, 300b), 서로 다른 식별정보(520a, 520b)에 해당하는 이미지(620a, 620b) 및 격자무늬(630a, 630b)가 포함될 수 있다.
한편, 이동 단말기(100)의 제어부(180)는 동일한 화면크기를 갖는 복수의 화상출력장치(200a, 200b)에 출력된 격자무늬(530)의 크기가 프리뷰 영상(310)에서 서로 다른 크기를 가지는 것에 근거하여 상기 복수의 화상출력장치(200a, 200b)의 상대배치를 판단할 수 있다.
여기서, 이동 단말기의 제어부(180)는 사용자 설정에 의해, 또는 동일한 네트워크에 접속한 복수의 화상출력장치로부터 속성정보를 추출하여, 상기 복수의 화상출력장치(200a, 200b)가 동일한 화면크기를 갖는다는 것을 인식할 수 있다.
도 17a의 제1 도면에 도시된 것과 같이, 제1 화상출력장치(200a)에 해당하는 이미지(300a)에 포함된 격자무늬(630a)의 크기가 제2 화상출력장치(200b)에 해당하는 이미지(300b)에 포함된 격자무늬(630b)의 크기보다 크면, 제어부(180)는, 도 17a의 제2 도면에 도시된 것과 같이, 이동 단말기(100)를 기준으로 제1 화상출력장치(200a)가 제2 화상출력장치(200b)보다 더 가까운 곳에 배치되었다고 인식할 수 있다. 도 17a의 제2 도면은 본 발명의 이동 단말기 및 복수의 화상출력장치의 시스템을 측면에서 바라본 측면도이다.
위에서 설명한 것과 같이, 복수의 화상출력장치(200a, 200b)에 출력된 상기 기 설정된 격자무늬가 포함된 화면정보(530)는 이동 단말기로부터 서로 다른 식별정보(520)의 출력이 요청되는 것에 근거하여 출력되거나, 이동 단말기로부터 별도로 상기 기 설정된 격자무늬가 포함된 화면정보(530)의 출력 요청에 근거하여 출력될 수 있다. 또한, 상기 식별정보(520)와 기 설정된 격자무늬가 포함된 화면정보(530)는 함께 출력될 수 있다.
한편, 복수의 화상출력장치의 화면크기가 서로 상이한 경우, 복수의 화상출력장치에 출력된 기 설정된 격자무늬의 크기는 상이할 수 있다. 이 경우, 이동 단말기(100)의 제어부(180)는 사용자의 설정에 의해, 또는 동일한 네트워크게 접속된 복수의 화상출력장치로부터 추출된 속성정보에 근거하여 상기 복수의 화상출력장치의 화면크기가 상이한 것을 판단할 수 있다.
다시 돌아와, 이동 단말기의 제어부(180)는, 복수의 화상출력장치(200a, 200b)에 기 설정된 격자무늬가 포함된 화면정보(530)가 출력된 상태에서, 상기 프리뷰 영상(310)에 포함된 상기 화면정보(530)에 해당하는 이미지(630a, 630b)를 이용하여, 복수의 화상출력장치(200a, 200b)의 자세를 판단할 수 있다.
예를 들어, 도 17b의 제1 도면에 도시된 것과 같이, 복수의 화상출력장치(200) 중 제1 화상출력장치(200a)는 가로로 배치되고, 상기 제1 화상출력장치(200a)와 다른 제2 화상출력장치(200b)는 세로로 배치될 수 있다. 이 때, 이동 단말기의 제어부(180)는 프리뷰 영상(310)에 포함된 상기 제1 및 제2 화상출력장치에 해당하는 이미지(300a, 300b)에 포함된 화면정보(격자무늬(630a, 630b))에 근거하여, 제1 및 제2 화상출력장치(200a, 200b)가 가로 또는 세로로 배치되었는지 여부를 판단할 수 있다.
구체적으로, 제어부(180)는 프리뷰 영상(310)에서 제1 화상출력장치(200a)에 해당하는 이미지(300a)에 포함된 격자무늬(630a)가 n x m(예를 들어, 6 x 4)인 경우, 상기 제1 화상출력장치(200a)가 가로로 놓여져 있다고 판단하고, 제2 화상출력장치(200b)에 해당하는 이미지(300b)에 포함된 격자무늬(630b)가 m x n(예를 들어, 4 x 6)인 경우, 상기 제2 화상출력장치(200b)가 세로로 놓여져 있다가 판단할 수 있다.
다른 예로, 이동 단말기의 제어부(180)는, 복수의 화상출력장치(200a, 200b)에 기 설정된 격자무늬가 포함된 화면정보(530)가 출력된 상태에서, 상기 프리뷰 영상(310)에 포함된 상기 화면정보(530)에 해당하는 이미지(630a, 630b)를 이용하여 복수의 화상출력장치(200a, 200b)가 기울어져서 배치되어 있는지 여부를 판단할 수 있다.
도 17c의 제1 도면에 도시된 것과 같이, 복수의 화상출력장치(200a, 200b)에는 이동 단말기(100)의 요청에 근거하여 기 설정된 격자무늬가 포함된 화면정보(530)가 출력될 수 있다. 이 상태에서, 이동 단말기의 디스플레이부(151)에 출력된 프리뷰 영상(310)에는 상기 복수의 화상출력장치(200a, 200b)에 해당하는 이미지(300a, 300b)가 포함되고, 상기 이미지(300a, 300b)에는 상기 화면정보(530)에 해당하는 이미지(630a, 630b)가 포함될 수 있다.
이 때, 제어부(180)는 상기 화면정보에 해당하는 이미지(630a, 630b)를 이용하여 복수의 화상출력장치(200a, 200b)의 자세를 판단할 수 있다. 구체적으로, 제어부(180)는 상기 복수의 화상출력장치(200a, 200b)에 해당하는 이미지(300a)에 포함된 격자무늬(630a, 630b)의 형태에 근거하여 복수의 화상출력장치(200a, 200b)가 기울어져 있는지 여부를 판단할 수 있다.
예를 들어, 제어부(180)는 상기 복수의 화상출력장치 중 제1 화상출력장치(200a)에 해당하는 이미지(300a)에 포함된 격자무늬(630a)에 포함된 도형의 형태가 직각사각형인 것에 근거하여 제1 화상출력장치(200a)가 이동 단말기(100)를 기준으로 평행하게 배치되어 있다고 판단할 수 있다. 또한, 제어부(180)는 상기 복수의 화상출력장치 중 제2 화상출력장치(200b)에 해당하는 이미지(300b)에 포함된 격자무늬(630b)에 포함된 도형의 형태가 직각사각형이 아닌 것에 근거하여, 상기 제2 화상출력장치(200b)가 이동 단말기(100)를 기준으로, 또는 제1 화상출력장치(200a)를 기준으로 기울어져있음을 판단할 수 있다.
여기서, 제어부(180)는, 상기 제2 화상출력장치에 포함된 격자무늬(630b) 중 일측(210a)에 인접한 격자무늬의 길이(크기)가 상기 일측과 반대되는 타측(210b)에 인접한 격자무늬의 길이(크기)보다 긴 것(큰 것)에 근거하여, 도 17c의 제2 도면에 도시된 것과 같이, 상기 제2 화상출력장치(200b)의 일측(210a)이 이동 단말기를 기준으로 상기 제2 화상출력장치(200b)의 타측(210b)보다 가깝게 배치되어 있다고 판단할 수 있다. 즉, 제어부(180)는 상기 제2 화상출력장치(200b)가 상기 제2 화상출력장치(200b)의 타측(210b)이 멀어지도록 기울어져 있다고 판단할 수 있다.
상기 도 17c의 제2 도면은 본 발명의 이동 단말기 및 복수의 화상출력장치가 포함된 시스템을 위에서 바라본 평면도이다.
한편, 도시되진 않았지만, 상기 기 설정된 격자무늬가 포함된 화면정보(530)에는 테두리에 대응되는 그래픽 객체가 더 포함될 수 있다. 이를 통해, 이동 단말기는 상기 테두리에 대응된 그래픽 객체에 해당하는 이미지를 이용하여 복수의 화상출력장치 각각을 더 용이하게 구분할 수 있다.
이러한 구성을 통해, 본 발명은 종래에 복수의 화상출력장치를 설치할 때 복수의 화상출력장치가 배치된 위치를 일일이 지정(설정)해야하는 번거로움을 해소하고, 보다 직관적으로 편리하게 복수의 화상출력장치의 배치를 판단(인식)할 수 있다.
이하에서는, 상기 복수의 화상출력장치의 배치를 인식한 것에 근거하여, 상기 복수의 화상출력장치를 제어하는 방법을 첨부된 도면을 참조하여 보다 구체적으로 살펴본다. 도 18a, 도 18b, 도 18c 및 도 18d는 이동 단말기를 이용하여 하나의 컨텐츠를 복수의 화상출력장치에 나누어 출력하는 방법을 설명하기 위한 개념도이다.
본 발명의 이동 단말기(100)는 복수의 화상출력장치(200)에 하나의 컨텐츠(810)가 나누어져 출력되도록 상기 복수의 화상출력장치(200)를 제어할 수 있다. 구체적으로, 제어부(180)는 복수의 화상출력장치(200)의 배치에 근거하여, 하나의 컨텐츠(810)가 상기 복수의 화상출력장치(200)에 나누어져 출력되도록 상기 복수의 화상출력장치(200)를 제어할 수 있다.
이동 단말기(100)의 디스플레이부(151)에는 컨텐츠 출력 기능과 연계된 아이콘(710)이 출력될 수 있다. 예를 들어, 상기 아이콘(710)은 상기 프리뷰 영상(310)에서 복수의 화상출력장치(200a, 200b)에 해당하는 이미지(300a, 300b)가 인식되는 것에 근거하여 출력될 수 있다. 다른 예로, 상기 아이콘(710)은 프리뷰 영상(310)이 출력되는 것에 근거하여 출력되거나, 프리뷰 영상(310)이 출력된 영역, 또는 상기 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300)에 기 설정된 방식의 터치가 가해지는 것에 근거하여 출력될 수 있다. 예를 들어, 상기 기 설정된 방식의 터치는 프리뷰 영상(310)이 출력된 영역에 가해지는 롱 터치이거나, 상기 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지들(300a, 300b) 중 적어도 하나에 가해지는 롱 터치 또는 멀티 터치일 수 있다.
도 18a의 제1 도면에 도시된 것과 같이, 컨텐츠 출력 기능과 연계된 아이콘(710)에 터치가 가해지면(상기 아이콘(710)이 선택되면), 도 18a의 제2 도면에 도시된 것과 같이, 상기 복수의 화상출력장치(200a, 200b)에는 하나의 컨텐츠(810)가 나누어져 출력될 수 있다.
한편, 도시되진 않았지만, 이동 단말기의 제어부(180)는, 상기 이동 단말기(100)의 디스플레이부(151)에 출력된 프리뷰 영상(310)에 포함된 화상출력장치(200a, 200b)에 해당하는 이미지(300a, 300b)에 기 설정된 방식의 터치가 가해지는 것에 근거하여, 하나의 컨텐츠가 나누어져 출력될 적어도 하나의 화상출력장치를 선택할 수 있다. 예를 들어, 프리뷰 영상(310)에 4개의 화상출력장치에 해당하는 이미지가 출력된 상태에서, 상기 4개의 화상출력장치에 해당하는 이미지 중 2개의 화상출력장치에 해당하는 이미지에 기 설정된 방식의 터치(예를 들어, 2개의 화상출력장치에 해당하는 이미지에 동시에 가해지는 멀티 터치)가 가해지면, 제어부(180)는, 상기 터치가 가해진 이미지에 해당하는 화상출력장치를 선택하고, 선택된 화상출력장치에 하나의 컨텐츠를 나누어 출력할 수 있다.
이하에서는, 상기 복수의 화상출력장치(200a, 200b)에 하나의 컨텐츠(810)를 나누어 출력하는 방법에 대하여 보다 구체적으로 살펴본다.
도 18b의 제1 도면에 도시된 것과 같이, 이동 단말기(100)의 디스플레이부(151)에는 컨텐츠 출력 기능과 연계된 아이콘(710)이 출력될 수 있다. 상기 아이콘(710)은 위에서 설명한 것과 같이, 프리뷰 영상(310)이 출력되거나, 프리뷰 영상(310)에서 복수의 화상출력장치에 해당하는 이미지(300a, 300b)가 인식되거나, 상기 복수의 화상출력장치에 해당하는 이미지(300a, 300b) 중 적어도 하나가 선택되거나, 프리뷰 영상(310)에 기 설정된 방식의 터치가 가해지는 것에 근거하여 출력될 수 있다.
상기 아이콘(710)에 터치가 가해지면, 제어부(180)는 복수의 화상출력장치(200)에 나누어 출력시킬 어느 하나의 컨텐츠를 사용자로부터 선택받을 수 있다. 상기 어느 하나의 컨텐츠가 선택되면, 제어부(180)는 도 18b의 제2 도면에 도시된 것과 같이, 컨텐츠 중 복수의 화상출력장치(200)에 출력시킬 일 부분을 선택할 수 있는 화면(320)을 출력할 수 있다.
구체적으로, 제어부(180)는 프리뷰 영상(310)이 출력된 상태에서 디스플레이부(151)에 출력된 아이콘(710)에 터치가 가해지는 것에 근거하여, 상기 프리뷰 영상(310) 대신 복수의 화상출력장치(200)에 출력된 일부분을 선택하기 위한 화면(320)을 출력할 수 있다.
상기 화면(320)에는 하나의 컨텐츠(810), 복수의 화상출력장치에 해당하는 이미지(300a, 300b)에 대응되는 가이드 라인(350) 및 출력 아이콘(720)이 출력될 수 있다. 여기서, 상기 하나의 컨텐츠(810)는 이동 단말기 및 화상출력장치 중 적어도 하나에서 출력 가능한 모든 종류의 데이터(720)를 포함할 수 있으며, 일 예로, 이미지, 동영상, 웹 페이지 등이 있을 수 있다.
상기 컨텐츠(810)가 동영상인 경우, 상기 화면(320)에는 상기 동영상의 일 지점에 해당하는 정지영상이 출력될 수 있다. 한편, 이에 종속되지 않고, 제어부(180)는 화면(320)에서 비디오가 재생되는 상태에서도 복수의 화상출력장치에 출력된 일부분을 설정할 수 있다.
상기 가이드 라인(350)은 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a, 300b)에 대응되도록 형성될 수 있다. 구체적으로, 상기 가이드 라인(350)은 상기 컨텐츠 출력 기능이 연계된 아이콘(710)이 선택되기 직전에 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a, 300b)에 대응되도록 형성될 수 있다.
다른 예로, 상기 복수의 화상출력장치에 해당하는 이미지(300a, 300b) 중 적어도 하나의 화상출력장치에 해당하는 이미지가 선택되면, 제어부(180)는 상기 선택된 이미지에 대응되는 상기 가이드 라인(350)을 상기 화면(320)에 출력할 수 있다.
제어부(180)는 디스플레이부(151)에 출력된 컨텐츠(810)에 기 설정된 방식의 터치가 가해지는 것에 근거하여, 상기 컨텐츠(810)를 이동시키거나, 상기 컨텐츠(810)의 크기를 확대하거나 축소할 수 있다. 예를 들어, 제어부(180)는 상기 컨텐츠(810)가 출력된 영역의 일 지점에서 시작되는 드래그 터치에 근거하여 상기 컨텐츠(180)를 이동시킬 수 있다. 또한, 제어부(180)는 상기 컨텐츠(810)가 출력된 영역에 핀치-인(pinch-in)터치가 가해지는 것에 근거하여 상기 컨텐츠(810)를 축소하거나, 상기 컨텐츠(810)가 출력된 영역에 핀치-아웃(pinch-out)터치 또는 더블 탭(숏) 터치(double tap touch)가 가해지는 것에 근거하여 상기 컨텐츠(810)를 확대할 수 있다.
한편, 제어부(180)는 상기 가이드라인(350)에 가해지는 기 설정된 방식의 터치에 근거하여 상기 가이드라인(350)의 크기를 변경할 수 있다. 예를 들어, 상기 가이드라인(350)의 크기는 상기 가이드 라인(350)에서 시작되는 드래그 터치에 근거하여 가변될 수 있다. 상기 가이드라인(350)이 크기가 가변되더라도, 상기 가이드라인(350)의 크기 비율은 유지될 수 있다.
제어부(180)는 상기 프리뷰 영상(310)에 포함된 화상출력장치에 해당하는 이미지(300a, 300b)에 근거하여, 각 화상출력장치(200a, 200b)에 출력되는 하나의 컨텐츠(810)의 일부분(810a, 810b)을 결정할 수 있다. 구체적으로, 제어부(180)는 상기 프리뷰 영상(310)에 포함된 화상출력장치에 해당하는 이미지(300a, 300b)에 대응되는 가이드라인(350)을 이용하여, 각 화상출력장치(200a, 200b)에 출력되는 하나의 컨텐츠(810)의 일부분(810a, 810b)을 결정(설정)할 수 있다.
도 18b의 제2 도면에 도시된 것과 같이, 제어부(180)는 가이드 라인(350) 중 제1 화상출력장치에 해당하는 이미지(300a)에 대응되는 가이드라인(350)에 해당하는 컨텐츠를 하나의 컨텐츠 중 상기 제1 화상출력장치에 출력될 일부분(810a)으로 설정할 수 있다. 마찬가지로, 제어부(180)는 가이드 라인(350) 중 제2 화상출력장치에 해당하는 이미지(300b)에 대응되는 가이드라인(350)에 해당하는 컨텐츠를 하나의 컨텐츠 중 상기 제2 화상출력장치에 출력될 일부분(810b)으로 설정할 수 있다.
이후, 제어부(180)는 디스플레이부(151)에 출력된 출력 아이콘(720)에 터치가 가해지는 것에 근거하여, 복수의 화상출력장치(200a, 200b)에 상기 컨텐츠 중 일부분(810a, 810b)이 출력되도록 상기 복수의 화상출력장치(200a, 200b)를 제어할 수 있다.
도 18b의 제2 도면에 도시된 것과 같이, 상기 복수의 화상출력장치(200a, 200b)에는 하나의 컨텐츠(810) 중 서로 다른 일부분(810a, 810b)이 출력될 수 있다. 예를 들어, 제1 화상출력장치(200a)에는 하나의 컨텐츠(810) 중 상기 이동 단말기에 출력된 가이드라인(350)에서 제1 화상출력장치에 해당하는 이미지(300a)에 대응되는 가이드 라인(350)에 해당하는 컨텐츠의 제1 일부분(810a)이 출력될 수 있다. 마찬가지로, 제2 화상출력장치(200a)에는 하나의 컨텐츠(810) 중 상기 이동 단말기에 출력된 가이드라인(350)에서 제2 화상출력장치에 해당하는 이미지(300b)에 대응되는 가이드 라인(350)에 해당하는 상기 컨텐츠의 제1 일부분(810a)과 다른 컨텐츠의 제2 일부분(810b)이 출력될 수 있다.
제어부(180)는 하나의 컨텐츠(810)가 복수의 화상출력장치(200a, 200b)에 나누어져 출력되도록 상기 복수의 화상출력장치(200a, 200b)를 제어할 수 있다. 구체적으로, 제어부(180)는 상기 복수의 화상출력장치(200a, 200b)에 컨텐츠의 서로 다른 일부분이 출력되도록 상기 복수의 화상출력장치(200a, 200b)를 제어할 수 있다. 예를 들어, 제어부(180)는 하나의 컨텐츠 중 제1 부분(810a)에 해당하는 컨텐츠만 제1 화상출력장치(200a)로 전송하고, 제2 부분(810b)에 해당하는 컨텐츠만 제2 화상출력장치(200b)로 전송할 수 있다. 다른 예로, 제어부(180)는 하나의 컨텐츠(810)를 각각 복수의 화상출력장치(200a, 200b)로 전송하고, 제1 부분(810a)과 관련된 정보를 제1 화상출력장치(200a)로 전송하고, 제2 부분(810b)과 관련된 정보를 제2 화상출력장치(200b)로 전송할 수 있다. 이 때, 제1 화상출력장치(200a)는 상기 제1 부분(810a)과 관련된 정보에 근거하여, 하나의 컨텐츠 중 상기 제1 부분에 해당하는 컨텐츠만을 출력할 수 있다. 마찬가지로, 제2 화상출력장치(200b)는 상기 제2 부분(810b)과 관련된 정보에 근거하여, 하나의 컨텐츠 중 상기 제2 부분에 해당하는 컨텐츠만을 출력할 수 있다.
복수의 화상출력장치에 해당 컨텐츠(810)가 저장된 경우, 이동 단말기(100)의 제어부(180)는 상기 제1 부분(810a)과 관련된 정보를 제1 화상출력장치(200a)로 전송하고, 상기 제2 부분(810b)과 관련된 정보를 제2 화상출력장치(200b)로 전송할 수 있다.
한편, 복수의 화상출력장치(200a, 200b)에는 하나의 컨텐츠(810) 중 서로 다른 일부분(810a, 810b)이 출력되고, 상기 복수의 화상출력장치 각각에 출력되는 일부분은 상기 복수의 화상출력장치의 배치에 따라 달라질 수 있다.
예를 들어, 도 18c의 제1 도면에 도시된 것과 같이, 복수의 화상출력장치(200a, 200b) 중 어느 하나의 화상출력장치(200a)가 제1 위치에 배치된 경우, 상기 어느 하나의 화상출력장치(200a)에는 제1 위치에 근거하여 하나의 컨텐츠(810) 중 제1 부분(810a)이 출력될 수 있다. 한편, 상기 어느 하나의 화상출력장치(200a)가 제1 위치와 다른 제2 위치에 배치된 경우, 도 18c의 제2 도면에 도시된 것과 같이, 상기 어느 하나의 출력장치(200a)에는 상기 제2 위치에 근거하여 상기 하나의 하나의 컨텐츠(180) 중 상기 제1 부분(810a)과 다른 제2 부분(810b)이 출력될 수 있다.
다시 말해, 제1 화상출력장치(200a)가 제2 화상출력장치(200b)의 왼쪽에 위치하면, 제1 화상출력장치(200a)에는 하나의 컨텐츠(810) 중 제1 부분(810a)이 출력되고, 상기 제2 화상출력장치(200b)에는 하나의 컨텐츠(810) 중 제2 부분(810b)이 출력될 수 있다. 반면, 제1 화상출력장치(200a)가 제2 화상출력장치(200b)의 오른쪽에 위치하면, 제1 화상출력장치(200a)에는 하나의 컨텐츠(810) 중 제2 부분(810b)이 출력되고, 상기 제2 화상출력장치(200b)에는 하나의 컨텐츠(180) 중 제1 부분(810a)이 출력될 수 있다.
한편, 복수의 화상출력장치(200a, 200b)가 동일한 화면크기를 갖는 경우, 하나의 컨텐츠(810) 중 각 화상출력장치에 출력되는 일부분(810a, 810b)의 크기는 상기 복수의 화상출력장치의 상대배치에 따라 달라질 수 있다.
구체적으로, 복수의 화상출력장치(200a, 200b) 중 제1 화상출력장치(200a)가 상기 제1 화상출력장치와 다른 제2 화상출력장치(200b)보다 이동 단말기(100)에 더 가깝게 배치된 경우, 상기 제1 화상출력장치(200a)에 출력되는 일부분(810a)의 크기는 상기 제2 화상출력장치(200b)에 출력되는 일부분(810b)의 크기보다 클 수 있다.
도 18d의 제1 도면에 도시된 것과 같이, 이동 단말기(100)의 디스플레이부(151)에는 하나의 컨텐츠 중 복수의 화상출력장치(200a, 200b)에서 출력될 부분(영역)을 선택하기 위한 화면(320)이 출력될 수 있다. 상기 화면(320)에는 복수의 화상출력장치에 해당하는 이미지(300a, 300b)에 대응되는 가이드라인(350), 하나의 컨텐츠(810) 및 출력 아이콘(720)이 출력될 수 있다.
상기 가이드라인(350)은 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a, 300b)에 대응되도록 출력될 수 있다. 즉, 제1 화상출력장치(200a)가 이동 단말기(100)를 기준으로 제2 화상출력장치(200b)보다 가깝게 배치된 경우, 프리뷰 영상(310)에 포함된 제1 화상출력장치에 해당하는 이미지(300a)는 제2 화상출력장치에 해당하는 이미지(300b)보다 클 수 있다. 상기 가이드라인(350)은 상기 이미지들(300a, 300b)에 대응되도록 형성될 수 있다.
이후, 디스플레이부(151)에 출력된 출력 아이콘(720)에 터치가 가해지면, 제어부(180)는 제1 화상출력장치(200a)에 하나의 컨텐츠(810) 중 제1 부분(810a)이 출력되고, 제2 화상출력장치(200b)에 하나의 컨텐츠(810) 중 상기 제1 부분(810a)의 크기보다 작은 크기를 갖는 제2 부분(810b)이 출력되도록 상기 복수의 화상출력장치(200a, 200b)를 제어할 수 있다.
도 18d의 제3 도면에 도시된 것과 같이, 제1 및 제2 화상출력장치(200a, 200b)에는 상기 제1 및 제2 화상출력장치의 상대배치에 따라 컨텐츠 중 서로 다른 크기를 갖는 일부분들이 각각 출력될 수 있다. 즉, 제1 및 제2 화상출력장치(200a, 200b)가 동일한 화면크기를 갖더라도, 제1 화상출력장치(200a)가 이동 단말기를 기준으로 제2 화상출력장치(200b)보다 더 가깝게 배치된 경우, 컨텐츠 중 제2 화상출력장치에 출력되는 일부분(810b)보다 더 큰 일부분(810a)이 출력될 수 있다.
다른 말로, 제2 화상출력장치(200b)에는 컨텐츠(810) 중 제1 화상출력장치(200a)에 출력된 일부분(810a)의 크기보다 작은 일부분(810b)이 출력될 수 있다.
한편, 도시되진 않았지만, 이동 단말기의 제어부(180)는 각 화상출력장치에 서로 다른 컨텐츠를 출력하는 것이 가능하다. 예를 들어, 제어부(180)는 프리뷰 영상(310)에 포함된 복수의 화상출력장치(200a, 200b)에 해당하는 이미지(300a, 300b) 중 제1 화상출력장치(200a)에 해당하는 이미지(300a)가 선택된 후 제1 컨텐츠를 선택되면, 제1 화상출력장치(200a)에 상기 제1 컨텐츠를 출력시킬 수 있다. 또한, 제어부(180)는 상기 복수의 화상출력장치(200a, 200b)에 해당하는 이미지(300a, 300b) 중 제2 화상출력장치(200b)에 해당하는 이미지(300b)가 선택된 후 상기 제1 컨텐츠와 다른 제2 컨텐츠가 선택되면, 상기 제2 화상출력장치(200b)에 상기 제2 컨텐츠를 출력시킬 수 있다.
여기서, 제어부(180)는, 도 18b 및 도 18d에서 설명한 것과 같이, 제1 및 제2 컨텐츠 중 어느 하나가 선택되면, 상기 선택된 컨텐츠가 출력될 영역을 선택하기 위한 화면(320)이 출력될 수 있으며, 도 18b 및 도 18d에서 설명한 내용을 유추적용하여 각 화상출력장치에서 출력된 컨텐츠의 크기(영역)을 선택(설정)할 수 있다.
또한, 도시되진 않았지만, 위에서 설명한 내용은 복수의 화상출력장치 중 적어도 하나의 화상출력장치가 가로 또는 세로로 배치되거나 기울어져 배치된 경우 에도 동일/유사하게 유추적용될 수 있다. 또한, 위에서 설명한 내용은 복수의 화상출력장치 중 적어도 하나의 화상출력장치의 일측이 이동 단말기를 기준으로 이동 단말기의 타측보다 가깝거나 멀도록 배치된 경우에도 마찬가지이다.
이러한 구성을 통해, 본 발명은 하나의 컨텐츠를 복수의 화상출력장치에 나누어 출력시킬 수 있으며, 상기 복수의 화상출력장치의 배치, 상대배치, 자세에 따라 하나의 컨텐츠 중 상기 복수의 화상출력장치에 출력될 일부분의 크기, 형태, 위치 등을 결정할 수 있다. 따라서, 본 발명은 사용자의 입장(이동 단말기의 입장)에서 하나의 컨텐츠를 이질감 없이 복수의 화상출력장치를 통해 출력할 수 있는 사용자 인터페이스를 제공할 수 있다.
이하에서는, 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치를 동기화하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 설명한다. 도 19a, 도 19b, 도 19c 및 도 19d는 이동 단말기를 이용하여 복수의 화상출력장치를 동기화하는 방법을 설명하기 위한 개념도이다.
이동 단말기의 제어부(180)는 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a 내지 300b) 중 어느 하나의 이미지(300b)에 터치가 가해지면, 상기 터치가 가해진 어느 하나의 이미지(300b)에 해당하는 화상출력장치(200b)를 기준으로 상기 복수의 화상출력장치(200a 내지 200d)를 동기화할 수 있다. 상기 동기화되는 카테고리는, 스트리밍, 화질 및 음량 중 적어도 하나를 포함할 수 있다.
본 발명에서의 스트리밍은 동영상(또는 음악) 재생 시점을 의미할 수 있다. 구체적으로, 본 발명의 복수의 화상출력장치(200)에서 하나의 동영상이 재생되는 경우, 각 화상출력장치(200)에서 재생되는 동영상 재생 시점을 스트리밍이라 명명할 수 있다. 스트리밍을 동기화한다는 것은, 복수의 화상출력장치에서 동영상이 재생되는 시점을 일치시킨다는 의미로 받아들여질 수 있다.
도 19a의 제1 도면에 도시된 것과 같이, 복수의 화상출력장치(200a 내지 200d)에는 하나의 동영상이 나누어져 재생(출력)될 수 있다. 상기 복수의 화상출력장치(200a 내지 200d)에서 하나의 동영상이 나누어져 재생되는 경우, 도 19a의 제1 도면에 도시된 것과 같이 복수의 화상출력장치 중 적어도 하나의 화상출력장치(200a)에서 재생되는 동영상 재생 시점이 나머지 화상출력장치(300b 내지 300d)와 다를 수 있다.
제어부(180)는 복수의 화상출력장치(200a 내지 200d)의 배치가 인식되면, 프리뷰 영상에 포함된 복수의 화상출력장치(200a 내지 200d)에 해당하는 이미지(300a 내지 300d) 중 어느 하나에 가해지는 터치에 근거하여, 터치가 가해진 이미지(300b)에 해당하는 복수의 화상출력장치(200b)를 기준 화상출력장치로 설정할 수 있다.
또한, 제어부(180)는, 도 19a의 제2 도면에 도시된 것과 같이, 상기 복수의 화상출력장치에 해당하는 이미지(300a 내지 300d) 중 어느 하나(300b)에 터치가 가해지는 것에 근거하여, 스트리밍 동기화 기능과 연계된 아이콘(730a)를 디스플레이부(151)에 출력할 수 있다.
또한, 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지(300a 내지 300d) 중 터치가 가해진 기준 화상출력장치에 해당하는 이미지(300b)에는, 도 19a의 제2 도면에 도시된 것과 같이, 기준 화상출력장치임을 알리는 인디케이터가 표시될 수 있다. 구체적으로, 제어부(180)는, 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지들(300a 내지 300d) 중 어느 하나의 이미지(300b)가 선택되면, 상기 이미지(300b)가 선택되었음을 알리는 인디케이터를 프리뷰 영상(310)에 오버랩할 수 있다.
이후, 상기 스트리밍 동기화 버튼(730a)에 터치가 가해지면, 제어부(180)는 상기 선택된 이미지(300b)에 대응되는 기준 화상출력장치(200b)의 동영상 재생 시점을 기준으로 복수의 화상출력장치(200a 내지 200d)의 동영상 재생 시점을 일치시킬 수 있다.
또한, 제어부(180)는 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지(300a 내지 300d)를 이용하여, 복수의 화상출력장치(200a 내지 200d)의 화질을 조정할 수 있다.
도 19b에 도시된 것과 같이, 복수의 화상출력장치(200a 내지 200d)가 동일한 설정값을 갖더라도, 외부 환경에 의해 서로 다른 화질을 가질 수 있다. 예를 들어, 상기 외부 환경(1000)은 그림자, 조명 등일 수 있다. 한편, 복수의 화상출력장치(200a 내지 200d)의 화질은 각 화상출력장치에 설정된 설정값이 상이거나, 또는 동일한 설정값으로 설정되었음에도 불구하고 제품 구성요소 자체의 특성차이로 인해 서로 달라질 수 있다. 이 경우, 사용자는 복수의 화상출력장치(200)가 서로 다른 화질로 출력되고 있다고 느낄 수 있다.
이 경우, 본 발명은 이동 단말기(100)에서 추출되는 복수의 화상출력장치의 화질에 근거하여, 상기 복수의 화상출력장치(200)의 화질을 동기화할 수 있다.
예를 들어, 도 19b의 제1 도면에 도시된 것과 같이, 복수의 화상출력장치(200a 내지 200d)는 외부 입장(이동 단말기)의 입장에서 볼 때, 서로 다른 화질을 가질 수 있다. 이 경우, 제어부(180)는 프리뷰 영상에 포함된 복수의 화상출력장치(200a 내지 200d)에 해당하는 이미지(300a 내지 300d) 중 어느 하나에 터치가 가해지면, 화질 동기화 기능과 연계된 아이콘(730b)을 출력할 수 있다.
또한, 제어부(180)는 상기 터치가 가해진 어느 하나의 이미지(300b)에 해당하는 복수의 화상출력장치(200b)를 기준 화상출력장치로 설정할 수 있다.
이후, 제어부(180)는 상기 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a 내지 300d)를 이용하여, 복수의 화상출력장치의 화질정보를 추출할 수 있다.
상기 추출된 화질정보는, 백 라이트(back light)의 밝기, 콘트라스트(contrast), 색상(color), 명도(brightness), 채도(chroma, hue), 포화도(saturation), 휘도(luminance), 선예도(sharpness), 색조(tint) 화이트 밸런스(white balance) 및 색 온도(color temperature), RGB픽셀값 등을 포함할 수 있다.
이후, 제어부(180)는, 상기 화질 동기화 기능이 연계된 아이콘(730b)에 터치가 가해지면, 상기 터치가 가해진 이미지(300b)로부터 추출된 화질정보를 기준으로, 복수의 화상출력장치(200a 내지 200d)의 화질을 조정할 수 있다.
예를 들어, 도 19b의 제1 도면에 도시된 것과 같이, 제1 내지 제4 화상출력장치(200a 내지 200d)의 화질이 서로 상이한 상태에서, 상기 제2 화상출력장치(200b)에 해당하는 이미지(300b)가 선택되면, 제어부(180)는 상기 제2 화상출력장치(200b)에 해당하는 이미지(300b)로부터 추출된 화질정보에 근거하여, 상기 추출된 화질정보와 상이한 화질정보를 갖는 나머지 화상출력장치(200a, 200c, 200d)의 화질을 조정할 수 있다.
이 때, 제어부(180)는, 화질 조정 대상에 해당하는 화상출력장치(200a, 200b, 200d)로 각 복수의 화상출력장치에 해당하는 이미지(300a 내지 300d)로부터 추출된 화질정보에 근거하여 생성된 보정 데이터를 전송할 수 있다. 상기 보정 데이터는 각 화상출력장치에 해당하는 이미지로부터 추출된 화질정보 자체일수도 있고, 기준 화상출력장치에 해당하는 이미지(300b)의 화질정보와 각 화상출력장치의 해당하는 이미지(300a, 300c, 300d)의 화질정보의 화질 차이값(예를 들어, 밝기 차이값, 또는 색온도 차이값)일 수 있다.
복수의 화상출력장치(200a 내지 200d) 중 이동 단말기로부터 보정 데이터를 수신한 화상출력장치(200a, 200c, 200d)는 상기 보정데이터에 근거하여 화질을 조정할 수 있다.
이 때, 도 19b의 제2 도면에 도시된 것과 같이, 기준 화상출력장치(200b)를 기준으로 제1 및 제4 화상출력장치(200a, 200d)의 일부분만이 화질이 상이한 경우, 보정 데이터에는 상기 화질이 상이한 일부분에 대한 정보가 포함될 수 있다.
상기 제1 및 제4 화상출력장치(200a, 200d)는 상기 화질이 상이한 일부분에 대한 정보에 근거하여, 상기 일부분만의 화질을 조정할 수 있다.
이러한 구성을 통해, 본 발명은 이동 단말기를 기준으로(사용자를 기준으로) 복수의 화상출력장치가 동일한 화질을 출력하도록 상기 복수의 화상출력장치를 제어함으로써, 사용자에게 이질감 없이 복수의 화상출력장치를 통해 컨텐츠를 출력할 수 있다.
한편, 제어부(180)는 프리뷰 영상(310)에 포함된 복수의 화상출력장치에 해당하는 이미지(300a, 300b) 중 어느 하나(300a)가 선택되면, 음량 동기화 기능이 연계된 버튼(730c)이 출력될 수 있다.
이후, 도 19c의 제1 도면에 도시된 것과 같이, 상기 음량 동기화 기능이 연계된 아이콘(730c)이 선택되면, 제어부(180)는 복수의 화상출력장치(200a, 200b)로 기 설정된 소리(예를 들어, 테스트 사운드)의 출력을 요청할 수 있다. 이 때, 제어부(180)는 복수의 화상출력장치 중 제1 화상출력장치(200a)로 상기 기 설정된 소리 출력을 요청한 뒤, 상기 제1 화상출력장치(200a)와 다른 제2 화상출력장치(200b)로 상기 기 설정된 소리 출력을 요청할 수 있다. 즉, 제어부(180)는 복수의 화상출력장치(200a, 200b)로 동시에 기 설정된 소리의 출력을 요청하는 것이 아닌, 하나의 화상출력장치별로 순차적으로 기 설정된 소리의 출력을 요청할 수 있다. 이 때, 상기 복수의 화상출력장치 중 기 설정된 소리를 출력하는 순서는, 복수의 화상출력장치의 배치에 근거하여 결정될 수 있다.
도 19c의 제1 도면에 도시된 것과 같이, 상기 음량 동기화 기능과 연계된 아이콘(730c)이 선택되는 것에 근거하여, 제1 화상출력장치(200a)에서 기 설정된 소리(900a)가 출력되면, 제어부(180)는 상기 출력된 소리를 감지하고, 상기 감지된 소리에 근거하여 제1 화상출력장치(200a)의 음량(예를 들어, volume:3)을 판단할 수 있다.
이후, 도 19c의 제2 도면에 도시된 것과 같이, 복수의 화상출력장치 중 제1 화상출력장치에서 기 설정된 소리(900a)가 출력된 이후, 상기 제1 화상출력장치와 다른 제2 화상출력장치(200b)에서 기 설정된 소리(900b)가 출력되면, 제어부(180)는 상기 출력된 소리를 감지하고, 감지된 소리에 근거하여 제2 화상출력장치(200b)의 음량(예를 들어, volume:2)을 판단할 수 있다.
이후, 제어부(180)는 상기 제1 및 제2 화상출력장치의 음량에 근거하여, 복수의 화상출력장치(200a, 200b) 중 기준 화상출력장치(200a)의 음량을 기준으로 음량 동기화를 수행할 수 있다. 상기 기준 화상출력장치(200a)는 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지들 중 터치가 가해진 이미지에 해당하는 화상출력장치(200a) 일 수 있다.
구체적으로, 제어부(180)는 기준 화상출력장치(200a)의 음량과 동일해지도록, 복수의 화상출력장치 중 상기 기준 화상출력장치를 제외한 나머지 화상출력장치(200b)의 음량을 조절할 수 있다. 예를 들어, 도 19c의 제3 도면에 도시된 것과 같이, 제어부(180)는 제2 화상출력장치의 음량을 volume:3으로 조정할 수 있다.
한편, 제어부(180)는 상기 동기화되는 카테고리가 음량인 경우, 상기 복수의 화상출력장치의 상대배치에 근거하여 서로 다른 음량을 출력하도록 상기 복수의 화상출력장치를 제어할 수 있다.
예를 들어, 도 19d의 제1 도면에 도시된 것과 같이, 복수의 화상출력장치(200a, 200b)는 이동 단말기를 기준으로 서로 다른 거리를 갖도록 배치될 수 있다. 여기서, 도 19d에서는 제1 화상출력장치(200a)가 제2 화상출력장치(200b)보다 이동 단말기(100)를 기준으로 더 가깝게 배치된 것을 예로 설명한다.
도 19c의 제1 도면에서 설명한 것과 같이, 기준 화상출력장치(200a)가 선택된 상태에서, 음량 동기화 기능이 연계된 아이콘(730c)에 터치가 가해지면, 제어부(180)는 복수의 화상출력장치(200a, 200b)로 순차적으로 기 설정된 소리(900a, 900b)를 출력시킬 수 있다. 여기서, 상기 제1 및 제2 화상출력장치는 모두 동일한 음량크기를 출력하도록 설정되어 있을 수 있다(예를 들어, volume:3).
그러나, 이동 단말기(100)는 제1 화상출력장치의 음량이 제2 화상출력장치의 음량보다 더 크다고 감지할 수 있다. 이는, 제1 화상출력장치가 제2 화상출력장치보다 이동 단말기를 기준으로 더 가깝게 배치되어 있기 때문이다.
이 경우, 제어부(180)는 감지된 음량크기에 근거하여, 복수의 화상출력장치 중 기준 화상출력장치(200a)의 음량과 차이를 갖는 화상출력장치(200b)의 음량을 조정할 수 있다. 즉, 제1 및 제2 화상출력장치(200a, 200b)에는 동일한 음량 출력값(예를 들어, volume:3)이 설정되어 있더라도, 제어부(180)는 이동 단말기에서 감지되는 음량의 크기에 근거하여, 복수의 화상출력장치의 음량을 동기화할 수 있다.
따라서, 제어부(180)는, 복수의 화상출력장치의 음량이 동일한 음량 출력값을 갖더라도, 기준 화상출력장치(200a)보다 상대적으로 더 먼 곳에 배치된 화상출력장치(200b)의 음량을 증가시키고, 상대적으로 더 가까운 곳에 배치된 화상출력장치의 음량을 감소시킬 수 있다.
한편, 제어부(180)는 복수의 화상출력장치의 상대배치에 근거하여 다양한 방식으로 상기 복수의 화상출력장치의 음량을 조정할 수 있다. 예를 들어, 복수의 화상출력장치가 3x3 형태로 배치된 경우, 상기 복수의 화상출력장치가 동일한 음량 출력값을 갖더라도, 정중앙에 배치된 화상출력장치에서 감지되는 음량의 크기가 다른 화상출력장치에서 감지되는 음량의 크기보다 작을 수 있다. 이 경우, 제어부(180)는 정중앙에 배치된 화상출력장치의 음량을 증가시킬 수 있다.
한편, 제어부(180)는 음질 설정에 근거하여 복수의 화상출력장치의 음량을 제어할 수 있다. 구체적으로, 제어부(180)는, 복수의 화상출력장치에서 출력되는 소리가 스테레오 음질로 출력시키기 위해 복수의 화상출력장치 중 외각에 배치된 화상출력장치의 음량을 증가시키고, 내부에 배치된 화상출력장치의 음량을 감소시킬 수 있다. 즉, 제어부(180)는 음질 설정에 근거하여 복수의 화상출력장치의 음량을 다양한 방식으로 제어할 수 있으며, 상기 음질 설정에 따른 복수의 화상출력장치의 음량 제어 방식은 사용자 설정에 의해 결정될 수 있다.
이상에서는, 설명의 편의를 위해 스트리밍 동기화 기능과 연계된 아이콘(730a), 화질 동기화 기능과 연계된 아이콘(730b) 및 음량 동기화 기능과 연계된 아이콘(730c)이 각각 하나씩 출력되는 것으로 설명하였다. 그러나, 상기 아이콘들(730a 내지 730c)은 사용자의 설정에 따라, 프리뷰 영상(310)에 기 설정된 방식의 터치(예를 들어, 복수의 화상출력장치에 해당하는 이미지 중 어느 하나에 가해지는 터치)가 가해지는 것에 근거하여, 함께 출력되거나, 선택적으로 출력될 수 있다.
또한, 상기 아이콘(730a 내지 730c)은 프리뷰 영상(310)에 가해지는 터치 방식에 근거하여 선택적으로 출력될 수 있다. 예를 들어, 제어부(180)는 프리뷰 영상(310)에 제1 방식의 터치가 가해지면, 스트리밍 동기화 기능과 연계된 아이콘(730a)을 출력하고, 상기 프리뷰 영상(310)에 상기 제1 방식와 다른 제2 방식의 터치가 가해지면, 화질 동기화 기능과 연계된 아이콘(730b)을 출력할 수 있다. 상기 제1 및 제2 터치는 앞서 설명한 다양한 터치방식을 준용할 수 있으며, 터치 방식에 따라 출력되는 아이콘의 종류는 사용자 설정에 의해 결정될 수 있다.
이상에서 설명한 화상출력장치(200)에 대한 동작은, 화상출력장치(200)의 제어부(250)에 의해 수행되는 것으로 이해될 수 있다. 또한, 복수의 화상출력장치가 제어기기에 연결되어, 상기 제어기기에 의해 제어되는 경우(예를 들어, 화상출력장치가 모니터에 해당하고, 제어기기가 본체(컴퓨터(PC), 또는 서버)에 해당하는 경우), 위에서 화상출력장치에 대해 설명한 내용은 제어기기(예를 들어,컴퓨터(PC), 또는 서버)에 구비된 제어부(예를 들어, 프로세서(processor))가 수행하는 것으로 이해될 수 있다. 즉, 위에서 화상출력장치에 대해 설명한 내용은 제어기기에 구비된 제어부가 상기 제어기기에 연결된 복수의 화상출력장치를 제어하는 것으로 유추적용될 수 있다.
이상에서 살펴본 것과 같이, 본 발명은 카메라를 통해 수신되는 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 복수의 화상출력장치의 배치를 인식할 수 있다. 또한, 본 발명은 복수의 화상출력장치에 해당하는 이미지에 포함된 서로 다른 식별정보에 해당하는 이미지를 이용하여 복수의 화상출력장치의 각각의 개수 및 위치를 판단할 수 있다. 또한, 본 발명은 복수의 화상출력장치에 해당하는 이미지에 포함된 기 설정된 격자무늬가 포함된 화면정보에 해당하는 이미지를 이용하여 복수의 화상출력장치의 상대배치 및 자세 등을 판단할 수 있다. 따라서, 본 발명은 종래의 복수의 화상출력장치를 제어하기 위해 일일이 화상출력장치의 개수, 배치된 위치, 상대배치 및 배치된 자세 등을 설정해야하는 번거로움을 해소할 수 있다.
또한, 본 발명은 복수의 화상출력장치에 하나의 컨텐츠가 나누어져 출력되도록 상기 복수의 화상출력장치를 제어할 수 있다. 이 때, 본 발명은 이동 단말기의 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 하나의 컨텐츠 중 복수의 화상출력장치 각각에서 출력될 일부분을 설정할 수 있다. 따라서, 본 발명은 복수의 화상출력장치에 컨텐츠를 출력하는 데에 최적화된 GUI(Graphic User Interface)를 제공할 수 있다.
또한, 본 발명은 이동 단말기의 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 어느 하나의 기준 화상출력장치를 선택하고, 상기 기준 화상출력장치를 기준으로 상기 복수의 화상출력장치를 동기화할 수 있다. 따라서, 본 발명은 종래에 각 화상출력장치 개별적으로 동기화함으로써 발생되던 번거로움을 해소할 수 있을 뿐만 아니라, 이동 단말기를 기준으로, 즉 사용자를 기준으로 보다 최적화된 동기화를 수행할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (40)

  1. 복수의 화상출력장치의 화질을 제어하기 위한 이동 단말기의 제어방법에 있어서,
    카메라를 통해 수신되는 상기 복수의 화상출력장치에 해당하는 이미지를 토대로 프리뷰 영상을 생성하고, 상기 프리뷰 영상에 포함된 상기 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 화질정보를 추출하는 단계; 및
    상기 복수의 화상출력장치 중 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치에 상기 추출된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 전송하는 단계를 포함하는 이동 단말기의 제어방법.
  2. 제 1 항에 있어서,
    상기 화질정보를 추출하는 단계는,
    사용자 요청에 근거하여 상기 복수의 화상출력장치에 화질정보 추출에 이용되는 기 설정된 화면이 출력되면, 상기 프리뷰 영상에 포함된 상기 기 설정된 화면에 해당하는 이미지로부터 상기 화질정보를 추출하는 것을 특징으로 하는 이동 단말기의 제어방법.
  3. 제 2 항에 있어서,
    상기 복수의 화상출력장치의 기 설정된 화면에는 화질정보 추출영역을 가이드하는 그래픽 객체가 출력되고,
    상기 프리뷰 영상에는 상기 그래픽 객체에 대응되는 인디케이터가 출력되며,
    상기 화질정보를 추출하는 단계는,
    상기 인디케이터가 상기 복수의 화상출력장치에 출력된 그래픽 객체에 해당하는 이미지에 오버랩되는 것에 근거하여 수행되는 것을 특징으로 하는 이동 단말기의 제어방법.
  4. 제 3 항에 있어서,
    상기 화질정보 추출영역을 가이드하는 그래픽 객체의 출력위치는 상기 복수의 화상출력장치가 배치된 위치에 근거하여 결정되고,
    상기 인디케이터는 상기 그래픽 객체에 대응되는 것이 가능한 위치에 배치되는 것을 특징으로 하는 이동 단말기의 제어방법.
  5. 제 1 항에 있어서,
    상기 화질정보는 밝기정보, 색 온도 정보, RGB 픽셀값, 콘트라스트(Contrast) 정보, 샤프니스(Sharpness) 정보, 채도(hue) 정보 중 적어도 하나를 포함하고,
    상기 화질정보를 추출하는 단계는,
    상기 복수의 화상출력장치에 해당하는 이미지를 이용해 상기 복수의 화상출력장치의 밝기정보를 추출하는 단계;
    상기 추출된 밝기정보에 근거하여 상기 복수의 화상출력장치의 출력밝기가 기준범위 내에 포함되는지 판단하는 단계;
    상기 복수의 화상출력장치 중 적어도 하나의 출력밝기가 상기 기준범위를 벗어나는 경우, 상기 적어도 하나의 화상출력장치가 상기 기준범위 내의 밝기를 가지도록 상기 추출된 밝기정보를 상기 적어도 하나의 화상출력장치로 전송하는 단계; 및
    상기 복수의 화상출력장치가 상기 기준범위 내의 밝기를 갖는 상태에서, 상기 복수의 화상출력장치에 해당하는 이미지를 이용해 상기 색 온도 정보를 추출하는 단계를 포함하는 것을 특징으로 하는 이동 단말기의 제어방법.
  6. 제 5 항에 있어서,
    상기 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치로 전송되는 화질정보는 상기 복수의 화상출력장치에 해당하는 이미지를 이용하여 추출된 색 온도 정보인 것을 특징으로 하는 이동 단말기의 제어방법.
  7. 제 1 항에 있어서,
    상기 화질정보를 추출하는 단계 이전에,
    상기 프리뷰 영상에 포함된 상기 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 배치를 인식하는 단계를 더 포함하는 것을 특징으로 하는 이동 단말기의 제어방법.
  8. 제 7 항에 있어서,
    상기 인식하는 단계는,
    사용자 요청에 근거하여 상기 복수의 화상출력장치에 서로 다른 색상 또는 형태를 갖는 그래픽 객체가 출력되면, 상기 프리뷰 영상에 포함된 상기 서로 다른 색상 또는 형태를 갖는 그래픽 객체에 대응되는 이미지에 근거하여 상기 복수의 화상출력장치의 배치를 인식하는 것을 특징으로 하는 이동 단말기의 제어방법.
  9. 제 7 항에 있어서,
    상기 복수의 화상출력장치의 배치가 인식되면, 상기 복수의 화상출력장치의 배치에 대응되는 복수의 아이콘을 상기 디스플레이부에 출력하는 단계를 더 포함하는 것을 특징으로 하는 이동 단말기의 제어방법.
  10. 제 9 항에 있어서,
    상기 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치는 상기 복수의 아이콘을 통해 선택되는 것을 특징으로 하는 이동 단말기의 제어방법.
  11. 제 1 항에 있어서,
    상기 이동 단말기는 상기 복수의 화상출력장치와 동일한 네트워크에 속하는 것을 특징으로 하는 이동 단말기의 제어방법.
  12. 제 11 항에 있어서,
    상기 복수의 화상출력장치에는 네트워크 정보가 포함된 바코드가 출력되고,
    상기 이동 단말기는,
    사용자 요청에 따라 상기 프리뷰 영상에 상기 바코드에 해당하는 이미지가 출력되면, 상기 바코드에 해당하는 이미지를 이용하여 상기 네트워크 정보를 추출하고, 상기 추출된 네트워크 정보를 이용하여 상기 복수의 화상출력장치와 동일한 네트워크에 접속하는 것을 특징으로 하는 이동 단말기의 제어방법.
  13. 이동 단말기와 통신이 가능한 화상출력장치의 제어방법에 있어서,
    상기 이동단말기로부터 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터가 수신되면, 상기 수신된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터에 근거하여 RGB 출력비율을 조정하는 단계; 및
    상기 조정된 RGB 출력비율에 근거하여 밝기를 조정하는 단계를 포함하는 화상출력장치의 제어방법.
  14. 제 13 항에 있어서,
    상기 수신된 화질정보에는 복수의 화상출력장치에 대한 색 온도 정보가 포함되고,
    상기 RGB 출력비율은 상기 복수의 화상출력장치 중 화질 조정의 기준이 되는 어느 하나의 화상출력장치에 대한 색 온도 정보에 근거하여 결정되는 것을 특징으로 하는 화상출력장치의 제어방법.
  15. 제 13 항에 있어서,
    상기 밝기를 조정하는 단계는,
    상기 RGB 출력과 관련된 기 설정된 가중치를 적용하여 상기 조정될 밝기 정도를 결정하는 것을 특징으로 하는 화상출력장치의 제어방법.
  16. 제 13 항에 있어서,
    상기 RGB 출력비율을 조정하는 단계 이전에,
    상기 이동 단말기의 요청에 근거하여 화상출력장치의 배치 인식에 사용되는 그래픽 객체를 출력하는 단계; 및
    상기 이동 단말기의 요청에 근거하여 화질정보 추출에 이용되는 기 설정된 화면을 출력하는 단계를 더 포함하는 것을 특징으로 하는 화상출력장치의 제어방법.
  17. 제 16 항에 있어서,
    상기 기 설정된 화면에는 화질정보 추출영역을 가이드하는 그래픽 객체가 출력되고,
    상기 화질정보 추출영역을 가이드하는 그래픽 객체의 출력위치는 상기 화상출력장치가 배치된 위치에 따라 달라지는 것을 특징으로 하는 화상출력장치의 제어방법.
  18. 복수의 화상출력장치의 화질을 제어하기 위한 이동 단말기에 있어서,
    카메라;
    상기 카메라를 통해 수신되는 상기 복수의 화상출력장치에 해당하는 이미지를 토대로 프리뷰 영상을 생성하고, 상기 프리뷰 영상을 출력하는 디스플레이부; 및
    상기 프리뷰 영상에 포함된 상기 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 화질정보를 추출하고, 상기 복수의 화상출력장치 중 화질 조정 대상에 해당하는 적어도 하나의 화상출력장치에 상기 추출된 화질정보 또는 상기 화질정보에 대응하는 화질 보정 데이터를 전송하는 제어부를 포함하는 이동 단말기.
  19. 제 18 항에 있어서,
    상기 제어부는,
    사용자 요청에 근거하여 상기 복수의 화상출력장치에 화질정보 추출에 이용되는 기 설정된 화면이 출력되면, 상기 프리뷰 영상에 포함된 상기 기 설정된 화면에 해당하는 이미지로부터 상기 화질정보를 추출하는 것을 특징으로 하는 이동 단말기.
  20. 제 19 항에 있어서,
    상기 복수의 화상출력장치의 기 설정된 화면에는 화질정보 추출영역을 가이드하는 그래픽 객체가 출력되고,
    상기 프리뷰 영상에는 상기 그래픽 객체에 대응되는 인디케이터가 출력되며,
    상기 제어부는,
    상기 인디케이터가 상기 복수의 화상출력장치에 출력된 그래픽 객체에 해당하는 이미지에 오버랩되는 것에 근거하여 상기 화질정보를 추출하는 것을 특징으로 하는 이동 단말기.
  21. 복수의 화상출력장치를 제어하기 위한 이동 단말기의 제어방법에 있어서,
    상기 복수의 화상출력장치로 서로 다른 식별정보의 출력을 요청하는 단계;
    상기 복수의 화상출력장치 각각에 서로 다른 식별정보가 출력된 상태에서, 카메라를 통해 수신되는 프리뷰 영상에 포함된 상기 서로 다른 식별정보에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 배치를 인식하는 단계; 및
    상기 복수의 화상출력장치의 배치가 인식되면, 상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치를 제어하는 단계를 포함하는 이동 단말기의 제어방법.
  22. 제 21 항에 있어서,
    상기 복수의 화상출력장치의 배치를 인식하는 단계는,
    상기 프리뷰 영상에 포함된 상기 서로 다른 식별정보에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 개수 및 상기 복수의 화상출력장치 각각의 위치를 식별하는 단계;
    상기 복수의 화상출력장치로 기 설정된 격자무늬가 포함된 화면정보의 출력을 요청하는 단계; 및
    상기 복수의 화상출력장치 각각에 상기 화면정보가 출력되면, 상기 프리뷰 영상에 포함된 상기 화면정보에 해당하는 이미지를 이용하여, 상기 복수의 화상출력장치의 상대배치를 인식하는 단계를 포함하는 것을 특징으로 하는 이동 단말기의 제어방법.
  23. 제 22 항에 있어서,
    상기 복수의 화상출력장치의 상대배치는,
    상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지 에 포함된 격자무늬의 크기에 근거하여 인식되는 것을 특징으로 하는 이동 단말기의 제어방법.
  24. 제 23 항에 있어서,
    상기 복수의 화상출력장치의 상대배치를 인식하는 단계는,
    상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지에 포함된 격자무늬 중 제1 화상출력장치에 해당하는 이미지에 포함된 격자무늬의 크기가 상기 제1 화상출력장치와 다른 제2 화상출력장치에 해당하는 이미지에 포함된 격자무늬의 크기보다 크면, 상기 이동 단말기를 기준으로 상기 제1 화상출력장치가 상기 제2 화상출력장치보다 더 가까운 곳에 배치되었다고 인식하는 것을 특징으로 하는 이동 단말기의 제어방법.
  25. 제 22 항에 있어서,
    상기 복수의 화상출력장치의 배치를 인식하는 단계는,
    상기 프리뷰 영상에 포함된 상기 화면정보에 해당하는 이미지를 이용하여, 상기 복수의 화상출력장치의 자세를 판단하는 단계를 더 포함하는 것을 특징으로 하는 이동 단말기의 제어방법.
  26. 제 22 항에 있어서,
    상기 식별정보는 상기 기 설정된 격자무늬가 포함된 화면정보와 함께 출력 가능한 것을 특징으로 하는 이동 단말기의 제어방법.
  27. 제 21 항에 있어서,
    상기 제어하는 단계는,
    상기 복수의 화상출력장치의 배치에 근거하여, 하나의 컨텐츠가 상기 복수의 화상출력장치에 나누어져 출력되도록 상기 복수의 화상출력장치를 제어하는 것을 특징으로 하는 이동 단말기의 제어방법.
  28. 제 27 항에 있어서,
    상기 제어하는 단계는,
    상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지에 근거하여, 각 화상출력장치에 출력되는 상기 하나의 컨텐츠의 일부분을 결정하는 것을 특징으로 하는 이동 단말기의 제어방법.
  29. 제 27 항에 있어서,
    상기 복수의 화상출력장치에는 상기 하나의 컨텐츠 중 서로 다른 일부분이 출력되고,
    상기 복수의 화상출력장치 각각에 출력되는 상기 일부분은 상기 복수의 화상출력장치의 배치에 따라 달라지는 것을 특징으로 하는 이동 단말기의 제어방법.
  30. 제 29 항에 있어서,
    상기 복수의 화상출력장치 중 어느 하나의 화상출력장치가 제1 위치에 배치된 경우, 상기 어느 하나의 화상출력장치에는 상기 제1 위치에 근거하여 상기 하나의 컨텐츠 중 제1 부분이 출력되고,
    상기 어느 하나의 화상출력장치가 상기 제1 위치와 다른 제2 위치에 배치된 경우, 상기 어느 하나의 화상출력장치에는 상기 제2 위치에 근거하여 상기 하나의 컨텐츠 중 상기 제1 부분과 다른 제2 부분이 출력되는 것을 특징으로 하는 이동 단말기의 제어방법.
  31. 제 27 항에 있어서,
    상기 복수의 화상출력장치가 동일한 화면크기를 갖는 경우, 상기 하나의 컨텐츠 중 각 화상출력장치에 출력되는 일부분의 크기는 상기 복수의 화상출력장치의 상대배치에 따라 달라지는 것을 특징으로 하는 이동 단말기의 제어방법.
  32. 제 31 항에 있어서,
    상기 복수의 화상출력장치 중 제1 화상출력장치가 상기 제1 화상출력장치와 다른 제2 화상출력장치보다 상기 이동 단말기에 더 가깝게 배치된 경우, 상기 제1 화상출력장치에 출력되는 상기 일부분의 크기는 상기 제2 화상출력장치에서 출력되는 상기 일부분의 크기보다 큰 것을 특징으로 하는 이동 단말기의 제어방법.
  33. 제 21 항에 있어서,
    상기 제어하는 단계는,
    상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지 중 어느 하나의 이미지에 터치가 가해지면, 상기 터치가 가해진 어느 하나의 이미지에 해당하는 화상출력장치를 기준으로 상기 복수의 화상출력장치를 동기화하는 것을 특징으로 하는 이동 단말기의 제어방법.
  34. 제 33 항에 있어서,
    상기 동기화되는 카테고리는,
    스트리밍, 화질 및 음량 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기의 제어방법.
  35. 제 34 항에 있어서,
    상기 제어하는 단계는,
    상기 동기화되는 카테고리가 음량인 경우, 상기 복수의 화상출력장치의 상대배치에 근거하여 서로 다른 음량을 출력하도록 상기 복수의 화상출력장치를 제어하는 것을 특징으로 하는 이동 단말기의 제어방법.
  36. 복수의 화상출력장치를 제어하기 위한 이동 단말기에 있어서,
    카메라;
    상기 카메라를 통해 수신되는 프리뷰 영상을 출력하는 디스플레이부; 및
    상기 복수의 화상출력장치에 서로 다른 식별정보가 출력된 상태에서, 상기 프리뷰 영상에 포함된 상기 서로 다른 식별정보에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치의 배치를 인식하고, 상기 복수의 화상출력장치의 배치가 인식되면, 상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지를 이용하여 상기 복수의 화상출력장치를 제어하는 제어부를 포함하는 이동 단말기.
  37. 제 36 항에 있어서,
    상기 복수의 화상출력장치에는, 사용자 요청에 근거하여 기 설정된 격자무늬가 포함된 화면정보가 출력되고,
    상기 제어부는,
    상기 복수의 화상출력장치 각각에 상기 화면정보가 출력되면, 상기 프리뷰 영상에 포함된 상기 화면정보에 해당하는 이미지를 이용하여, 상기 복수의 화상출력장치의 상대배치를 인식하는 것을 특징으로 하는 이동 단말기.
  38. 제 36 항에 있어서,
    상기 제어부는,
    상기 복수의 화상출력장치의 배치에 근거하여, 하나의 컨텐츠가 상기 복수의 화상출력장치에 나누어져 출력되도록 상기 복수의 화상출력장치를 제어하는 것을 특징으로 하는 이동 단말기.
  39. 제 38 항에 있어서,
    상기 제어부는,
    상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지에 근거하여, 각 화상출력장치에 출력되는 상기 하나의 컨텐츠의 일부분을 결정하는 것을 특징으로 하는 이동 단말기의 제어방법.
  40. 제 36 항에 있어서,
    상기 제어부는,
    상기 프리뷰 영상에 포함된 복수의 화상출력장치에 해당하는 이미지 중 어느 하나의 이미지에 터치가 가해지면, 상기 터치가 가해진 어느 하나의 이미지에 해당하는 화상출력장치를 기준으로 상기 복수의 화상출력장치를 동기화하는 것을 특징으로 하는 이동 단말기.
PCT/KR2015/002055 2014-11-05 2015-03-03 화상출력장치, 이동 단말기 및 그것들의 제어 방법 WO2016072565A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP15857942.5A EP3217679B1 (en) 2014-11-05 2015-03-03 Image output device, mobile terminal, and control method therefor
US15/522,750 US10365879B2 (en) 2014-11-05 2015-03-03 Image output device, mobile terminal, and method for controlling a plurality of image output devices

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2014-0153031 2014-11-05
KR1020140153031A KR102300927B1 (ko) 2014-11-05 2014-11-05 화상출력장치, 이동 단말기 및 그것들의 제어 방법
KR1020140172365A KR102246092B1 (ko) 2014-12-03 2014-12-03 화상출력장치, 이동 단말기 및 그것들의 제어 방법
KR10-2014-0172365 2014-12-03

Publications (1)

Publication Number Publication Date
WO2016072565A1 true WO2016072565A1 (ko) 2016-05-12

Family

ID=55909282

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/002055 WO2016072565A1 (ko) 2014-11-05 2015-03-03 화상출력장치, 이동 단말기 및 그것들의 제어 방법

Country Status (3)

Country Link
US (1) US10365879B2 (ko)
EP (1) EP3217679B1 (ko)
WO (1) WO2016072565A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018205570A (ja) * 2017-06-06 2018-12-27 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
CN109644289A (zh) * 2017-04-21 2019-04-16 松下知识产权经营株式会社 再现装置、再现方法、显示装置、以及显示方法

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017021656A (ja) * 2015-07-13 2017-01-26 キヤノン株式会社 表示装置及びその制御方法
US9716825B1 (en) 2016-06-12 2017-07-25 Apple Inc. User interface for camera effects
CN105872402A (zh) * 2016-06-15 2016-08-17 深圳Tcl新技术有限公司 智能电视的拍照方法及系统
US10477345B2 (en) * 2016-10-03 2019-11-12 J2B2, Llc Systems and methods for identifying parties based on coordinating identifiers
US10885676B2 (en) * 2016-12-27 2021-01-05 Samsung Electronics Co., Ltd. Method and apparatus for modifying display settings in virtual/augmented reality
USD879135S1 (en) * 2017-01-06 2020-03-24 Amtran Technology Co., Ltd Display screen or portion thereof with graphical user interface
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
KR102435193B1 (ko) * 2017-11-09 2022-08-24 삼성전자주식회사 전자 장치, 디스플레이 장치 및 멀티비전 설정 방법
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10783648B2 (en) 2018-03-05 2020-09-22 Hanwha Techwin Co., Ltd. Apparatus and method for processing image
WO2019205170A1 (zh) 2018-04-28 2019-10-31 华为技术有限公司 一种拍照方法和终端设备
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11467795B2 (en) * 2018-06-05 2022-10-11 Videri Inc. Systems and methods for mapping an orchestrated digital display system
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
JP7378928B2 (ja) * 2018-12-20 2023-11-14 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及び、プログラム
KR102613328B1 (ko) 2019-01-17 2023-12-14 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR102436020B1 (ko) * 2019-01-31 2022-08-24 삼성전자주식회사 전자 장치 및 그 제어 방법
US11032340B2 (en) * 2019-04-04 2021-06-08 Sony Interactive Entertainment LLC Using camera on computer simulation controller
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN111294905B (zh) * 2020-02-03 2023-04-25 RealMe重庆移动通信有限公司 图像处理方法、图像处理装置、存储介质与电子设备
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
KR20210153428A (ko) * 2020-06-10 2021-12-17 삼성전자주식회사 복수의 디스플레이 모듈을 각각 인식하기 위한 전자 장치 및 멀티 디스플레이 인식 방법
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
JP7322909B2 (ja) * 2021-02-19 2023-08-08 セイコーエプソン株式会社 通信システム、通信システムの制御方法、情報処理装置、及び無線通信機器
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
CN115525183A (zh) * 2021-06-25 2022-12-27 华为技术有限公司 获取图像特征的方法及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110066145A (ko) * 2008-10-02 2011-06-16 엘지전자 주식회사 화질 조정 방법 및 그를 이용한 영상 표시 장치.
JP5093607B2 (ja) * 2008-07-07 2012-12-12 ソニー株式会社 遠隔装置、遠隔制御方法、プログラム、および表示制御装置
JP2013251768A (ja) * 2012-05-31 2013-12-12 Toshiba Corp 映像処理装置及び映像処理方法
KR101432830B1 (ko) * 2008-06-25 2014-08-26 주식회사 케이티 다자간 영상 통화 제어 방법, 이동통신 단말기 및 기록매체
KR101447969B1 (ko) * 2012-11-02 2014-10-14 (주)와이에스테크 다중 모니터 단말의 입력 장치

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5337724B2 (ko) 1973-12-20 1978-10-11
JP2007264141A (ja) * 2006-03-27 2007-10-11 National Institute Of Advanced Industrial & Technology 映像表示装置
US8976986B2 (en) * 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US20110242142A1 (en) * 2010-03-30 2011-10-06 Ati Technologies Ulc Multiple display chrominance and luminance method and apparatus
US8849900B2 (en) * 2011-03-04 2014-09-30 Telcordia Technologies, Inc. Method and system supporting mobile coalitions
US20120280898A1 (en) * 2011-05-03 2012-11-08 Nokia Corporation Method, apparatus and computer program product for controlling information detail in a multi-device environment
US9733882B2 (en) * 2012-04-19 2017-08-15 Videro Llc Apparatus and method for coordinating visual experiences through visual devices, a master device, slave devices and wide area network control
US9318043B2 (en) * 2012-07-09 2016-04-19 Mobbers, Inc. Systems and methods for coordinating portable display devices
US10353581B1 (en) * 2012-07-27 2019-07-16 Merge Healthcare Solutions Inc. Mobile computer input devices
JP2014060545A (ja) * 2012-09-14 2014-04-03 Sharp Corp マルチディスプレイのキャリブレーションシステム及び記録媒体
US20140193037A1 (en) * 2013-01-08 2014-07-10 John Fleck Stitzinger Displaying an Image on Multiple Dynamically Located Displays
US8988343B2 (en) * 2013-03-29 2015-03-24 Panasonic Intellectual Property Management Co., Ltd. Method of automatically forming one three-dimensional space with multiple screens
TW201439510A (zh) 2013-04-03 2014-10-16 Fih Hong Kong Ltd 顯示螢幕校正系統及方法
US9047042B2 (en) * 2013-04-19 2015-06-02 Qualcomm Incorporated Modifying one or more session parameters for a coordinated display session between a plurality of proximate client devices based upon eye movements of a viewing population
US20140315489A1 (en) * 2013-04-22 2014-10-23 Htc Corporation Method for performing wireless display sharing, and associated apparatus and associated computer program product
US8872924B1 (en) * 2013-06-04 2014-10-28 Ati Technologies Ulc Imaging based auto display grid configuration system and method
KR20150000783A (ko) * 2013-06-25 2015-01-05 삼성전자주식회사 멀티 스크린을 이용한 디스플레이 방법 및 장치
KR102183413B1 (ko) * 2013-08-30 2020-11-26 삼성전자주식회사 콘텐트 표현 방법 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101432830B1 (ko) * 2008-06-25 2014-08-26 주식회사 케이티 다자간 영상 통화 제어 방법, 이동통신 단말기 및 기록매체
JP5093607B2 (ja) * 2008-07-07 2012-12-12 ソニー株式会社 遠隔装置、遠隔制御方法、プログラム、および表示制御装置
KR20110066145A (ko) * 2008-10-02 2011-06-16 엘지전자 주식회사 화질 조정 방법 및 그를 이용한 영상 표시 장치.
JP2013251768A (ja) * 2012-05-31 2013-12-12 Toshiba Corp 映像処理装置及び映像処理方法
KR101447969B1 (ko) * 2012-11-02 2014-10-14 (주)와이에스테크 다중 모니터 단말의 입력 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3217679A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109644289A (zh) * 2017-04-21 2019-04-16 松下知识产权经营株式会社 再现装置、再现方法、显示装置、以及显示方法
CN109644289B (zh) * 2017-04-21 2021-11-09 松下知识产权经营株式会社 再现装置、再现方法、显示装置、以及显示方法
JP2018205570A (ja) * 2017-06-06 2018-12-27 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
JP7052225B2 (ja) 2017-06-06 2022-04-12 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法

Also Published As

Publication number Publication date
EP3217679B1 (en) 2020-05-13
US10365879B2 (en) 2019-07-30
EP3217679A4 (en) 2018-09-19
EP3217679A1 (en) 2017-09-13
US20170315772A1 (en) 2017-11-02

Similar Documents

Publication Publication Date Title
WO2016072565A1 (ko) 화상출력장치, 이동 단말기 및 그것들의 제어 방법
WO2018105908A1 (en) Mobile terminal and method for controlling the same
WO2017116197A1 (en) Mobile terminal and operating method thereof
WO2017213365A1 (en) Moving picture capturing apparatus having dual camera
WO2015030545A1 (en) Method and system for presenting content
WO2017039223A1 (en) Display apparatus and control method thereof
WO2017003043A1 (ko) 이동 단말기 및 그 제어 방법
WO2017018579A1 (ko) 이동단말기 및 그 제어방법
WO2016182132A1 (ko) 이동단말기 및 그 제어방법
WO2017003022A1 (ko) 디스플레이 디바이스 및 그 제어 방법
WO2016018072A1 (en) Method and apparatus for sharing data
WO2018084351A1 (ko) 이동단말기 및 그 제어방법
WO2017126727A1 (ko) 와치 타입 이동 단말기 및 그의 동작 방법
WO2017069324A1 (ko) 이동단말기 및 그 제어방법
WO2017034065A1 (ko) 디스플레이 디바이스 및 그 제어 방법
WO2016186254A1 (ko) 디스플레이 디바이스 및 그 제어 방법
WO2016093434A1 (en) Mobile terminal and controlling method thereof
WO2015199381A1 (en) Mobile terminal and method for controlling the same
WO2016032045A1 (ko) 이동 단말기 및 이의 제어 방법
WO2016035984A1 (en) Electronic device and method for operating the same
WO2017069353A1 (en) Mobile terminal and controlling method thereof
WO2017126802A1 (en) Mobile terminal and operating method thereof
WO2017018602A1 (ko) 이동단말기 및 그 제어방법
WO2018164301A1 (ko) 이동 단말기
WO2020149426A1 (ko) 영상표시기기 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15857942

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15522750

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015857942

Country of ref document: EP