Nothing Special   »   [go: up one dir, main page]

WO2019160260A1 - 전자 장치 및 그 동작 방법 - Google Patents

전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2019160260A1
WO2019160260A1 PCT/KR2019/001219 KR2019001219W WO2019160260A1 WO 2019160260 A1 WO2019160260 A1 WO 2019160260A1 KR 2019001219 W KR2019001219 W KR 2019001219W WO 2019160260 A1 WO2019160260 A1 WO 2019160260A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display device
display
screen
displayed
Prior art date
Application number
PCT/KR2019/001219
Other languages
English (en)
French (fr)
Inventor
이인선
이윤호
양관식
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN201980012845.3A priority Critical patent/CN111699674B/zh
Priority to EP19754992.6A priority patent/EP3754969B1/en
Priority to US16/961,595 priority patent/US11310441B2/en
Publication of WO2019160260A1 publication Critical patent/WO2019160260A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/4448Receiver circuitry for the reception of television signals according to analogue transmission standards for frame-grabbing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices

Definitions

  • Various embodiments relate to an electronic device and a method of operating the same, and more particularly, to an electronic device and a method of operating the same, which display an image of a wall surface on a display device.
  • the image display device is a device having a function of displaying an image that a user can watch.
  • the user can watch the broadcast through the image display device.
  • the video display device displays a broadcast selected by a user on a display among broadcast signals transmitted from a broadcasting station.
  • broadcasting is shifting from analog broadcasting to digital broadcasting worldwide.
  • Digital broadcasting refers to broadcasting for transmitting digital video and audio signals. Digital broadcasting is more resistant to external noise than analog broadcasting, so it has less data loss, is advantageous for error correction, has a higher resolution, and provides a clearer picture. In addition, unlike analog broadcasting, digital broadcasting is capable of bidirectional services.
  • Smart TVs providing various contents are provided. Smart TVs do not operate manually according to the user's choice, but aim to analyze and provide what the user wants without the user's manipulation.
  • Various embodiments are directed to providing a method and apparatus for displaying wall images on a television screen to enhance the aesthetics of the environment in which the television is installed.
  • an electronic device and an operation method generate an event instructing a plurality of markers to be displayed on a screen of a display device, transmit the event to the display device, and generate an event according to the generated event.
  • an image to extract at least a partial region of the wall surface around the display apparatus is determined, and an area corresponding to the shape obtained based on the recognized plurality of markers is determined from the determined image.
  • the background image to be displayed on the screen of the display device is generated by extracting and correcting the image of the extracted region, and the generated background image is transmitted to the display device so that the generated background image can be displayed on the screen of the display device.
  • the image of the wall surface can be more effectively captured and processed to generate a background image to be displayed on the display device, thereby increasing the aesthetics of the environment in which the display device is installed.
  • FIG. 1 is a reference diagram for describing a concept of displaying a wall image on a display device according to embodiments.
  • FIG. 2 is a reference diagram for describing a method of displaying a wall image on a display device according to an exemplary embodiment.
  • FIG. 3 is a schematic diagram illustrating examples of a system for displaying an image of a wall surface on a display device according to embodiments.
  • FIG. 4 is a block diagram of a mobile device 100, a display device 200, and a server 300, according to an exemplary embodiment.
  • FIG. 5 illustrates a method of operating a mobile device according to an exemplary embodiment.
  • FIG. 6 is a flowchart illustrating an operation of a mobile device, a server, and a display device for displaying a background image on a display device using an image of a wall on which a display device is installed, according to an exemplary embodiment.
  • FIG. 7 is a flowchart illustrating an operation of a mobile device, a server, and a display device for displaying a background image on a display device using an image of a wall on which a display device is installed, according to an exemplary embodiment.
  • FIG. 8 illustrates a user interface provided by the mobile device 100 by executing a device control application according to an embodiment.
  • FIG 9 illustrates an example of a preview image displayed on a display of the mobile device 100 according to an embodiment.
  • FIG. 10 is a diagram illustrating an area to be captured among peripheral walls of a display apparatus according to an exemplary embodiment.
  • FIG. 11 is a reference diagram for explaining a size of a peripheral wall area of a display apparatus to be captured, according to an exemplary embodiment.
  • FIG. 12 is a reference diagram for describing a method of transmitting a marker display event by a mobile device to a display device according to an exemplary embodiment.
  • FIG. 13 is a diagram for describing a method of determining a marker display position according to a selected capture area, according to an exemplary embodiment.
  • FIG. 14 is a reference diagram for explaining an example of displaying one or more guides on a mobile device according to one embodiment.
  • 15 is a reference diagram for explaining an example of displaying one or more guides on a mobile device according to one embodiment.
  • FIG. 16 is a diagram for describing an example of capturing an area away from a display device by the thickness of a bezel, according to an exemplary embodiment.
  • 17 is a reference diagram for describing an example in which image correction of an extracted region is required.
  • FIG. 18 is a diagram illustrating an example of correcting an area when a captured image is inclined in the negative direction of the X axis.
  • FIG. 19 is a reference diagram for describing region correction when the captured image is tilted in the positive direction of the X axis.
  • FIG. 20 is a reference diagram for explaining correction of an area when a captured image is inclined in a positive direction of the Y axis according to an exemplary embodiment.
  • FIG. 21 is a diagram illustrating an example of correcting an area when a captured image is inclined in the negative direction of the Y-axis, according to an exemplary embodiment.
  • FIG. 22 is a diagram for explaining region correction when the captured image is tilted in the positive direction of the z-axis according to an embodiment.
  • FIG. 23 is a reference diagram for explaining an application example to a curved display according to an exemplary embodiment.
  • an electronic device includes a camera, a display, a communication interface, a memory storing one or more instructions, and a processor executing one or more instructions stored in the memory, wherein the processor executes one or more instructions to display the display.
  • the screen of the display apparatus may be determined by determining an image from which at least a partial region of the wall around the display apparatus is extracted, extracting an area corresponding to a shape obtained based on the recognized plurality of markers from the determined image, and correcting the image of the extracted region.
  • Ship to be displayed on Generating an image and sends the generated background image to the generated background image to be displayed on the screen of the display device to the display device.
  • the processor acquires size information of a screen of the display apparatus by executing one or more instructions, determines a position at which one or more markers are to be displayed on the screen of the display apparatus based on the obtained size information,
  • the event may include an information about the location.
  • the processor when the processor recognizes a plurality of markers displayed on the screen of the display apparatus from an image obtained from the camera by executing one or more instructions, the processor extracts a background image from an image in which the recognized plurality of markers exist. You can decide which image to do.
  • At least a portion of the wall surface on which the display apparatus is installed may include at least one of a left region, a right region, an upper region, and a lower region of a wall adjacent to the display apparatus.
  • the processor executes one or more instructions to, for an image of the extracted region, at least one of adjusting the length of one or more sides of the image, rotating the image of the extracted region, or symmetry of the image of the extracted region. By performing the operation, the area of the extracted image can be corrected.
  • the processor may generate a background image by combining one of the corrected image of the extracted region and the symmetric image of the corrected image by executing one or more instructions.
  • the processor is configured to execute one or more instructions such that when the determined image is an image obtained from a left region or a right region of a wall adjacent to the display device, the processor mirrors the acquired image in a left or right direction.
  • the symmetric image may be obtained by symmetry in an upper direction or a lower direction of the acquired image.
  • the processor may transmit the event and the background image to the display device through the server by executing one or more instructions.
  • the shape obtained based on the recognized plurality of markers may include a polygonal shape obtained by connecting the recognized plurality of markers.
  • a method of operating an electronic device may include generating and transmitting an event instructing a plurality of markers to be displayed on a screen of a display device to the display device, and displaying the image according to the generated event among images acquired from a camera. Based on the recognition of the plurality of markers displayed on the screen of the device, an operation of determining an image to extract at least a partial area of the wall around the display device, an image corresponding to the shape obtained based on the recognized plurality of markers Extracting the image from the display device, generating the background image to be displayed on the screen of the display device by correcting the extracted region image, and generating the generated background image to be displayed on the screen of the display device. Sending to the server.
  • a computer-readable recording medium having recorded thereon a program for executing a method of operating a display device in a computer is disclosed.
  • FIG. 1 is a reference diagram for explaining a concept of displaying an image of a wall surface on a display device according to embodiments.
  • a display device 200 is installed on a wall surface 10.
  • the display apparatus 200 may display an image 11 of a part of the wall surface 10 in a state other than a general operation mode of the display apparatus 200 displaying content according to a user's input.
  • the display apparatus 200 displays an image 11 of a part of the wall surface 10 to increase the aesthetics of the environment in which the display apparatus 200 is installed.
  • by making the bezel 201 of the display device 200 more slim or by implementing the bezel 201 in a color that is not recognized by the human eye it is as if the display device 200 does not exist on the wall 11 while the display device 200 is not in operation.
  • the experience can be provided to the user.
  • a TV that provides such an effect may be referred to as glass TV.
  • the display device 200 displays the image 11 of the wall
  • the more the expression of the actual wall 10 and the image 11 of the wall displayed on the display device 200 is naturally connected the more the user may experience the display device 200 as if it is the wall. have. Since the display device 200 is installed on the wall 10, it is difficult to check the part of the wall 10 covered by the display device 200, so that the image 11 of the wall displayed by the display device 200 with the display device 200 installed on the wall 10 can be obtained. As long as it is present, it is important to express the display device 200 so as to be naturally connected to the surrounding area of the display device 200.
  • FIG. 2 is a reference diagram for describing a method of displaying a wall image on a display device according to an exemplary embodiment.
  • the display device 200 installed on the wall 10 may display one or more markers 21.
  • the mobile device 100 may display one or more guides on the display of the mobile device 100.
  • the mobile device 100 may capture an image of the wall 10 using the one or more guides 23 and the one or more markers 21 displayed on the display device 200. For example, when the user moves the mobile device 100 so that the guide 23 of the mobile device 100 is positioned at the marker 21 displayed on the display device 200, the mobile device 100 may capture an image of the wall surface.
  • the mobile device 100 receives an image of the right peripheral area 22 of the display device 200 into the right part 24 of the area captured by the mobile device 100, so that the mobile device 100 is part of the wall 10 area. 22 can be captured.
  • the mobile device 100 may generate a wall image, that is, a background image, to be displayed on the display device 200 by performing an appropriate process using the captured area 22 image.
  • the region 22 is directly adjacent to the display apparatus 200, when the background image to be displayed on the display apparatus 200 is generated using the image of the region 22, the region 22 may generate an image that looks more naturally connected to the peripheral region of the display apparatus 200.
  • the right region 22 of the display apparatus 200 capturing is an example, and the capturing region may be any position of the left region, the upper region, and the lower region of the display apparatus 200.
  • the mobile device 100 may extract and correct an area in the captured image by using a shape of a polygon obtained after the marker detected by the display device 200.
  • FIG. 3 is a schematic diagram illustrating examples of a system for displaying an image of a wall surface on a display device according to embodiments.
  • the system may include a mobile device 100, a display device 200, and a server 300 according to an embodiment.
  • the mobile device 100, the display device 200, and the server 300 may communicate with each other through a communication network 30.
  • the communication network 30 may include a broadband network network according to various communication standards such as Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and the like.
  • the mobile device 100 may receive information on the display device 200, specifically, screen size information, from the display device 200 or the server 300 through the server 300 and generate a marker display event based on the information.
  • the marker display event may be transmitted to the display apparatus 200 through the server 300, and upon receiving the marker display event, the display apparatus 200 may display one or more markers on the screen based on this.
  • the marker may be displayed at various locations on the screen of the display device 200.
  • the mobile device 100 may acquire an image of a wall around the display device 200 by using a marker displayed on the display device 200.
  • the mobile device 100 may acquire an image of an area around the display device 200 according to the position of the marker displayed on the screen of the display device 200. For example, when the marker is displayed on the left half screen of the display device 200, the mobile device 100 may acquire an image of a left adjacent area of the display device 200.
  • the mobile device 100 may generate a background image to be displayed on the display device 200 by using the obtained original image and a symmetrical image of the original image, and transmit the generated background image to the display device 200 through the server 300.
  • the display apparatus 200 may display the background image on the screen.
  • the system may include a mobile device 100 and a display device 200.
  • the mobile device 100 and the display device 200 may communicate with each other through a short range communication method.
  • the short range communication method may use a short range communication protocol such as Bluetooth, Bluetooth low energy (BLE), Wi-Fi, Wi-Fi Direct, NFC (Near Field Communication), infrared communication, and laser beam communication.
  • the mobile device 100 may receive the screen information of the display device 200 directly from the display device 200 and directly transmit the marker display event generated accordingly to the display device 200.
  • the display device 200 displays one or more markers on the screen according to a marker display event, and the mobile device 100 acquires an image of the peripheral wall of the display device 200 using the markers displayed on the screen of the display device 200, and uses the acquired images.
  • the background image may be generated and the generated background image may be transmitted to the display apparatus 200.
  • the display apparatus 200 may receive the background image and display it on the screen.
  • FIG. 4 is a block diagram of a mobile device 100, a display device 200, and a server 300, according to an exemplary embodiment.
  • the display apparatus 200 may display an image by processing content data received through various sources.
  • the display apparatus 200 may receive an RF signal from a broadcast station using an RF antenna.
  • the display apparatus 200 may receive content provided by a content providing server through a communication network based on an Internet protocol.
  • the display device 200 may receive content from an external device connected to the display device 200 through various ports or HDMI.
  • the external device may include, for example, a set top box, a game device, a BD player, a PC, a USB, and the like.
  • the display apparatus 200 may receive content from a mobile device that is communicatively connected, and may acquire content data from a built-in or locally connected memory.
  • the display apparatus 200 may include a display 210, a communication interface 220, a detector 230, and a controller 240.
  • the display 210 displays content received through various sources under control of the controller 240 on the screen.
  • Various sources may include, for example, communication interface 220, memory 250, input / output.
  • the display 210 may be implemented as a PDP, an LCD, an OLED, a flexible display, or a 3D display.
  • the display 210 may be configured as a touch screen and used as an input device in addition to the output device.
  • the communication interface 220 may connect the display device 200 to an external device, for example, the mobile device 100 or the server 300 under the control of the controller 240.
  • the communication interface 220 may include one or a combination of wireless LAN, Bluetooth, and wired Ethernet according to the performance and structure of the display device.
  • the communication interface 220 may further include other near field communication, for example, near field communication (NFC) and Bluetooth low energy (BLE) in addition to Bluetooth.
  • NFC near field communication
  • BLE Bluetooth low energy
  • the detector 230 detects a user's voice, a user's video, or a user's interaction, receives a microphone corresponding to a user's uttered voice, and receives an image corresponding to a user's motion including a gesture in a camera recognition range. It may include a camera unit and a light receiving unit for receiving an optical signal (including a control signal) received from an external remote control device according to the user input.
  • the detector 230 detects a command or control signal from the remote control apparatus through the light receiver and transmits the detected command or control signal to the controller 240.
  • the remote control device may be implemented as various types of devices for controlling the display device 200 such as a remote controller or a mobile phone.
  • the memory 250 may store various data, programs, or applications for driving and controlling the display apparatus 200 under the control of the controller 240.
  • the memory 250 may include an operating system for controlling the display device 200 and the controller, an application initially provided or downloaded from an external device, a graphical user interface (GUI) associated with the application, an object (eg, image text, Icons, buttons, etc.), user information, documents, databases, or related data.
  • GUI graphical user interface
  • the memory 250 includes a memory card (eg, micro SD card, USB memory, not shown) mounted in the ROM, RAM, or display device 200.
  • the memory 200 may include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the memory 250 may include one or more instructions for transmitting information about the display device 200 according to a request of the mobile device 100 or the server 300.
  • the information about the display apparatus 200 may include size information of the display apparatus 200, specifically, screen size information.
  • the memory 250 may include one or more instructions for receiving a marker display event from the mobile device 100 or the server 300 and displaying one or more markers on the display according to the marker display event.
  • the memory 250 may include one or more instructions for receiving a background image from the mobile device 100 or the server 300 and displaying the background image on a display.
  • the background image may include an image generated by using a peripheral area of the wall where the display apparatus 200 is installed.
  • the controller 240 controls the overall operation of the display apparatus 200 and the flow of signals between internal components of the display apparatus 200 and performs data processing.
  • the controller 240 may execute an operating system (OS) and various applications stored in the memory 250 when a user input or a preset stored condition is satisfied.
  • OS operating system
  • the processor used in the controller 240 may include a graphic processing unit (not shown) for graphic processing corresponding to video.
  • the processor may be implemented as a system on chip (SoC) integrating a core (not shown) and a GPU (not shown).
  • SoC system on chip
  • the processor may include single core, dual core, triple core, quad core, and multiple cores thereof.
  • the processor may include a plurality of processors.
  • the processor may be implemented as a main processor (not shown) and a sub processor (not shown) that operates in a sleep mode.
  • the controller 240 may execute one or more instructions stored in the memory 250 to transmit information about the display apparatus 200 according to a request of the mobile device 100 or the server 300.
  • the controller 240 may execute one or more instructions stored in the memory 250 to receive a marker display event from the mobile device 100 or the server 300, and display one or more markers on the display according to the marker display event.
  • the controller 240 may receive a background image from the mobile device 100 or the server 300 by executing one or more instructions stored in the memory 250 and display the background image on the display.
  • the display apparatus 200 controls video (for example, video), audio (for example, voice, music, etc.) and additional information (for example, EPG, etc.) from the outside of the display apparatus 200 under the control of the controller 240. It may further include an input / output unit for receiving.
  • the input / output unit may include one or a combination of an HDMI port (High-Definition Multimedia Interface port), a component jack, a PC port, and a USB port.
  • the display device 200 may be a TV, but this is only an example and may be implemented as an electronic device including a display.
  • the display device 200 may be implemented as various electronic devices such as a desktop and a digital broadcasting terminal.
  • the display device 200 may be implemented not only as a flat display device but also as a curved display device that is a screen having a curvature or a flexible display device that can adjust the curvature.
  • the display device 200 may be electrically connected to a separate external device (eg, a set top box, not shown) having a tuner unit.
  • a separate external device eg, a set top box, not shown
  • the display device 200 may be implemented as an analog TV, a digital TV, a 3D-TV, a smart TV, an LED TV, an OLED TV, a plasma TV, a monitor, or the like, but is not limited thereto. It will be easily understood by those who have.
  • the block diagram of the illustrated display apparatus 200 is a block diagram for an embodiment.
  • Each component of the block diagram may be integrated, added, or omitted according to the specifications of the display apparatus 200 that is actually implemented. That is, two or more components may be combined into one component as needed, or one component may be divided into two or more components.
  • the function performed in each block is for explaining the embodiments, the specific operation or apparatus does not limit the scope of the present invention.
  • the server 300 is a computing device on which a server program providing a service is executed at the request of a user (client).
  • the server 300 may include a communication interface 310 and a controller 320.
  • the communication interface 310 may connect the server 300 to an external device, for example, the mobile device 100 or the display device 200 under the control of the controller 320.
  • the communication interface 220 may include one or a combination of wireless LAN, Bluetooth, and wired Ethernet according to the performance and structure of the display device.
  • the memory 330 may store various data, programs, or applications for driving and controlling the server 300 under the control of the controller 320.
  • the memory 330 may include an operating system for controlling the server 300 and the controller, an application initially provided or downloaded from an external manufacturer, a graphical user interface (GUI) associated with the application, and an object (eg, image text, an icon for providing a GUI). , Buttons, etc.), user information, documents, databases, or related data.
  • GUI graphical user interface
  • the memory 330 includes a memory card (eg, a micro SD card, a USB memory, not shown) mounted in the ROM, the RAM, or the server 300.
  • the memory 330 may include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the memory 330 may include one or more instructions for transmitting an application for controlling one or more devices in the home to the mobile device 100 according to a request of the mobile device 100.
  • the device control application may be used to control the display apparatus 200, and in particular, may include one or more instructions for setting a background image of the display apparatus 200.
  • the memory 330 may include one or more instructions for transmitting information about the display device 200 according to a request of the mobile device 100.
  • the information about the display apparatus 200 may include size information of the display apparatus 200, specifically, screen size information.
  • the memory 330 may include one or more instructions for receiving a marker display event from the mobile device 100 and delivering the marker display event to the display device 200.
  • the memory 330 may include one or more instructions for receiving a background image from the mobile device 100 and transferring the background image to the display device 200.
  • the background image may include an image generated by using a peripheral area of the wall where the display apparatus 200 is installed.
  • the controller 320 controls the overall operation of the server 300 and the signal flow between the internal components of the server 300 and performs a function of processing data.
  • the controller 320 may execute an operating system (OS) and various applications stored in the memory 250 when a user input or a preset stored condition is satisfied.
  • OS operating system
  • the processor used in the controller 320 may include a graphic processing unit (not shown) for graphic processing corresponding to video.
  • the processor may be implemented as a system on chip (SoC) integrating a core (not shown) and a GPU (not shown).
  • SoC system on chip
  • the processor may include single core, dual core, triple core, quad core, and multiple cores thereof.
  • the processor may include a plurality of processors.
  • the processor may be implemented as a main processor (not shown) and a sub processor (not shown) that operates in a sleep mode.
  • the controller 320 executes one or more instructions stored in the memory 330 to transmit an application for controlling one or more devices in the home to the mobile device 100 according to a request of the mobile device 100.
  • the device control application may be used to control the display apparatus 200, and in particular, may include one or more instructions for setting a background image of the display apparatus 200.
  • the controller 320 may transmit information about the display apparatus 200 according to a request of the mobile device 100 by executing one or more instructions stored in the memory 330.
  • the information about the display apparatus 200 may include size information of the display apparatus 200, specifically, screen size information.
  • the controller 320 may execute one or more instructions stored in the memory 330 to receive a marker display event from the mobile device 100 and transmit the marker display event to the display device 200.
  • the controller 320 may receive a background image from the mobile device 100 by executing one or more instructions stored in the memory 330, and transmit the background image to the display device 200.
  • the background image may include an image generated by using a peripheral area of the wall where the display apparatus 200 is installed.
  • the mobile device 100 may capture an image of a wall on which the display device 200 is installed, generate a background image to be displayed on the screen of the display device 200 based on the captured image, and then transmit the image to the display device 200 through the server 300.
  • the mobile device 100 may include an imaging sensor circuit 110, a communication interface 120, a display 130, a memory 140, and a controller 150.
  • the imaging sensor circuit 110 may receive an image (eg, a continuous frame) corresponding to a motion of a user including a gesture in a recognition range of the imaging sensor.
  • the imaging sensor circuit 110 may be implemented as a camera.
  • the imaging sensor circuit 110 according to an embodiment may capture an image representing a wall surface to be displayed by the display apparatus 200.
  • the communication interface 120 may connect the mobile device 100 to an external device, for example, the display device 200 or the server 300 under the control of the controller 150.
  • the communication interface 120 may include one or a combination of wireless LAN, Bluetooth, and wired Ethernet in response to the performance and structure of the mobile device.
  • the communication interface 120 may specifically include a mobile communication unit and a sub communication unit.
  • the mobile communication unit performs broadband network communication according to various communication standards such as Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evoloution (LTE), and the like.
  • the mobile communication unit can be used for communication with the server 300.
  • the sub communication unit communicates with peripheral devices using short-range communication protocols such as Bluetooth, Bluetooth low energy (BLE), Wi-Fi, Near Field Communication (NFC), infrared communication, and laser beam communication.
  • the sub communication unit may be used for communication with the display apparatus 200.
  • the display 130 displays content received through various sources under control of the controller 150 on the screen.
  • Various sources may include, for example, communication interface 120, memory 140, input / output.
  • the display 130 may be configured as a touch screen and used as an input device in addition to the output device.
  • the memory 140 may store various data, programs, or applications for driving and controlling the mobile device 100 under the control of the controller 150.
  • the memory 140 may include an operating system for controlling the mobile device 100 and the controller, an application initially provided or downloaded from an external device, a graphical user interface (GUI) associated with the application, an object (eg, image text, Icons, buttons, etc.), user information, documents, databases, or related data.
  • GUI graphical user interface
  • the memory 140 includes a memory card (eg, micro SD card, USB memory, not shown) mounted in the ROM, the RAM, or the mobile device 100.
  • a memory card eg, micro SD card, USB memory, not shown mounted in the ROM, the RAM, or the mobile device 100.
  • the memory 140 may include one or more instructions for transmitting a download request of an application for controlling a device in the home to the server 300, and thus receiving and storing the device control application.
  • the device control application may include one or more instructions for controlling the display device 200, in particular one or more instructions used to set a background image of the display device 200.
  • the memory 140 may include one or more instructions for transmitting information about the display apparatus 200 to the mobile device 100 or the server 300.
  • the information about the display apparatus 200 may include size information of the display apparatus 200, specifically, screen size information.
  • the memory 140 may include one or more instructions for generating a marker display event using information about the display apparatus 200 and transmitting the marker display event to the mobile device 100 or the server 300.
  • the marker display event may include location information of one or more markers to be displayed on the screen of the display device according to the screen size of the display device 200.
  • the memory 140 acquires a partial image of a wall on which the display apparatus 200 is installed by using one or more markers displayed on the screen of the display apparatus 200 according to a marker display event, and processes the acquired image to display the screen of the display apparatus 200. It may include one or more instructions for generating a background image to be displayed on, and transmits the background image to the display device 200 or the server 300.
  • the memory 140 generates and transmits an event indicating to display a plurality of markers on the screen of the display device to the display device, and is displayed on the screen of the display device according to the generated event among the images obtained from the camera.
  • an image to extract at least a partial region of the wall around the display device is determined, an area corresponding to the shape obtained based on the recognized plurality of markers is extracted from the determined image, and the extracted region Generating a background image to be displayed on the screen of the display device by correcting the image of the display device, and including one or more instructions for transmitting the generated background image to the display device so that the generated background image can be displayed on the screen of the display device.
  • Correction of the image of the extracted region may be performed by adjusting the length of one or more sides of the image with respect to the image of the extracted region, rotating the image of the extracted region, obtaining a symmetric region of the extracted region, and the like.
  • the controller 150 controls the overall operation of the mobile device 100 and the flow of signals between internal components of the mobile device 100 and performs data processing.
  • the controller 150 may execute an operating system (OS) and various applications stored in the memory 140 when a user input or a preset stored condition is satisfied.
  • OS operating system
  • the processor used in the controller 150 may include a graphic processing unit (not shown) for graphic processing corresponding to video.
  • the processor may be implemented as a system on chip (SoC) integrating a core (not shown) and a GPU (not shown).
  • SoC system on chip
  • the processor may include single core, dual core, triple core, quad core, and multiple cores thereof.
  • the processor may include a plurality of processors.
  • the processor may be implemented as a main processor (not shown) and a sub processor (not shown) that operates in a sleep mode.
  • the controller 150 may execute one or more instructions stored in the memory 140 to transmit a download request of an application for controlling a device in the home to the server 300, and thus receive and store a device control application.
  • the device control application may include one or more instructions for controlling the display device 200, in particular one or more instructions used to set a background image of the display device 200.
  • the controller 150 may transmit information about the display apparatus 200 to the mobile device 100 or the server 300 by executing one or more instructions stored in the memory 140.
  • the information about the display apparatus 200 may include size information of the display apparatus 200, specifically, screen size information.
  • the controller 150 may execute one or more instructions stored in the memory 140 to generate a marker display event using information about the display apparatus 200 and transmit the marker display event to the mobile device 100 or the server 300.
  • the marker display event may include location information of one or more markers to be displayed on the screen of the display device according to the screen size of the display device 200.
  • the controller 150 executes one or more instructions stored in the memory 140 to acquire a partial image of a wall on which the display apparatus 200 is installed by using one or more markers displayed on the screen of the display apparatus 200 according to a marker display event.
  • the acquired image may be processed to generate a background image to be displayed on the screen of the display apparatus 200, and the background image may be transmitted to the display apparatus 200 or the server 300.
  • the controller 150 executes one or more instructions stored in the memory 140 to extract a plurality of markers displayed on the screen of the display apparatus 200 from a acquired image, and to extract a region of a shape corresponding to a polygon obtained from the acquired image.
  • the image may be corrected, and a background image to be displayed on the screen of the display apparatus may be generated using the corrected image. Correction of the image of the extracted region may be performed by adjusting the length of one or more sides of the image with respect to the image of the extracted region, rotating the image of the extracted region, obtaining a symmetric region of the extracted region, and the like.
  • the block diagram of the illustrated mobile device 100 is a block diagram for one embodiment.
  • Each component of the block diagram may be integrated, added, or omitted according to the specifications of the mobile device 100 that is actually implemented. That is, two or more components may be combined into one component as needed, or one component may be divided into two or more components.
  • the function performed in each block is for explaining the embodiments, the specific operation or apparatus does not limit the scope of the present invention.
  • the mobile device 100 may be a mobile phone, a tablet PC, a digital camera, a camcorder, a laptop computer, a tablet PC, an e-book device, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP),
  • PDA personal digital assistant
  • PMP portable multimedia player
  • the electronic device may be implemented as various electronic devices such as a navigation device, an MP3 player, and a wearable device.
  • FIG. 5 illustrates a method of operating a mobile device according to an exemplary embodiment.
  • the mobile device 100 generates an event indicating that one or more markers are displayed on the screen of the display device 200 and transmits the event to the display device 200.
  • the mobile device 100 may determine the location of one or more markers to be displayed on the screen of the display device 200 by referring to the screen size information of the display device 200.
  • the mobile device 100 may receive screen size information of the display device 200 from a user, receive from the display device 200, or receive from the server 300.
  • the mobile device 100 may generate a marker display event including the determined position of the marker and transmit it to the display device 200.
  • the mobile device 100 may directly transmit a marker display event to the display device 200 or may transmit the marker display event to the display device 200 through the server 300.
  • the mobile device 100 may extract at least a partial area of the wall around the display device 200 based on the recognition of the plurality of markers displayed on the screen of the display device according to the generated marker display event among the images acquired using the camera. Determine the image.
  • the mobile device 100 extracts at least some areas of a wall around the display device 200 from a plurality of markers displayed on the screen of the display device and one or more guides displayed on the display of the mobile device, from the image obtained from the camera. You can decide which image to do.
  • the mobile device 100 extracts an area corresponding to the shape obtained based on the plurality of markers displayed on the screen of the display device 200 from the determined image.
  • the mobile device 100 In operation S540, the mobile device 100 generates a background image to be displayed on the screen of the display device by correcting the image of the extracted region.
  • the mobile device 100 may correct the image of the extracted area and generate a background image using the corrected image and the symmetric image of the corrected image.
  • Correction of the image of the extracted region is performed using at least one of adjusting the length of one or more sides (edges) of the image of the extracted region, rotating the image of the extracted region, and obtaining a symmetric region of the extracted region.
  • the mobile device 100 transmits the generated background image to the display device so that the generated background image may be displayed on the screen of the display device.
  • the mobile device 100 may directly transmit the generated background image to the display device 200 or may transmit the generated background image to the display device 200 through the server 300.
  • FIGS. 6 and 7 are flowcharts illustrating operations of a mobile device, a server, and a display device for displaying a background image on a display device using an image of a wall on which a display device is installed, according to an exemplary embodiment.
  • the mobile device 100 downloads and installs a device control application, and in S710, the server 300 transmits the device control application to the mobile device 100.
  • the server transmits the device control application to the mobile device 100, and the mobile device 100 may receive and install the device control application.
  • the device control application may include an application for controlling various devices in the home, for example, a refrigerator, a display device, a washing machine, an audio device, and the like.
  • the mobile device 100 may execute an installed device control application.
  • the mobile device 100 may receive a user input for selecting a background screen setting menu.
  • FIG. 8 illustrates a user interface provided by the mobile device 100 by executing a device control application according to an embodiment.
  • the first user interface 810 of the device control application executed by the mobile device 100 may receive a user input for selecting a device to be controlled.
  • the first user interface 810 may display a display device 811, an audio device 812, a washing machine 813, and a refrigerator 814 as a device to be controlled, and the user may select one of the displayed devices.
  • the mobile device 100 may output the second user interface 820.
  • the second user interface 820 may display menu items related to control of the display device, and one of the items may include a background screen setting item 821.
  • the background screen setting item 821 is a menu item that enables setting so that the display device can display the same image as the image on the wall where the display device is installed while the display device is not operated by a user operation.
  • the mobile device 100 may output the third user interface 830.
  • the third user interface 830 may include an input window 831 for inputting a display device model name.
  • the mobile device 100 may receive a display device model name through the input window 831.
  • the mobile device 100 may request and acquire screen information of the display device.
  • the screen information of the display device includes the size of the display screen of the display device 200.
  • the screen information of the display device may be used to determine the location of one or more markers to be displayed on the screen of the display device.
  • the screen information of the display device may be included in product information of the display device and may be obtained using a model name of the display device.
  • the mobile device 100 may obtain screen information of the display device by using the display device model name received through the third user interface 830.
  • the mobile device 100 may receive screen information of the display device corresponding to the display device model name from the server 300 by transmitting the display device model name to the server 300.
  • the server 300 transmits the display device model name received from the mobile device 100 to the display device 200 and the screen information of the display device corresponding to the display device model name is mobile via the server 300. May be delivered to device 100.
  • the mobile device 100 may store screen information of the display device corresponding to the display device model name, so that the mobile device 100 may acquire the screen information of the display device without requesting the server 300.
  • the mobile device 100 may select an area to be captured from the wall image on which the display device 200 is installed.
  • the mobile device 100 may change to the photo capture mode after acquiring the display screen information.
  • the camera of the mobile device 100 senses an image of the wall on which the display device 200 is installed, including the display device 200, and displays the display of the mobile device 100. May display an image of the wall including the display device 200 as a preview image.
  • the mobile device 100 may display a guideline of an area to be captured on the preview image.
  • the mobile device 100 may receive an input for selecting one region from the user by displaying the guidelines of the plurality of regions to be captured. A method of selecting an area to be captured by the mobile device 100 will be described with reference to FIGS. 9 through 11.
  • FIG 9 illustrates an example of a preview image displayed on a display of the mobile device 100 according to an embodiment.
  • the mobile device 100 obtains an image of a wall surface on which the display device 200 is installed by using a camera and displays it on the display as a preview image 900.
  • the display device 100 may display a guideline for selecting a region to be captured on the displayed preview image 900.
  • a guideline 910 representing a right region A of the display apparatus 200, a guideline 920 representing an upper region B, and a guideline 930 representing a left region C are displayed in the preview image 900.
  • the user can select an image area of the wall to be captured by selecting one of the outlines 910, 920, and 930.
  • the mobile device 100 may variously determine the area of the wall to be captured.
  • the mobile device 100 may internally determine an area of a wall surface to be captured by default.
  • the mobile device 100 may display the area of the wall to be captured as shown in FIG. 9 and allow the user to select it.
  • the mobile device 100 may determine the position of the marker to be displayed on the display device according to the selection of the area of the wall to be captured and transmit an event including the marker position information to the display device.
  • FIG. 10 is a diagram illustrating an area to be captured among peripheral walls of a display apparatus according to an exemplary embodiment.
  • FIG. 10 illustrates an example of capturing a wall image of a right side, an upper side, and a left side of a peripheral wall of the display apparatus 200 in the case of the stand type display apparatus 200 according to an exemplary embodiment.
  • the screen size of the display device 200 is (horizontal X, vertical Y)
  • the size of the left or right region to be captured is determined as (horizontal X / 2, vertical Y)
  • the size of the upper region to be captured is (horizontal X).
  • Areas A, B, and C correspond to half of the screen size of the display apparatus 200, respectively. Therefore, by doubling the size of the captured region, it is possible to generate a background image to be displayed on the screen of the display apparatus 200.
  • 1000B of FIG. 10 illustrates an example of capturing a wall image of a left, right, top, and bottom regions among peripheral walls of the display apparatus 200 in the case of the wall-mounted display apparatus 200 according to an embodiment.
  • FIG. 11 is a reference diagram for explaining a size of a peripheral wall area of a display apparatus to be captured, according to an exemplary embodiment.
  • FIG. 11 illustrates an example of capturing wall images of left, right, top, and bottom regions of the peripheral wall of the display apparatus 200 according to an exemplary embodiment.
  • the screen size of the display device 200 is (horizontal X, vertical Y)
  • the size of the left or right region to be captured is determined as (horizontal X / 3, vertical Y)
  • the size of the upper or lower region to be captured is This can be determined by (horizontal X, vertical Y / 3).
  • Areas A, B, C, and D correspond to 1/3 of the screen size of the display apparatus 200, respectively. Accordingly, the background image to be displayed on the screen of the display apparatus 200 may be generated by doubling the size of the captured region.
  • 1100B of FIG. 11 illustrates an example of capturing wall images of left, right, top, and bottom regions of the peripheral wall of the display apparatus 200 according to an exemplary embodiment.
  • the screen size of the display device 200 is (horizontal X, vertical Y)
  • the size of the left or right region to be captured is determined as (horizontal X / 4, vertical Y)
  • the size of the upper or lower region to be captured is Can be determined by (horizontal X, vertical Y / 4).
  • Areas A, B, C, and D correspond to 1/4 of the screen size of the display apparatus 200, respectively. Therefore, by quadrupling the size of the captured region, it is possible to generate a background image to be displayed on the screen of the display apparatus 200.
  • the mobile device 100 In operation S745, the mobile device 100 generates a marker display event and transmits the marker display event to the server 300 according to the selection of the region to be captured.
  • the server 300 may transmit a marker display event received by the mobile device 100 to the display device 200.
  • the display apparatus 200 may display one or more markers on the display screen according to the marker display event received from the server 300.
  • FIG. 12 is a reference diagram for describing a method of transmitting a marker display event by a mobile device to a display device according to an exemplary embodiment.
  • the mobile device 100 may generate a marker display event 1200 using the display screen information acquired in S725 and the capture area selected in S740.
  • the marker display event is an event that causes the display device 200 to display one or more markers on the display screen.
  • the marker display event may include location information of one or more markers to be displayed on the display screen together with a command to cause the display device 200 to display one or more markers on the display screen.
  • the mobile device 100 may transmit the generated marker display event 1200 to the display device 200 directly or through the server 300.
  • the display apparatus 200 receiving the marker display event 1200 may display one or more markers 1201, 1202, 1203, and 1204 on the display screen according to the marker display position information included in the marker display event.
  • the marker display position information changes according to the capture area selected in S740. As shown in FIG. 12A, if one or more markers are to be captured on the right wall image of the display device 200, one or more markers may be displayed on the right half of the display screen of the display device 200.
  • the markers are displayed in a rectangular shape, but the markers may be displayed in various shapes such as a circle or a triangle.
  • FIG. 13 is a diagram for describing a method of determining a marker display position according to a selected capture area, according to an exemplary embodiment.
  • the mobile device 100 may determine a position to display one or more markers on the right half of the screen of the display device 200 to capture an image of the area A '. Therefore, when the area A is selected, the mobile device 100 may determine the marker display position as (m1, m2, m3, m4). In addition, when the region B is selected, the mobile device 100 may determine the marker display position as (m1, m6, m9, m10) to display a plurality of markers on the upper half of the screen of the display device. In addition, when the area C is selected, the mobile device 100 may determine the marker display position (m5, m6, m7, m8) to display a plurality of markers on the left half of the screen of the display device.
  • the plurality of markers are displayed at a position corresponding to half of the display device screen, but the area to be captured is 1/3 of the entire display device screen. Or 1/4, the positions of the markers also vary accordingly.
  • the mobile device 100 may acquire the surrounding image of the display device according to the recognition of the plurality of markers displayed on the display device 200.
  • the mobile device 100 may determine an image to extract at least a partial area of a wall around the display device based on the recognition of a plurality of markers displayed on the screen of the display device according to a marker event among the images acquired using the camera. have.
  • the user when a marker is displayed on the display device 200, the user views the marker and moves the mobile device 100 such that the markers are positioned on the left half of the screen of the mobile device 100, thereby displaying the display device 200.
  • the mobile device 100 may capture an image according to an image capture command of the user.
  • the imaging sensor of the mobile device 100 recognizes the marker displayed on the display device 200.
  • the mobile device 100 may automatically capture the wall image.
  • the mobile device 100 may recognize the marker by comparing a feature point of a previously stored marker image with a feature point extracted from the marker displayed on the display apparatus 200 using a marker recognition image processing technique through feature point matching.
  • the mobile device 100 may display one or more guides on the preview image displayed on the display screen of the mobile device 100 to more accurately capture the image.
  • the imaging sensor of the mobile device 100 may capture a wall image when one or more markers are recognized. This will be described with reference to FIGS. 14 to 16.
  • FIG. 14 is a reference diagram for explaining an example of displaying one or more guides on a mobile device according to one embodiment.
  • the mobile device 100 may display one or more guides 1401, 1402, 1403, and 1404 on the preview image to assist recognition of the markers 1201, 1202, 1203, and 1204 displayed on the screen of the display device 200.
  • the mobile device 100 may display a marker on the screen of the right half of the display device 200 to capture the right wall image 1210 of the display device 200, and display a guide on the left half of the preview image of the mobile device 100.
  • the user places the guides 1401, 1402, 1403, and 1404 on the preview image on the markers 1201, 1202, 1203, and 1204 displayed on the screen of the display device 200, respectively, in the right half area 1220 of the preview image displayed on the screen of the mobile device 100
  • the right wall image 1210 of the display device 200 may enter. Therefore, in this state, the imaging sensor of the mobile device 100 may acquire the right wall image 1210 by capturing the image as the markers 1201, 1202, 1203, and 1204 are recognized.
  • the mobile device may also display a message 1400 on the preview image, ⁇ Place the guide displayed on the screen on the marker displayed on the display device '' to give the user a help.
  • the number of markers displayed on the screen of the mobile device 100 is four in the example illustrated in FIG. 14, this is only an example, and the number of markers may be one or more.
  • 15 is a reference diagram for explaining an example of displaying one or more guides on a mobile device according to one embodiment.
  • the mobile device 100 may display one or more guides 1511, 1512, 1513, and 1514 on the preview image to assist recognition of the markers 1501, 1502, 1503, and 1504 displayed on the screen of the display device 200.
  • the mobile device 100 may display a marker on the upper half screen of the display device 200 to capture the upper wall image 1510 of the display device 200, and display the guide 1511-1514 on the lower half of the preview image of the mobile device 100.
  • the upper half area 1510 of the preview image displayed on the screen of the mobile device 100 is displayed.
  • An upper wall image 1500 of the display device 200 may enter. Accordingly, in this state, the imaging sensor of the mobile device 100 may acquire the upper wall image 1500 by capturing the image.
  • the mobile device 100 extracts an area corresponding to the shape obtained based on the plurality of markers from the determined image.
  • the shape obtained based on the plurality of markers may include a polygonal shape obtained by connecting the plurality of markers.
  • the mobile device 100 In operation S770, the mobile device 100 generates a background image to be displayed on the screen of the display device by correcting the image of the extracted region.
  • the mobile device 100 transmits the generated background image to the server 300 or the display device 200.
  • the server 300 may transfer it to the display device 200.
  • the display apparatus 200 may display the background image on the screen in a state in which the display apparatus 200 is not in the normal operation state.
  • the mobile device 100 may use the wall image used to generate the background image to create a natural background image that may be more harmonized with the wall as shown in FIG. 16, rather than the immediately adjacent wall image of the display device 200.
  • a wall image may be acquired from an area separated by d from the bezel end of the display apparatus 200.
  • the user may photograph the mobile device at an oblique position instead of photographing the front area from the wall when photographing the peripheral area of the wall where the display apparatus is installed.
  • a background image to be displayed on the display device is generated using the photographed image as described above, a background image that is not in harmony with the wall surface may be generated. Therefore, a method of correcting an image in consideration of such a situation is required.
  • 17 is a reference diagram for describing an example in which image correction of an extracted region is required.
  • the mobile device 100 when a user photographs a wall in front of a wall on which the display device 200 is installed by using the mobile device 100, the mobile device 100 is not tilted straight toward the front of the wall and is tilted in the x-axis to photograph the wall. 1700 may be displayed on the screen of the mobile device 100. Therefore, in this state, the image 1720 captured from the left wall area 1710 of the display apparatus 200 may be distorted. That is, when looking at the image 1720, the thickness w1 of the brick arranged on the right side of the image 1720 and the thickness w2 of the brick arranged on the left side are different.
  • the first image 1730 obtained by symmetrical image 1720 around the right side is arranged on the left side of the background image area
  • the second image 1740 obtained by symmetry around the right side of the first image 1730 is the background image area Arrange on the right side of the to obtain a background image.
  • the thickness of the brick is w1 at the right and left edges of the background image 1750, but the thickness of the brick is w2 in the middle area, so the image is distorted. You can see that it was created.
  • FIG. 18 is a diagram illustrating an example of correcting an area when a captured image is inclined in the negative direction of the X axis.
  • the mobile device 100 when a user photographs a wall in front of a wall on which the display device 200 is installed using the mobile device 100, the mobile device 100 is not tilted straight toward the front of the wall and is tilted in the x-axis to photograph the wall.
  • an image such as 1800 may be displayed.
  • the mobile device 100 may acquire an image 1830 by capturing an area 1820 including a left peripheral area of the display device 200 using markers 1801, 1802, 1803, 1803 and 1804 displayed on the display device 200.
  • the mobile device 100 may extract an area 1840 corresponding to the shape of the polygon 1810 obtained by connecting the markers 1801, 1802, 1803, 1804 from the captured image 1830.
  • the length of the right side of the region 1840 is h2
  • the length of the left side is h1, which is shorter than the length h2 of the right side.
  • the mobile device 100 may obtain the image 1850 from which the distortion is removed by correcting the length h1 of the left side of the extracted region 1840 to be the length h2 of the right side.
  • the mobile device 100 arranges the first image 1860 obtained by symmetry of the corrected image 1850 about the right side, on the left side of the background image area, and the second image obtained by symmetry of the first image 1860 about the right side, By arranging the 1870 in the right part of the background image area, the background image 1880 having the distortion corrected may be generated.
  • FIG. 19 is a reference diagram for describing region correction when the captured image is tilted in the positive direction of the X axis.
  • the mobile device 100 when a user photographs a wall in front of a wall on which the display device 200 is installed by using the mobile device 100, the mobile device 100 is not tilted straight toward the front of the wall and is tilted in the x-axis to photograph the wall.
  • an image such as 1900 may be displayed.
  • the mobile device 100 may acquire an image 1930 by capturing an area 1920 including a right peripheral area of the display device 200 by using markers 1901, 1902, 1902, and 1904 displayed on the display device 200.
  • the mobile device 100 may extract an area 1940 corresponding to the shape of the polygon 1910 obtained by connecting the markers 1901,1902,1903,1904 from the captured image 1930.
  • the length of the left side of the region 1940 is h2
  • the length of the right side is h1, which is shorter than the length of the left side h2, and the image is distorted.
  • the mobile device 100 may obtain the image 1950 from which the distortion is removed by correcting the length h1 of the right side of the extracted region 1940 to be the length h2 of the left side.
  • the mobile device 100 arranges the first image 1960 obtained by symmetry of the corrected image 1950 about the left side, on the right side of the background image area, and the second image obtained by symmetry of the first image 1960 about the left side, respectively.
  • the mobile device 100 arranges 1970 in the left portion of the background image area, it is possible to create a background image 1980 with distortion corrected.
  • FIG. 20 is a reference diagram for explaining correction of an area when a captured image is inclined in a positive direction of the Y axis according to an exemplary embodiment.
  • the mobile device 100 when a user photographs a wall surface in front of a wall on which the display device 200 is installed using the mobile device 100, the mobile device 100 is not tilted straight toward the front of the wall and is tilted in the y axis to photograph the wall.
  • an image such as 2000 may be displayed.
  • the mobile device 100 may acquire an image 2030 by capturing an area 2020 including an upper peripheral area of the display device 200 using the markers 2001, 2002, 2003, 2004 displayed on the display device 200.
  • the mobile device 100 may extract an area 2040 corresponding to the shape of the polygon 2010 obtained by connecting the markers 2001, 2002, 2003, and 2004 from the captured image 2030.
  • the length of the upper side of the region 2040 is w2
  • the length of the lower side is w1
  • the length of the upper side w2 is longer than the length of the lower side
  • the image is distorted. Therefore, the mobile device 100 may obtain the image 2050 from which the distortion is removed by correcting the length w2 of the upper side of the extracted region 2040 to be the same length as the length w1 of the lower side.
  • the mobile device 100 arranges the first image 2060 obtained by symmetry of the corrected image 2050 about the lower side and the upper part of the background image area, and the second image obtained by symmetry of the first image 2060 about the lower side.
  • the mobile device 100 arranges 2070 in the lower portion of the background image area, it is possible to generate a background image 2080 with distortion correction.
  • FIG. 21 is a diagram illustrating an example of correcting an area when a captured image is inclined in the negative direction of the Y-axis, according to an exemplary embodiment.
  • the mobile device 100 when the user photographs the wall in front of the wall where the display device 200 is installed using the mobile device 100, the mobile device 100 is not tilted straight toward the front of the wall and tilted in the y axis to photograph the wall.
  • an image such as 2100 may be displayed.
  • the mobile device 100 may acquire an image 2130 by capturing an area 2120 including an upper peripheral area of the display device 200 by using the markers 2101, 2102, 2103 and 2104 displayed on the display device 200.
  • the mobile device 100 may extract an area 2140 corresponding to the shape of the polygon 2110 obtained by connecting the markers 2101, 2102, 2103, and 2104 from the captured image 2130.
  • the extracted region 2140 has a length w1 of the upper side of the region 2140, a length of the lower side w2, and a length w1 of the upper side shorter than the length w2 of the lower side, and the image is distorted. Therefore, the mobile device 100 may obtain the image 2150 from which the distortion is removed by correcting the length w1 of the upper side of the extracted region 2140 to be the same length as the length w2 of the lower side.
  • the mobile device 100 arranges the first image 2160 obtained by symmetry of the corrected image 2150 about the lower side, on the upper portion of the background image area, and the second image obtained by symmetry of the first image 2160 about the lower side.
  • the background image 2180 having distortion corrected may be generated.
  • FIG. 22 is a diagram for explaining region correction when the captured image is tilted in the positive direction of the z-axis according to an embodiment.
  • the mobile device 100 when a user photographs a wall in front of a wall on which the display device 200 is installed by using the mobile device 100, the mobile device 100 is not tilted straight toward the front of the wall and tilted in the z-axis to photograph the wall.
  • an image such as 2200 may be displayed.
  • the mobile device 100 may acquire an image 2230 by capturing an area 2220 including a left peripheral area of the display device 200 using the markers 2201, 2202, 2203 and 2204 displayed on the display device 200.
  • the mobile device 100 may extract an area 2240 corresponding to the shape of the polygonal 2210 obtained by connecting the markers 2201, 2202, 2203 and 2204 from the captured image 2230. Since the extracted region 2240 is inclined at an angle, the image 2250 may be obtained by rotating by the inclined angle.
  • the mobile device 100 arranges the first image 2260 obtained by symmetry of the corrected image 2250 about the right side, on the left side of the background image area, and the second image obtained by symmetry of the first image 2260 about the right side, By arranging 2270 in the right portion of the background image area, a background image 2280 having distortions corrected may be generated.
  • FIG. 23 is a reference diagram for explaining an application example to a curved display according to an exemplary embodiment.
  • the ends of the curved display may be separated from the wall rather than the center of the display. Because they are far away, they can look awkward and out of sync with the background. Therefore, in the case of a curved display device, intentionally generating and applying a background image having a convex center portion can be seen in harmony with a wall surface at both ends of the curved display.
  • the mobile device 100 may acquire an image 2330 by capturing an area 2320 including a left peripheral area of the display device 200 using the markers 2301, 2302, 2303 and 2304 displayed on the display device 200a.
  • the mobile device 100 may extract an area 2340 corresponding to the symmetry of the shape of the polygon 2310 obtained by connecting the markers 2301, 2302, 2303, and 2304 from the captured image 2330.
  • the length of the right side of the region 2340 is h1
  • the length of the left side is h2, which is shorter than the length h1 of the right side.
  • the mobile device 100 may obtain the image 2350 from which the distortion is removed by correcting the length h2 of the left side of the extracted region 2340 to be the length h1 of the right side.
  • the mobile device 100 arranges the first image 2360 obtained by symmetry of the corrected image 2350 about the right side, on the left side of the background image area, and the second image obtained by symmetry of the first image 2360 about the right side, By arranging the 2370 in the right part of the background image area, the background image 2380 having the distortion corrected may be generated.
  • the final generated background image 2380 in FIG. 23 is displayed as if the center is convex.
  • the curved edges at both sides are farther from the wall than the center of the curved display. Due to the nature of the display, the wall and the background image of the curved display 200a may be displayed as being naturally connected.
  • the user when the user photographs the wall in a state inclined with the wall, the user may need to take a picture again because there is a high possibility of creating an invalid image that cannot be used.
  • the image to be extracted is adjusted and the image is generated using the inclined angle even in the inclined image without re-photographing, it can be used as the background image of the display.
  • the curvature of the curved display may cause the sides of the display to look awkward without being naturally connected to the wall, in which case it creates a background image where the center area is convex.
  • the background image can be displayed more naturally in the curved display.
  • the operating method of the mobile device, the display device, and the server may be implemented in the form of program instructions that may be executed by various computer means and may be recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Magneto-optical media and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

실시예들에 따라 전자 장치 및 그 동작 방법이 개시된다. 일 실시예에 따른 전자 장치는, 카메라, 디스플레이, 통신 인터페이스, 하나 이상의 인스트럭션을 저장하는 메모리, 및 메모리에 저장된 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 디스플레이 장치의 화면에 복수의 마커가 표시되도록 지시하는 이벤트를 발생하여 디스플레이 장치로 전송하고, 카메라로부터 획득되는 이미지 중, 발생된 이벤트에 따라 디스플레이 장치의 화면에 표시된 복수의 마커의 인식을 기반으로, 디스플레이 장치 주변의 벽면의 적어도 일부 영역을 추출할 이미지를 결정하고, 인식된 복수의 마커를 기반으로 얻어지는 형상에 대응하는 영역을 결정된 이미지로부터 추출하고, 추출된 영역의 이미지를 보정함으로써 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하고, 생성된 배경 이미지가 디스플레이 장치의 화면에 표시될 수 있도록 생성된 배경 이미지를 상기 디스플레이 장치로 전송한다.

Description

전자 장치 및 그 동작 방법
다양한 실시예들은 전자 장치 및 그 동작 방법에 관한 것으로, 좀더 구체적으로는, 디스플레이 장치에 벽면의 이미지를 표시할 수 있도록 하는 전자 장치 및 그 동작 방법에 관한 것이다.
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
디지털 방송 기능에 더하여 다양한 컨텐츠를 제공하는 스마트 티브이가 제공되고 있다. 스마트 티브이는 사용자의 선택에 따라 수동적으로 동작하는 것이 아니라, 사용자의 조작 없이도 사용자가 원하는 것을 분석하여 제공하는 것을 목표로 한다.
또한, 최근에는 텔레비전이 설치되는 환경의 인테리어 측면을 강화시키기 위해 벽면에 설치하는 벽걸이 티브이나 또는 액자와 같은 심미감을 주기 위한 액자 티브이와 같은 제품이 제공되고 있다.
다양한 실시예들은, 텔레비전이 설치되는 환경의 심미감을 강화시키기 위해 텔레비전 화면에 벽면 이미지를 표시할 수 있도록 하는 방법 및 장치를 제공하고자 한다.
상기 기술적 과제를 해결하기 위해 전자 장치 및 동작 방법은, 디스플레이 장치의 화면에 복수의 마커가 표시되도록 지시하는 이벤트를 발생하여 상기 디스플레이 장치로 전송하고, 카메라로부터 획득되는 이미지 중, 발생된 이벤트에 따라 디스플레이 장치의 화면에 표시된 복수의 마커의 인식을 기반으로, 디스플레이 장치 주변의 벽면의 적어도 일부 영역을 추출할 이미지를 결정하고, 인식된 복수의 마커를 기반으로 얻어지는 형상에 대응하는 영역을 결정된 이미지로부터 추출하고, 추출된 영역의 이미지를 보정함으로써 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하고, 생성된 배경 이미지가 디스플레이 장치의 화면에 표시될 수 있도록 생성된 배경 이미지를 디스플레이 장치로 전송한다.
실시예들에 따라 디스플레이 장치가 설치되면 벽면의 이미지를 좀더 효과적으로 캡쳐하고 처리하여 디스플레이 장치에 표시될 배경 이미지를 생성함으로써 디스플레이 장치가 설치되는 환경의 심미감을 증대시킬 수 있다.
도 1은 실시예들에 따라 디스플레이 장치에 벽면 이미지를 표시하는 개념을 설명하기 위한 참고도이다.
도 2는 일 실시예에 따라 디스플레이 장치에 벽면 이미지를 표시하는 방법을 설명하기 위한 참고도이다.
도 3은 실시예들에 따라 디스플레이 장치에 벽면의 이미지를 표시하기 위한 시스템의 예들을 설명하기 위한 개략도이다.
도 4는 일 실시예에 따라 모바일 장치 100, 디스플레이 장치 200, 서버 300의 블록도이다.
도 5는 일 실시예에 따른 모바일 장치의 동작 방법을 나타낸다.
도 6은 일 실시예에 따라 디스플레이 장치가 설치된 벽면의 이미지를 이용하여 디스플레이 장치에 배경 이미지를 표시하기 위한 모바일 장치, 서버, 디스플레이 장치의 동작을 나타내는 흐름도이다.
도 7은 일 실시예에 따라 디스플레이 장치가 설치된 벽면의 이미지를 이용하여 디스플레이 장치에 배경 이미지를 표시하기 위한 모바일 장치, 서버, 디스플레이 장치의 동작을 나타내는 흐름도이다.
도 8은 일 실시예에 따라 모바일 장치 100가 디바이스 제어 어플리케이션을 실행하여 제공하는 사용자 인터페이스를 설명한다.
도 9는 일 실시예에 따라 모바일 장치 100의 디스플레이에 표시되는 프리뷰 이미지의 일 예를 도시한다.
도 10은 일 실시예에 따라 디스플레이 장치의 주변 벽면 중 캡쳐할 영역을 나타내는 도면이다.
도 11은 일 실시예에 따라 캡쳐할 디스플레이 장치의 주변 벽면 영역의 사이즈를 설명하기 위한 참고도이다.
도 12는 일 실시예에 따라 모바일 장치가 디스플레이 장치로 마커 표시 이벤트를 전송하는 방법을 설명하기 위한 참고도이다.
도 13을 일 실시예에 따라 선택된 캡쳐 영역에 따라 마커 표시 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 14는 일 실시예에 따라 모바일 장치에 하나 이상의 가이드를 표시하는 예를 설명하기 위한 참고도이다.
도 15는 일 실시예에 따라 모바일 장치에 하나 이상의 가이드를 표시하는 예를 설명하기 위한 참고도이다.
도 16은 일 실시예에 따라 베젤 두께만큼 디스플레이 장치로부터 떨어진 영역을 캡쳐하는 예를 설명하기 위한 참고도이다.
도 17은 추출된 영역의 이미지 보정이 필요한 예를 설명하기 위한 참고도이다.
도 18은 일 실시예에 따라 캡쳐된 이미지가 X 축의 음의 방향으로 기울어졌을 경우 영역의 보정을 설명하기 위한 참고도이다.
도 19는 일 실시예에 따라 캡쳐된 이미지가 X 축의 양의 방향으로 기울어졌을 경우 영역의 보정을 설명하기 위한 참고도이다.
도 20은 일 실시예에 따라 캡쳐된 이미지가 Y축의 양의 방향으로 기울어졌을 경우 영역의 보정을 설명하기 위한 참고도이다.
도 21은 일 실시예에 따라 캡쳐된 이미지가 Y축의 음의 방향으로 기울어졌을 경우 영역의 보정을 설명하기 위한 참고도이다.
도 22는 일 실시예에 따라 캡쳐된 이미지가 z축의 양의 방향으로 기울어졌을 경우 영역의 보정을 설명하기 위한 참고도이다.
도 23은 일 실시예에 따라 커브드 디스플레이에 적용 예를 설명하기 위한 참고도이다.
일 실시예에 따른 전자 장치는, 카메라, 디스플레이, 통신 인터페이스, 하나 이상의 인스트럭션을 저장하는 메모리, 및 메모리에 저장된 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 디스플레이 장치의 화면에 복수의 마커가 표시되도록 지시하는 이벤트를 발생하여 상기 디스플레이 장치로 전송하고, 카메라로부터 획득되는 이미지 중, 발생된 이벤트에 따라 디스플레이 장치의 화면에 표시된 복수의 마커의 인식을 기반으로, 디스플레이 장치 주변의 벽면의 적어도 일부 영역을 추출할 이미지를 결정하고, 인식된 복수의 마커를 기반으로 얻어지는 형상에 대응하는 영역을 결정된 이미지로부터 추출하고, 추출된 영역의 이미지를 보정함으로써 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하고, 생성된 배경 이미지가 디스플레이 장치의 화면에 표시될 수 있도록 생성된 배경 이미지를 디스플레이 장치로 전송한다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 디스플레이 장치의 화면의 사이즈 정보를 획득하고, 획득된 사이즈 정보에 기초하여 디스플레이 장치의 화면에 하나 이상의 마커가 표시될 위치를 결정하고, 결정된 위치에 관한 정보를 포함하는 상기 이벤트를 발생할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 카메라로부터 획득된 이미지에서, 디스플레이 장치의 화면에 표시된 복수의 마커를 인식하는 경우, 인식된 복수의 마커가 존재하는 이미지를 배경 이미지를 추출할 이미지로 결정할 수 있다.
일 실시예에 따라 디스플레이 장치가 설치된 벽면의 적어도 일부 영역은, 디스플레이 장치에 인접한 벽면의 좌측 영역, 우측 영역, 상측 영역, 하측 영역 중 적어도 하나를 포함할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 추출된 영역의 이미지에 대해서, 이미지의 하나 이상의 변의 길이의 조정, 추출된 영역의 이미지의 회전, 추출된 영역의 이미지의 대칭 중 적어도 하나를 수행함으로써 추출된 이미지의 영역을 보정할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 추출된 영역의 이미지를 보정한 이미지 및 보정 이미지의 대칭 이미지를 결합하여 배경 이미지를 생성할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 결정된 이미지가 디스플레이 장치에 인접한 벽면의 좌측 영역 또는 우측 영역으로부터 획득된 이미지 일 때, 획득된 이미지의 좌측 방향 또는 우측 방향으로 대칭시킴으로써 대칭 이미지를 획득하고, 결정된 이미지가 디스플레이 장치에 인접한 벽면의 상측 영역 또는 하측 영역으로부터 획득된 이미지 일 때, 획득된 이미지의 상측 방향 또는 하측 방향으로 대칭시킴으로써 대칭 이미지를 획득할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 이벤트 및 배경 이미지를 서버를 통해서 디스플레이 장치로 전송할 수 있다.
일 실시예에 따라, 인식된 복수의 마커를 기반으로 얻어지는 형상은 인식된 복수의 마커를 연결하여 얻어지는 다각형 모양을 포함할 수 있다.
일 실시예에 따라 전자 장치의 동작 방법은, 디스플레이 장치의 화면에 복수의 마커가 표시되도록 지시하는 이벤트를 발생하여 상기 디스플레이 장치로 전송하는 동작, 카메라로부터 획득되는 이미지 중, 발생된 이벤트에 따라 디스플레이 장치의 화면에 표시된 상기 복수의 마커의 인식을 기반으로, 디스플레이 장치 주변의 벽면의 적어도 일부 영역을 추출할 이미지를 결정하는 동작, 인식된 복수의 마커를 기반으로 얻어지는 형상에 대응하는 영역을 결정된 이미지로부터 추출하는 동작, 추출된 영역의 이미지를 보정함으로써 상기 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하는 동작, 및 생성된 배경 이미지가 디스플레이 장치의 화면에 표시될 수 있도록 생성된 배경 이미지를 디스플레이 장치로 전송하는 동작을 포함한다.
일 실시예에 따라 디스플레이 장치의 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 개시된다.
도 1은 실시예들에 따라 디스플레이 장치에 벽면의 이미지를 표시하는 개념을 설명하기 위한 참고도이다.
도 1을 참조하면, 벽면 10에 디스플레이 장치 200가 설치되어 있다. 실시예에 따른 디스플레이 장치 200는, 사용자의 입력에 따라 컨텐츠를 표시하는 디스플레이 장치 200의 일반적인 동작 모드 이외의 상태에서, 벽면 10의 일부의 이미지 11를 표시할 수 있다. 사용자가 디스플레이 장치 200를 조작하여 사용하지 않는 상태에서, 디스플레이 장치 200가 벽면 10의 일부의 이미지 11를 표시함으로써 디스플레이 장치 200가 설치된 환경의 심미감을 증대시킬 수 있다. 또한, 디스플레이 장치 200의 베젤 201을 더욱 슬림하게 하거나 또는 베젤 201을 사람의 눈에 인식되지 않는 색상으로 구현함으로써, 디스플레이 장치 200가 동작하지 않는 동안 마치 벽면 11에 디스플레이 장치 200가 존재하지 않는 것과 같은 경험을 사용자에게 제공할 수 있다. 이와 같은 효과를 제공하는 티브이는 글래스 티브이 (Glass TV)로 언급될 수 있다.
이와 같이 디스플레이 장치 200가 벽면의 이미지 11를 표시할 때 실제 벽면 10과 디스플레이 장치 200에 표시된 벽면의 이미지 11가 자연스럽게 이어지도록 표현이 될수록 사용자에게 디스플레이 장치 200가 벽면인 것처럼 실감이 나도록 경험하게 할 수 있다. 디스플레이 장치 200가 벽면 10에 설치된 이후에는 디스플레이 장치 200에 의해 가려진 벽면 10의 부분을 확인하기 어려우므로, 디스플레이 장치 200가 벽면 10에 설치된 상태에서 디스플레이 장치 200에 의해 표시되는 벽면의 이미지 11를 될 수 있는 한 디스플레이 장치 200의 주변 영역과 자연스럽게 이어질 수 있도록 표현하는 것이 중요하다.
도 2는 일 실시예에 따라 디스플레이 장치에 벽면 이미지를 표시하는 방법을 설명하기 위한 참고도이다.
도 2를 참조하면, 벽면 10에 설치된 디스플레이 장치 200는 하나 이상의 마커 21를 표시할 수 있다.
모바일 장치 100는 모바일 장치 100의 디스플레이에 하나 이상의 가이드를 표시할 수 있다. 모바일 장치 100는 하나 이상의 가이드 23 및 디스플레이 장치 200에 표시된 하나 이상의 마커 21를 이용하여 벽면 10의 이미지를 캡쳐할 수 있다. 예를 들어, 사용자가 모바일 장치 100를 움직여서 모바일 장치 100의 가이드 23가 디스플레이 장치 200에 표시된 마커 21에 위치되는 경우 모바일 장치 100는 벽면의 이미지를 캡쳐할 수 있다. 가이드 23가 마커 21에 위치되는 경우, 모바일 장치 100는 모바일 장치 100가 캡쳐하는 영역의 오른쪽 부분 24에 디스플레이 장치 200의 오른쪽 주변 영역 22의 이미지가 들어오게 되므로, 모바일 장치 100는 벽면 10의 일부 영역 22를 캡쳐할 수 있다. 영역 22는 디스플레이 장치 200의 오른쪽 주변 영역이므로, 모바일 장치 100는 캡쳐한 영역 22의 이미지를 이용하여 적절한 처리를 함으로써 디스플레이 장치 200에 표시될 벽면 이미지 즉, 배경 이미지를 생성할 수 있다. 또한 영역 22는 디스플레이 장치 200에 바로 인접한 영역이므로, 이 영역 22의 이미지를 이용하여 디스플레이 장치 200에 표시될 배경 이미지를 생성하면 디스플레이 장치 200의 주변 영역과 보다 자연스럽게 이어지는 듯한 이미지를 생성할 수 있다.
도 2에서 캡쳐하는 디스플레이 장치 200의 우측 영역 22는 일 예를 나타내는 것이고, 캡쳐하는 영역은 디스플레이 장치 200의 좌측 영역, 상측 영역, 하측 영역 어느 위치라도 될 수 있다.
또한, 벽면 이미지가 비스듬하게 촬영되어 캡쳐된 이미지에 왜곡이 있는 경우 모바일 장치 100는 디스플레이 장치 200에서 검출되는 마커를 이어서 얻어지는 다각형의 모양을 이용하여 캡쳐된 이미지에서 영역을 추출하고 보정할 수 있다.
도 3은 실시예들에 따라 디스플레이 장치에 벽면의 이미지를 표시하기 위한 시스템의 예들을 설명하기 위한 개략도이다.
도 3의 (a)를 참조하면, 일 실시예에 따라 시스템은 모바일 장치 100, 디스플레이 장치 200, 서버 300을 포함할 수 있다. 모바일 장치 100, 디스플레이 장치 200, 서버 300은 서로 통신 네트워크 30를 통해 통신할 수 있다. 통신 네트워크 30은 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따른 광대역 네트워크 망을 포함할 수 있다.
모바일 장치 100는 서버 300 를 통해 디스플레이 장치 200로부터 또는 서버 300로부터 디스플레이 장치 200에 대한 정보, 구체적으로는 화면 사이즈 정보를 수신하여 이를 기초로 마커 표시 이벤트를 생성할 수 있다.
마커 표시 이벤트는 서버 300를 통해 디스플레이 장치 200로 전달되고, 디스플레이 장치 200는 마커 표시 이벤트를 수신하면 이에 기초하여 화면에 하나 이상의 마커를 표시할 수 있다. 마커는 디스플레이 장치 200의 화면상의 다양한 위치에 표시될 수 있다.
모바일 장치 100는 디스플레이 장치 200에 표시된 마커를 이용하여 디스플레이 장치 200 주변의 벽면의 이미지를 획득할 수 있다. 모바일 장치 100는 디스플레이 장치 200의 화면에 표시된 마커의 위치에 따라 디스플레이 장치 200의 주변의 영역의 이미지를 획득할 수 있다. 예를 들어 마커가 디스플레이 장치 200의 왼쪽 반 화면에 표시되는 경우 모바일 장치 100는 디스플레이 장치 200의 좌측 인접 영역의 이미지를 획득할 수 있다.
모바일 장치 100는 획득된 원래 이미지와 원래 이미지를 대칭시킨 대칭 이미지를 이용하여 디스플레이 장치 200에 표시될 배경 이미지를 생성하고, 생성된 배경 이미지를 서버 300를 통해 디스플레이 장치 200로 전송할 수 있다.
디스플레이 장치 200는 서버 300를 통해 배경 이미지를 수신하면, 배경 이미지를 화면에 표시할 수 있다.
도 3의 (b)를 참조하면, 일 실시예에 따라 시스템은 모바일 장치 100와 디스플레이 장치 200 를 포함할 수 있다. 모바일 장치 100와 디스플레이 장치 200은 서로 근거리 통신 방법 등을 통해 통신할 수 있다. 근거리 통신 방법은 블루투스, BLE (bluetooth low energy), 와이파이, 와이파이 다이렉트, NFC(Near Field Communication), 적외선 통신, 레이저 빔 통신 등 근거리 통신 프로토콜 등을 이용할 수 있다.
서버를 통하지 않기 때문에 모바일 장치 100는 디스플레이 장치 200로부터 직접 디스플레이 장치 200의 화면 정보를 수신하고 이에 따라 생성된 마커 표시 이벤트를 디스플레이 장치 200로 직접 전달할 수 있다.
디스플레이 장치 200는 마커 표시 이벤트에 따라 화면에 하나 이상의 마커를 표시하고, 모바일 장치 100는 디스플레이 장치 200의 화면에 표시된 마커를 이용하여 디스플레이 장치 200의 주변 벽면 이미지를 획득하고, 획득된 이미지를 이용하여 배경 이미지를 생성하고, 생성된 배경 이미지를 디스플레이 장치 200으로 전송할 수 있다.
디스플레이 장치 200는 배경 이미지를 수신하고 이를 화면에 표시할 수 있다.
도 4는 일 실시예에 따라 모바일 장치 100, 디스플레이 장치 200, 서버 300의 블록도이다.
디스플레이 장치 200는 다양한 소오스를 통해 수신되는 컨텐츠 데이터를 처리하여 영상을 표시할 수 있다. 디스플레이 장치 200는 RF 안테나를 이용하여 방송국으로부터 RF 신호를 수신할 수 있다. 디스플레이 장치 200는 인터넷 프로토콜 기반으로 통신 네트워크를 통하여 컨텐츠 제공 서버가 제공하는 컨텐츠를 수신할 수 있다. 디스플레이 장치 200는 다양한 포트나 HDMI를 통해 디스플레이 장치 200에 연결되는 외부 장치로부터 컨텐츠를 수신할 수 있다. 외부 장치는 예를 들어, 셋탑박스, 게임 장치, BD 플레이어, PC, USB 등을 포함할 수 있다. 그 외에도 디스플레이장치 200는 통신 가능하게 접속된 모바일 장치로부터 컨텐츠를 수신할 수 있으며, 자체적으로 내장되거나 또는 로컬 접속된 메모리로부터 컨텐츠 데이터를 취득할 수도 있다.
디스플레이 장치 200는 디스플레이 210, 통신 인터페이스 220, 감지부 230, 제어부 240를 포함할 수 있다.
디스플레이 210는 제어부 240의 제어에 의해 다양한 소오스를 통해 수신되는 컨텐츠를 화면에 표시한다. 다양한 소오스는 예를 들어, 통신 인터페이스 220, 메모리 250, 입/출력부를 포함할 수 있다. 디스플레이 210는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등으로 구현될 수 있으며, 또한, 3차원 디스플레이(3D display)로 구현될 수 있다. 또한, 디스플레이 210는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
통신 인터페이스 220는 제어부 240의 제어에 의해 디스플레이 장치 200를 외부 장치, 예를 들어, 모바일 장치 100 이나 서버 300과 연결할 수 있다. 통신 인터페이스 220는 디스플레이 장치의 성능 및 구조에 대응하여 무선 랜, 블루투스, 및 유선 이더넷 중 하나 또는 그 조합을 포함할 수 있다. 통신 인터페이스 220는 블루투스 외에 다른 근거리 통신, 예를 들어, NFC(near field communication,), BLE (bluetooth low energy)를 더 포함할 수 있다.
감지부 230는 사용자의 음성, 사용자의 영상 또는 사용자의 인터랙션을 감지하며, 사용자의 발화(utterance)된 음성을 수신하는 마이크, 카메라 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 영상을 수신할 수 있는 카메라부 및 사용자 입력에 따라 외부의 원격 제어 장치로부터 수신되는 광 신호(제어 신호를 포함)를 수신하는 광 수신부를 포함할 수 있다. 감지부 230은 광 수신부를 통해 원격 제어 장치로부터의 명령 또는 제어 신호를 감지하고, 감지된 명령 또는 제어 신호를 제어부 240로 전송한다. 원격 제어 장치는 리모트 콘트롤러 또는 휴대폰과 같이 디스플레이 장치200를 제어하기 위한 다양한 형태의 장치로 구현될 수 있다.
메모리 250는 제어부 240의 제어에 의해 디스플레이 장치 200를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리 250는 디스플레이 장치 200 및 제어부의 제어를 위한 오퍼레이팅 시스템, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
메모리 250는, 롬, 램 또는 디스플레이 장치 200에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함한다. 또한, 메모리 200는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
특히 일 실시예에 따라 메모리 250는 모바일 장치 100 또는 서버 300의 요청에 따라 디스플레이 장치 200에 관한 정보를 전송하는 하나 이상의 인스트럭션을 포함할 수 있다. 디스플레이 장치 200에 관한 정보는 디스플레이 장치 200의 사이즈 정보, 구체적으로 화면 사이즈 정보를 포함할 수 있다.
일 실시예에 따라 메모리 250는 모바일 장치 100 또는 서버 300로부터 마커 표시 이벤트를 수신하고, 이 마커 표시 이벤트에 따라 하나 이상의 마커를 디스플레이에 표시하는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따라 메모리 250는 모바일 장치 100 또는 서버 300로부터 배경 이미지를 수신하고, 이 배경 이미지를 디스플레이에 표시하는 하나 이상의 인스트럭션을 포함할 수 있다. 배경 이미지는 디스플레이 장치 200가 설치된 벽면의 주변 영역을 이용하여 생성된 이미지를 포함할 수 있다.
제어부 240는 디스플레이 장치 200의 전반적인 동작 및 디스플레이 장치 200의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부 240는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 메모리 250에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다.
제어부 240에 이용되는 프로세서는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 프로세서는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서는 메인 프로세서(main processor, 도시되지 아니함) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 도시되지 아니함)로 구현될 수 있다.
일 실시예에 따른 제어부 240은 메모리 250에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 또는 서버 300의 요청에 따라 디스플레이 장치 200에 관한 정보를 전송할 수 있다.
일 실시예에 따른 제어부 240은 메모리 250에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 또는 서버 300로부터 마커 표시 이벤트를 수신하고, 이 마커 표시 이벤트에 따라 하나 이상의 마커를 디스플레이에 표시할 수 있다.
일 실시예에 따른 제어부 240은 메모리 250에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 또는 서버 300로부터 배경 이미지를 수신하고, 이 배경 이미지를 디스플레이에 표시할 수 있다.
디스플레이 장치 200는 제어부 240의 제어에 의해 디스플레이 장치 200의 외부에서부터 비디오(예를 들어, 동영상 등), 오디오(예를 들어, 음성, 음악 등) 및 부가 정보(예를 들어, EPG 등) 등을 수신하는 입/출력부를 더 포함할 수 있다. 입/출력부는 HDMI 포트 (High-Definition MultimediaInterface port), 컴포넌트 잭 (component jack), PC 포트, 및 USB 포트 중 하나 또는 그 조합을 포함할 수 있다. 일 실시예에 따른 디스플레이 장치200는 TV일 수 있으나, 이는 일 실시예에 불과하며, 디스플레이를 포함하는 전자 장치로 구현될 수 있다. 예를 들어, 디스플레이 장치200는 데스크탑, 디지털 방송용 단말기 등과 같은 다양한 전자 장치로 구현될 수 있다. 디스플레이 장치200는 평면(flat) 디스플레이 장치 뿐만 아니라, 곡률을 가지는 화면인 곡면(curved) 디스플레이 장치 또는 곡률을 조정 가능한 가변형(flexible) 디스플레이 장치로 구현될 수 있다.
또한, 디스플레이 장치 200는 튜너부를 가지는 별도의 외부 장치(예를 들어, 셋탑 박스, 도시되지 아니함)와 전기적으로 연결될 수 있다. 예를 들어, 디스플레이 장치 200는 아날로그 TV, 디지털 TV, 3D-TV, 스마트 TV, LED TV, OLED TV, 플라즈마 TV, 모니터 등으로 구현될 수 있으나, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
한편, 도시된 디스플레이 장치 200의 블록도는 일 실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 디스플레이 장치 200의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
서버 300는 사용자(클라이언트)의 요청에 의하여 서비스를 제공하는 서버 프로그램이 실행되고 있는 컴퓨팅 장치이다.
서버 300는 통신 인터페이스 310과 제어부 320를 포함할 수 있다.
통신 인터페이스 310는 제어부320의 제어에 의해 서버 300를 외부 장치, 예를 들어, 모바일 장치 100 이나 디스플레이 장치 200과 연결할 수 있다. 통신 인터페이스 220는 디스플레이 장치의 성능 및 구조에 대응하여 무선 랜, 블루투스, 및 유선 이더넷 중 하나 또는 그 조합을 포함할 수 있다.
메모리 330는 제어부 320의 제어에 의해 서버 300를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리 330는 서버 300 및 제어부의 제어를 위한 오퍼레이팅 시스템, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
메모리 330는, 롬, 램 또는 서버 300에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함한다. 또한, 메모리 330는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
특히 일 실시예에 따라 메모리 330는 모바일 장치 100 의 요청에 따라 가정내의 하나 이상의 디바이스를 제어하기 위한 어플리케이션을 모바일 장치 100로 전송하는 하나 이상의 인스트럭션을 포함할 수 있다. 디바이스 제어 어플리케이션은 디스플레이 장치 200를 제어하는데 이용될 수 있으며, 특히, 디스플레이 장치 200의 배경 이미지를 설정하는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따라 메모리 330는 모바일 장치 100 의 요청에 따라 디스플레이 장치 200에 관한 정보를 전송하는 하나 이상의 인스트럭션을 포함할 수 있다. 디스플레이 장치 200에 관한 정보는 디스플레이 장치 200의 사이즈 정보, 구체적으로 화면 사이즈 정보를 포함할 수 있다.
일 실시예에 따라 메모리 330는 모바일 장치 100 로부터 마커 표시 이벤트를 수신하고, 이 마커 표시 이벤트를 디스플레이 장치 200로 전달하는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따라 메모리 330는 모바일 장치 100 로부터 배경 이미지를 수신하고, 이 배경 이미지를 디스플레이 장치 200로 전달하는 하나 이상의 인스트럭션을 포함할 수 있다. 배경 이미지는 디스플레이 장치 200가 설치된 벽면의 주변 영역을 이용하여 생성된 이미지를 포함할 수 있다.
제어부 320는 서버 300의 전반적인 동작 및 서버 300의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부 320는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 메모리 250에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다.
제어부 320에 이용되는 프로세서는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 프로세서는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서는 메인 프로세서(main processor, 도시되지 아니함) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 도시되지 아니함)로 구현될 수 있다.
일 실시예에 따른 제어부 320은 메모리 330에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 의 요청에 따라 가정내의 하나 이상의 디바이스를 제어하기 위한 어플리케이션을 모바일 장치 100로 전송할 수 있다. 디바이스 제어 어플리케이션은 디스플레이 장치 200를 제어하는데 이용될 수 있으며, 특히, 디스플레이 장치 200의 배경 이미지를 설정하는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따른 제어부 320은 메모리 330에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 의 요청에 따라 디스플레이 장치 200에 관한 정보를 전송할 수 있다. 디스플레이 장치 200에 관한 정보는 디스플레이 장치 200의 사이즈 정보, 구체적으로 화면 사이즈 정보를 포함할 수 있다.
일 실시예에 따른 제어부 320은 메모리 330에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 로부터 마커 표시 이벤트를 수신하고, 이 마커 표시 이벤트를 디스플레이 장치 200로 전달할 수 있다.
일 실시예에 따른 제어부 320은 메모리 330에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 로부터 배경 이미지를 수신하고, 이 배경 이미지를 디스플레이 장치 200로 전달할 수 있다. 배경 이미지는 디스플레이 장치 200가 설치된 벽면의 주변 영역을 이용하여 생성된 이미지를 포함할 수 있다.
모바일 장치 100는 디스플레이 장치 200가 설치된 벽면의 이미지를 캡쳐하고 캡쳐된 이미지를 기초로 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성한 다음 이를 서버 300를 통해 디스플레이 장치 200으로 전송할 수 있다
모바일 장치 100는 이미징 센서 회로 110, 통신 인터페이스 120, 디스플레이 130, 메모리 140, 제어부 150를 포함할 수 있다.
이미징 센서 회로 110는 이미징 센서의 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 영상(예를 들어, 연속되는 프레임)을 수신할 수 있다. 이미징 센서 회로 110는 카메라로 구현될 수 있다. 일 실시예에 따른 이미징 센서 회로 110는, 디스플레이 장치 200에 의 해 표시될 벽면을 나타내는 이미지를 촬상할 수 있다.
통신 인터페이스 120는 제어부150의 제어에 의해 모바일 장치 100를 외부 장치, 예를 들어, 디스플레이 장치 200이나 서버 300과 연결할 수 있다. 통신 인터페이스 120는 모바일 장치의 성능 및 구조에 대응하여 무선 랜, 블루투스, 및 유선 이더넷 중 하나 또는 그 조합을 포함할 수 있다. 통신 인터페이스 120는 구체적으로 이동통신부와 서브통신부를 포함할 수 있다.
이동 통신부는 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 광대역 네트워크 통신을 수행한다. 이동 통신부는 서버 300와의 통신에 이용될 수 있다.
서브 통신부는 블루투스, BLE (bluetooth low energy), 와이파이, NFC(Near Field Communication), 적외선 통신, 레이저 빔 통신 등 근거리 통신 프로토콜을 이용하여 주변 기기와 통신을 수행한다. 서브 통신부는 디스플레이 장치 200과의 통신에 이용될 수 있다.
디스플레이130는 제어부150의 제어에 의해 다양한 소오스를 통해 수신되는 컨텐츠를 화면에 표시한다. 다양한 소오스는 예를 들어, 통신 인터페이스 120, 메모리 140, 입/출력부를 포함할 수 있다. 또한, 디스플레이130는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
메모리 140는 제어부 150의 제어에 의해 모바일 장치 100를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리 140는 모바일 장치 100 및 제어부의 제어를 위한 오퍼레이팅 시스템, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
메모리 140는, 롬, 램 또는 모바일 장치 100에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함한다.
특히 일 실시예에 따라 메모리 140는 서버 300로 가정내 디바이스를 제어하기 위한 어플리케이션의 다운로드 요청을 전송하고, 이에 따라 디바이스 제어 어플리케이션을 수신하여 저장하는 하나 이상의 인스트럭션을 포함할 수 있다. 디바이스 제어 어플리케이션은 디스플레이 장치 200의 제어를 위한 하나 이상의 인스트럭션, 특히 디스플레이 장치 200의 배경 이미지를 설정하는데 이용되는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따라 메모리 140는 모바일 장치 100 또는 서버 300로 디스플레이 장치 200에 관한 정보를 전송하는 하나 이상의 인스트럭션을 포함할 수 있다. 디스플레이 장치 200에 관한 정보는 디스플레이 장치 200의 사이즈 정보, 구체적으로 화면 사이즈 정보를 포함할 수 있다.
일 실시예에 따라 메모리 140는 디스플레이 장치 200에 관한 정보를 이용하여 마커 표시 이벤트를 생성하고, 이 마커 표시 이벤트를 모바일 장치 100 또는 서버 300로 전송하는 하나 이상의 인스트럭션을 포함할 수 있다. 마커 표시 이벤트는 디스플레이 장치 200의 화면 사이즈에 따라 디스플레이 장치의 화면에 표시될 하나 이상의 마커의 위치 정보를 포함할 수 있다.
일 실시예에 따라 메모리 140는 마커 표시 이벤트에 따라 디스플레이 장치 200의 화면에 표시된 하나 이상의 마커를 이용하여 디스플레이 장치 200가 설치된 벽면의 일부 이미지를 획득하고, 획득된 이미지를 프로세싱하여 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성하고, 이 배경 이미지를 디스플레이 장치 200나 서버 300로 전송하는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따라 메모리 140는 디스플레이 장치의 화면에 복수의 마커가 표시되도록 지시하는 이벤트를 발생하여 디스플레이 장치로 전송하고, 카메라로부터 획득되는 이미지 중, 발생된 이벤트에 따라 상기 디스플레이 장치의 화면에 표시된 복수의 마커의 인식을 기반으로, 디스플레이 장치 주변의 벽면의 적어도 일부 영역을 추출할 이미지를 결정하고, 인식된 복수의 마커를 기반으로 얻어지는 형상에 대응하는 영역을 결정된 이미지로부터 추출하고, 추출된 영역의 이미지를 보정함으로써 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하고, 생성된 배경 이미지가 디스플레이 장치의 화면에 표시될 수 있도록 생성된 배경 이미지를 상기 디스플레이 장치로 전송하는하나 이상의 인스트럭션을 포함할 수 있다. 추출된 영역의 이미지의 보정은, 추출된 영역의 이미지에 대해서 이미지의 하나 이상의 변의 길이의 조정, 추출된 영역의 이미지의 회전, 추출된 영역의 대칭 영역 획득 등에 의해 수행될 수 있다.
제어부 150는 모바일 장치 100의 전반적인 동작 및 모바일 장치 100의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부 150는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 메모리 140에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다.
제어부 150에 이용되는 프로세서는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 프로세서는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서는 메인 프로세서(main processor, 도시되지 아니함) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 도시되지 아니함)로 구현될 수 있다.
일 실시예에 따른 제어부 150은 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 서버 300로 가정내 디바이스를 제어하기 위한 어플리케이션의 다운로드 요청을 전송하고, 이에 따라 디바이스 제어 어플리케이션을 수신하여 저장할 수 있다. 디바이스 제어 어플리케이션은 디스플레이 장치 200의 제어를 위한 하나 이상의 인스트럭션, 특히 디스플레이 장치 200의 배경 이미지를 설정하는데 이용되는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따른 제어부 150은 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 또는 서버 300로 디스플레이 장치 200에 관한 정보를 전송할 수 있다. 디스플레이 장치 200에 관한 정보는 디스플레이 장치 200의 사이즈 정보, 구체적으로 화면 사이즈 정보를 포함할 수 있다.
일 실시예에 따른 제어부 150은 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 디스플레이 장치 200에 관한 정보를 이용하여 마커 표시 이벤트를 생성하고, 이 마커 표시 이벤트를 모바일 장치 100 또는 서버 300로 전송할 수 있다. 마커 표시 이벤트는 디스플레이 장치 200의 화면 사이즈에 따라 디스플레이 장치의 화면에 표시될 하나 이상의 마커의 위치 정보를 포함할 수 있다.
일 실시예에 따른 제어부 150은 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 마커 표시 이벤트에 따라 디스플레이 장치 200의 화면에 표시된 하나 이상의 마커를 이용하여 디스플레이 장치 200가 설치된 벽면의 일부 이미지를 획득하고, 획득된 이미지를 프로세싱하여 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성하고, 이 배경 이미지를 디스플레이 장치 200나 서버 300로 전송할 수 있다.
일 실시예에 따른 제어부 150은 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 디스플레이 장치 200의 화면에 표시된 복수의 마커를 이어서 얻어지는 다각형에 대응하는 모양의 영역을 획득된 이미지로부터 추출하고, 획득된 영역의 이미지를 보정하고, 보정된 이미지를 이용하여 디스플레이 장치의 화면에 표시될 배경 이미지를 생성할 수 있다. 추출된 영역의 이미지의 보정은, 추출된 영역의 이미지에 대해서 이미지의 하나 이상의 변의 길이의 조정, 추출된 영역의 이미지의 회전, 추출된 영역의 대칭 영역 획득 등에 의해 수행될 수 있다.
한편, 도시된 모바일 장치 100의 블록도는 일 실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 모바일 장치 100의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
일 실시예에 따른 모바일 장치 100는 휴대폰, 태블릿 PC, 디지털 카메라, 캠코더, 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자책 단말기, 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable MultimediaPlayer), 네비게이션, MP3 플레이어, 착용형 기기(wearable device) 등과 같은 다양한 전자 장치로 구현될 수 있다.
도 5는 일 실시예에 따른 모바일 장치의 동작 방법을 나타낸다.
도 5를 참조하면, S510에서, 모바일 장치 100는 디스플레이 장치 200의 화면에 하나 이상의 마커가 표시되도록 지시하는 이벤트를 발생하여 디스플레이 장치 200로 전송한다.
일 실시예에 따라 모바일 장치 100는 디스플레이 장치 200의 화면 사이즈 정보를 참조하여 디스플레이 장치 200의 화면에 표시될 하나 이상의 마커의 위치를 결정할 수 있다.
일 실시예에 따라 모바일 장치 100는 디스플레이 장치 200의 화면 사이즈 정보를 사용자로부터 입력받거나, 디스플레이 장치 200로부터 수신하거나 또는 서버 300로부터 수신할 수 있다.
일 실시예에 따라 모바일 장치 100는 결정된 마커의 위치를 포함하는 마커 표시 이벤트를 발생하고 이를 디스플레이 장치 200로 전송할 수 있다.
일 실시예에 따라 모바일 장치 100는 마커 표시 이벤트를 디스플레이 장치 200로 직접 전송하거나 또는 서버 300를 통해서 디스플레이 장치 200로 전송할 수 있다.
S520에서, 모바일 장치 100는, 카메라를 이용하여 획득되는 이미지 중, 발생된 마커 표시 이벤트에 따라 디스플레이 장치의 화면에 표시된 복수의 마커의 인식을 기반으로 디스플레이 장치 200 주변의 벽면의 적어도 일부 영역을 추출한 이미지를 결정한다.
일 실시예에 따라 모바일 장치 100는 카메라로부터 획득되는 이미지중에서, 디스플레이 장치의 화면에 표시된 복수의 마커 및 모바일 장치의 디스플레이에 표시된 하나 이상의 가이드를 이용하여 디스플레이 장치 200 주변의 벽면의 적어도 일부 영역을 추출할 이미지를 결정할 수 있다.
S530에서, 모바일 장치 100는, 디스플레이 장치 200의 화면에 표시된 복수의 마커를 기반으로 얻어지는 형상에 대응하는 영역을 결정된 이미지로부터 추출한다.
S540에서, 모바일 장치 100는 추출된 영역의 이미지를 보정함으로써 디스플레이 장치의 화면에 표시될 배경 이미지를 생성한다.
일 실시예에 따라 모바일 장치 100는 추출된 영역의 이미지를 보정하고, 보정된 이미지 및 보정된 이미지의 대칭 이미지를 이용하여 배경 이미지를 생성할 수 있다.
추출된 영역의 이미지의 보정은, 추출된 영역의 이미지의 하나 이상의 변(엣지)의 길이의 조정, 상기 추출된 영역의 이미지의 회전, 상기 추출된 영역의 대칭 영역 획득 중 적어도 하나를 이용하여 수행될 수 있다.
S550에서, 모바일 장치 100는, 생성된 배경 이미지가 디스플레이 장치의 화면에 표시될 수 있도록 생성된 배경 이미지를 디스플레이 장치로 전송한다.
일 실시예에 따라 모바일 장치 100는, 생성된 배경 이미지를 디스플레이 장치 200로 직접 전송하거나 또는 서버 300를 통해서 디스플레이 장치 200로 전송할 수 있다.
도 6 및 도 7은 일 실시예에 따라 디스플레이 장치가 설치된 벽면의 이미지를 이용하여 디스플레이 장치에 배경 이미지를 표시하기 위한 모바일 장치, 서버, 디스플레이 장치의 동작을 나타내는 흐름도이다.
도 6을 참조하면, S705에서, 모바일 장치 100는 디바이스 제어 어플리케이션을 다운로드하여 설치하고 S710에서 서버 300는 디바이스 제어 어플리케이션을 모바일 장치 100으로 전송한다.
모바일 장치 100는 디바이스 제어 어플리케이션을 서버 300에 다운로드 요청하면 서버는 디바이스 제어 어플리케이션을 모바일 장치 100로 전송하고, 모바일 장치 100는 디바이스 제어 어플리케이션을 수신하여 설치할 수 있다. 디바이스 제어 어플리케이션은 가정 내 다양한 디바이스들, 예를 들어, 냉장고, 디스플레이 장치, 세탁기, 오디오 장치 등을 제어하기 위한 어플리케이션을 포함할 수 있다.
S715에서, 모바일 장치 100는 설치된 디바이스 제어 어플리케이션을 실행할 수 있다.
S720에서, 모바일 장치 100는 배경 화면 설정 메뉴를 선택하는 사용자 입력을 수신할 수 있다.
도 8은 일 실시예에 따라 모바일 장치 100가 디바이스 제어 어플리케이션을 실행하여 제공하는 사용자 인터페이스를 설명한다.
도 8을 참조하면, 모바일 장치 100에 의해 실행된 디바이스 제어 어플리케이션의 제1 사용자 인터페이스 810는 제어할 기기를 선택하는 사용자 입력을 수신할 수 있다. 제1사용자 인터페이스 810는 제어할 기기로서 디스플레이 장치 811, 오디오 장치 812, 세탁기 813, 냉장고 814 를 표시할 수 있고, 사용자는 표시된 기기 중 하나를 선택할 수 있다.
사용자에 의해 디스플레이 장치 811이 선택된 경우 모바일 장치 100는 제2사용자 인터페이스 820를 출력할 수 있다. 제2사용자 인터페이스 820는 디스플레이 장치의 제어와 관련된 메뉴 아이템들을 표시할 수 있고, 아이템들 중 하나는 배경 화면 설정 아이템 821을 포함할 수 있다. 배경 화면 설정 아이템 821은 디스플레이 장치가 사용자 조작에 의해 동작하지 않는 동안 디스플레이 장치가 설치된 벽면의 이미지와 동일한 이미지를 표시할 수 있도록 설정을 가능하게 하는 메뉴 아이템이다.
사용자에 의해 배경화면 설정 아이템 821이 선택된 경우 모바일 장치 100는 제3 사용자 인터페이스 830을 출력할 수 있다. 제3사용자 인터페이스 830는 디스플레이 장치 모델명을 입력할 수 있는 입력창 831을 포함할 수 있다. 모바일 장치 100는 입력창 831을 통해서 디스플레이 장치 모델명을 입력받을 수 있다.
다시 S725에서, 모바일 장치 100는 디스플레이 장치의 화면 정보를 요청하고 획득할 수 있다. 디스플레이 장치의 화면 정보는 디스플레이 장치 200의 디스플레이 화면의 사이즈를 포함한다. 디스플레이 장치의 화면 정보는 디스플레이 장치의 화면에 표시할 하나 이상의 마커의 위치를 결정하는데 이용될 수 있다. 디스플레이 장치의 화면 정보는 디스플레이 장치의 제품 정보에 포함될 수 있으며, 디스플레이 장치의 모델 명을 이용하여 획득될 수 있다.
모바일 장치 100는 제3 사용자 인터페이스 830를 통해서 입력받은 디스플레이 장치 모델 명을 이용하여 디스플레이 장치의 화면 정보를 획득할 수 있다.
S730에서, 일 실시예에 따라 모바일 장치 100는 서버 300으로 디스플레이 장치 모델 명을 전송함으로써 서버 300로부터 디스플레이 장치 모델 명에 대응하는 디스플레이 장치의 화면 정보를 수신할 수 있다.
S735에서, 다른 실시예에 따라 서버 300는 모바일 장치 100로부터 수신한 디스플레이 장치 모델 명을 디스플레이 장치 200로 전송하고 디스플레이 장치 200가 디스플레이 장치 모델 명에 대응하는 디스플레이 장치의 화면 정보를 서버 300를 통해 모바일 장치 100로 전달될 수 있다.
또 다른 예에 따라서 모바일 장치 100는 디스플레이 장치 모델 명에 대응하는 디스플레이 장치의 화면 정보를 저장하고 있어서, 서버 300로의 요청 없이 디스플레이 장치의 화면 정보를 획득할 수도 있다.
S740에서, 모바일 장치 100는 디스플레이 장치 200가 설치된 벽면 이미지 중 캡쳐할 영역을 선택할 수 있다. 모바일 장치 100는 디스플레이 화면 정보를 획득하고 나서 사진 촬영 모드로 변경될 수 있다.
사용자가 디스플레이 장치 200가 설치된 벽면의 이미지를 획득할 수 있도록 모바일 장치 100를 위치시키면, 모바일 장치 100의 카메라는 디스플레이 장치 200를 포함하여 디스플레이 장치 200가 설치된 벽면의 이미지를 센싱하고 모바일 장치 100의 디스플레이는 디스플레이 장치 200를 포함하는 벽면의 이미지를 프리뷰 이미지로서 표시할 수 있다. 또한 모바일 장치 100는 프리뷰 이미지상에 캡쳐할 영역의 가이드라인을 표시할 수 있다. 또한 모바일 장치 100는 복수개의 캡쳐할 영역의 가이드라인을 표시함으로써 사용자로부터 하나의 영역을 선택하는 입력을 수신할 수 있다. 모바일 장치 100가 캡쳐할 영역을 선택하는 방법을 도 9 내지 도 11을 참조하여 설명한다.
도 9는 일 실시예에 따라 모바일 장치 100의 디스플레이에 표시되는 프리뷰 이미지의 일 예를 도시한다.
도 9를 참조하면, 모바일 장치 100는 카메라를 이용하여 디스플레이 장치 200가 설치된 벽면의 이미지를 획득하고, 이를 프리뷰 이미지 900로서 디스플레이에 표시한다. 또한 디스플레이 장치 100는 표시된 프리뷰 이미지 900 상에 캡쳐할 영역의 선택을 위한 가이드라인을 표시할 수 있다. 도 9에서는 디스플레이 장치 200의 우측 영역 A를 나타내는 가이드라인 910, 상측 영역 B를 나타내는 가이드라인 920, 좌측 영역 C를 나타내는 가이드라인 930이 프리뷰 이미지 900에 표시되어 있다. 사용자는 아웃라인 910, 920, 930 중 하나를 선택함으로써 캡쳐할 벽면의 이미지 영역을 선택할 수 있다.
모바일 장치 100는 캡쳐할 벽면의 영역을 다양하게 결정할 수 있다.
일 실시예에 따라 모바일 장치 100는 캡쳐할 벽면의 영역을 내부적으로 디폴트로 결정할 수 있다.
일 실시예에 따라 모바일 장치 100는 캡쳐할 벽면의 영역을 도 9에 도시된 바와 같이 디스플레이하고 사용자로 하여금 선택하게 할 수 있다. 모바일 장치 100는 캡쳐할 벽면의 영역의 선택에 따라 디스플레이 장치에 표시될 마커의 위치를 결정하고 이 마커 위치 정보를 포함하는 이벤트를 디스플레이 장치에 전송할 수 있다.
도 10은 일 실시예에 따라 디스플레이 장치의 주변 벽면 중 캡쳐할 영역을 나타내는 도면이다.
도 10의 1000A는 일 실시예에 따라 스탠드형 디스플레이 장치 200인 경우에 디스플레이 장치 200의 주변 벽면중 우측, 상측, 좌측 영역의 벽면 이미지를 캡쳐하는 예를 나타낸다. 디스플레이 장치 200의 화면 사이즈가 (가로 X, 세로 Y) 일 때, 캡쳐할 좌측 영역이나 우측 영역의 사이즈는 (가로 X/2, 세로 Y )로 결정하고, 캡쳐할 상측 영역의 사이즈는 (가로 X, 세로 Y/2)로 결정할 수 있다. A 영역, B 영역, C 영역 모두 각각 디스플레이 장치 200의 화면 사이즈의 절반에 해당한다. 따라서 캡쳐된 영역의 사이즈를 2배로 만듦으로써 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성할 수 있다.
도 10의 1000B는 일 실시예에 따라 벽걸이 형 디스플레이 장치 200인 경우에 디스플레이 장치 200의 주변 벽면중 좌측, 우측, 상측, 하측 영역의 벽면 이미지를 캡쳐하는 예를 나타낸다.
도 11은 일 실시예에 따라 캡쳐할 디스플레이 장치의 주변 벽면 영역의 사이즈를 설명하기 위한 참고도이다.
도 11의 1100A는 일 실시예에 따라 디스플레이 장치 200의 주변 벽면중 좌측, 우측, 상측, 하측 영역의 벽면 이미지를 캡쳐하는 예를 나타낸다. 디스플레이 장치 200의 화면 사이즈가 (가로 X, 세로 Y) 일 때, 캡쳐할 좌측 영역이나 우측 영역의 사이즈는 (가로 X/3, 세로 Y )로 결정하고, 캡쳐할 상측 영역이나 하측 영역의 사이즈는 (가로 X, 세로 Y/3)로 결정할 수 있다. A 영역, B 영역, C 영역, D 영역 모두 각각 디스플레이 장치 200의 화면 사이즈의 1/3에 해당한다. 따라서 캡쳐된 영역의 사이즈를 3배로 만듦으로써 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성할 수 있다.
도 11의 1100B는 일 실시예에 따라 디스플레이 장치 200의 주변 벽면중 좌측, 우측, 상측, 하측 영역의 벽면 이미지를 캡쳐하는 예를 나타낸다. 디스플레이 장치 200의 화면 사이즈가 (가로 X, 세로 Y) 일 때, 캡쳐할 좌측 영역이나 우측 영역의 사이즈는 (가로 X/4, 세로 Y )로 결정하고, 캡쳐할 상측 영역이나 하측 영역의 사이즈는 (가로 X, 세로 Y/4)로 결정할 수 있다. A 영역, B 영역, C 영역, D 영역 모두 각각 디스플레이 장치 200의 화면 사이즈의 1/4에 해당한다. 따라서 캡쳐된 영역의 사이즈를 4배로 만듦으로써 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성할 수 있다.
S745에서, 캡쳐할 영역의 선택에 따라 모바일 장치 100는 마커 표시 이벤트를 생성하여 서버 300으로 전송한다. S750에서, 서버 300는 모바일 장치 100로 수신한 마커 표시 이벤트를 디스플레이 장치 200로 전송할 수 있다. S755에서, 디스플레이 장치 200는 서버 300로부터 수신한 마커 표시 이벤트에 따라 디스플레이 화면에 하나 이상의 마커를 표시할 수 있다.
S745, S750, S755의 구체적인 동작을 도 12 내지 13을 참조하여 설명한다.
도 12는 일 실시예에 따라 모바일 장치가 디스플레이 장치로 마커 표시 이벤트를 전송하는 방법을 설명하기 위한 참고도이다.
도 12를 참조하면 모바일 장치 100는 S725에서 획득한 디스플레이 화면 정보 및 S740에서 선택된 캡쳐 영역을 이용하여 마커 표시 이벤트 1200를 생성할 수 있다. 마커 표시 이벤트는 디스플레이 장치 200로 하여금 디스플레이 화면에 하나 이상의 마커를 표시하게 하는 이벤트이다. 마커 표시 이벤트는 디스플레이 장치 200로 하여금 디스플레이 화면에 하나 이상의 마커를 표시하게 하도록 하는 커맨드와 함께 디스플레이 화면에 표시될 하나 이상의 마커의 위치 정보를 포함할 수 있다. 모바일 장치 100는 생성한 마커 표시 이벤트 1200를 직접 또는 서버 300를 통해서 디스플레이 장치 200로 전달할 수 있다. 마커 표시 이벤트 1200를 수신한 디스플레이 장치 200는 마커 표시 이벤트에 포함된 마커 표시 위치 정보에 따라 디스플레이 화면에 하나 이상의 마커 1201, 1202, 1203, 1204를 표시할 수 있다. S740에서 선택된 캡쳐 영역에 따라 마커 표시 위치 정보가 달라진다. 도 12A에 도시된 바와 같이, 디스플레이 장치 200의 우측 벽면 이미지를 캡쳐하고자 하면 하나 이상의 마커는 디스플레이 장치 200의 디스플레이 화면의 오른쪽 절반에 표시될 수 있다.
도 12에 도시된 예에서 마커들은 사각형 모양으로 표시되었지만, 마커는 원형이나 삼각형 등 다양한 모양으로 표시될 수 있다.
도 13을 일 실시예에 따라 선택된 캡쳐 영역에 따라 마커 표시 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 13을 참조하면, 모바일 장치 100에서 캡쳐할 영역으로 영역 A가 선택된 경우, 대응되는 벽면의 영역은 영역 A'이다. 모바일 장치 100는 영역 A'의 이미지를 캡쳐하기 위해 하나 이상의 마커를 디스플레이 장치 200의 화면의 오른쪽 절반에 표시하도록 위치를 결정할 수 있다. 따라서, 영역 A가 선택된 경우, 모바일 장치 100는 마커 표시 위치를 (m1, m2, m3, m4)로 결정할 수 있다. 또한 영역 B가 선택된 경우, 모바일 장치 100는 복수의 마커를 디스플레이 장치의 화면의 상측 절반에 표시하도록 마커 표시 위치를 (m1, m6, m9, m10)로 결정할 수 있다. 또한 영역 C가 선택된 경우, 모바일 장치 100는 복수의 마커를 디스플레이 장치의 화면의 좌측 절반에 표시하도록 마커 표시 위치를 (m5, m6, m7, m8)로 결정할 수 있다.
도 13에 도시된 예에서는 캡쳐할 영역을 전체 디스플레이 장치 화면의 절반으로 결정했기 때문에 복수의 마커들이 디스플레이 장치 화면의 절반에 대응하는 위치에 표시되지만, 캡쳐할 영역이 전체 디스플레이 장치 화면의 1/3 또는 1/4 인 경우, 마커들의 위치도 그에 따라 달라진다.
다시 도 7의 S760으로 돌아와서, 모바일 장치 100는 디스플레이 장치 200에 표시된 복수의 마커 인식에 따라 디스플레이 장치의 주변 이미지를 획득할 수 있다. 구체적으로, 모바일 장치 100는 카메라를 이용하여 획득되는 이미지 중에서, 마커 이벤트에 따라 디스플레이 장치의 화면에 표시된 복수의 마커 인식을 기반으로, 디스플레이 장치 주변의 벽면의 적어도 일부 영역을 추출할 이미지를 결정할 수 있다.
일 실시예에 따라 도 12에 도시된 바와 같이 디스플레이 장치 200에 마커가 표시되면 사용자는 이 마커를 보고 이 마커들이 모바일 장치 100의 화면의 왼쪽 절반에 위치하도록 모바일 장치 100를 이동시켜, 디스플레이 장치 200의 우측 영역 1210이 모바일 장치 100의 프리뷰 이미지상에서 오른쪽 절반에 위치되면 사용자의 이미지 캡쳐 명령에 따라 모바일 장치 100는 이미지를 캡쳐할 수 있다.
다른 실시예에 따라 사용자가 디스플레이 장치 200의 마커를 보고 이 마커들이 모바일 장치 100의 화면의 왼쪽 절반에 위치하도록 모바일 장치 100를 이동시키면, 모바일 장치 100의 이미징 센서가 디스플레이 장치 200에 표시된 마커를 인식하고, 인식이 완료되면 모바일 장치 100는 벽면 이미지를 자동으로 캡쳐할 수 있다. 모바일 장치 100는 특징점 매칭을 통한 마커 인식 영상 처리 기술을 이용하여 기 저장된 마커 이미지의 특징점과 디스플레이 장치 200에 표시된 마커에서 추출한 특징점을 비교함으로써 마커를 인식할 수 있다.
또 다른 실시예에 따라 모바일 장치 100는 이미지 캡쳐를 좀더 정확하게 할 수 있도록 모바일 장치 100의 디스플레이 화면에 표시되는 프리뷰 이미지 상에 하나 이상의 가이드를 표시할 수 있다. 사용자가 이러한 프리뷰 이미지 상의 가이드가 디스플레이 장치 200의 디스플레이 화면에 표시된 하나 이상의 마커에 위치되도록 모바일 장치 100를 움직이면 모바일 장치 100의 이미징 센서는 하나 이상의 마커를 인식한 경우 벽면 이미지를 캡쳐할 수 있다. 이에 대해서 도 14 내지 도 16을 참조하여 설명한다.
도 14는 일 실시예에 따라 모바일 장치에 하나 이상의 가이드를 표시하는 예를 설명하기 위한 참고도이다.
도 14를 참조하면, 모바일 장치 100는 디스플레이 장치 200의 화면에 표시된 마커 1201, 1202,1203,1204의 인식을 돕기 위해 프리뷰 이미지 상에 하나 이상의 가이드 1401, 1402, 1403, 1404를 표시할 수 있다. 모바일 장치 100가 디스플레이 장치 200의 우측 벽면 이미지 1210를 캡쳐하기 위해 디스플레이 장치 200의 우측 절반 화면에 마커를 표시하고, 모바일 장치 100의 프리뷰 이미지상의 좌측 절반에 가이드를 표시할 수 있다. 사용자가 프리뷰 이미지 상의 가이드 1401,1402,1403,1404 각각을 디스플레이 장치 200의 화면에 표시된 마커 1201,1202,1203,1204 각각에 위치시키면 모바일 장치 100의 화면에 표시되는 프리뷰 이미지의 우측 절반 영역 1220에는 디스플레이 장치 200의 우측 벽면 이미지 1210가 들어올 수 있다. 따라서 이 상태에서 모바일 장치 100의 이미징 센서가 마커 1201,1202,1203,1204를 인식함에 따라 이미지를 캡쳐함으로써 우측 벽면 이미지 1210를 획득할 수 있다.
또한 사용자에게 도움말을 주기 위해 모바일 장치는 <화면에 나타난 가이드를 디스플레이 장치에 표시된 마커에 위치시키세요> 라는 메시지 1400를 프리뷰 이미지 상에 표시할 수 있다.
또한, 도 14에 도시된 예에서는 모바일 장치 100의 화면에 표시되는 마커의 수가 4개 이지만, 이는 일 예에 불과하고, 마커의 수는 한 개 이상 일 수 있다.
도 15는 일 실시예에 따라 모바일 장치에 하나 이상의 가이드를 표시하는 예를 설명하기 위한 참고도이다.
도 15를 참조하면, 모바일 장치 100는 디스플레이 장치 200의 화면에 표시된 마커 1501, 1502,1503,1504의 인식을 돕기 위해 프리뷰 이미지 상에 하나 이상의 가이드 1511, 1512, 1513, 1514를 표시할 수 있다. 모바일 장치 100가 디스플레이 장치 200의 상측 벽면 이미지 1510를 캡쳐하기 위해 디스플레이 장치 200의 상측 절반 화면에 마커를 표시하고, 모바일 장치 100의 프리뷰 이미지상의 하측 절반에 가이드 1511-1514를 표시할 수 있다. 사용자가 프리뷰 이미지 상의 가이드 1511, 1512, 1513, 1514 각각을 디스플레이 장치 200의 화면에 표시된 마커 1501, 1502,1503,1504 각각에 위치시키면 모바일 장치 100의 화면에 표시되는 프리뷰 이미지의 상측 절반 영역 1510에는 디스플레이 장치 200의 상측 벽면 이미지 1500가 들어올 수 있다. 따라서 이 상태에서 모바일 장치 100의 이미징 센서가 이미지를 캡쳐함으로써 상측 벽면 이미지 1500를 획득할 수 있다.
다시 S765에서, 모바일 장치 100는 복수의 마커를 기반으로 얻어지는 형상에 대응하는 영역을 결정된 이미지로부터 추출한다. 복수의 마커를 기반으로 얻어지는 형상은 복수의 마커를 연결하여 얻어지는 다각형 모양을 포함할 수 있다.
S770에서, 모바일 장치 100는 추출된 영역의 이미지를 보정함으로써 디스플레이 장치의 화면에 표시될 배경 이미지를 생성한다.
S775에서, 모바일 장치 100는 생성된 배경 이미지를 서버 300 또는 디스플레이 장치 200로 전송한다.
S780에서, 서버 300는 모바일 장치 100로부터 배경 이미지를 수신하면 이를 디스플레이 장치 200로 전달할 수 있다.
S785에서, 디스플레이 장치 200는 서버 300로부터 배경 이미지를 수신하면, 디스플레이 장치 200의 노말 동작 상태가 아닌 상태에서, 배경 이미지를 화면에 표시할 수 있다.
S765와 S770의 구체적인 동작을 도 16 내지 도 23을 참조하여 설명한다.
일 실시예에 따라 모바일 장치 100는 좀더 벽면과 조화될 수 있는 자연스러운 배경 이미지를 생성하기 위해 배경 이미지의 생성에 이용되는 벽면 이미지는 디스플레이 장치 200의 바로 인접한 벽면 이미지가 아니라 도 16에 도시된 바와 같이 디스플레이 장치 200의 베젤 두께 d를 고려하여 디스플레이 장치 200의 베젤 끝으로부터 d 만큼 떨어진 영역으로부터 벽면 이미지를 획득할 수 있다.
한편, 사용자는 디스플레이 장치가 설치된 벽면의 주변 영역 촬영시에 벽면으로부터 정면에서 촬영하는 것이 아니라 모바일 장치를 비스듬하게 위치시켜 촬영할 수 있다. 이와 같이 촬영된 이미지로 디스플레이 장치에 표시할 배경 이미지를 생성하는 경우 벽면과 조화롭지 못한 배경 이미지가 생성될 수 있다. 따라서, 이러한 상황을 고려하여 이미지를 보정하는 방법이 요구된다.
도 17은 추출된 영역의 이미지 보정이 필요한 예를 설명하기 위한 참고도이다.
도 17을 참조하면, 사용자가 모바일 장치 100를 이용하여 디스플레이 장치 200가 설치된 벽 앞에서 벽면을 촬영할 때 모바일 장치 100를 벽면의 정면을 향하여 똑바르게 위치시키지 않고 x 축으로 기울어지게 위치시켜 벽면을 촬영하면, 1700와 같은 이미지가 모바일 장치 100의 화면에 표시될 수 있다. 따라서 이와 같은 상태에서 디스플레이 장치 200의 좌측 벽면 영역 1710으로부터 캡쳐되는 이미지 1720 는 왜곡될 수 있다. 즉, 이미지 1720을 보면, 이미지 1720의 우측 변에 배열된 벽돌의 두께 w1와 좌측 변에 배열된 벽돌의 두께 w2가 다르다. 이와 같은 이미지 1720를 우측 변을 중심으로 대칭시켜 얻은 제1이미지 1730을 배경 이미지 영역의 좌측 부분에 배열하고, 이 제1이미지 1730의 우측 변을 중심으로 대칭시켜 얻은 제2이미지 1740을 배경 이미지 영역의 우측 부분에 배열하여 배경 이미지를 얻을 수 있다. 그러나 애초에 캡쳐된 이미지 1720가 왜곡되었기 때문에, 최종 생성된 배경 이미지 1750을 보면, 배경 이미지 1750의 우측 에지와 좌측 에지에서 벽돌의 두께는 w1 이지만, 가운데 영역에서 벽돌의 두께는 w2 로 되므로 이미지가 왜곡되어 생성되었음을 알 수 있다.
따라서, 이하 도 18 내지 도 23을 참조하여 다양한 상황에서 왜곡된 이미지를 보정하여 배경 이미지를 생성하는 방법을 설명한다.
도 18은 일 실시예에 따라 캡쳐된 이미지가 X 축의 음의 방향으로 기울어졌을 경우 영역의 보정을 설명하기 위한 참고도이다.
도 18을 참조하면, 사용자가 모바일 장치 100를 이용하여 디스플레이 장치 200가 설치된 벽 앞에서 벽면을 촬영할 때 모바일 장치 100를 벽면의 정면을 향하여 똑바르게 위치시키지 않고 x 축으로 기울어지게 위치시켜 벽면을 촬영하면, 모바일 장치 100의 카메라를 통해 볼 때 1800와 같은 이미지가 보여질 수 있다.
모바일 장치 100는 디스플레이 장치 200에 표시된 마커 1801,1802,1803,1804를 이용하여 디스플레이 장치 200의 좌측 주변 영역을 포함한 영역 1820을 캡쳐하여 이미지 1830을 획득할 수 있다. 이때 모바일 장치 100는 마커 1801,1802,1803,1804를 연결해서 얻어지는 다각형 1810의 모양에 대응하는 영역 1840을 캡쳐된 이미지 1830으로부터 추출할 수 있다. 추출된 영역 1840은 영역 1840의 우측 변의 길이가 h2이고, 좌측 변의 길이가 h1으로서 우측 변의 길이 h2보다 짧아서 이미지가 왜곡되어 있다. 따라서 모바일 장치 100는 추출된 영역 1840의 좌측 변의 길이 h1을 우측 변의 길이 h2가 되도록 늘리는 보정을 함으로써 왜곡이 제거된 이미지 1850을 얻을 수 있다.
다음, 모바일 장치 100는 보정된 이미지 1850을 우측 변을 중심으로 대칭시켜 얻은 제1이미지 1860을 배경 이미지 영역의 좌측 부분에 배열시키고, 제1이미지 1860을 우측 변을 중심으로 대칭시켜 얻은 제2이미지 1870을 배경 이미지 영역의 우측 부분에 배열시킴으로써 왜곡이 보정된 배경 이미지 1880을 생성할 수 있다.
도 19는 일 실시예에 따라 캡쳐된 이미지가 X 축의 양의 방향으로 기울어졌을 경우 영역의 보정을 설명하기 위한 참고도이다.
도 19를 참조하면, 사용자가 모바일 장치 100를 이용하여 디스플레이 장치 200가 설치된 벽 앞에서 벽면을 촬영할 때 모바일 장치 100를 벽면의 정면을 향하여 똑바르게 위치시키지 않고 x 축으로 기울어지게 위치시켜 벽면을 촬영하면, 모바일 장치 100의 카메라를 통해 볼 때 1900와 같은 이미지가 보여질 수 있다.
모바일 장치 100는 디스플레이 장치 200에 표시된 마커 1901,1902,1903,1904를 이용하여 디스플레이 장치 200의 우측 주변 영역을 포함하는 영역 1920을 캡쳐하여 이미지 1930을 획득할 수 있다. 이때 모바일 장치 100는 마커 1901,1902,1903,1904를 연결해서 얻어지는 다각형 1910의 모양에 대응하는 영역 1940을 캡쳐된 이미지 1930으로부터 추출할 수 있다. 추출된 영역 1940은 영역 1940의 좌측 변의 길이가 h2이고, 우측 변의 길이가 h1로 좌측 변의 길이 h2보다 짧아서 이미지가 왜곡되어 있다. 따라서 모바일 장치 100는 추출된 영역 1940의 우측 변의 길이 h1을 좌측 변의 길이 h2가 되도록 늘리는 보정을 함으로써 왜곡이 제거된 이미지 1950을 얻을 수 있다.
다음, 모바일 장치 100는 보정된 이미지 1950을 좌측 변을 중심으로 대칭시켜 얻은 제1이미지 1960을 배경 이미지 영역의 우측 부분에 배열시키고, 제1이미지 1960을 좌측 변을 중심으로 대칭시켜 얻은 제2이미지 1970을 배경 이미지 영역의 좌측 부분에 배열시킴으로써 왜곡이 보정된 배경 이미지 1980을 생성할 수 있다.
도 20은 일 실시예에 따라 캡쳐된 이미지가 Y축의 양의 방향으로 기울어졌을 경우 영역의 보정을 설명하기 위한 참고도이다.
도 20을 참조하면, 사용자가 모바일 장치 100를 이용하여 디스플레이 장치 200가 설치된 벽 앞에서 벽면을 촬영할 때 모바일 장치 100를 벽면의 정면을 향하여 똑바르게 위치시키지 않고 y 축으로 기울어지게 위치시켜 벽면을 촬영하면, 모바일 장치 100의 카메라를 통해 볼 때 2000와 같은 이미지가 보여질 수 있다.
모바일 장치 100는 디스플레이 장치 200에 표시된 마커 2001,2002,2003,2004를 이용하여 디스플레이 장치 200의 상측 주변 영역을 포함한 영역 2020을 캡쳐하여 이미지 2030을 획득할 수 있다. 이때 모바일 장치 100는 마커 2001,2002,2003,2004를 연결해서 얻어지는 다각형 2010의 모양에 대응하는 영역 2040을 캡쳐된 이미지 2030으로부터 추출할 수 있다. 추출된 영역 2040은 영역 2040의 상측 변의 길이가 w2이고, 하측 변의 길이가 w1로, 상측 변의 길이 w2가 하측 변의 길이 w1보다 길어서 이미지가 왜곡되어 있다. 따라서 모바일 장치 100는 추출된 영역 2040의 상측 변의 길이 w2를 하측 변의 길이 w1와 동일한 길이가 되도록 줄이는 보정을 함으로써 왜곡이 제거된 이미지 2050을 얻을 수 있다.
다음, 모바일 장치 100는 보정된 이미지 2050을 하측 변을 중심으로 대칭시켜 얻은 제1이미지 2060을 배경 이미지 영역의 상측 부분에 배열시키고, 제1이미지 2060을 하측 변을 중심으로 대칭시켜 얻은 제2이미지 2070을 배경 이미지 영역의 하측 부분에 배열시킴으로써 왜곡이 보정된 배경 이미지 2080을 생성할 수 있다.
도 21은 일 실시예에 따라 캡쳐된 이미지가 Y축의 음의 방향으로 기울어졌을 경우 영역의 보정을 설명하기 위한 참고도이다.
도 21을 참조하면, 사용자가 모바일 장치 100를 이용하여 디스플레이 장치 200가 설치된 벽 앞에서 벽면을 촬영할 때 모바일 장치 100를 벽면의 정면을 향하여 똑바르게 위치시키지 않고 y 축으로 기울어지게 위치시켜 벽면을 촬영하면, 모바일 장치 100의 카메라를 통해 볼 때 2100와 같은 이미지가 보여질 수 있다.
모바일 장치 100는 디스플레이 장치 200에 표시된 마커 2101,2102,2103,2104를 이용하여 디스플레이 장치 200의 상측 주변 영역을 포함하는 영역 2120을 캡쳐하여 이미지 2130을 획득할 수 있다. 이때 모바일 장치 100는 마커 2101,2102,2103,2104를 연결해서 얻어지는 다각형 2110의 모양에 대응하는 영역 2140을 캡쳐된 이미지 2130으로부터 추출할 수 있다. 추출된 영역 2140은 영역 2140의 상측 변의 길이가 w1이고, 하측 변의 길이가 w2로, 상측 변의 길이 w1가 하측 변의 길이 w2보다 짧아서 이미지가 왜곡되어 있다. 따라서 모바일 장치 100는 추출된 영역 2140의 상측 변의 길이 w1를 하측 변의 길이 w2와 동일한 길이가 되도록 늘리는 보정을 함으로써 왜곡이 제거된 이미지 2150을 얻을 수 있다.
다음, 모바일 장치 100는 보정된 이미지 2150을 하측 변을 중심으로 대칭시켜 얻은 제1이미지 2160을 배경 이미지 영역의 상측 부분에 배열시키고, 제1이미지 2160을 하측 변을 중심으로 대칭시켜 얻은 제2이미지 2170을 배경 이미지 영역의 하측 부분에 배열시킴으로써 왜곡이 보정된 배경 이미지 2180을 생성할 수 있다.
도 22는 일 실시예에 따라 캡쳐된 이미지가 z축의 양의 방향으로 기울어졌을 경우 영역의 보정을 설명하기 위한 참고도이다.
도 22를 참조하면, 사용자가 모바일 장치 100를 이용하여 디스플레이 장치 200가 설치된 벽 앞에서 벽면을 촬영할 때 모바일 장치 100를 벽면의 정면을 향하여 똑바르게 위치시키지 않고 z 축으로 기울어지게 위치시켜 벽면을 촬영하면, 모바일 장치 100의 카메라를 통해 볼 때 2200와 같은 이미지가 보여질 수 있다.
모바일 장치 100는 디스플레이 장치 200에 표시된 마커 2201,2202,2203,2204를 이용하여 디스플레이 장치 200의 좌측 주변 영역을 포함하는 영역 2220을 캡쳐하여 이미지 2230을 획득할 수 있다. 이때 모바일 장치 100는 마커 2201,2202,2203,2204를 연결해서 얻어지는 다각형 2210의 모양에 대응하는 영역 2240을 캡쳐된 이미지 2230으로부터 추출할 수 있다. 추출된 영역 2240은 각도가 기울어져 있으므로 기울어진 각도만큼 회전시킴으로써 이미지 2250을 얻을 수 있다.
다음, 모바일 장치 100는 보정된 이미지 2250을 우측 변을 중심으로 대칭시켜 얻은 제1이미지 2260을 배경 이미지 영역의 좌측 부분에 배열시키고, 제1이미지 2260을 우측 변을 중심으로 대칭시켜 얻은 제2이미지 2270을 배경 이미지 영역의 우측 부분에 배열시킴으로써 왜곡이 보정된 배경 이미지 2280을 생성할 수 있다.
도 23은 일 실시예에 따라 커브드 디스플레이에 적용 예를 설명하기 위한 참고도이다.
커브드 디스플레이에 벽면 이미지로부터 추출한 배경 이미지를 적용하는 경우에는 커브드 디스플레이의 곡률 때문에 정상적으로 배경을 촬영하여 추출하여 배경 이미지를 만들어서 적용하게 되면 커브드 디스플레이의 양 옆 끝부분은 디스플레이의 중앙부보다 벽과 멀리 떨어져 있기 때문에 배경과 조화롭지 못하고 어색하게 보일 수 있다. 따라서, 커브드 디스플레이 장치의 경우에는 의도적으로 가운데 부분이 볼록한 배경 이미지를 생성하여 적용하는 것이 커브드 디스플레이의 양 옆 끝이 벽면과 조화롭게 보여질 수 있다.
도 23을 참조하면, 사용자가 모바일 장치 100를 이용하여 커브드 디스플레이 장치 200a가 설치된 벽 앞에서 벽면을 촬영할 때 모바일 장치 100를 벽면의 정면을 향하여 똑바르게 위치시키면, 모바일 장치 100의 카메라를 통해 볼 때 2300와 같은 이미지가 보여질 수 있다.
모바일 장치 100는 디스플레이 장치 200a에 표시된 마커 2301,2302,2303,2304를 이용하여 디스플레이 장치 200의 좌측 주변 영역을 포함하는 영역 2320을 캡쳐하여 이미지 2330을 획득할 수 있다. 이때 모바일 장치 100는 마커 2301,2302,2303,2304를 연결해서 얻어지는 다각형 2310의 모양의 대칭에 대응하는 영역 2340을 캡쳐된 이미지 2330으로부터 추출할 수 있다. 추출된 영역 2340은 영역 2340의 우측 변의 길이가 h1이고, 좌측 변의 길이가 h2으로 우측 변의 길이 h1보다 짧아서 이미지가 왜곡되어 있다. 따라서 모바일 장치 100는 추출된 영역 2340의 좌측 변의 길이 h2를 우측 변의 길이 h1이 되도록 늘리는 보정을 함으로써 왜곡이 제거된 이미지 2350을 얻을 수 있다.
다음, 모바일 장치 100는 보정된 이미지 2350을 우측 변을 중심으로 대칭시켜 얻은 제1이미지 2360을 배경 이미지 영역의 좌측 부분에 배열시키고, 제1이미지 2360을 우측 변을 중심으로 대칭시켜 얻은 제2이미지 2370을 배경 이미지 영역의 우측 부분에 배열시킴으로써 왜곡이 보정된 배경 이미지 2380을 생성할 수 있다.
도 23에서 최종 생성된 배경 이미지 2380은 가운데 부분이 볼록한 것 처럼 표시되어 있는데, 이러한 배경 이미지 2380을 커브드 디스플레이 200a가 표시하면, 양 옆 끝부분이 커브드 디스플레이의 중앙부보다 벽과 멀리 떨어져 있는 커브드 디스플레이의 특성 때문에, 벽면과 커브드 디스플레이 200a의 배경 이미지가 자연스럽게 연결된 것으로 표시될 수 있다.
이상 설명한 바와 같이 사용자가 벽면과 기울어진 상태에서 벽면을 촬영하였을 경우, 사용할 수 없는 잘못된 이미지가 만들어질 가능성이 높기 때문에 사진을 다시 찍어야 하는 경우가 발생할 수 있다. 그러나 이상 설명한 바와 같은 실시예들에 따르면 재촬영 없이 기울어진 이미지에서도 기울어진 각도를 이용하여 추출할 영역을 조정하고 이미지를 생성하기 때문에 디스플레이의 배경 이미지로 활용할 수 있다.
또한 커브드 디스플레이에 생성한 배경 이미지를 적용할 경우에는 커브드 디스플레이의 곡률 때문에 디스플레이의 양 옆 끝이 벽면과 자연스럽게 연결되지 않고 어색해 보일 수 있는데, 이러한 경우에는 가운데 영역이 볼록해 보이는 배경 이미지를 생성하여 커브드 디스플레이에 적용함으로써 커브드 디스플레이에서도 더욱 자연스럽게 배경 이미지를 표시되게 할 수 있다.
일 실시예에 따른 모바일 장치, 디스플레이 장치, 서버의 동작방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (15)

  1. 전자 장치에 있어서,
    카메라;
    디스플레이;
    통신 인터페이스;
    하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    디스플레이 장치의 화면에 복수의 마커가 표시되도록 지시하는 이벤트를 발생하여 상기 디스플레이 장치로 전송하고,
    상기 카메라로부터 획득되는 이미지 중, 상기 발생된 이벤트에 따라 상기 디스플레이 장치의 화면에 표시된 상기 복수의 마커의 인식을 기반으로, 상기 디스플레이 장치 주변의 벽면의 적어도 일부 영역을 추출할 이미지를 결정하고,
    상기 인식된 복수의 마커를 기반으로 얻어지는 형상에 대응하는 영역을 상기 결정된 이미지로부터 추출하고,
    상기 추출된 영역의 이미지를 보정함으로써 상기 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하고,
    상기 생성된 배경 이미지가 상기 디스플레이 장치의 화면에 표시될 수 있도록 상기 생성된 배경 이미지를 상기 디스플레이 장치로 전송하는, 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 디스플레이 장치의 화면의 사이즈 정보를 획득하고,
    상기 획득된 사이즈 정보에 기초하여 상기 디스플레이 장치의 화면에 상기 하나 이상의 마커가 표시될 위치를 결정하고, 상기 결정된 위치에 관한 정보를 포함하는 상기 이벤트를 발생하는, 전자 장치.
  3. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 카메라로부터 획득된 이미지에서, 상기 디스플레이 장치의 화면에 표시된 상기 복수의 마커를 인식하는 경우, 인식된 복수의 마커가 존재하는 이미지를 상기 배경 이미지를 추출할 이미지로 결정하는
    , 전자 장치.
  4. 제1항에 있어서,
    상기 디스플레이 장치가 설치된 벽면의 적어도 일부 영역은, 상기 디스플레이 장치에 인접한 벽면의 좌측 영역, 우측 영역, 상측 영역, 하측 영역 중 적어도 하나를 포함하는, 전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 추출된 영역의 이미지에 대해서, 상기 이미지의 하나 이상의 변의 길이의 조정, 상기 추출된 영역의 이미지의 회전, 상기 추출된 영역의 이미지의 대칭 중 적어도 하나를 수행함으로써 상기 추출된 이미지의 영역을 보정하는, 전자 장치.
  6. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 추출된 영역의 이미지를 보정한 이미지 및 상기 보정 이미지의 대칭 이미지를 결합하여 상기 배경 이미지를 생성하는, 전자 장치.
  7. 제6항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 결정된 이미지가 상기 디스플레이 장치에 인접한 벽면의 좌측 영역 또는 우측 영역으로부터 획득된 이미지 일 때, 상기 획득된 이미지의 좌측 방향 또는 우측 방향으로 대칭시킴으로써 상기 대칭 이미지를 획득하고,
    상기 결정된 이미지가 상기 디스플레이 장치에 인접한 벽면의 상측 영역 또는 하측 영역으로부터 획득된 이미지 일 때, 상기 획득된 이미지의 상측 방향 또는 하측 방향으로 대칭시킴으로써 상기 대칭 이미지를 획득하는, 전자 장치.
  8. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 이벤트 및 상기 배경 이미지를 서버를 통해서 상기 디스플레이 장치로 전송하는, 전자 장치.
  9. 제1항에 있어서,
    상기 인식된 복수의 마커를 기반으로 얻어지는 형상은 상기 인식된 복수의 마커를 연결하여 얻어지는 다각형 모양을 포함하는, 전자 장치.
  10. 전자 장치의 동작 방법에 있어서,
    디스플레이 장치의 화면에 복수의 마커가 표시되도록 지시하는 이벤트를 발생하여 상기 디스플레이 장치로 전송하는 동작,
    상기 카메라로부터 획득되는 이미지중, 상기 발생된 이벤트에 따라 상기 디스플레이 장치의 화면에 표시된 상기 복수의 마커의 인식을 기반으로, 상기 디스플레이 장치 주변의 벽면의 적어도 일부 영역을 추출할 이미지를 결정하는 동작,
    상기 인식된 복수의 마커를 기반으로 얻어지는 형상에 대응하는 영역을 상기 결정된 이미지로부터 추출하는 동작,
    상기 추출된 영역의 이미지를 보정함으로써 상기 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하는 동작, 및
    상기 생성된 배경 이미지가 상기 디스플레이 장치의 화면에 표시될 수 있도록 상기 생성된 배경 이미지를 상기 디스플레이 장치로 전송하는 동작을 포함하는, 전자 장치의 동작 방법.
  11. 제10항에 있어서,
    상기 디스플레이 장치의 화면의 사이즈 정보를 획득하는 동작, 및
    상기 획득된 사이즈 정보에 기초하여 상기 디스플레이 장치의 화면에 상기 하나 이상의 마커가 표시될 위치를 결정하고, 상기 결정된 위치에 관한 정보를 포함하는 상기 이벤트를 발생하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  12. 제10항에 있어서,
    상기 카메라로부터 획득된 이미지에서, 상기 디스플레이 장치의 화면에 표시된 상기 복수의 마커를 인식하는 동작, 및
    상기 인식된 복수의 마커가 존재하는 이미지를 상기 배경 이미지를 추출할 이미지로 결정하는
    동작을 더 포함하는, 전자 장치의 동작 방법.
  13. 제10항에 있어서,
    상기 디스플레이 장치가 설치된 벽면의 적어도 일부 영역은, 상기 디스플레이 장치에 인접한 벽면의 좌측 영역, 우측 영역, 상측 영역, 하측 영역 중 적어도 하나를 포함하는, 전자 장치의 동작 방법.
  14. 제10항에 있어서,
    상기 추출된 영역의 이미지에 대해서, 상기 이미지의 하나 이상의 변의 길이의 조정, 상기 추출된 영역의 이미지의 회전, 상기 추출된 영역의 이미지의 대칭 중 적어도 하나를 수행함으로써 상기 추출된 이미지의 영역을 보정하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  15. 제10항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2019/001219 2018-02-13 2019-01-29 전자 장치 및 그 동작 방법 WO2019160260A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980012845.3A CN111699674B (zh) 2018-02-13 2019-01-29 电子设备及其操作方法
EP19754992.6A EP3754969B1 (en) 2018-02-13 2019-01-29 Electronic device and operation method thereof
US16/961,595 US11310441B2 (en) 2018-02-13 2019-01-29 Electronic device for generating a background image for a display apparatus and operation method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0018061 2018-02-13
KR1020180018061A KR102338900B1 (ko) 2018-02-13 2018-02-13 전자 장치 및 그 동작 방법

Publications (1)

Publication Number Publication Date
WO2019160260A1 true WO2019160260A1 (ko) 2019-08-22

Family

ID=67618532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/001219 WO2019160260A1 (ko) 2018-02-13 2019-01-29 전자 장치 및 그 동작 방법

Country Status (5)

Country Link
US (1) US11310441B2 (ko)
EP (1) EP3754969B1 (ko)
KR (1) KR102338900B1 (ko)
CN (1) CN111699674B (ko)
WO (1) WO2019160260A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12073641B2 (en) 2021-03-31 2024-08-27 Arm Limited Systems, devices, and/or processes for dynamic surface marking
US12073640B2 (en) 2021-03-31 2024-08-27 Arm Limited Systems, devices, and/or processes for dynamic surface marking
US11995904B2 (en) 2021-03-31 2024-05-28 Arm Limited Systems, devices, and/or processes for dynamic surface marking
WO2022207145A1 (en) * 2021-03-31 2022-10-06 Arm Limited Systems, devices, and/or processes for dynamic surface marking

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110051072A (ko) * 2009-11-09 2011-05-17 엘지전자 주식회사 환경에 맞게 외면 색상을 변경할 수 있는 디스플레이 장치
KR20140060365A (ko) * 2011-09-13 2014-05-19 알까뗄 루슨트 전자 장치를 위해 커버를 생성하는 방법 및 전자 장치
US20140313117A1 (en) * 2013-04-17 2014-10-23 Honeywell International Inc. Camouflaged connected home controller
KR20170050995A (ko) * 2015-11-02 2017-05-11 삼성전자주식회사 디스플레이 장치 및 그의 영상 표시 방법
KR20170105445A (ko) * 2016-03-09 2017-09-19 삼성전자주식회사 디바이스 관리를 포함하는 디스플레이 장치들의 구성 및 동작

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070022215A1 (en) 2005-07-19 2007-01-25 Singer David W Method and apparatus for media data transmission
WO2010024000A1 (ja) * 2008-08-26 2010-03-04 シャープ株式会社 画像表示装置、及び画像表示装置の駆動方法
US8731301B1 (en) 2008-09-25 2014-05-20 Sprint Communications Company L.P. Display adaptation based on captured image feedback
US20110187731A1 (en) 2009-07-10 2011-08-04 Yasuhiro Tsuchida Marker display control device, integrated circuit, and marker display control method
EP2936802A4 (en) * 2012-12-18 2016-08-17 Intel Corp MULTI REGIONAL VIDEO CONFERENCE CODING
JP2014123230A (ja) * 2012-12-20 2014-07-03 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
EP3054693B1 (en) * 2013-10-02 2019-12-25 Samsung Electronics Co., Ltd Image display apparatus and pointing method for same
US10754511B2 (en) 2013-11-20 2020-08-25 Google Llc Multi-view audio and video interactive playback
US10229543B2 (en) * 2014-06-13 2019-03-12 Mitsubishi Electric Corporation Information processing device, information superimposed image display device, non-transitory computer readable medium recorded with marker display program, non-transitory computer readable medium recorded with information superimposed image display program, marker display method, and information-superimposed image display method
WO2016125708A1 (ja) * 2015-02-03 2016-08-11 合同会社紫光技研 ガス放電装置とそれを使用した平面光源およびそれらの駆動方法
CN105991968A (zh) * 2015-02-04 2016-10-05 夏普株式会社 显示设备伪装/恢复系统和控制方法
KR102458261B1 (ko) 2016-02-03 2022-10-25 삼성전자주식회사 디스플레이를 제어하는 전자 장치 및 방법 및 이를 위한 서버 및 방법
KR102267397B1 (ko) * 2016-10-25 2021-06-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR102328121B1 (ko) * 2018-02-12 2021-11-17 삼성전자주식회사 전자 장치 및 그 동작 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110051072A (ko) * 2009-11-09 2011-05-17 엘지전자 주식회사 환경에 맞게 외면 색상을 변경할 수 있는 디스플레이 장치
KR20140060365A (ko) * 2011-09-13 2014-05-19 알까뗄 루슨트 전자 장치를 위해 커버를 생성하는 방법 및 전자 장치
US20140313117A1 (en) * 2013-04-17 2014-10-23 Honeywell International Inc. Camouflaged connected home controller
KR20170050995A (ko) * 2015-11-02 2017-05-11 삼성전자주식회사 디스플레이 장치 및 그의 영상 표시 방법
KR20170105445A (ko) * 2016-03-09 2017-09-19 삼성전자주식회사 디바이스 관리를 포함하는 디스플레이 장치들의 구성 및 동작

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3754969A4 *

Also Published As

Publication number Publication date
KR102338900B1 (ko) 2021-12-13
US20200374472A1 (en) 2020-11-26
KR20190097974A (ko) 2019-08-21
EP3754969B1 (en) 2024-03-27
EP3754969A4 (en) 2021-04-14
CN111699674A (zh) 2020-09-22
US11310441B2 (en) 2022-04-19
CN111699674B (zh) 2023-03-24
EP3754969A1 (en) 2020-12-23

Similar Documents

Publication Publication Date Title
WO2019156408A1 (ko) 전자 장치 및 그 동작 방법
WO2017048076A1 (en) Display apparatus and method for controlling display of display apparatus
WO2018034462A1 (en) Image display apparatus and method of operating the same
WO2019160260A1 (ko) 전자 장치 및 그 동작 방법
WO2017105021A1 (en) Display apparatus and method for controlling display apparatus
WO2017105015A1 (en) Electronic device and method of operating the same
WO2020138840A1 (ko) 자세 교정을 위한 디스플레이 장치 및 그의 제어 방법
WO2016122151A1 (ko) 싱크 디바이스 및 그 제어 방법
WO2016076570A1 (en) Display apparatus and display method
WO2016080700A1 (en) Display apparatus and display method
WO2014030981A1 (en) Control method and control apparatus for apparatus including short range wireless communication module
WO2015194693A1 (ko) 영상 표시 기기 및 그의 동작 방법
WO2016114442A1 (en) Method for automatically connecting a short-range communication between two devices and apparatus for the same
WO2017057799A1 (ko) 동적 해상도 제어를 수행하는 이동 단말기 및 그 제어방법
WO2017018733A1 (en) Display apparatus and method for controlling a screen of display apparatus
WO2017119708A1 (en) Image display apparatus and method of operating the same
WO2017010628A1 (en) Method and photographing apparatus for controlling function based on gesture of user
WO2018048092A1 (en) Head mounted display and method for controlling the same
WO2017090920A1 (en) Mobile terminal and method for controlling the same
WO2017069434A1 (en) Display apparatus and method for controlling display apparatus
WO2021118225A1 (en) Display device and operating method thereof
WO2019013448A1 (en) OPTICAL CONNECTOR AND METHOD FOR CONTROLLING DISPLAY APPARATUS
WO2019194423A1 (en) Electronic apparatus and operating method thereof
WO2019208915A1 (ko) 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법
WO2016129843A1 (en) Display apparatus and display method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19754992

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019754992

Country of ref document: EP

Effective date: 20200914