Nothing Special   »   [go: up one dir, main page]

WO2016125966A1 - 영상 투사 장치 및 그의 동작 방법 - Google Patents

영상 투사 장치 및 그의 동작 방법 Download PDF

Info

Publication number
WO2016125966A1
WO2016125966A1 PCT/KR2015/008366 KR2015008366W WO2016125966A1 WO 2016125966 A1 WO2016125966 A1 WO 2016125966A1 KR 2015008366 W KR2015008366 W KR 2015008366W WO 2016125966 A1 WO2016125966 A1 WO 2016125966A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image projection
distance
area
controller
Prior art date
Application number
PCT/KR2015/008366
Other languages
English (en)
French (fr)
Inventor
이상호
김경중
이경호
유현희
윤현식
김양식
임지환
박정훈
김태순
강상규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150017547A external-priority patent/KR102333931B1/ko
Priority claimed from KR1020150071272A external-priority patent/KR102360628B1/ko
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US15/549,131 priority Critical patent/US10310676B2/en
Publication of WO2016125966A1 publication Critical patent/WO2016125966A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3188Scale or resolution adjustment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Definitions

  • the present invention relates to an image projection apparatus and an operation method thereof, and more particularly, to an image projection apparatus for determining a state of an image projection area onto which an image is projected and performing an operation corresponding to the determined state of the image projection area. It relates to a method of operation.
  • a method of displaying an image has been used, as well as a method of displaying an image in a device such as a display device, as well as a method of projecting an image in a predetermined area, such as a projector.
  • Image display through a display device has a limitation in the size of a screen that can display an image, and a limitation in that an image cannot be displayed in an area other than the screen of the display device.
  • an image projector such as a projector can provide a larger screen than a display device, and has an advantage of displaying an image at various positions according to a direction in which the image is projected.
  • the touch user input method has an advantage in that the user can directly touch the displayed screen, so that the user can intuitively recognize the input method and the use method.
  • the image projection apparatus has a disadvantage in that it does not receive a user input through a touch method due to the feature that there is no display.
  • the image projection apparatus may have a disadvantage in that the projected image is obscured if there is an obstacle between the point where the image is projected and the image projection apparatus, and the user's eyesight may be damaged when the user is directly exposed to the projected image. .
  • An image projection apparatus is capable of projecting an image at various positions, and thus has an object of improving space utilization and improving aesthetics.
  • an object of the present invention is to determine a state of an image projection area in which an image is projected, to project an image corresponding to the determined image projection area, and to provide a user with a comfortable viewing environment.
  • an object of the present invention is to recognize a user input for a projected screen, and to perform a control operation on the projected image.
  • a method of operating an image projection apparatus includes sensing a distance of an image projection area from which an image is projected; Determining an image projection state including a state of at least one of the image projection area and a space between the image projection device and the image projection area based on the sensed distance; And projecting an image onto the image projection area based on the determined image projection state.
  • Image projection apparatus includes an image projection unit for projecting an image; A sensing unit configured to sense a distance of an image projection area from which the image is projected; And determining an image projection state including a state of at least one of the image projection area and the space between the image projection device and the image projection area based on the sensed distance, and based on the determined image projection state. And a controller for controlling to project an image onto the image projection area.
  • a method of operating an image projection apparatus including: projecting an image including at least one menu onto an image projection area; Sensing a first distance for a user input corresponding to the menu; Performing an operation corresponding to the menu based on the sensed first distance.
  • An image projection apparatus includes an image projection unit for projecting an image including one or more menus to an image projection area; A distance sensor sensing a first distance to a user input corresponding to the menu; And a controller configured to perform an operation corresponding to the menu based on the sensed first distance.
  • the image projection apparatus may project an image at various positions, thereby improving space utilization and improving aesthetics.
  • the present invention can determine the state of the image projection area, and can project an image corresponding to the determined image projection area, it can provide a comfortable viewing environment to the user.
  • the present invention can recognize the user input for the projected image, it is possible to easily perform the operation and function desired by the user.
  • FIG. 1 is a block diagram illustrating a configuration of an image projection apparatus according to an exemplary embodiment.
  • FIG. 2 is a conceptual view of an image projection according to an exemplary embodiment.
  • FIG 3 is a conceptual view of an image projection according to an exemplary embodiment, viewed from another side.
  • FIG 4 is an exemplary view of a case according to an embodiment of the present invention.
  • FIG. 5 is an exemplary view illustrating a case in which an image is projected according to an exemplary embodiment.
  • FIG. 6 is a block diagram of a remote control apparatus according to an embodiment of the present invention.
  • Figure 7 shows an example of the actual configuration of the remote control device according to an embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating a method of operating an image projection apparatus, according to an exemplary embodiment.
  • FIG. 9 is a flowchart illustrating a specific operation of the image projection apparatus according to an exemplary embodiment.
  • FIG. 10 is an exemplary diagram illustrating distance sensing of a distance sensor according to an embodiment of the present invention.
  • FIG. 11 is a conceptual diagram illustrating obstacle recognition according to an embodiment of the present invention.
  • FIG. 12 is an exemplary view of image projection for avoiding obstacles according to an embodiment of the present invention.
  • FIG. 13 is an exemplary view illustrating image projection of an adjacent door according to an embodiment of the present invention.
  • FIG. 14 is an exemplary diagram illustrating sensing of a user input according to an embodiment of the present invention.
  • 15 is an exemplary diagram illustrating a function UI display screen according to an embodiment of the present invention.
  • 16 is an exemplary view of door opening recognition according to an embodiment of the present invention.
  • 17 is an exemplary view illustrating image projection of an adjacent door according to another embodiment of the present invention.
  • FIG. 18 is a conceptual diagram of image projection according to another embodiment of the present invention.
  • 19 is an exemplary view illustrating image projection of a door according to an embodiment of the present invention.
  • 20 is an exemplary view showing image projection onto a wall according to an embodiment of the present invention.
  • 21 is a diagram illustrating an actual configuration of an audio output device according to an embodiment of the present invention.
  • 22 is a diagram illustrating an audio output device according to an exemplary embodiment.
  • 23 is a conceptual diagram of image projection according to an embodiment of the present invention.
  • 24 is a conceptual diagram of image projection according to another embodiment of the present invention.
  • 25 is a flowchart illustrating a method of operating an image projection apparatus, according to an exemplary embodiment.
  • FIG. 26 is an exemplary diagram illustrating distance sensing to a sensing area according to an embodiment of the present invention.
  • FIG. 27 is an exemplary view illustrating a plurality of sensing regions according to an embodiment of the present invention.
  • FIG. 28 is an exemplary view illustrating a plurality of sensing regions according to another embodiment of the present invention.
  • 29 is an exemplary view illustrating a plurality of sensing regions according to another embodiment of the present invention.
  • FIG. 30 is an exemplary view illustrating a trigger operation in the vertical direction according to an embodiment of the present invention.
  • 31 is a diagram illustrating a trigger operation in left and right directions according to an embodiment of the present invention.
  • 33 is an exemplary view showing a channel menu display according to an embodiment of the present invention.
  • 34 is an exemplary view of displaying a volume menu according to an embodiment of the present invention.
  • 35 is an exemplary view of displaying an operation selection menu according to another embodiment of the present invention.
  • 36 is a diagram illustrating displaying an operation selection menu according to another embodiment of the present invention.
  • An image projection apparatus is, for example, an intelligent image projection apparatus that adds a computer support function to a broadcast reception function. It can be equipped with a more convenient interface such as a recognition, a handwritten input device, a touch screen or a spatial remote controller. In addition, it is connected to the Internet and a computer with the support of a wired or wireless Internet function, and can perform functions such as e-mail, web browsing, banking, or gaming. Standardized general-purpose operating systems can be used for these various functions.
  • the image projection apparatus may be, for example, an image projector, and may be applicable to a smartphone in some cases.
  • FIG. 1 is a block diagram illustrating a configuration of an image projection apparatus according to an exemplary embodiment.
  • the image projection apparatus 100 includes a sensing unit 105, an audio acquisition unit 110, an image acquisition unit 120, a broadcast receiving unit 130, an external device interface unit 135, and a storage unit ( 140, a user input interface unit 150, a communication unit 160, a controller 170, an image projector 180, an audio output unit 185, and a power supply unit 190.
  • the sensing unit 105 may include one or more sensors for sensing at least one of information in the image projector, surrounding environment information surrounding the image projector, and user information.
  • the sensing unit 105 may include a distance sensor 106, a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor. , G-sensor, gyroscope sensor, motion sensor (107), RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint scan sensor, ultrasonic sensor (ultrasonic sensor), optical sensor, battery gauge, environmental sensor (e.g. barometer, hygrometer, thermometer, radioactivity sensor, heat sensor, gas sensor, etc.), chemical sensor (e.g. For example, it may include at least one of an electronic nose, a health care sensor, a biometric sensor, and the like.
  • the image projection apparatus 100 disclosed in the present disclosure may utilize a combination of information sensed by at least two or more of these sensors.
  • the distance sensor 106 may include one or more sensors capable of sensing the distance.
  • the distance sensor 106 may include an infrared sensor, and may sense a distance with respect to various objects, a point at which an image is projected, and the like.
  • the infrared sensor included in the distance sensor 106 outputs infrared rays, and when the output infrared rays are reflected by an object or the like, the reflected infrared rays may be recognized as an image sensor included in the distance sensor 106.
  • the distance sensor 106 may include various sensors in addition to the infrared sensor.
  • the distance sensor 106 may include an ultrasonic sensor and may output light of a wavelength other than infrared. The detailed operation of the distance sensor 106 will be described later.
  • the sensing unit 105 may recognize a state of an area in which an image is projected through a separately provided sensor.
  • the sensing unit 105 may obtain information about the movement of the region in which the image is projected from a magnet sensor or a switch sensor provided in the region where the image is projected.
  • the voice acquirer 110 may acquire a voice.
  • the voice acquirer 110 may include at least one microphone, so that the voice may be obtained through the included microphone.
  • the voice acquirer 110 may transmit the acquired voice to the controller 170.
  • the image acquirer 120 may acquire an image.
  • the image acquirer 120 may include at least one camera, and may acquire an image through the included camera. Accordingly, the image acquirer 120 may acquire an image of the user. In addition, the image acquirer 120 may also acquire an image of biometric information such as an iris or a vein of the user.
  • the image acquirer 120 may transmit the acquired image to the controller 170.
  • the voice acquirer 110 and the image acquirer 120 may be included in the user input interface 150.
  • the broadcast receiver 130 may include a tuner 131, a demodulator 132, and a network interface unit 133.
  • the external device interface unit 135 may receive an application or a list of applications in a neighboring external device and transmit the received application to the controller 170 or the storage 140.
  • the external device interface unit 135 may include a terminal for connecting to an external device, and thus may be connected to a connector of the external device.
  • the external device interface unit 135 may supply power supplied from the power supply unit 190 to the connected external device as driving power.
  • the external device interface unit 135 may transmit an operation signal transmitted from the external device to the controller 170.
  • the external device interface unit 135 may include a sensor that can detect the connection of the external device, it can recognize the connection of the external device.
  • the network interface unit 133 may provide an interface for connecting the image projection apparatus 100 to a wired / wireless network including an internet network.
  • the network interface unit 133 may transmit or receive data with another user or another electronic device through the connected network or another network linked to the connected network.
  • some content data stored in the image projection apparatus 100 may be transmitted to a user selected from another user or another electronic device registered in the image projection apparatus 100 or a selected electronic device.
  • the network interface unit 133 may access a predetermined web page through a connected network or another network linked to the connected network. That is, by accessing a predetermined web page through the network, it is possible to send or receive data with the server.
  • the network interface unit 133 may receive content or data provided by a content provider or a network operator. That is, the network interface unit 133 may receive content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network.
  • content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network.
  • the network interface unit 133 may receive the update information and the update file of the firmware provided by the network operator, and may transmit data to the Internet or the content provider or the network operator.
  • the network interface unit 133 may select and receive a desired application from among applications that are open to the public through the network.
  • the storage 140 may store a program for processing and controlling each signal in the controller 170, and may store a signal, an image, an audio, or a data signal.
  • the storage unit 140 may perform a function for temporarily storing an image, audio, or data signal input from the external device interface unit 135 or the network interface unit 133. You can also store information about the image.
  • the storage 140 may store an application or a list of applications input from the external device interface 135 or the network interface 133.
  • the storage 140 may store biometric information of the user.
  • the biometric information of the user may refer to unique information related to the user's body such as a user's fingerprint, iris, vein, face, and voice.
  • the image projector 100 may reproduce and provide a content file (video file, still image file, music file, document file, application file, etc.) stored in the storage 140 to a user.
  • a content file video file, still image file, music file, document file, application file, etc.
  • the storage 140 may store personalization service information for the user.
  • the personalization service information for the user may include information about one or more of a function frequently used by the user, a channel frequently viewed, content, and a setting value set by the user.
  • the personalization service information for the user may include information about personalized functions and personalized menus for each of the plurality of users.
  • the user input interface unit 150 may transmit a signal input by the user to the controller 170, or may transmit a signal from the controller 170 to the user.
  • the user input interface unit 150 may be configured according to various communication methods such as Bluetooth, Ultra Wideband (WB), ZigBee, RF (Radio Frequency) communication, or Infrared (IR) communication.
  • the remote controller 200 may receive and process a control signal such as power on / off, channel selection, screen setting, or the like, or transmit a control signal from the controller 170 to the remote controller 200.
  • the user input interface unit 150 may transmit a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.
  • a local key such as a power key, a channel key, a volume key, and a set value
  • the communicator 160 may include one or more modules that enable the image projection apparatus 100, the network or the image projection apparatus 100, and peripheral devices to perform wired or wireless communication.
  • the communication unit 160 may include an internet module for internet access, and may allow the image projection apparatus 100 to access the internet through wired or wireless communication through the internet module.
  • the communicator 160 may include a short range communication module to enable wireless communication between the image projector 100 and another device.
  • the short-range communication module included in the communication unit 160 may include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and WLAN (Wireless LAN). (Wi-Fi), Near Field Communication (NFC), etc. may be used.
  • the image signal processed by the controller 170 may be input to the image projector 180 and displayed as an image corresponding to the image signal.
  • the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
  • the audio signal processed by the controller 170 may be audio output to the audio output unit 185.
  • the voice signal processed by the controller 170 may be input to the external device through the external device interface unit 135.
  • controller 170 may transmit the processed audio signal to the audio output device 300 to be described later, and control the audio output device 300 to output audio.
  • controller 170 may control overall operations of the image projection apparatus 100.
  • the controller 170 receives the detection signal for the connection of the external device from the external device interface unit 135, and controls the power supply unit 190 so that driving power is transmitted to the external device connected through the external device interface unit 135. can do.
  • controller 170 may recognize a voice acquired through the voice acquirer 110 and perform a control operation corresponding to the recognized voice.
  • the controller 170 may compare the plurality of voice signals with respect to the user's voice, recognize the voice of the best quality voice signal, and perform a control operation corresponding to the recognized voice.
  • the controller 170 may determine the location of the user by comparing the plurality of voices obtained from the voice acquisition unit 110 with a plurality of microphones. In detail, the controller 170 may determine the location of the user who uttered the voice by comparing the voices acquired by each of the plurality of microphones.
  • the controller 170 may control the image projection apparatus 100 by a user command or an internal program input through the user input interface unit 150, and access the network to display an application or a list of applications desired by the user. It can be downloaded into the projection apparatus 100.
  • the controller 170 may output the channel information selected by the user through the image projector 180 or the audio output unit 185 together with the processed image or audio signal.
  • the controller 170 may receive an external device image playback command received through the user input interface unit 150 from an external device, for example, a camera or a camcorder, input through the external device interface unit 135.
  • the image signal or the audio signal may be output through the image projector 180 or the audio output unit 185.
  • the controller 170 may control the image projector 180 to display an image, for example, a broadcast image input through the tuner 131 or an external input through the external device interface 135.
  • the input image, the image input through the network interface unit, or the image stored in the storage unit 140 may be controlled to be projected by the image projector 180.
  • the image projected by the image projector 180 may be a still image or a moving image, and may be a 2D image or a 3D image.
  • the controller 170 may control to project the content stored in the image projection apparatus 100, the received broadcast content, or an external input content input from the outside, and the content may include a broadcast image, an external input image, and audio. It may be in various forms such as a file, a still image, a connected web screen, and a document file.
  • the controller 170 may compare one or more of the input user's biometric information and pattern information with one or more of previously stored biometric information and pattern information. Accordingly, the controller 170 may search for the same biometric information as the biometric information of the user input from at least one of previously stored biometric information and pattern information.
  • the controller 170 may obtain personalization service information of the user corresponding to one or more of the input biometric information and the pattern information based on at least one of the input biometric information and the pattern information.
  • the controller 180 may recognize the user based on the received fingerprint image or information on the fingerprint.
  • the controller 180 may obtain personalization service information corresponding to the recognized user.
  • controller 170 may adjust the image to be projected based on the distance to the image projection area, which is the point where the image is projected.
  • the controller 170 may generate an image projection state including a state of at least one of an image projection area and a space between the image projection device 100 and the image projection area based on the sensing value sensed by the distance sensor 106. You can judge.
  • the controller 170 may detect a user input for the image projection area based on the sensing value sensed by the distance sensor 106. This will be described later.
  • the image projector 180 may project various images.
  • the image projector 180 may include a light source 181, a lens unit 182, and a reflector 183.
  • the light source unit 181 emits a beam.
  • the lens unit 182 selectively transmits only a predetermined wavelength of the beam generated by the light source unit 181.
  • the lens unit 182 may include a plurality of lenses according to design.
  • the reflector 183 reflects the beam transmitted from the lens unit 182.
  • the reflector 183 may rotate in the up, down, left, and right directions, and may reflect the transmitted beam in various directions.
  • the image projector 180 may project an image to a point where the beam emitted from the light source unit 181 is projected through the lens unit 182.
  • the image projector 180 may project an image to a point to be projected by a beam emitted from the light source 181 through the lens unit 182 and reflected by the reflector 183.
  • FIG. 2 is a conceptual view of an image projection according to an exemplary embodiment.
  • the image projection apparatus 100 may be provided in the case 400 to project an image onto the door 410 of the case 400.
  • the image projector 100 generates a beam from the light source unit 181 included in the image projector 180, and the generated beam passes through the lens unit 182 and is reflected by the reflector 183 to project the beam.
  • the image may be projected onto the door 410 which is a point to be used. Accordingly, the image screen 500 displaying the image projected from the image projector 180 may be displayed on the door 410 of the case 400.
  • the door 410 may be a door of the case 400, and may have a structure capable of being detached or opened in one or more directions.
  • the door 410 may be a transparent or opaque structure, for example, may be made of a glass material.
  • the door 410 may be attached with a sheet of paper for clearly displaying the projected image.
  • the image projector 100 may be provided outside the case 400.
  • the case 400 may be furniture.
  • it may be a cabinet, a cabinet.
  • the case 400 may be part or all of the furniture.
  • FIG 3 is a conceptual view of an image projection according to an exemplary embodiment, viewed from another side.
  • the image projector 180 of the image projector 100 generates a beam from the light source unit 181, and the generated beam passes through the lens unit 182 and is reflected by the reflector 183.
  • the image may be projected onto the door 410 which is the point to be projected. Accordingly, the image screen 500 displaying the image projected from the image projector 180 may be displayed on the door 410 of the case 400.
  • FIG 4 is an exemplary view of a case according to an embodiment of the present invention.
  • the case 400 may be a furniture including one or more storage spaces or decoration spaces. Accordingly, the case 400 may include one or more doors 410.
  • the door 410 may be made of a transparent or opaque material. Accordingly, the door 410 may have a general door shape when no image is projected.
  • FIG. 5 is an exemplary view illustrating a case in which an image is projected according to an exemplary embodiment.
  • an image projected by the image projector 100 may be projected on the door 410 of the case 400. Accordingly, the image screen 500 according to the image projected onto all or part of the door 410 may be displayed.
  • the image projector 180 may project an image to a point where the image is to be projected so that the image screen 500 is displayed.
  • the image projector 100 may project an image to various areas or objects in addition to the door 410. This will be described later.
  • the image projector 180 may project an image except for the above-described reflection process of the reflector 183. Accordingly, an image may be projected at a point where the beam generated by the light source unit 181 passes through the lens unit 182 to project the image.
  • the image projector 180 converts an image signal, a data signal, an OSD signal processed by the controller 170, or an image signal, data signal, etc. received from the external device interface unit 135 into R, G, and B signals, respectively.
  • a drive signal can be generated.
  • the image projection device 100 shown in Figure 1 is only an embodiment of the present invention. Some of the illustrated components may be integrated, added, or omitted according to the specifications of the image projection apparatus 100 that is actually implemented.
  • two or more components may be combined into one component as needed, or one component may be divided into two or more components.
  • the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
  • the image projection apparatus 100 does not include the tuner 131 and the demodulator 132, as shown in FIG. 1, but the network interface unit 133 or the external device interface unit. An image may be received and reproduced through the 135.
  • the image projection apparatus 100 may be divided into an image processing apparatus such as a set-top box, such as for receiving broadcast signals or contents according to various network services, and a content reproduction apparatus for reproducing contents input from the image processing apparatus. Can be implemented.
  • an image processing apparatus such as a set-top box, such as for receiving broadcast signals or contents according to various network services
  • a content reproduction apparatus for reproducing contents input from the image processing apparatus. Can be implemented.
  • the image display method according to an embodiment of the present invention to be described below is not only an image projection apparatus 100 as described with reference to FIG. 1, but also an image processing apparatus or an image projection unit such as the separated set-top box or the like. 180 may be performed by any one of the content reproduction device including the audio output unit 185.
  • FIG. 6 is a block diagram of a remote control apparatus according to an embodiment of the present invention
  • Figure 7 shows an example of the actual configuration of the remote control apparatus according to an embodiment of the present invention.
  • the remote control apparatus 200 includes a fingerprint recognition unit 210, a wireless communication unit 220, a user input unit 230, a sensor unit 240, an output unit 250, and a power supply unit 260. ), A storage unit 270, a control unit 280, and a voice acquisition unit 290.
  • the wireless communication unit 220 transmits and receives a signal with any one of the image display apparatus according to the embodiments of the present invention described above.
  • the remote control apparatus 200 includes an RF module 221 that can transmit and receive a signal to and from the image projection apparatus 100 according to the RF communication standard, and transmit and receive a signal to and from the image projection apparatus 100 according to the IR communication standard.
  • IR module 223 may be provided.
  • the remote control apparatus 200 may include a Bluetooth module 225 capable of transmitting and receiving a signal with the image projector 100 according to the Bluetooth communication standard.
  • the remote control apparatus 200 includes an NFC module 227 capable of transmitting and receiving a signal to and from the image projector 100 according to a Near Field Communication (NFC) communication standard, and according to a WLAN (Wireless LAN) communication standard.
  • NFC Near Field Communication
  • WLAN Wireless LAN
  • the remote control apparatus 200 transmits a signal containing information on the movement of the remote control apparatus 200 to the image projection apparatus 100 through the wireless communication unit 220.
  • the remote control apparatus 200 may receive a signal transmitted from the image projection apparatus 100 through the wireless communication unit 220, and if necessary, supply power to the image projection apparatus 100 through the wireless communication unit 220. Commands for on / off, channel change, volume change, etc. can be sent.
  • the user input unit 230 may include a keypad, a button, a touch pad, a wheel key, or a touch screen.
  • the user may input a command related to the image projection apparatus 100 to the remote control apparatus 200 by manipulating the user input unit 230.
  • the user input unit 230 includes a hard key button, the user may input a command related to the image projection apparatus 100 to the remote control apparatus 200 through a push operation of the hard key button. This will be described with reference to FIG. 7.
  • the remote control apparatus 200 may include a plurality of buttons.
  • the plurality of buttons include the fingerprint recognition button 212, the power button 231, the home button 232, the LIVE button 233, the external input button 234, the volume button 235, the voice recognition button 236, and the channel. Button 237, wheel key 238, and cancel button 239.
  • the fingerprint recognition button 212 may be a button for recognizing a fingerprint of a user. In one embodiment, the fingerprint recognition button 212 may be pushed to receive a push operation and a fingerprint recognition operation.
  • the power button 231 may be a button for turning on / off the power of the image projector 100 and an external device.
  • the home button 232 may be a button for displaying a basic menu of the image projection apparatus 100.
  • the LIVE button 233 may be a button for displaying a live broadcast program.
  • the external input button 234 may be a button for displaying an image received from an external device.
  • the volume button 235 may be a button for adjusting the audio output of the image projection apparatus 100.
  • the voice recognition button 236 may be a button for recognizing a user's voice.
  • the channel button 237 may be a button for receiving a broadcast signal of a specific broadcast channel and a specific broadcast service.
  • the wheel key 238 may be a wheel-type key capable of receiving a user input in one or more directions.
  • the wheel key 238 may be a wheel type key capable of receiving a user input for up, down, or up, down, left, and right directions.
  • the wheel key 238 may further include a direction key.
  • the user input for the up and down directions of the wheel key 238 may be a user input for rotating the wheel key 238, and the user input for the left and right directions may be a user input for tilting the wheel key 238.
  • the wheel key 238 may also receive a push input.
  • the LIVE button 297 may be a button for displaying a live broadcast program.
  • the user input unit 230 includes a touch screen
  • the user may input a command related to the image projection apparatus 100 to the remote controller 200 by touching a soft key of the touch screen.
  • the user input unit 230 may include various kinds of input means that a user can operate, such as a scroll key, a jog key, and a touch pad, and the embodiment does not limit the scope of the present invention.
  • the sensor unit 240 may include a gyro sensor 241 or an acceleration sensor 243, and the gyro sensor 241 may sense information about the movement of the remote controller 200.
  • the gyro sensor 241 may sense information about the operation of the remote control device 200 based on the x, y, and z axes, and the acceleration sensor 243 may move the speed of the remote control device 200. Information about the data can be sensed.
  • the remote control device 200 may further include a distance measuring sensor, it can sense the distance to the display unit 180 of the image projection apparatus 100.
  • the output unit 250 may output an image or audio signal corresponding to a manipulation of the user input unit 235 or corresponding to a signal transmitted from the image projection apparatus 100.
  • the user may recognize whether the user input unit 235 is manipulated or whether the image projection apparatus 100 is controlled through the output unit 250.
  • the output unit 250 is an LED module 251 that is turned on when the user input unit 230 is manipulated or a signal is transmitted and received with the image projector 100 through the wireless communication unit 220, and a vibration module generating vibration. 253, a sound output module 255 for outputting sound, or a display module 257 for outputting an image.
  • the power supply unit 260 supplies power to the remote control device 200, and can reduce power waste by stopping the power supply when the remote control device 200 does not move for a predetermined time.
  • the power supply unit 260 may resume power supply when a predetermined key provided in the remote control apparatus 200 is operated.
  • the storage unit 270 may store various types of programs, application data, and the like necessary for controlling or operating the remote control apparatus 200. If the remote control apparatus 200 transmits and receives a signal wirelessly through the image projection apparatus 100 and the RF module 221, the remote control apparatus 200 and the image projection apparatus 100 transmit signals through a predetermined frequency band. Send and receive
  • the controller 280 of the remote controller 200 stores information about a frequency band, etc., capable of wirelessly transmitting and receiving signals with the image projector 100 paired with the remote controller 200 in the storage unit 270. Reference may be made.
  • the controller 280 controls various matters related to the control of the remote controller 200.
  • the controller 280 may project a signal corresponding to a predetermined key manipulation of the user input unit 230 or a signal corresponding to the movement of the remote controller 200 sensed by the sensor unit 240 through the wireless communication unit 220. 100 can be sent.
  • the voice acquisition unit 290 of the remote control device 200 may obtain a voice.
  • the voice acquirer 290 may include at least one microphone (not shown), so that the voice may be obtained through the included microphone.
  • the voice acquirer 290 may transfer the acquired voice to the controller 280.
  • FIG. 8 is a flowchart illustrating a method of operating an image projection apparatus, according to an exemplary embodiment.
  • the sensing unit 105 of the image projection apparatus 100 senses a distance to an image projection area in which an image is projected (S110).
  • the sensing unit 105 may sense a distance of an image projection area in which an image is projected through various sensors included. For example, the sensing unit 105 may sense the distance to the image projection area where the image is projected through the distance sensor 106.
  • the distance to the image projection area where the image is projected may mean the distance between the image projection device 100 and the image projection area. Accordingly, the sensing unit 105 may sense a distance to an object or an area between the image projector 100 and the image projection area.
  • the sensing unit 105 may sense a distance with respect to the area beyond the image projection area.
  • the sensing unit 105 may also sense a distance with respect to the area beyond the door 410.
  • the sensing unit 105 may also sense a user input for the image projection area.
  • the user input may include a user input of touching the door 410 on which the image is projected, and a user input of approaching the door 410 within a predetermined distance. This will be described later.
  • the controller 170 of the image projection apparatus 100 may determine one or more of a state of the image projection region, a state between the image projection apparatus 100 and the image projection region, and a user input state of the image projection region based on the sensed distance.
  • the image projection state is included (S130).
  • the controller 170 may determine the state of the image projection area based on the sensed distance.
  • the controller 170 may determine a state of the door 410 of the case 400, which is an area in which the image is projected based on the sensed distance. For example, the controller 170 may determine that the door 410 is open when the sensed distance is greater than or equal to the first distance that is the distance to the door 410 on which the image is projected. Accordingly, the controller 170 may determine whether the door 410 is open.
  • the controller 170 may determine whether the area where the image is projected is another area other than a part of the case 400 based on the sensed distance. For example, if the sensed distance is the second distance that is greater than or equal to the first distance, the controller 170 may determine that the area where the image is projected is an area other than a part of the case 400.
  • the controller 170 may determine a state between the image projection apparatus 100 and the image projection area based on the sensed distance. For example, the controller 170 may determine that there is an object between the door 410 and the image projector 100 when the sensed distance is less than the first distance, which is the distance to the door 410 on which the image was projected. Can be. Thus, the controller 170 determines that some or all of the projected image does not reach the door 410 on which the image is projected, but some or all of the image projected on the determined object is projected according to the determined position of the object. can do. Accordingly, the controller 170 may determine a state in which part or all of the projected image does not reach the door 410 which is the image projection area.
  • the controller 170 may determine a user input state of the image projection area based on the sensed distance. For example, the controller 170 may determine a user input state of an image projection area in which an image is projected, based on a change amount of a sensing value corresponding to the sensed distance. As an example, the controller 170 may recognize a user input to the door 410 based on a change amount of a sensing value of the door 410 on which the image is projected. The user input may include a user input of touching the door 410 on which the image is projected, and a user input of approaching the door 410 within a predetermined distance.
  • the controller 170 of the image projection apparatus 100 operates based on the determined image projection state (S150).
  • the controller 170 may lower the brightness of the image being projected or project the image in another area.
  • the controller 170 may project an image corresponding to the changed distance. Accordingly, the controller 170 may adjust one or more of the focus, resolution, size, brightness, color, and contrast of the image projected by the image projector 180.
  • an alarm indicating that there is an obstacle to projecting an image may be displayed on the projected image.
  • the controller 170 may output an alarm indicating that there is an obstacle through audio output unit 185.
  • the controller 170 may operate based on the determined user input. For example, the controller 170 may recognize a user input related to an operation of the image projection apparatus 100 and perform an operation corresponding to the recognized user input.
  • the user input related to the operation of the image projection apparatus 100 may be converted into an image for the image displayed by the image projection apparatus 100, volume control for output audio, turn on, turn off, etc. of the image projection apparatus 100. It may be a user input for an action.
  • FIG. 9 is a flowchart illustrating a specific operation of the image projection apparatus according to an exemplary embodiment.
  • the sensing unit 105 of the image projection apparatus 100 senses a distance to an image projection area in which an image is projected (S200).
  • the sensing unit 105 may include a distance sensor 106, and the distance sensor 106 may include a plurality of distance sensors 106a, 106b, 106c, and 106d. Each of the plurality of distance sensors may sense a distance of an image projection area in which an image is projected.
  • FIG. 10 is an exemplary diagram illustrating distance sensing of a distance sensor according to an embodiment of the present invention.
  • the distance sensor 106 may include a plurality of distance sensors 106a, 106b, 106c, and 106d.
  • Each of the plurality of distance sensors 106a, 106b, 106c, and 106d may sense a distance to the door 410, which is an area in which an image is projected. Meanwhile, some or all of the areas sensed by each of the plurality of distance sensors 106a, 106b, 106c, and 106d may overlap. Accordingly, each of the plurality of distance sensors 106a, 106b, 106c, and 106d may sense different areas of the door 410.
  • the plurality of distance sensors included in the distance sensor 106 may be configured in various numbers, and may be provided at various positions of the image projection device 100. Accordingly, the plurality of distance sensors included in the distance sensor 106 may sense distances at various angles and directions with respect to the area in which the image is projected.
  • the controller 170 determines whether there is an obstacle between the image projection apparatus 100 and the image projection area based on the sensed distance (S201). If it is determined that there is no obstacle, the controller 170 projects an image on the image projection area (S203).
  • the controller 170 may determine a state between the image projection apparatus 100 and the image projection area based on the sensed distance. For example, if the sensed distance is less than the distance to the image projection area where the image is projected, the controller 170 may determine that there is an object between the door 410 and the image projection device 100. Thus, the controller 170 determines that some or all of the projected image does not reach the door 410 on which the image is projected, but some or all of the image projected on the determined object is projected according to the determined position of the object. can do. Accordingly, the controller 170 may determine a state in which part or all of the projected image does not reach the door 410 which is the image projection area.
  • the controller 170 determines that there is an object between the door 410 and the image projector 100 when the sensed distance is less than the first distance, which is the distance to the door 410 on which the image was projected. can do.
  • the controller 170 may project an image to the image projection area through the image projector 180.
  • the controller 170 may project an image to the door 410 which is an image projection area through the image projector 180. Accordingly, the image screen 500 displaying the image projected from the image projector 180 may be displayed on the door 410 of the case 400.
  • the controller 170 determines whether there is an obstacle between the image projection apparatus 100 and the image projection area based on the sensed distance (S201), and if it is determined that the obstacle is present, displays an alarm indicating that the obstacle is recognized ( S213).
  • the controller 170 may determine whether there is an obstacle in part or all between the image projection apparatus 100 and the image projection area through the distance sensor 106 included in the sensing unit 105.
  • FIG. 11 is a conceptual diagram illustrating obstacle recognition according to an embodiment of the present invention.
  • the distance sensor 106 may sense a distance with respect to the image projection area through a plurality of sensors, and the obstacle 600 between the door 410, which is the image projection area, and the image projection device 100. Can sense.
  • the controller 170 may detect distance values 106a, 106b, which are different from each other by a sensing value sensed by one of the plurality of distance sensors 106a, 106b, 106c, and 106d included in the distance sensor 106. When the sensing values 106c and 106d are different from the sensed values, it may be determined that there is an obstacle 600 between the door 410 and the image projector 100.
  • the controller 170 may display an alarm indicating that there is an obstacle on the projected image screen 500, and the audio output unit 185 may be used. You can also output an alarm indicating that there is an obstacle.
  • the controller 170 of the image projection apparatus 100 projects the image onto the image projection area by avoiding the recognized obstacle (S215).
  • the controller 170 may project an image to a part of the image projection area by avoiding the recognized obstacle. In addition, the controller 170 may adjust the size of the image projected onto the image projection area by avoiding the recognized obstacle.
  • FIG. 12 is an exemplary view of image projection for avoiding obstacles according to an embodiment of the present invention.
  • the controller 170 may reduce the size of the projected image such that the entire image is projected onto the door 410, which is an image projection area, without projecting the image projected onto the recognized obstacle 600. . Accordingly, the controller 170 may reduce the size of the image projected onto the door 410 through the image projector 180.
  • the controller 170 may project the image to an area other than the area where the image is projected, by avoiding the recognized obstacle.
  • FIG. 13 is an exemplary view illustrating image projection of an adjacent door according to an embodiment of the present invention.
  • the controller 170 may project an image to an adjacent door 420 which is an area other than the door 410 where all or a part of the projected image is not projected due to the recognized obstacle 600. have.
  • the controller 170 may adjust an image projection angle of the image projector 180 and project an image to the adjacent door 420 through the image projector 180 with the adjusted angle. Accordingly, the image screen 500 displaying the image projected from the image projector 180 may be displayed on the adjacent door 420.
  • the controller 170 determines whether a user input to the image screen 500 displayed on the image projection area is recognized based on the sensed distance (S205), and when the user input is recognized, performs an operation corresponding to the recognized user input. (S207).
  • the controller 170 may determine a user input state of an image projection area in which an image is projected, based on a change amount of a sensing value corresponding to the sensed distance. In detail, the controller 170 may recognize a user input for an area in which a change amount of a sensing value corresponding to a sensed distance is equal to or greater than a reference amount.
  • FIG. 14 is an exemplary diagram illustrating sensing of a user input according to an embodiment of the present invention.
  • each of the plurality of distance sensors 106a, 106b, 106c, and 106c included in the distance sensor 106 may sense different areas of the door 410, which is an area in which an image is projected.
  • the controller 170 may include the first area 411 and the second area 412 included in the door 410 based on the amount of change in the sensing value sensed by each of the plurality of distance sensors 106a, 106b, 106c, and 106c.
  • the user input of each of the third area 413, the fourth area 414, and the fifth area 415 may be recognized.
  • the controller 170 may include a first region 411 corresponding to the first distance sensor 106a, a second region 412 corresponding to the first distance sensor 106a, and a second distance sensor 106b.
  • a user input for each of the fifth regions 415 corresponding to the four distance sensors 106d may be recognized.
  • the user input may touch each of the first area 411, the second area 412, the third area 413, the fourth area 414, and the fifth area 415 included in the door 410.
  • the user input may include a user input approaching the door 410 within a predetermined distance.
  • the controller 170 may display a function UI (User Interface) indicating a function corresponding to the first to fifth areas 411, 412, 413, 414, and 415 which are a plurality of areas of the image projection area. You can also mark
  • the controller 170 may recognize a user input for the functional UI, and perform a function corresponding to the functional UI based on the recognized user input. This will be described with reference to FIG. 15.
  • 15 is an exemplary diagram illustrating a function UI display screen according to an embodiment of the present invention.
  • the controller 170 may display a function UI corresponding to each of a plurality of areas for recognizing a user input on an image projected onto the door 410 which is an image projection area through the image projector 180.
  • the controller 170 may include a first UI 510 and a second area corresponding to the first area 411 on the image screen 500 projected onto the door 410 through the image projector 180.
  • the second UI 520 corresponding to 412
  • the third UI 530 corresponding to the third area 413
  • the fifth area 415 correspond to the second UI 520.
  • the fifth UI 550 may be displayed.
  • the first UI 510 may correspond to the channel up and the second UI 520 may correspond to the channel down.
  • the third UI 530 may correspond to the volume up, and the fourth UI 540 may correspond to the volume down.
  • the fifth UI 550 may correspond to power off.
  • the controller 170 recognizes a user input corresponding to the first to fifth UIs 510, 520, 530, 540, and 550, the controller 170 may perform an operation corresponding to the recognized user input.
  • the controller 170 determines whether the door of the door, which is an image projection area in which the image is projected, is opened based on the sensed distance (S209), and when it is determined that the door 410 is opened, the image projected by the image projector 180 is projected. To adjust (S211).
  • the controller 170 may determine a state of the door 410 of the case 400, which is an area in which the image is projected based on the sensed distance. For example, the controller 170 may determine that the door 410 is open when the sensed distance is greater than or equal to the first distance that is the distance to the door 410 on which the image is projected. Accordingly, the controller 170 may determine whether the door 410 is open.
  • 16 is an exemplary view of door opening recognition according to an embodiment of the present invention.
  • the distance sensor 106 may sense a distance with respect to a direction corresponding to an area in which an image is projected.
  • the distance sensor 106 may sense that the distance value sensed is increased. Accordingly, the controller 170 may recognize the opening of the door 410 based on the sensed distance.
  • the controller 170 When the controller 170 recognizes that the door 410 on which the image is projected is opened, the controller 170 may lower the brightness of the image projected by the image projector 180.
  • the controller 170 may cause the image projector 180 to stop the image projection operation.
  • the controller 170 may project the image to another area.
  • 17 is an exemplary view illustrating image projection of an adjacent door according to another embodiment of the present invention.
  • the controller 170 may control the image projector 180 to project an image to the adjacent door 420 which is another area.
  • the controller 170 may adjust an image projection angle of the image projector 180 and project an image to the adjacent door 420 through the image projector 180 with the adjusted angle. Accordingly, the image screen 500 displaying the image projected from the image projector 180 may be displayed on the adjacent door 420.
  • control unit 170 obtains information on the movement of the area projected from the image, the magnet type sensor, the switch type sensor, and the like, and adjusts the brightness of the projected image or the image projection operation based on the obtained information. You can also stop it. In addition, the controller 170 may project the projected image to another area based on the obtained information.
  • the image projection apparatus 100 may project an image to another area.
  • the above description of the image adjustment according to the opening of the door is an example for explanation, it is possible to adjust the image projected for a variety of methods and various areas according to the user or designer's settings.
  • the image projection apparatus 100 of the present invention may project an image at various distances, and display an image screen of various sizes according to the distance to the point at which the image is projected.
  • the image projection apparatus 100 projects an image in an area farther than the door 410 of the case 400 to display an image screen larger than the image screen 500 projected onto the door 410. I can display it.
  • FIG. 18 is a conceptual diagram of image projection according to another embodiment of the present invention.
  • the image projector 100 may project an image onto a wall 700 located farther than the door 410 of the case 400.
  • the controller 170 may control an image projection operation of the image projector 180 to project an image onto the wall 700 at a distance.
  • the distance sensor 106 may sense a distance to the wall surface 700.
  • the controller 170 may adjust one or more of the focus, resolution, size, brightness, color, and contrast of the image projected by the image projector 180 based on the sensed distance.
  • the image projector 180 may project an image onto the wall 700 based on one or more of the adjusted focus, resolution, size, brightness, color, and contrast. Accordingly, the image projector 100 may project an optimal image onto the wall 700 located farther than the door 410.
  • the door 410 may be composed of a plurality of panels.
  • the door 410 may include a screen panel 412 and a transmissive panel 415.
  • the screen panel 412 and the transmission panel 415 of the door 410 may be separated from the door 410 by a sliding or detachable method. Accordingly, an area in which the image projected by the image projection apparatus 100 is projected may be adjusted according to sliding or detachment of the screen panel 412 and the transmissive panel 415 of the door 410.
  • 19 is an exemplary view illustrating image projection of a door according to an embodiment of the present invention.
  • the door 410 may include a screen panel 412 and a transmission panel 415. Accordingly, the image projected by the image projector 100 may not project through the door 410, but may be projected onto the door 410. Accordingly, the image screen 500 displaying the image projected from the image projector 180 may be displayed on the door 410.
  • 20 is an exemplary view showing image projection onto a wall according to an embodiment of the present invention.
  • the door 410 may be separated from the screen panel 412 and may include a transmissive panel 415. Accordingly, the image projected by the image projection apparatus 100 may pass through the door 410. Accordingly, the image screen 500 displaying the image projected from the image projector 180 may be displayed on the wall 700.
  • the door 410 may have a structure in which the electrical transparency can be adjusted.
  • the door 410 may comprise a material that exhibits electrochromism, such that the user can electrically adjust the transparency of the door 410.
  • the image projection apparatus 100 may project an image onto the door 410 or the wall 700 according to the transparency control of the door 410.
  • the controller 170 of the image projector 100 may control the audio output device 300.
  • the controller 170 of the image projection apparatus 100 may control the audio corresponding to the projected image to be output to the audio output apparatus 300.
  • the controller 170 of the image projector 100 may control the lighting operation of the lighting unit 350 included in the audio output device 300.
  • 21 shows an example of an actual configuration of an audio output device 300 according to an embodiment of the present invention.
  • the audio output apparatus 300 may include an operation unit 310 for obtaining a user input and a speaker unit 330 for outputting audio.
  • the controller 170 of the image projector 100 may output audio corresponding to the projected image to the speaker unit 330 of the audio output device 300.
  • the audio output device 300 may obtain a user input to the manipulation unit 310 and transmit the obtained user input to the image projection apparatus 100.
  • the controller 170 of the image projection apparatus 100 may perform an operation corresponding to the transferred user input.
  • the audio output device 300 may be provided on one side or one side of the case 400 in which the image projection apparatus 100 is provided.
  • the audio output device 300 may further include a lighting unit 350 for emitting light.
  • the lighting unit 350 may emit light in a specific direction.
  • the lighting unit 350 may emit light in a downward direction of the case 400 provided with the audio output device 300. This will be described with reference to FIG. 22.
  • 22 is a diagram illustrating an audio output device 300 according to an exemplary embodiment.
  • the audio output device 300 may be provided at the bottom of the case 400.
  • the lighting unit 350 may emit light by the user input to the manipulation unit 310 or the control of the controller 170 of the image projection apparatus 100.
  • the audio output apparatus 300 may be provided at the bottom or one side of the storage cabinet, and the lighting unit 350 included in the audio output apparatus 300 may be the storage cabinet. Can emit light in the downward direction. Accordingly, the lighting unit 350 may perform a function such as general lighting, stand lighting, and the like.
  • the lighting unit 350 may emit light in one or more colors, and emit light in various emission patterns.
  • the lighting unit 350 may emit light in an alarm situation.
  • the alarm situation may mean one or more of a schedule set by a user, a disaster situation, an alarm obtained from an associated terminal (not shown), and an alarm obtained from an associated home network.
  • the controller 170 of the image projection apparatus 100 may control the lighting unit 350 of the audio output apparatus 300 to emit light in a disaster such as a fire or an earthquake.
  • the controller 170 may control the lighting unit 350 to emit light in various colors and various light emission patterns according to the type of disaster.
  • the controller 170 may obtain alarm information from an associated terminal (not shown), and control the lighting unit 350 of the audio output device 300 to emit light in response to the obtained alarm information.
  • the controller 170 obtains alarm information about a call reception, a message reception, and the like from an associated terminal (not shown), and the lighting unit 350 of the audio output device 300 notifies a call reception, a message reception, and the like.
  • the light emitting operation can be controlled.
  • the terminal described above may include various terminals such as a personal terminal, a home terminal, and an office terminal.
  • the controller 170 may obtain alarm information from the linked home network, and control the lighting unit 350 of the audio output device 300 to emit light in response to the obtained alarm information.
  • the controller 170 may obtain visitor notification information from the linked home network and control the light emitting operation of the lighting unit 350 of the audio output apparatus 300 to notify the visitor.
  • controller 170 may control the lighting unit 350 to emit light in response to various alarms.
  • the controller 170 may control the lighting unit 350 to emit light when a motion is detected in an area where the image projection apparatus 100 is provided or another area.
  • the image projection apparatus 100 and the audio output apparatus 300 of the present invention may provide alarm information through the lighting unit 350 in various environments.
  • the lighting unit 350 of the audio output device 300 may notify the user of alarm information regarding various alarm situations by emitting light.
  • the user may recognize the alarm information through the light emission operation of the lighting unit 350 even when it is difficult to recognize the alarm information due to noise.
  • the user can easily recognize the alarm for the remote terminal.
  • the description of the operation of the above-described audio output device 300 is an example for description and is not limited thereto. Therefore, various operations may be set according to a user's or designer's selection.
  • 23 is a conceptual diagram of image projection according to an embodiment of the present invention.
  • the image projector 180 may project an image to a point where a beam generated by the light source unit 181 passes through the lens unit 182 and is reflected by the reflector 183 to be projected. Accordingly, the image screen 400 on which the image projected from the image projector 180 is displayed may be displayed on one surface on which the image is projected.
  • 24 is a conceptual diagram of image projection according to another embodiment of the present invention.
  • the image projector 180 may project an image to a point where a beam generated by the light source unit 181 is projected through the lens unit 182. Accordingly, the image screen 400 on which the image projected from the image projector 180 is displayed may be displayed on one surface on which the image is projected.
  • the image projector 180 may project an image in various projection directions using the reflector 183.
  • 25 is a flowchart illustrating a method of operating an image projection apparatus, according to an exemplary embodiment.
  • the distance sensor 106 of the image projector 100 senses a distance to a sensing area corresponding to an image projection area in which an image is projected (S210).
  • the distance sensor 106 may sense a distance to a sensing area corresponding to an image projection area in which an image is projected, which is the direction in which the distance sensor 106 corresponds.
  • FIG. 26 is an exemplary diagram illustrating distance sensing to a sensing area according to an embodiment of the present invention.
  • the image projector 100 may project an image onto one surface of the image projector 100 that is close to the image projector 100. Accordingly, the area in which the image is projected may be referred to as the image projection area 500.
  • the distance sensor 106 of the image projector 100 may sense a distance to the sensing area 700 corresponding to the image projection area 500 on which the image is projected.
  • the sensing area 700 may be an area that is close to the image projection area 500 or may be an area that is in close contact with the image projection area 500.
  • the state in which the image projection apparatus 100 senses the distance may be a state in which an image is projected onto the image projection area 500 or a state in which no image is projected.
  • the sensing area 700 may include a plurality of divided sensing areas. For example, as illustrated in FIG. 26, the sensing area 700 may include a sensing top area 710 and a sensing bottom area 730.
  • a plurality of sensing regions will be described in detail with reference to FIGS. 27 to 29.
  • FIG. 27 is an exemplary view illustrating a plurality of sensing regions according to an embodiment of the present invention.
  • the distance sensor 106 of the image projection apparatus 100 may distance the first sensing region 711 and the second sensing region 731 corresponding to the image projection region 500 for projecting an image.
  • the first sensing area 711 may be an area within a first distance d1 in the lower direction from the top of the image projection area 500
  • the second sensing area 731 may be a bottom of the image projection area 500. May be an area within a second distance d2 in the upper direction.
  • the controller 170 may recognize whether a specific object is located in the first sensing area 711 or the second sensing area 731 based on the distance sensing value of the distance sensor 106.
  • FIG. 28 is an exemplary view illustrating a plurality of sensing regions according to another embodiment of the present invention.
  • the image projector 100 may include a plurality of distance sensors 106, a first distance sensor 106a and a second distance sensor 106b.
  • Each of the first distance sensor 106a and the second distance sensor 106b may sense a distance to a sensing area corresponding to the image projection area 500.
  • the first distance sensor 106a may be a third sensing area 713 which is an area within a first distance d1 in a direction from the top of the image projection area 500 to the bottom of the image projection area 500.
  • the distance may be sensed with respect to the fourth sensing area 733, which is an area within the second distance d2 in the upper direction from the lower end of the image projection area 500.
  • the second distance sensor 106b is a fifth sensing area 714 that is an area within a first distance d1 in a direction from the top of the image projection area 500 to the bottom of the image projection area 500.
  • the distance may be sensed with respect to the sixth sensing area 734, which is an area within the second distance d2 from the bottom of the image projection area 500 to the top direction.
  • the controller 170 based on the distance sensing value of each of the first distance sensor 106a and the second distance sensor 106b, the specific object is a third sensing area 713, the fourth sensing area 733, It may be recognized whether one or more of the fifth sensing region 714 and the sixth sensing region 733 is located.
  • 29 is an exemplary view illustrating a plurality of sensing regions according to another embodiment of the present invention.
  • the image projector 100 may include a plurality of distance sensors 106, a first distance sensor 106a and a second distance sensor 106b. Each of the first distance sensor 106a and the second distance sensor 106b may sense a distance to a sensing area corresponding to the image projection area 500.
  • the first distance sensor 106a is a seventh sensing area 715 that is an area within a third distance d3 from the top of the image projection area 500 to the bottom of the image projection area 500. From the bottom of the seventh sensing area 715 to the bottom of the image projection area 500 to the bottom of the fourth distance d4, the eighth sensing area 725 and the bottom of the image projection area 500 from the bottom to the top direction.
  • the distance may be sensed with respect to the ninth sensing region 735 within the fifth distance d5.
  • the second distance sensor 106b is a region within a third distance d3 in a direction from the top of the image projection area 500 to the bottom of the image projection area 500, the tenth sensing area 717, From the bottom of the tenth sensing area 717 to the bottom of the image projection area 500 to the bottom of the fourth distance d4, the eleventh sensing area 727 and the bottom of the image projection area 500 from the bottom to the top direction.
  • the distance may be sensed with respect to the twelfth sensing area 737 which is an area within the fifth distance d5.
  • the controller 170 may determine that the specific object is the seventh sensing region 715, the eighth sensing region 725, based on the distance sensing values of each of the first distance sensor 106a and the second distance sensor 106b. It may be recognized whether one or more of the ninth sensing area 735, the tenth sensing area 717, the eleventh sensing area 727, and the twelfth sensing area 737 is located.
  • the distance sensor and the sensing area described above are not limited thereto. Therefore, the arrangement of the distance sensors and the number of distance sensors may be changed according to a user or designer's selection. In addition, the sensing area may be set at various distances and directions according to a user's or designer's selection.
  • the controller 170 of the image projection apparatus 100 recognizes a trigger operation for displaying one or more menus based on the sensed distance (S230).
  • the controller 170 may acquire a distance sensed with respect to the sensing area 700 from one or more distance sensors 106, and recognize a trigger operation for displaying one or more menus based on the acquired distance.
  • the trigger operation for displaying the menu may be a user input that swipes in one direction from the sensing area 700 corresponding to the image projection area 500.
  • FIG. 30 is an exemplary view illustrating a trigger operation in the vertical direction according to an embodiment of the present invention.
  • the distance sensor 106 of the image projection apparatus 100 may distance the first sensing region 711 and the second sensing region 731 corresponding to the image projection region 500 for projecting an image.
  • the first sensing area 711 may be an area within a first distance d1 in the lower direction from the top of the image projection area 500
  • the second sensing area 731 may be a bottom of the image projection area 500. May be an area within a second distance d2 in the upper direction.
  • the controller 170 may recognize a swipe operation in which a user's hand moves from the first area 711 to the second area 731 based on the distance sensed by the distance sensor 106.
  • the controller 170 may recognize the recognized swipe operation as a trigger operation for displaying a menu.
  • the controller 170 of the image projector 100 may recognize an operation of swiping up and down in the same sensing area as a trigger operation.
  • the trigger operation for displaying the menu may be an operation of swiping from the upper side to the lower side, or an operation of swiping from the lower side to the upper side.
  • 31 is a diagram illustrating a trigger operation in left and right directions according to an embodiment of the present invention.
  • the image projector 100 may include a plurality of distance sensors 106, a first distance sensor 106a and a second distance sensor 106b.
  • Each of the first distance sensor 106a and the second distance sensor 106b may sense a distance to a sensing area corresponding to the image projection area 500.
  • the first distance sensor 106a may be a third sensing area 713 which is an area within a first distance d1 in a direction from the top of the image projection area 500 to the bottom of the image projection area 500.
  • the distance may be sensed with respect to the fourth sensing area 733, which is an area within the second distance d2 in the upper direction from the lower end of the image projection area 500.
  • the second distance sensor 106b is a fifth sensing area 714 that is an area within a first distance d1 in a direction from the top of the image projection area 500 to the bottom of the image projection area 500.
  • the distance may be sensed with respect to the sixth sensing area 734, which is an area within the second distance d2 from the bottom of the image projection area 500 to the top direction.
  • the controller 170 may generate a second user's hand in the sensing area corresponding to the first distance sensor 106a based on a distance sensed by at least one of the first distance sensor 106a and the second distance sensor 106b.
  • the swipe motion of moving to the sensing area corresponding to the distance sensor 106b may be recognized.
  • the controller 170 may allow the user's hand to move from the sixth sensing area 733 to the eighth sensing area 734 based on the distance sensed by the first distance sensor 106a and the second distance sensor 106b. You can recognize the swipe gesture to move to).
  • the controller 170 may recognize the recognized swipe operation as a trigger operation for displaying a menu.
  • the trigger operation for displaying the menu may be an operation of swiping from left to right or an operation of swiping from right to left.
  • the controller 170 of the image projection apparatus 100 may recognize a tap operation for moving a hand in the front-rear direction with respect to the image projection area 500 as a trigger operation for displaying a menu.
  • the controller 170 may change the image projection area 500 based on a change in the sensed distance value of the distance sensor 106 according to a tap operation of moving a hand in the front-rear direction with respect to the image projection area 500. It is possible to recognize a tap operation of moving the hand in the front-rear direction with respect to. The controller 170 may recognize the recognized tap operation as a trigger action for displaying a menu.
  • trigger operation is not limited to this for illustrative purposes. Therefore, according to a user's or designer's selection, various operations may be recognized as trigger actions for displaying a menu.
  • the controller 170 of the image projection apparatus 100 displays a menu for at least one operation in the image projection area 500 (S250).
  • the controller 170 senses a distance to a user input corresponding to the displayed menu (S270), and performs an operation corresponding to the sensed distance (S290).
  • the controller 170 may control the image projector 180 to project an image onto the image projection area 500.
  • the controller 170 may control the image projector 180 to display a menu related to at least one operation of the image projector 100 on the image projection area 500 based on the recognized trigger operation. Accordingly, the image projector 180 may display a menu related to one or more operations on the image projected on the image projection area 500.
  • the distance sensor 106 may sense a distance to an object according to a user input corresponding to one or more menus displayed on the image projection area 500.
  • the object may be a user's hand.
  • the controller 170 may perform an operation corresponding to the displayed menu and the sensed distance. For example, the controller 170 may perform an operation corresponding to the selected menu when the user input for selecting one menu on which the sensed distance is displayed is selected.
  • 33 is an exemplary view showing a channel menu display according to an embodiment of the present invention.
  • 34 is an exemplary view of displaying a volume menu according to an embodiment of the present invention.
  • the controller 170 may display the channel menu 561 and the volume menu 571 in one region of the image projection area 500 in response to the recognized trigger operation.
  • the channel menu 561 may be a menu for displaying a channel change menu
  • the volume menu 571 may be a menu for displaying a volume change menu.
  • the controller 170 may display the channel menu 561 at a position corresponding to the first sensing area 711 in the image projection area 500, and display the volume menu 571 in the second sensing area in the image projection area. It may be displayed at a position corresponding to 731.
  • the controller 170 may recognize that the user selects the channel menu 561.
  • the controller 170 may recognize that the user selects the volume menu 571 when the user input to the second sensing area 731 is recognized based on the distance sensed by the distance sensor 106.
  • the controller 170 may display the channel change menu on the image projection area 500 when the user selects the channel menu 561.
  • the controller 170 may display a channel up menu 562 and a channel down menu 572 on one area of the image projection area 500.
  • the channel up menu 562 and the channel down menu 572 may be menus for changing a channel displayed in the image projection area 500.
  • the controller 170 may display the channel up menu 562 at a position corresponding to the first sensing region 711 in the image projection area 500, and display the channel down menu 563 in the image projection area at the second position. It may be displayed at a position corresponding to the sensing area 731.
  • the controller 170 may recognize that the user selects the channel up menu 562. .
  • the controller 170 may change the channel displayed in the image projection area 500 to the next channel.
  • the controller 170 may recognize that the user selects the channel down menu 572 when the user input to the second sensing area 731 is recognized based on the distance sensed by the distance sensor 106.
  • the controller 170 may change the channel displayed in the image projection area 500 to the previous channel.
  • the controller 170 may display the volume change menu on the image projection area 500.
  • the controller 170 may display the volume up menu 563 and the volume down menu 573 in one area of the image projection area 500.
  • the volume up menu 563 may be a menu for increasing the volume of audio output from the audio output unit 185
  • the volume down menu 573 may be used for lowering the volume of audio output from the audio output unit 185. It may be a menu.
  • the controller 170 may display the volume up menu 563 at a position corresponding to the first sensing region 711 in the image projection area 500, and display the volume down menu 573 in the image projection area at the second position.
  • the controller 170 may recognize that the user has selected the volume up menu 563. .
  • the controller 170 may increase the audio volume output by the audio output unit 185.
  • the controller 170 may recognize that the user selects the volume down menu 573 when the user input to the second sensing area 731 is recognized based on the distance sensed by the distance sensor 106.
  • the controller 170 may lower the audio volume output from the audio output unit 185.
  • 35 is an exemplary view of displaying an operation selection menu according to another embodiment of the present invention.
  • the controller 170 may adjust the channel up menu 562 and the channel down menu in one region of the image projection area 500 corresponding to the first distance image sensor 106a. 563 may be displayed. In addition, the controller 170 may display the channel up menu 562 at a position corresponding to the third sensing area 713 in the image projection area 500, and display the channel down menu 563 in the fourth image projection area. It may be displayed at a position corresponding to the sensing area 733. Accordingly, when the controller 170 recognizes a user input to the third sensing area 713 based on the distance sensed by the distance sensor 106, the controller 170 may recognize that the user selects the channel up menu 562. .
  • the controller 170 may change the channel displayed in the image projection area 500 to the next channel.
  • the controller 170 may recognize that the user selects the channel down menu 563 when the user input to the fourth sensing area 733 is recognized based on the distance sensed by the distance sensor 106.
  • the controller 170 may change the channel displayed in the image projection area 500 to the previous channel.
  • the controller 180 may display the volume up menu 572 and the volume down menu 573 in one area of the image projection area 500 corresponding to the second distance image sensor 106b in response to the recognized trigger operation. Can be.
  • the controller 170 may display the volume up menu 572 at a position corresponding to the fifth sensing area 714 in the image projection area 500, and display the volume down menu 573 in the sixth image projection area.
  • the controller 170 may recognize that the user selects the volume up menu 572. .
  • the controller 170 may increase the audio volume output by the audio output unit 185.
  • the controller 170 may recognize that the user selects the volume down menu 573 when the user input to the sixth sensing area 734 is recognized based on the distance sensed by the distance sensor 106.
  • the controller 170 may lower the audio volume output from the audio output unit 185.
  • 36 is a diagram illustrating displaying an operation selection menu according to another embodiment of the present invention.
  • the controller 170 may correspond to a channel up menu 562 and a channel list menu on one region of the image projection area 500 corresponding to the first distance image sensor 106a in response to the recognized trigger operation. 564 and the channel down menu 563 may be displayed.
  • the channel list menu 564 may be a menu for displaying a list of one or more channels.
  • the controller 170 may display the channel up menu 562 at a position corresponding to the seventh sensing area 715 in the image projection area 500, and display the channel list menu 564 at the eighth sensing area 725. ), And the channel down menu 563 may be displayed at a position corresponding to the ninth sensing region 735.
  • the controller 170 may recognize that the user selects the channel up menu 562. Can be. Thus, the controller 170 may change the channel displayed in the image projection area 500 to the next channel.
  • the controller 170 may recognize that the user selects the channel list menu 564 based on the distance sensed by the first distance sensor 106a and recognizes a user input to the eighth sensing area 725. have. Thus, the controller 170 may display a channel list on the image projection area 500 through the image projector 180.
  • the controller 170 may recognize that the user selects the channel down menu 563 when the user input for the ninth sensing area 735 is recognized based on the distance sensed by the first distance sensor 106a. have. Thus, the controller 170 may change the channel displayed in the image projection area 500 to the previous channel.
  • the controller 180 may adjust the volume up menu 572, the mute menu 574, and the volume in one region of the image projection area 500 corresponding to the second distance image sensor 106b in response to the recognized trigger operation.
  • the down menu 573 can be displayed.
  • the mute menu 574 may be a menu for stopping audio output of the audio output unit 185.
  • the controller 170 may display the volume up menu 572 at a position corresponding to the tenth sensing area 717 in the image projection area 500, and display the mute menu 574 in the image projection area 500.
  • the volume down menu 573 may be displayed at a position corresponding to the eleventh sensing area 727, and the volume down menu 573 may be displayed at a position corresponding to the twelfth sensing area 737 in the image projection area. Accordingly, when the controller 170 recognizes a user input to the tenth sensing area 717 based on the distance sensed by the second distance sensor 106b, the controller 170 may recognize that the user has selected the volume up menu 572. Can be. Thus, the controller 170 may increase the audio volume output by the audio output unit 185. The controller 170 may recognize that the user selects the mute menu 574 when the user input to the eleventh sensing area 727 is recognized based on the distance sensed by the second distance sensor 106b. .
  • the controller 170 may stop the audio output.
  • the controller 170 may recognize that the user has selected the volume down menu 573 when the user input to the twelfth sensing area 737 is recognized based on the distance sensed by the second distance sensor 106b. have.
  • the controller 170 may lower the audio volume output from the audio output unit 185.
  • various menus may be displayed according to a user's or designer's selection, and various operations corresponding to various menus may be performed by the image projector 100.
  • the above-described method may be implemented as code that can be read by a processor in a medium in which a program is recorded.
  • processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.
  • the above-described image projection apparatus is not limited to the configuration and method of the above-described embodiments, but the embodiments may be configured by selectively combining all or some of the embodiments so that various modifications may be made. May be

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

본 발명의 실시 예에 따른 영상 투사 장치는 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하고, 센싱된 거리를 기초로 영상 투사 영역, 영상 투사 장치와 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단한다. 영상 투사 장치는 판단된 영상 투사 상태를 기초로 영상 투사 영역에 영상을 투사한다.

Description

영상 투사 장치 및 그의 동작 방법
본 발명은 영상 투사 장치 및 그의 동작 방법에 관한 것으로, 보다 상세하게는 영상이 투사되는 영상 투사 영역의 상태를 판단하고, 판단된 영상 투사 영역의 상태에 대응하는 동작을 수행하는 영상 투사 장치 및 그의 동작 방법에 관한 것이다.
최근 들어, 영상을 표시하는 방법은 디스플레이 장치와 같이 장치 내에 영상을 표시하는 방법뿐만 아니라, 프로젝터와 같이 영상을 일정 영역에 투사하는 방법도 이용되고 있다.
디스플레이 장치를 통한 영상 표시는 영상을 표시할 수 있는 화면 크기에 한계가 있고, 디스플레이 장치의 화면 이외의 다른 영역에는 영상을 표시할 수 없는 한계가 있다.
반면에 프로젝터와 같은 영상 투사 장치는 디스플레이 장치보다 큰 화면을 제공할 수 있으며, 영상을 투사하는 방향에 따라 다양한 위치에 영상을 표시할 수 있는 장점이 있다.
한편, 최근에는 다양한 터치 방식을 통해 디스플레이 장치에 표시된 화면을 사용자가 직접 터치하는 방식의 입력 방식이 널리 사용되고 있다. 터치 방식의 사용자 입력 방식은 표시된 화면에 대해 사용자가 직접적인 터치 동작을 할 수 있어서, 사용자가 입력 방식, 사용 방식을 직관적으로 인식할 수 있는 장점이 있다.
하지만 영상 투사 장치는 일정한 디스플레이가 없는 특징으로 인해 터치 방식을 통한 사용자 입력을 수신하지 못하는 단점이 있다.
또한, 영상 투사 장치는 영상이 투사되는 지점과 영상 투사 장치 사이에 장애물이 있으면, 투사되는 영상이 가려지는 단점도 있으며, 사용자가 투사되는 영상에 직접적으로 노출되면 사용자의 시력이 손상될 우려도 있다.
이러한 영상 투사 장치의 단점을 해결할 필요가 있다.
본 발명에 따른 영상 투사 장치는 다양한 위치에 영상을 투사할 수 있어서, 공간 활용성을 높이고 미관을 향상시키는데 목적이 있다.
또한, 본 발명은 영상이 투사되는 영상 투사 영역의 상태를 판단하고, 판단된 영상 투사 영역에 대응하는 영상을 투사하여, 쾌적한 시청 환경을 사용자에 제공하는데 목적이 있다.
또한, 본 발명은 투사되는 화면에 대한 사용자 입력을 인식하여, 투사되는 영상에 대한 제어 동작을 수행하는데 목적이 있다.
본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법은 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하는 단계; 상기 센싱된 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하는 단계; 및 상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하는 단계를 포함한다.
본 발명의 일 실시 예에 따른 영상 투사 장치는 영상을 투사하는 영상 투사부; 상기 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하는 센싱부; 및 상기 센싱된 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하고, 상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하도록 제어하는 제어부를 포함한다.
본 발명의 다른 실시 예에 따른 영상 투사 장치의 동작 방법은 하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하는 단계; 상기 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱하는 단계; 상기 센싱된 제1 거리를 기초로, 상기 메뉴에 대응하는 동작을 수행하는 단계를 포함한다.
본 발명의 다른 실시 예에 따른 영상 투사 장치는 하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하는 영상 투사부; 상기 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱하는 거리 센서; 및 상기 센싱된 제1 거리를 기초로, 상기 메뉴에 대응하는 동작을 수행하는 제어부를 포함한다.
본 발명의 다양한 실시 예에 따르면, 본 발명에 따른 영상 투사 장치는 다양한 위치에 영상을 투사할 수 있어서, 공간 활용성을 높이고 미관을 향상시킬 수 있다.
또한, 본 발명은 영상 투사 영역의 상태를 판단하고, 판단된 영상 투사 영역에 대응하는 영상을 투사할 수 있어서, 사용자에 쾌적한 시청 환경을 제공할 수 있다.
또한, 본 발명은 투사되는 영상에 대한 사용자 입력을 인식할 수 있어서, 사용자가 원하는 동작 및 기능을 용이하게 실행할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 블록도로 도시한 것이다.
도 2는 본 발명의 일 실시 예에 따른 영상 투사를 일 방면에서 바라본 개념도이다.
도 3은 본 발명의 일 실시 예에 따른 영상 투사를 다른 방면에서 바라본 개념도이다.
도 4는 본 발명의 일 실시 예에 따른 케이스에 대한 예시도이다.
도 5는 본 발명의 일 실시 예에 따른 영상 투사되는 케이스를 나타내는 예시도이다.
도 6은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 7은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 8은 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.
도 9는 본 발명의 일 실시 예에 따른 영상 투사 장치의 구체적인 동작에 대한 흐름도이다.
도 10은 본 발명의 일 실시 예에 따른 거리 센서의 거리 센싱을 나타내는 예시도이다.
도 11은 본 발명의 일 실시 예에 따른 장애물 인식을 나타내기 위한 개념도이다.
도 12는 본 발명의 일 실시 예에 따른 장애물을 회피하기 위한 영상 투사에 대한 예시도이다.
도 13은 본 발명의 일 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.
도 14는 본 발명의 일 실시 예에 따른 사용자 입력에 대한 센싱을 나타내는 예시도이다.
도 15는 본 발명의 일 실시 예에 따른 기능 UI 표시 화면을 나타내는 예시도이다.
도 16은 본 발명의 일 실시 예에 따른 도어 열림 인식에 대한 예시도이다.
도 17은 본 발명의 다른 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.
도 18은 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.
도 19는 본 발명의 일 실시 예에 따른 도어에 대한 영상 투사를 나타내는 예시도이다.
도 20은 본 발명의 일 실시 예에 따른 벽면에 대한 영상 투사를 나타내는 예시도이다.
도 21은 본 발명의 일 실시 예에 따른 오디오 출력 장치의 실제 구성 예를 보여준다.
도 22는 본 발명의 일 실시 예에 따른 오디오 출력 장치를 나타내는 예시도이다.
도 23은 본 발명의 일 실시 예에 따른 영상 투사의 개념도이다.
도 24는 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.
도 25는 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.
도 26은 본 발명의 일 실시 예에 따른 센싱 영역까지의 거리 센싱을 나타내는 예시도이다.
도 27은 본 발명의 일 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 28은 본 발명의 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 29는 본 발명의 또 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 30은 본 발명의 일 실시 예에 따른 상하 방향의 트리거 동작에 대한 예시도이다.
도 31은 본 발명의 일 실시 예에 따른 좌우 방향의 트리거 동작에 대한 예시도이다.
도 32는 본 발명의 일 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 33은 본 발명의 일 실시 예에 따른 채널 메뉴 표시에 대한 예시도이다.
도 34는 본 발명의 일 실시 예에 따른 볼륨 메뉴 표시에 대한 예시도이다.
도 35는 본 발명의 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 36은 본 발명의 또 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 따른 영상 투사 장치의 동작 방법 및 그를 이용한 영상 투사 장치에 관하여 상세히 설명한다.
본 발명의 실시 예에 따른 영상 투사 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 영상 투사 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 음성 명령 인식, 제스처 동작 인식, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행 가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.
따라서, 본 발명에서 기술되는 영상 투사 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 영상 투사 장치는, 보다 구체적으로 예를 들면, 영상 프로젝터가 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
도 1은 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 블록도로 도시한 것이다.
도 1을 참조하면, 영상 투사 장치(100)는 센싱부(105), 음성 획득부(110), 영상 획득부(120), 방송 수신부(130), 외부 장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 통신부(160), 제어부(170), 영상 투사부(180), 오디오 출력부(185), 전원공급부(190)를 포함할 수 있다.
센싱부(105)는 영상 투사 장치 내 정보, 영상 투사 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다.
예를 들어, 센싱부(105)는 거리 센서(106), 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor, 107), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 건강케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 영상 투사 장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
거리 센서(106)는 거리를 센싱할 수 있는 하나 이상의 센서를 포함할 수 있다.
일 실시 예로 거리 센서(106)는 적외선 센서를 포함할 수 있고, 다양한 물체, 영상이 투사되는 지점 등에 대한 거리를 센싱할 수 있다. 예를 들면, 거리 센서(106)에 포함된 적외선 센서는 적외선을 출력하고, 출력된 적외선이 물체 등에 의해 반사되면 반사된 적외선을 거리 센서(106)에 포함된 이미지 센서로 인식할 수 있다.
거리 센서(106)는 적외선 센서 이외에도 다양한 센서를 포함할 수 있다. 예를 들면 거리 센서(106)는 초음파 센서를 포함할 수 있고, 적외선 이외의 다른 파장의 광선을 출력할 수도 있다. 거리 센서(106)의 구체적인 동작에 대해서는 후술하기로 한다.
한편, 센싱부(105)는 별도로 구비된 센서를 통해 영상이 투사되는 영역의 상태를 인식할 수도 있다.
예를 들어, 센싱부(105)는 영상이 투사되는 영역에 구비된 자석형 센서, 스위치형 센서 등으로부터 영상이 투사되는 영역의 움직임에 대한 정보를 획득할 수 있다.
음성 획득부(110)는 음성을 획득할 수 있다.
음성 획득부(110)는 적어도 하나 이상의 마이크를 포함할 수 있어서, 포함된 마이크를 통해 음성을 획득할 수 있다.
그리고 음성 획득부(110)는 획득된 음성을 제어부(170)에 전달할 수 있다.
영상 획득부(120)는 영상을 획득할 수 있다.
영상 획득부(120)는 적어도 하나 이상의 카메라를 포함할 수 있어서, 포함된 카메라를 통해 영상을 획득할 수 있다. 이에 따라, 영상 획득부(120)는 사용자에 대한 영상을 획득할 수 있다. 또한, 영상 획득부(120)는 사용자의 홍채, 정맥과 같은 생체 정보에 대한 영상도 획득할 수 있다.
그리고 영상 획득부(120)는 획득한 영상을 제어부(170)에 전달할 수 있다.
한편, 음성 획득부(110)와 영상 획득부(120)는 사용자입력 인터페이스부(150)에 포함될 수 있다.
한편, 방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다.
외부 장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
외부 장치 인터페이스부(135)는 외부 장치와 연결하기 위한 단자(terminal)를 포함할 수 있어서, 외부 장치의 커넥터(connecter)와 연결될 수 있다.
외부 장치 인터페이스부(135)는 전원 공급부(190)로부터 공급받은 전원을 연결된 외부 장치에 구동 전원으로 공급할 수 있다.
또한, 외부 장치 인터페이스부(135)는 외부 장치가 송신한 동작 신호를 제어부(170)에 전달할 수 있다.
한편, 외부 장치 인터페이스부(135)는 외부 장치의 연결을 감지할 수 있는 센서가 포함될 수 있어서, 외부 장치의 연결을 인식할 수 있다.
네트워크 인터페이스부(133)는 영상 투사 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
또한, 영상 투사 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 영상 투사 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 저장부(140)는 외부 장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
저장부(140)는 외부 장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
또한, 저장부(140)는 사용자의 생체 정보를 저장할 수 있다. 여기서 사용자의 생체 정보란, 사용자의 지문, 홍채, 정맥, 얼굴, 음성과 같은 사용자의 신체와 관련된 고유의 정보를 의미할 수 있다.
영상 투사 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
저장부(140)는 사용자에 대한 개인화 서비스 정보를 저장할 수 있다. 여기서 사용자에 대한 개인화 서비스 정보는 사용자가 자주 사용하는 기능, 자주 시청하는 채널, 컨텐츠 및 사용자가 설정한 설정값 중 하나 이상에 대한 정보를 포함할 수 있다. 그리고 사용자에 대한 개인화 서비스 정보는 복수의 사용자 각각에 대해 개인화된 기능, 개인화된 메뉴에 대한 정보를 포함할 수 있다.
사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
통신부(160)는 영상 투사 장치(100)와 네트워크 또는 영상 투사 장치(100)와 주변 기기가 유선 통신 또는 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
예를 들면, 통신부(160)는 인터넷 접속을 위한 인터넷 모듈을 포함할 수 있으며, 인터넷 모듈을 통해 유선 또는 무선 통신을 통해 영상 투사 장치(100)가 인터넷에 접속할 수 있도록 할 수 있다.
다른 예를 들면, 통신부(160)는 영상 투사 장치(100)와 다른 기기가 무선 통신할 수 있도록 근거리 통신 모듈을 포함할 수 있다. 일 실시예로 통신부(160)에 포함된 근거리 통신 모듈은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, WLAN(Wireless LAN)(Wi-Fi), NFC(Near Field Communication) 등을 이용할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 영상 투사부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부 장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부 장치 인터페이스부(135)를 통하여 외부 장치로 입력될 수 있다.
또한, 제어부(170)는 후술할 오디오 출력 장치(300)에 처리된 음성 신호를 전달하여, 오디오 출력 장치(300)가 오디오 출력하도록 제어할 수도 있다.
그 외, 제어부(170)는 영상 투사 장치(100) 내의 전반적인 동작을 제어할 수 있다.
제어부(170)는 외부 장치 인터페이스부(135)로부터 외부 장치의 연결에 대한 감지 신호를 입력받아, 외부 장치 인터페이스부(135)를 통해 연결된 외부 장치에 구동 전원이 전달되도록 전원 공급부(190)를 제어할 수 있다.
또한, 제어부(170)는 음성 획득부(110)를 통해 획득한 음성을 인식하여, 인식된 음성에 대응하는 제어 동작을 수행할 수 있다.
그리고 제어부(170)는 사용자의 음성에 대한 복수의 음성 신호를 비교하고, 가장 품질 좋은 음성 신호의 음성을 인식하여, 인식된 음성에 대응하는 제어 동작을 수행할 수 있다.
제어부(170)는 복수의 마이크가 구비된 음성 획득부(110)로부터 획득된 복수의 음성을 비교하여 사용자의 위치를 판단할 수 있다. 구체적으로 제어부(170)는 복수의 마이크 각각이 획득한 음성을 비교하여, 음성을 발화한 사용자의 위치를 판단할 수 있다.
한편, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상 투사 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 영상 투사 장치(100) 내로 다운받을 수 있도록 할 수 있다.
제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 영상 투사부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부 장치 영상 재생 명령에 따라, 외부 장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 영상 투사부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는 영상을 표시하도록 영상 투사부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부 장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 영상 투사부(180)에서 투사되도록 제어할 수 있다. 이 경우, 영상 투사부(180)에서 투사되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는 영상 투사 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 투사되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
또한, 제어부(170)는 입력된 사용자의 생체 정보, 패턴 정보 중 하나 이상을 기 저장된 생체 정보, 패턴 정보 중 하나 이상과 비교할 수 있다. 이에 따라 제어부(170)는 기 저장된 생체 정보, 패턴 정보 중 하나 이상에서 입력된 사용자의 생체 정보와 동일한 생체 정보를 검색할 수도 있다.
또한, 제어부(170)는 입력된 사용자의 생체 정보, 패턴 정보 중 하나 이상을 기초로 입력된 생체 정보, 패턴 정보 중 하나 이상에 대응하는 사용자의 개인화 서비스 정보를 획득할 수 있다. 예를 들면, 제어부(180)는 수신된 사용자의 지문 이미지 또는 지문에 대한 정보를 기초로, 사용자를 인식할 수 있다. 그리고 제어부(180)는 인식된 사용자에 대응하는 개인화 서비스 정보를 획득할 수 있다.
또한, 제어부(170)는 영상이 투사될 지점인 영상 투사 영역까지의 거리를 기초로 투사될 영상을 조절할 수 있다.
또한, 제어부(170)는 거리 센서(106)가 센싱한 센싱값을 기초로 영상 투사 영역, 영상 투사 장치(100)와 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 센싱값을 기초로 영상 투사 영역에 대한 사용자 입력을 감지할 수도 있다. 이에 대해서는 후술한다.
영상 투사부(180)는 다양한 영상을 투사할 수 있다.
영상 투사부(180)는 광원부(181), 렌즈부(182), 반사부(183)를 포함할 수 있다.
광원부(181)는 빔을 발광한다.
렌즈부(182)는 광원부(181)에서 발생된 빔의 소정 파장만을 선택적으로 투과시킨다. 렌즈부(182)는 설계에 따라 복수의 렌즈를 포함할 수도 있다.
반사부(183)는 렌즈부(182)에서 투과된 빔을 반사시킨다. 또한, 반사부(183)는 상하좌우 방향으로 회전 가능하여, 투과된 빔을 다양한 방향으로 반사시킬 수도 있다.
영상 투사부(180)는 광원부(181)에서 발광하는 빔이 렌즈부(182)를 통과하여 투사될 지점에 영상을 투사할 수 있다.
또한, 영상 투사부(180)는 광원부(181)에서 발광하는 빔이 렌즈부(182)를 통과하고, 반사부(183)에서 반사되어, 투사될 지점에 영상을 투사할 수도 있다.
이를 도 2 내지 도 3을 참고하여 설명한다.
도 2는 본 발명의 일 실시 예에 따른 영상 투사를 일 방면에서 바라본 개념도이다.
도 2를 참조하면, 영상 투사 장치(100)는 케이스(400) 내에 구비되어, 케이스(400)의 도어(410)에 영상을 투사할 수 있다. 구체적으로, 영상 투사 장치(100)는 영상 투사부(180)에 포함된 광원부(181)에서 빔을 발생시키고, 발생된 빔이 렌즈부(182)를 통과하고 반사부(183)에서 반사되어 투사될 지점인 도어(410)에 영상이 투사되도록 할 수 있다. 이에 따라 케이스(400)의 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
여기서 도어(410)는 케이스(400)의 도어일 수 있고, 탈부착 또는 일방향 이상으로 오픈 가능한 구조일 수 있다.
또한, 도어(410)는 투명 또는 불투명한 구조일 수 있으며, 예를 들면 유리 재질로 구성될 수 있다. 그리고 도어(410)는 투사되는 영상이 명확하게 표시되기 위한 시트지 등이 부착될 수도 있다.
한편, 영상 투사 장치(100)는 케이스(400) 밖에 구비될 수도 있다.
여기서 케이스(400)는 가구일 수 있다. 예를 들면 수납장, 장식장일 수 있다. 또한, 케이스(400)는 가구의 일부 또는 전체일 수도 있다.
도 3은 본 발명의 일 실시 예에 따른 영상 투사를 다른 방면에서 바라본 개념도이다.
도 3을 참조하면, 영상 투사 장치(100)의 영상 투사부(180)는 광원부(181)에서 빔을 발생시키고, 발생된 빔이 렌즈부(182)를 통과하고 반사부(183)에서 반사되어 투사될 지점인 도어(410)에 영상을 투사되도록 할 수 있다. 이에 따라 케이스(400)의 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
영상 투사부(180)로부터 투사된 영상이 표시되는 구체적인 실시 예를 도 4 내지 도 5를 참조하여 설명한다.
도 4는 본 발명의 일 실시 예에 따른 케이스에 대한 예시도이다.
도 4를 참조하면, 케이스(400)는 하나 이상의 수납 공간 또는 장식 공간을 포함하는 가구일 수 있다. 이에 따라 케이스(400)는 하나 이상의 도어(410)를 포함할 수 있다. 그리고 도어(410)는 투명 또는 불투명한 소재로 구성될 수 있다. 이에 따라 도어(410)는 영상이 투사되지 않을 때에는 일반적인 도어 형태일 수 있다.
도 5는 본 발명의 일 실시 예에 따른 영상 투사되는 케이스를 나타내는 예시도이다.
도 5를 참조하면, 케이스(400)의 도어(410)는 영상 투사 장치(100)가 투사하는 영상이 투사될 수 있다. 이에 따라 도어(410)의 전체 또는 일부에 투사되는 영상에 따른 영상 화면(500)이 표시될 수 있다.
이와 같이 영상 투사부(180)는 영상이 투사될 지점에 영상을 투사하여, 영상 화면(500)이 표시되도록 할 수 있다.
또한, 영상 투사 장치(100)는 도어(410) 이외에도 다양한 영역 또는 물체에 영상을 투사할 수 있다. 이에 대해서는 후술한다.
한편, 영상 투사부(180)는 상술한 반사부(183)의 반사 과정을 제외하고 영상을 투사할 수도 있다. 이에 따라 광원부(181)에서 발생된 빔이 렌즈부(182)를 통과하여 영상이 투사될 지점에 영상이 투사될 수도 있다.
영상 투사부(180)의 영상 투사 방법에 대한 내용은 공지 기술이므로 자세한 내용은 생략한다.
영상 투사부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부 장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 1에 도시된 영상 투사 장치(100)는 본 발명의 일 실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 영상 투사 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
본 발명의 또 다른 실시예에 따르면, 영상 투사 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부 장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 영상 투사 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 발명의 실시예에 따른 이미지 표시 방법은 도 1을 참조하여 설명한 바와 같은 영상 투사 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 영상 투사부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
다음으로, 도 6 내지 도 7을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.
도 6은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 7은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
먼저, 도 6을 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280) 및 음성 획득부(290)를 포함할 수 있다.
무선통신부(220)는 전술하여 설명한 본 발명의 실시 예들에 따른 영상표시기기 중 임의의 어느 하나와 신호를 송수신한다.
원격제어장치(200)는 RF 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 영상 투사 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.
또한, 원격제어장치(200)는 영상 투사 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선통신부(220)를 통하여 전송한다.
한편, 원격제어장치(200)는 영상 투사 장치(100)가 전송한 신호를 무선통신부(220)를 통하여 수신할 수 있으며, 필요에 따라 무선통신부(220)를 통하여 영상 투사 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(230)는 키패드, 버튼, 터치 패드, 휠 키 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)으로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 7을 참조하여 설명한다.
도 7을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), LIVE 버튼(233), 외부입력 버튼(234), 음량 버튼(235), 음성 인식 버튼(236), 채널 버튼(237), 휠 키(238) 및 취소 버튼(239)을 포함할 수 있다.
지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다.
전원 버튼(231)은 영상 투사 장치(100), 외부기기의 전원을 온/오프 하기 위한 버튼일 수 있다.
홈 버튼(232)은 영상 투사 장치(100)의 기본 메뉴를 표시하기 위한 버튼일 수 있다.
LIVE 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다.
외부입력 버튼(234)는 외부기기로부터 수신된 영상을 표시하기 위한 버튼일 수 있다.
음량 버튼(235)는 영상 투사 장치(100)의 오디오 출력을 조절하기 위한 버튼일 수 있다.
음성 인식 버튼(236)은 사용자의 음성을 인식하기 위한 버튼일 수 있다.
채널 버튼(237)은 특정 방송 채널, 특정 방송 서비스의 방송 신호를 수신하기 위한 버튼일 수 있다.
휠 키(238)는 일 방향 이상에 대한 사용자 입력을 수신할 수 있는 휠(Wheel)형태의 키일 수 있다. 예를 들면 휠 키(238)은 상, 하 방향 또는 상, 하, 좌, 우 방향에 대한 사용자 입력을 수신할 수 있는 휠(Wheel) 형태의 키일 수 있다. 또한, 휠 키(238)은 방향키를 더 포함할 수 있다. 여기서 휠 키(238)의 상, 하 방향에 대한 사용자 입력은 휠 키(238)를 회전시키는 사용자 입력일 있고, 좌, 우 방향에 대한 사용자 입력은 휠 키(238)를 틸트시키는 사용자 입력일 수 있다. 또한, 휠 키(238)는 푸쉬 입력을 수신할 수도 있다.
LIVE 버튼(297)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다.
다시 도 6을 설명한다.
사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다.
또한, 사용자 입력부(230)는 스크롤 키, 조그 키, 터치 패드 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 영상 투사 장치(100)의 디스플레이부(180)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 영상 투사 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 영상 투사 장치(100)의 제어 여부를 인지할 수 있다.
예를 들어, 출력부(250)는 사용자 입력부(230)가 조작되거나 무선 통신부(220)를 통하여 영상 투사 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다.
또한, 전원공급부(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로써 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 영상 투사 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 영상 투사 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.
원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 영상 투사 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.
제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(230)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(220)를 통하여 영상 투사 장치(100)로 전송할 수 있다.
또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.
음성 획득부(290)는 적어도 하나 이상의 마이크(미도시)를 포함할 수 있어서, 포함된 마이크를 통해 음성을 획득할 수 있다.
그리고 음성 획득부(290)는 획득된 음성을 제어부(280)에 전달할 수 있다.
이하, 상술한 영상 투사 장치(100)에 대한 설명을 기초로 영상 투사 장치(100)의 동작 방법을 설명한다.
도 8은 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.
도 8을 참조하면, 영상 투사 장치(100)의 센싱부(105)는 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱한다(S110).
센싱부(105)는 포함된 다양한 센서를 통해 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱할 수 있다. 예를 들면 센싱부(105)는 거리 센서(106)을 통해 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱할 수 있다.
여기서 영상이 투사되는 영상 투사 영역에 대한 거리는 영상 투사 장치(100)와 영상 투사 영역 사이의 거리를 의미할 수 있다. 이에 따라 센싱부(105)는 영상 투사 장치(100)와 영상 투사 영역 사이의 물체 또는 영역까지의 거리를 센싱할 수도 있다.
또한, 센싱부(105)는 상술한 영상 투사 영역을 넘어선 영역에 대한 거리도 센싱할 수 있다. 예를 들면, 센싱부(105)는 케이스(400)의 도어(410)가 영상 투사 영역이면, 도어(410)를 넘어선 영역에 대한 거리도 센싱할 수 있다. 이에 따라 센싱부(105)는 영상 투사 영역에 대한 사용자 입력도 센싱할 수 있다. 여기서 사용자 입력은 영상이 투사되는 도어(410)에 대해 터치하는 사용자 입력, 도어(410)에 일정 거리 내에 근접하는 사용자 입력을 포함할 수 있다. 이에 대해서는 후술한다.
영상 투사 장치(100)의 제어부(170)는 센싱된 거리를 기초로 영상 투사 영역의 상태, 영상 투사 장치(100)와 영상 투사 영역 사이의 상태, 영상 투사 영역에 대한 사용자 입력 상태 중 하나 이상을 포함하는 영상 투사 상태를 판단한다(S130).
제어부(170)는 센싱된 거리를 기초로 영상 투사 영역의 상태를 판단할 수 있다.
일 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영역인 케이스(400)의 도어(410)의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 이상이면, 도어(410)가 오픈된 것으로 판단할 수 있다. 이에 따라 제어부(170)는 도어(410)의 오픈 여부를 판단할 수 있다.
또한, 제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영역이 케이스(400)의 일부분이 아닌 다른 영역인지 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 제1 거리 이상인 제2 거리이면, 영상이 투사되는 영역이 케이스(400)의 일부분이 아닌 다른 영역인 것으로 판단할 수 있다.
다른 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 미만이면, 도어(410)와 영상 투사 장치(100) 사이에 어떠한 물체가 있는 것으로 판단할 수 있다. 그래서 제어부(170)는 판단된 물체의 위치에 따라 투사되는 영상의 일부 또는 전부가 영상이 투사되는 도어(410)에 도달하지 않고, 판단된 물체에 투사되는 영상의 일부 또는 전부가 투사되는 것을 판단할 수 있다. 이에 따라 제어부(170)는 투사되는 영상의 일부 또는 전부가 영상 투사 영역인 도어(410)에 도달하지 않는 상태를 판단할 수 있다.
또 다른 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상 투사 영역에 대한 사용자 입력 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리에 대응하는 센싱값의 변화량을 기초로 영상이 투사되는 영상 투사 영역에 대한 사용자 입력 상태를 판단할 수 있다. 일 실시 예로 제어부(170)는 영상이 투사되는 도어(410)에 대한 센싱값의 변화량을 기초로 도어(410)에 대한 사용자 입력을 인식할 수 있다. 여기서 사용자 입력은 영상이 투사되는 도어(410)에 대해 터치하는 사용자 입력, 도어(410)에 일정 거리 내에 근접하는 사용자 입력을 포함할 수 있다.
영상 투사 장치(100)의 제어부(170)는 판단된 영상 투사 상태를 기초로 동작한다(S150).
일 실시 예로 제어부(170)는 영상이 투사되는 영역인 케이스(400)의 도어(410) 상태가 오픈된 것으로 판단되면, 투사 중인 영상의 밝기를 낮추거나 다른 영역에 영상을 투사할 수 있다.
다른 실시 예로 제어부(170)는 영상이 투사되는 영역까지의 거리가 변경된 것으로 판단되면, 변경된 거리에 대응하여 영상을 투사할 수 있다. 이에 따라 제어부(170)는 영상 투사부(180)가 투사하는 영상의 초점, 해상도, 크기, 밝기, 색상, 명암 중 하나 이상을 조절할 수 있다.
또 다른 실시 예로 제어부(170)는 영상 투사 장치(100)와 영상 투사 영역 사이에 어떠한 물체가 있는 것으로 판단되고, 해당 물체로 인해 투사되는 영상의 일부 또는 전부가 영상 투사 영역에 도달하지 못한다고 판단되면, 영상 투사에 대한 장애물이 있음을 알리는 알람을 투사되는 영상에 표시할 수 있다. 또한, 제어부(170)는 장애물이 있음을 알리는 알람을 오디오 출력부(185)를 통해 오디오로 출력할 수도 있다.
또 다른 실시 예로 제어부(170)는 영상 투사 영역에 대한 사용자 입력을 인식한 것으로 판단하면, 판단된 사용자 입력을 기초로 동작할 수 있다. 예를 들면 제어부(170)는 영상 투사 장치(100)의 동작과 관련된 사용자 입력을 인식하고, 인식된 사용자 입력에 대응하는 동작을 수행할 수 있다. 여기서 영상 투사 장치(100)의 동작과 관련된 사용자 입력은 영상 투사 장치(100)가 표시하는 영상에 대한 영상 전환, 출력되는 오디오에 대한 볼륨 조절, 영상 투사 장치(100)의 턴온, 턴오프 등 다양한 동작에 대한 사용자 입력일 수 있다.
한편, 상술한 영상 투사 장치(100)의 동작에 대한 구체적인 일 실시 예를 상세히 설명한다.
도 9는 본 발명의 일 실시 예에 따른 영상 투사 장치의 구체적인 동작에 대한 흐름도이다.
도 9를 참조하면, 영상 투사 장치(100)의 센싱부(105)는 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱한다(S200).
센싱부(105)는 거리 센서(106)을 포함할 수 있고, 거리 센서(106)는 복수의 거리 센서(106a, 106b, 106c, 106d)를 포함할 수 있다. 그리고 복수의 거리 센서 각각은 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱할 수 있다.
이에 대해 도 10을 참조하여 설명한다.
도 10은 본 발명의 일 실시 예에 따른 거리 센서의 거리 센싱을 나타내는 예시도이다.
도 10을 참조하면, 거리 센서(106)은 복수의 거리 센서(106a, 106b, 106c, 106d)를 포함할 수 있다. 복수의 거리 센서(106a, 106b, 106c, 106d) 각각은 영상이 투사되는 영역인 도어(410)에 대한 거리를 각각 센싱할 수 있다. 한편, 복수의 거리 센서(106a, 106b, 106c, 106d) 각각이 센싱하는 영역은 일부 또는 전부가 겹쳐질 수도 있다. 이에 따라 복수의 거리 센서(106a, 106b, 106c, 106d) 각각은 도어(410)의 서로 다른 영역을 센싱할 수 있다. 또한, 거리 센서(106)에 포함된 복수의 거리 센서는 다양한 개수로 구성될 수 있으며, 영상 투사 기기(100)의 다양한 위치에 구비될 수 있다. 이에 따라 거리 센서(106)에 포함된 복수의 거리 센서는 영상이 투사되는 영역에 대해 다양한 각도, 방향으로 거리를 센싱할 수 있다.
센싱부(105)의 거리 센싱에 대해서는 상술한 바 있어 자세한 설명은 생략한다.
제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이에 장애물이 있는지 판단하고(S201), 장애물이 없는 것으로 판단되면 영상 투사 영역에 영상을 투사한다(S203).
일 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되는 영상 투사 영역까지의 거리 미만이면, 도어(410)와 영상 투사 장치(100) 사이에 어떠한 물체가 있는 것으로 판단할 수 있다. 그래서 제어부(170)는 판단된 물체의 위치에 따라 투사되는 영상의 일부 또는 전부가 영상이 투사되는 도어(410)에 도달하지 않고, 판단된 물체에 투사되는 영상의 일부 또는 전부가 투사되는 것을 판단할 수 있다. 이에 따라 제어부(170)는 투사되는 영상의 일부 또는 전부가 영상 투사 영역인 도어(410)에 도달하지 않는 상태를 판단할 수 있다.
예를 들면, 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 미만이면, 도어(410)와 영상 투사 장치(100) 사이에 어떠한 물체가 있는 것으로 판단할 수 있다.
제어부(170)는 영상 투사 장치(100)와 영상 투사 영역 사이에 장애물이 없는 것으로 판단되면, 영상 투사 영역에 영상 투사부(180)를 통해 영상을 투사할 수 있다.
예를 들면, 제어부(170)는 영상 투사부(180)를 통해 영상 투사 영역인 도어(410)에 영상을 투사할 수 있다. 이에 따라 케이스(400)의 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
한편, 제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이에 장애물이 있는지 판단하고(S201), 장애물이 있는 것으로 판단되면 장애물이 인식되었음을 알리는 알람을 표시한다(S213).
제어부(170)는 센싱부(105)에 포함된 거리 센서(106)를 통해 영상 투사 장치(100)와 영상 투사 영역 사이의 전부 또는 일부에 장애물이 있는지 판단할 수 있다.
이에 대해 도 11을 참조하여 설명한다.
도 11은 본 발명의 일 실시 예에 따른 장애물 인식을 나타내기 위한 개념도이다.
도 11을 참조하면, 거리 센서(106)는 영상 투사 영역에 대해 복수의 센서를 통해 거리를 센싱할 수 있고, 영상 투사 영역인 도어(410)와 영상 투사 장치(100) 사이의 장애물(600)을 센싱할 수 있다. 그리고 제어부(170)는 거리 센서(106)에 포함된 복수의 거리 센서(106a, 106b, 106c, 106d) 중 하나의 거리 센서(106a)가 센싱한 센싱값이 다른 거리 센서들(106a, 106b, 106c, 106d)이 센싱한 센싱값과 다르면, 도어(410)와 영상 투사 장치(100) 사이에 장애물(600)이 있는 것으로 판단할 수 있다.
제어부(170)는 영상 투사 영역과 영상 투사 장치(100) 사이에 장애물이 있는 것으로 판단하면, 투사되는 영상 화면(500)에 장애물이 있음을 알리는 알람을 표시할 수 있고, 오디오 출력부(185)를 통해 장애물이 있음을 알리는 알람을 출력할 수도 있다.
영상 투사 장치(100)의 제어부(170)는 인식된 장애물을 회피하여 영상을 영상 투사 영역에 투사한다(S215).
일 실시 예로, 제어부(170)는 인식된 장애물을 회피하여, 영상 투사 영역의 일부 영역에 영상을 투사할 수 있다. 또한, 제어부(170)는 인식된 장애물을 회피하여, 영상 투사 영역에 투사되는 영상의 크기를 조절할 수도 있다.
이에 대해 도 12를 참조하여 설명한다.
도 12는 본 발명의 일 실시 예에 따른 장애물을 회피하기 위한 영상 투사에 대한 예시도이다.
도 12를 참조하면, 제어부(170)는 인식된 장애물(600)에 투사되는 영상이 투사되지 않고, 영상 투사 영역인 도어(410)에 영상 전체가 투사되도록 투사되는 영상의 크기를 축소할 수 있다. 이에 따라 제어부(170)는 영상 투사부(180)를 통해 도어(410)에 투사되는 영상의 크기를 축소시킬 수 있다.
다른 실시 예로, 제어부(170)는 인식된 장애물을 회피하여, 영상이 투사되던 영역이 아닌 다른 영역에 영상을 투사할 수도 있다.
이에 대해 도 13을 참조하여 설명한다.
도 13은 본 발명의 일 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.
도 13을 참조하면, 제어부(170)는 인식된 장애물(600)로 인해 투사되는 영상의 전체 또는 일부가 투사되지 않는 도어(410)가 아닌 다른 영역인 인접 도어(420)에 영상을 투사할 수 있다. 구체적으로 제어부(170)는 영상 투사부(180)의 영상 투사 각도를 조절할 수 있고, 각도가 조절된 영상 투사부(180)를 통해 인접 도어(420)에 영상을 투사할 수 있다. 이에 따라 인접 도어(420)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
다시 도 9를 참조한다.
제어부(170)는 센싱된 거리를 기초로 영상 투사 영역에 표시되는 영상 화면(500)에 대한 사용자 입력이 인식되는지 판단하고(S205), 사용자 입력이 인식되면 인식된 사용자 입력에 대응하는 동작을 수행한다(S207).
예를 들면 제어부(170)는 센싱된 거리에 대응하는 센싱값의 변화량을 기초로 영상이 투사되는 영상 투사 영역에 대한 사용자 입력 상태를 판단할 수 있다. 구체적으로 제어부(170)는 센싱된 거리에 대응하는 센싱값의 변화량이 기준량 이상인 영역에 대한 사용자 입력을 인식할 수 있다.
이에 대해 도 14 및 도 15를 참조하여 설명한다.
도 14는 본 발명의 일 실시 예에 따른 사용자 입력에 대한 센싱을 나타내는 예시도이다.
도 14를 참조하면, 거리 센서(106)에 포함된 복수의 거리 센서(106a, 106b, 106c, 106c) 각각은 영상이 투사되는 영역인 도어(410)의 서로 다른 영역에 대해 센싱할 수 있다. 그리고 제어부(170)는 복수의 거리 센서(106a, 106b, 106c, 106c) 각각이 센싱한 센싱값의 변화량을 기초로 도어(410)에 포함된 제1 영역(411), 제2 영역(412), 제3 영역(413), 제4 영역(414), 제5 영역(415) 각각에 대한 사용자 입력을 인식할 수 있다. 구체적으로 제어부(170)는 제1 거리 센서(106a)에 대응하는 제1 영역(411), 제1 거리 센서(106a) 및 제2 거리 센서(106b)에 대응하는 제2 영역(412), 제2 거리 센서(106b) 및 제3 거리 센서(106c)에 대응하는 제3 영역(413), 제3 거리 센서(106c) 및 제4 거리 센서(106d)에 대응하는 제4 영역(414), 제4 거리 센서(106d)에 대응하는 제5 영역(415) 각각에 대한 사용자 입력을 인식할 수 있다. 여기서 사용자 입력은 도어(410)에 포함된 제1 영역(411), 제2 영역(412), 제3 영역(413), 제4 영역(414), 제5 영역(415) 각각에 대해 터치하는 사용자 입력, 도어(410)에 일정 거리 내에 근접하는 사용자 입력을 포함할 수 있다.
또한, 제어부(170)는 영상 투사 영역의 복수의 영역인 제1 내지 제5 영역(411, 412, 413, 414, 415)에 대응하는 기능을 나타내는 기능 UI(User Interface)를 영상 화면(500)에 표시할 수도 있다. 그리고 제어부(170)는 기능 UI에 대한 사용자 입력을 인식하고, 인식된 사용자 입력을 기초로 기능 UI에 대응하는 기능을 수행할 수 있다. 이에 대해 도 15를 참조하여 설명한다.
도 15는 본 발명의 일 실시 예에 따른 기능 UI 표시 화면을 나타내는 예시도이다.
도 15를 참조하면, 제어부(170)는 영상 투사부(180)를 통해 영상 투사 영역인 도어(410)에 투사되는 영상에 사용자 입력을 인식하는 복수의 영역 각각에 대응하는 기능 UI를 표시할 수 있다. 예를 들면, 제어부(170)는 영상 투사부(180)를 통해 도어(410)에 투사되는 영상 화면(500)에 제1 영역(411)에 대응하는 제1 UI(510), 제2 영역(412)에 대응하는 제2 UI(520), 제3 영역(413)에 대응하는 제3 UI(530), 제4 영역에 대응하는 제4 UI(540), 제5 영역(415)에 대응하는 제5 UI(550)을 표시할 수 있다. 여기서 제1 UI(510)는 채널 업에 대응하고, 제2 UI(520)는 채널 다운에 대응할 수 있다. 제3 UI(530)는 볼륨 업에 대응하고, 제4 UI(540)는 볼륨 다운에 대응할 수 있다. 제5 UI(550)는 전원 오프에 대응할 수 있다. 그리고 제어부(170)는 제1 내지 제5 UI(510, 520, 530, 540, 550)에 대응하는 사용자 입력을 인식하면, 인식된 사용자 입력에 대응하는 동작을 수행할 수 있다.
한편, 상술한 기능 UI 및 기능 동작 수행에 대한 설명은 설명을 위한 예시로 사용자 또는 설계자의 설정에 따라 다양한 기능에 대해 구현될 수 있다.
다시 도 9를 참조한다.
제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영상 투사 영역인 도어의 도어 열림 여부를 판단하고(S209), 도어(410)가 열린 것으로 판단되면 영상 투사부(180)가 투사하는 영상을 조절한다(S211).
일 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영역인 케이스(400)의 도어(410)의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 이상이면, 도어(410)가 오픈된 것으로 판단할 수 있다. 이에 따라 제어부(170)는 도어(410)의 오픈 여부를 판단할 수 있다.
도 16을 참조하여 상세히 설명한다.
도 16은 본 발명의 일 실시 예에 따른 도어 열림 인식에 대한 예시도이다.
도 16을 참조하면, 거리 센서(106)은 영상이 투사되는 영역에 대응하는 방향에 대해 거리를 센싱할 수 있다. 거리 센서(106)은 영상이 투사되던 도어(410)가 오픈되면, 센싱되던 거리값이 증가되는 것을 센싱할 수 있다. 이에 따라 제어부(170)는 센싱된 거리를 기초로 도어(410)의 오픈을 인식할 수 있다.
제어부(170)는 영상이 투사되던 도어(410)가 오픈된 것으로 인식하면, 영상 투사부(180)가 투사하는 영상의 밝기를 낮출 수 있다.
또한, 제어부(170)는 영상이 투사되던 도어(410)가 오픈된 것으로 인식하면, 영상 투사부(180)가 영상 투사 동작을 중지하도록 할 수도 있다.
또한, 제어부(170)는 영상이 투사되던 도어(410)가 오픈된 것으로 인식하면, 다른 영역에 영상을 투사할 수도 있다.
이에 대해 도 17을 참조하여 설명한다.
도 17은 본 발명의 다른 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.
도 17을 참조하면, 제어부(170)는 도어(410)의 오픈을 인식하면, 영상 투사부(180)가 다른 영역인 인접 도어(420)에 영상을 투사하도록 제어할 수 있다. 구체적으로 제어부(170)는 영상 투사부(180)의 영상 투사 각도를 조절할 수 있고, 각도가 조절된 영상 투사부(180)를 통해 인접 도어(420)에 영상을 투사할 수 있다. 이에 따라 인접 도어(420)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
한편, 제어부(170)는 상술한 자석형 센서, 스위치형 센서 등으로부터 영상이 투사되는 영역의 움직임에 대한 정보를 획득하고, 획득된 정보를 기초로 투사되는 영상의 밝기를 조절하거나, 영상 투사 동작을 중지하도록 할 수도 있다. 또한, 제어부(170)는 획득된 정보를 기초로 투사되는 영상을 다른 영역에 투사할 수도 있다.
이와 같이 본 발명에 따른 영상 투사 장치(100)는 영상이 투사되던 도어(410)가 오픈되면 다른 영역에 영상을 투사할 수 있다.
한편, 상술한 도어 오픈에 따른 영상 조절에 대한 설명은 설명을 위한 예시로 사용자 또는 설계자의 설정에 따라 다양한 방식 및 다양한 영역에 대해 투사되는 영상을 조절할 수 있다.
본 발명의 영상 투사 장치(100)는 다양한 거리에 영상을 투사할 수 있고, 영상이 투사되는 지점까지의 거리에 따라 다양한 크기의 영상 화면을 표시할 수 있다.
예를 들면, 영상 투사 장치(100)는 케이스(400)의 도어(410)보다 더 먼 거리인 영역에 영상을 투사하여, 도어(410)에 투사되던 영상 화면(500)보다 더 큰 영상 화면을 표시할 수 있다.
이에 대해 도 18 내지 도 20을 참조하여 설명한다.
도 18은 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.
도 18을 참조하면, 영상 투사 장치(100)는 케이스(400)의 도어(410)보다 원거리에 있는 벽면(700)에 영상을 투사할 수 있다. 일 실시 예로, 제어부(170)는 도어(410)가 오픈된 것으로 인식되면, 원거리에 있는 벽면(700)에 영상이 투사되도록 영상 투사부(180)의 영상 투사 동작을 제어할 수 있다. 구체적으로 거리 센서(106)은 벽면(700)까지의 거리를 센싱할 수 있다. 제어부(170)는 센싱된 거리를 기초로, 영상 투사부(180)가 투사하는 영상의 초점, 해상도, 크기, 밝기, 색상, 명암 중 하나 이상을 조절할 수 있다. 영상 투사부(180)는 조절된 초점, 해상도, 크기, 밝기, 색상, 명암 중 하나 이상을 기초로 영상을 벽면(700)에 투사할 수 있다. 이에 따라 영상 투사 장치(100)는 도어(410)보다 원거리에 있는 벽면(700)에 최적의 영상을 투사할 수 있다.
한편, 도어(410)는 복수의 패널로 구성될 수 있다. 예를 들면, 도어(410)는 스크린 패널(412) 및 투과 패널(415)을 포함할 수 있다. 그리고 도어(410)의 스크린 패널(412) 및 투과 패널(415)은 슬라이딩 또는 착탈 방식을 통해 도어(410)에서 분리될 수 있다. 이에 따라 도어(410)의 스크린 패널(412), 투과 패널(415)의 슬라이딩 또는 착탈에 따라 영상 투사 장치(100)에서 투사되는 영상이 투사되는 영역을 조절할 수 있다.
이에 대해 도 19 및 도 20을 참조하여 자세히 설명한다.
도 19는 본 발명의 일 실시 예에 따른 도어에 대한 영상 투사를 나타내는 예시도이다.
도 19를 참조하면, 도어(410)는 스크린 패널(412) 및 투과 패널(415)을 포함할 수 있다. 이에 따라 영상 투사 장치(100)에서 투사되는 영상은 도어(410)를 통과하지 못하고, 도어(410)에 투사될 수 있다. 이에 따라 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
도 20은 본 발명의 일 실시 예에 따른 벽면에 대한 영상 투사를 나타내는 예시도이다.
도 20을 참조하면, 도어(410)는 스크린 패널(412)이 분리될 수 있고, 투과 패널(415)를 포함할 수 있다. 이에 따라 영상 투사 장치(100)에서 투사되는 영상은 도어(410)를 통과할 수 있다. 이에 따라 벽면(700)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
한편, 도어(410)는 전기적으로 투명도가 조절 가능한 구조일 수 있다. 예를 들면 도어(410)는 일렉트로크로미즘(Electrochromism)을 나타내는 재료를 포함할 수 있어서, 사용자는 도어(410)의 투명도를 전기적으로 조절할 수 있다. 이에 따라, 영상 투사 장치(100)는 도어(410)의 투명도 조절에 따라 도어(410) 또는 벽면(700)에 영상을 투사할 수도 있다.
한편, 본 발명에 따른 영상 투사 장치(100)의 제어부(170)는 오디오 출력 장치(300)를 제어할 수 있다. 예를 들면 영상 투사 장치(100)의 제어부(170)는 투사되는 영상에 대응하는 오디오가 오디오 출력 장치(300)에 출력되도록 제어할 수 있다. 또한, 영상 투사 장치(100)의 제어부(170)는 오디오 출력 장치(300)에 포함된 조명부(350)의 조명 동작을 제어할 수도 있다.
이에 대해 도 21 및 도 22를 참조하여 자세히 설명한다.
도 21은 본 발명의 일 실시 예에 따른 오디오 출력 장치(300)의 실제 구성 예를 보여준다.
도 21을 참조하면, 오디오 출력 장치(300)는 사용자 입력을 획득하는 조작부(310), 오디오를 출력하는 스피커부(330)를 포함할 수 있다.
영상 투사 장치(100)의 제어부(170)는 투사되는 영상에 대응하는 오디오를 오디오 출력 장치(300)의 스피커부(330)로 출력할 수 있다.
오디오 출력 장치(300)는 조작부(310)에 대한 사용자 입력을 획득하고, 획득된 사용자 입력을 영상 투사 장치(100)에 전달할 수 있다. 그리고 영상 투사 장치(100)의 제어부(170)는 전달된 사용자 입력에 대응하는 동작을 수행할 수 있다.
한편, 오디오 출력 장치(300)는 영상 투사 장치(100)가 구비된 케이스(400)의 일면 또는 일측면에 구비될 수 있다.
또한 오디오 출력 장치(300)는 발광하는 조명부(350)을 더 포함할 수 있다.
조명부(350)는 특정 방향으로 빛을 발광할 수 있다. 예를 들면, 조명부(350)는 오디오 출력 장치(300)가 구비된 케이스(400)의 하측 방향으로 빛을 발광할 수 있다. 이에 대해 도 22를 참조하여 설명한다.
도 22는 본 발명의 일 실시 예에 따른 오디오 출력 장치(300)를 나타내는 예시도이다.
도 22를 참조하면, 오디오 출력 장치(300)는 케이스(400)의 하단에 구비될 수 있다. 그리고 오디오 출력 장치(300)는 조작부(310)에 대한 사용자 입력 또는 영상 투사 장치(100)의 제어부(170)의 제어에 의해 조명부(350)가 발광할 수 있다.
일 실시 예로, 케이스(400)가 주방에 설치된 수납장인 경우, 오디오 출력 장치(300)는 수납장의 하단 또는 일 측면에 구비될 수 있고, 오디오 출력 장치(300)에 포함된 조명부(350)는 수납장의 하측 방향으로 빛을 발광할 수 있다. 이에 따라 조명부(350)는 일반적인 조명, 스탠드 조명 등과 같은 기능을 수행할 수 있다.
한편, 조명부(350)는 하나 이상의 색상으로 발광할 수 있고, 다양한 발광 패턴으로 발광할 수도 있다.
조명부(350)는 알람 상황 시에 발광할 수 있다.
여기서 알람 상황은 사용자가 설정한 일정, 재난 상황, 연동된 단말기(미도시)로부터 획득한 알람, 연동된 홈 네트워크로부터 획득한 알람 중 하나 이상을 의미할 수 있다.
일 실시 예로, 영상 투사 장치(100)의 제어부(170)는 화재, 지진 등과 같은 재난 시에 오디오 출력 장치(300)의 조명부(350)가 발광하도록 제어할 수 있다. 이 때 제어부(170)는 재난 종류에 따라 다양한 색상, 다양한 발광 패턴으로 조명부(350)가 발광하도록 제어할 수 있다.
다른 실시 예로, 제어부(170)는 연동된 단말기(미도시)로부터 알람 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 획득된 알람 정보에 대응하여 발광하도록 제어할 수 있다. 예를 들면, 제어부(170)는 연동된 단말기(미도시)로부터 전화 수신, 메시지 수신 등에 대한 알람 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 전화 수신, 메시지 수신 등을 알리는 발광 동작을 하도록 제어할 수 있다. 한편, 상술한 단말기는 개인용 단말기, 가정용 단말기, 사무용 단말기 등 다양한 단말기를 포함할 수 있다.
또 다른 실시 예로, 제어부(170)는 연동된 홈 네트워크로부터 알람 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 획득된 알람 정보에 대응하여 발광하도록 제어할 수 있다. 예를 들면, 제어부(170)는 연동된 홈 네트워크로부터 방문자 알림 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 방문자 있음을 알리는 발광 동작을 하도록 제어할 수 있다.
또한, 제어부(170)는 다양한 알람에 대응하여 조명부(350)가 발광하도록 제어할 수 있다. 예를 들면, 제어부(170)는 영상 투사 장치(100)가 구비된 영역 또는 다른 영역에 움직임이 감지되면 조명부(350)가 발광하도록 제어할 수도 있다.
이에 따라 본 발명의 영상 투사 장치(100), 오디오 출력 장치(300)는 다양한 환경에서도 조명부(350)를 통해 알람 정보를 제공할 수 있다.
이와 같이 오디오 출력 장치(300)의 조명부(350)는 다양한 알람 상황에 대한 알람 정보를 발광 동작으로 사용자에 알릴 수 있다. 그래서 사용자는 소음 등으로 인해 알람 정보를 인지하기 어려운 경우에도 조명부(350)의 발광 동작을 통해 알람 정보를 인지할 수 있다. 또한, 사용자는 원거리에 있는 단말기에 대한 알람을 용이하게 인지할 수 있다.
한편, 상술한 오디오 출력 장치(300)의 동작에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라 다양한 동작이 설정될 수 있다.
한편, 이하, 본 발명에 따른 영상 투사 장치(100)의 사용자 입력에 대한 다른 실시 예를 설명한다.
먼저, 영상 투사 장치(100)의 영상 투사에 대한 또 다른 실시예를 설명한다.
도 23은 본 발명의 일 실시 예에 따른 영상 투사의 개념도이다.
도 23을 참조하면, 영상 투사부(180)는 광원부(181)에서 발생된 빔이 렌즈부(182)를 통과하고, 반사부(183)에서 반사되어 투사될 지점에 영상을 투사되도록 할 수 있다. 이에 따라 영상이 투사되는 일면에는 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(400)이 표시될 수 있다.
도 24는 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.
도 24를 참조하면, 영상 투사부(180)는 광원부(181)에서 발생된 빔이 렌즈부(182)를 통과하여 투사될 지점에 영상을 투사되도록 할 수 있다. 이에 따라 영상이 투사되는 일면에는 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(400)이 표시될 수 있다.
이와 같이 영상 투사부(180)는 반사부(183)를 이용하여, 다양한 투사 방향으로 영상을 투사할 수 있다.
도 25는 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.
도 25를 참조하면, 영상 투사 장치(100)의 거리 센서(106)는 영상이 투사되는 영상 투사 영역에 대응하는 센싱 영역까지의 거리를 센싱한다(S210).
거리 센서(106)는 거리 센서(106)가 대응하는 방향인, 영상이 투사되는 영상 투사 영역에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다.
이에 대해 도 26을 참조하여 자세히 설명한다.
도 26은 본 발명의 일 실시 예에 따른 센싱 영역까지의 거리 센싱을 나타내는 예시도이다.
도 26을 참조하면, 영상 투사 장치(100)는 영상 투사 장치(100)와 근접한 일면에 대해 영상을 투사할 수 있다. 이에 따라 영상이 투사되는 영역을 영상 투사 영역(500)이라고 할 수 있다. 영상 투사 장치(100)의 거리 센서(106)는 영상이 투사되는 영상 투사 영역(500)에 대응하는 센싱 영역(700)까지의 거리를 센싱할 수 있다. 여기서 센싱 영역(700)은 영상 투사 영역(500)에 근접한 영역일 수 있고, 영상 투사 영역(500)에 밀착된 영역일 수도 있다. 여기서 영상 투사 장치(100)가 거리 센싱하는 상태는 영상 투사 영역(500)에 영상을 투사하는 상태일 수도 있고, 영상을 투사하지 않는 상태일 수도 있다. 한편, 센싱 영역(700)은 구분된, 복수의 센싱 영역을 포함할 수 있다. 예를 들면 도 26에 도시된 바와 같이, 센싱 영역(700)은 센싱 상단 영역(710) 및 센싱 하단 영역(730)을 포함할 수 있다.
복수의 센싱 영역에 대해 도 27 내지 도 29를 참조하여 상세히 설명한다.
복수의 센싱 영역에 대한 일 실시 예를 도 8을 참조하여 설명한다.
도 27은 본 발명의 일 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 27을 참조하면, 영상 투사 장치(100)의 거리 센서(106)는 영상을 투사하는 영상 투사 영역(500)에 대응하는 제1 센싱 영역(711) 및 제2 센싱 영역(731)에 대해 거리를 센싱할 수 있다. 여기서 제1 센싱 영역(711)은 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역일 수 있고, 제2 센싱 영역(731)은 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역일 수 있다. 이에 따라 제어부(170)는 거리 센서(106)의 거리 센싱값을 기초로, 특정 오브젝트가 제1 센싱 영역(711) 또는 제2 센싱 영역(731)에 위치하는지 인식할 수 있다.
복수의 센싱 영역에 대한 다른 실시 예를 도 28을 참조하여 설명한다.
도 28은 본 발명의 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 28을 참조하면, 영상 투사 장치(100)는 복수의 거리 센서(106)인 제1 거리 센서(106a) 및 제2 거리 센서(106b)를 포함할 수 있다. 제1 거리 센서(106a) 및 제2 거리 센서(106b) 각각은 영상 투사 영역(500)에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다. 제1 거리 센서(106a)는 영상 투사 영역(500)의 좌측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제3 센싱 영역(713) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제4 센싱 영역(733)에 대해 거리를 센싱할 수 있다. 제2 거리 센서(106b)는 영상 투사 영역(500)의 우측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제5 센싱 영역(714) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제6 센싱 영역(734)에 대해 거리를 센싱할 수 있다. 이에 따라 제어부(170)는 제1 거리 센서(106a), 제2 거리 센서(106b) 각각의 거리 센싱값을 기초로, 특정 오브젝트가 제3 센싱 영역(713), 제4 센싱 영역(733), 제5 센싱 영역(714) 및 제6 센싱 영역(733) 중 하나 이상에 위치하는지 인식할 수 있다.
복수의 센싱 영역에 대한 또 다른 실시 예를 도 29를 참조하여 설명한다.
도 29는 본 발명의 또 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 29를 참조하면, 영상 투사 장치(100)는 복수의 거리 센서(106)인 제1 거리 센서(106a) 및 제2 거리 센서(106b)를 포함할 수 있다. 제1 거리 센서(106a) 및 제2 거리 센서(106b) 각각은 영상 투사 영역(500)에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다. 제1 거리 센서(106a)는 영상 투사 영역(500)의 좌측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제3 거리(d3) 이내인 영역인 제7 센싱 영역(715), 제7 센싱 영역(715)의 하단에서 영상 투사 영역(500)의 하단 방향으로 제4 거리(d4) 이내인 영역인 제8 센싱 영역(725) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제5 거리(d5) 이내인 제9 센싱 영역(735)에 대해 거리를 센싱할 수 있다. 제2 거리 센서(106b)는 영상 투사 영역(500)의 우측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제3 거리(d3) 이내인 영역인 제10 센싱 영역(717), 제10 센싱 영역(717)의 하단에서 영상 투사 영역(500)의 하단 방향으로 제4 거리(d4) 이내인 영역인 제11 센싱 영역(727) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제5 거리(d5) 이내인 영역인 제12 센싱 영역(737)에 대해 거리를 센싱할 수 있다. 이에 따라 제어부(170)는 제1 거리 센서(106a), 제2 거리 센서(106b) 각각의 거리 센싱값을 기초로, 특정 오브젝트가 제7 센싱 영역(715), 제8 센싱 영역(725), 제9 센싱 영역(735), 제10 센싱 영역(717), 제11 센싱 영역(727) 및 제12 센싱 영역(737) 중 하나 이상에 위치하는지 인식할 수 있다.
상술한 거리 센서 및 센싱 영역에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라 거리 센서의 배치 및 거리 센서의 수가 변경될 수 있다. 또한 센싱 영역도 사용자 또는 설계자의 선택에 따라 다양한 거리 및 방향으로 설정될 수 있다.
다시 도 25를 참조한다.
도 25를 참조하면, 영상 투사 장치(100)의 제어부(170)는 센싱된 거리를 기초로, 하나 이상의 메뉴를 표시하기 위한 트리거 동작을 인식한다(S230).
제어부(170)는 하나 이상의 거리 센서(106)로부터, 센싱 영역(700)에 대해 센싱된 거리를 획득하고, 획득된 거리를 기초로 하나 이상의 메뉴를 표시하기 위한 트리거 동작을 인식할 수 있다.
일 실시 예로, 메뉴를 표시하기 위한 트리거 동작은 영상 투사 영역(500)에 대응하는 센싱 영역(700)에서 일 방향으로 스와이프하는 사용자 입력일 수 있다.
이에 대해 도 30 내지 도 31을 참조하여 설명한다.
도 30은 본 발명의 일 실시 예에 따른 상하 방향의 트리거 동작에 대한 예시도이다.
도 30을 참조하면, 영상 투사 장치(100)의 거리 센서(106)는 영상을 투사하는 영상 투사 영역(500)에 대응하는 제1 센싱 영역(711) 및 제2 센싱 영역(731)에 대해 거리를 센싱할 수 있다. 여기서 제1 센싱 영역(711)은 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역일 수 있고, 제2 센싱 영역(731)은 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역일 수 있다. 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 사용자의 손이 제1 영역(711)에서 제2 영역(731)으로 이동하는 스와이프 동작을 인식할 수 있다. 그리고 제어부(170)는 인식된 스와이프 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수 있다.
한편, 영상 투사 장치(100)의 제어부(170)는 동일한 센싱 영역 내에서 상하 방향으로 스와이프하는 동작을 트리거 동작으로 인식할 수도 있다.
또한, 메뉴를 표시하기 위한 트리거 동작은 상측에서 하측으로 스와이프하는 동작일 수도 있고, 하측에서 상측으로 스와이프하는 동작일 수도 있다.
도 31은 본 발명의 일 실시 예에 따른 좌우 방향의 트리거 동작에 대한 예시도이다.
도 31을 참조하면, 영상 투사 장치(100)는 복수의 거리 센서(106)인 제1 거리 센서(106a) 및 제2 거리 센서(106b)를 포함할 수 있다. 제1 거리 센서(106a) 및 제2 거리 센서(106b) 각각은 영상 투사 영역(500)에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다. 제1 거리 센서(106a)는 영상 투사 영역(500)의 좌측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제3 센싱 영역(713) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제4 센싱 영역(733)에 대해 거리를 센싱할 수 있다. 제2 거리 센서(106b)는 영상 투사 영역(500)의 우측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제5 센싱 영역(714) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제6 센싱 영역(734)에 대해 거리를 센싱할 수 있다. 제어부(170)는 제1 거리 센서(106a) 및 제2 거리 센서(106b) 중 하나 이상이 센싱한 거리를 기초로, 사용자의 손이 제1 거리 센서(106a)에 대응하는 센싱 영역에서 제2 거리 센서(106b)에 대응하는 센싱 영역으로 이동하는 스와이프 동작을 인식할 수 있다. 예를 들면, 제어부(170)는 제1 거리 센서(106a) 및 제2 거리 센서(106b)가 센싱한 거리를 기초로, 사용자의 손이 제6 센싱 영역(733)에서 제8 센싱 영역(734)으로 이동하는 스와이프 동작을 인식할 수 있다. 그리고 제어부(170)는 인식된 스와이프 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수 있다.
한편, 메뉴를 표시하기 위한 트리거 동작은 좌측에서 우측으로 스와이프하는 동작일 수도 있고, 우측에서 좌측으로 스와이프하는 동작일 수도 있다.
한편, 영상 투사 장치(100)의 제어부(170)는 영상 투사 영역(500)에 대해 전후 방향으로 손을 이동시키는 탭 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수도 있다.
예를 들면, 제어부(170)는 영상 투사 영역(500)에 대해 전후 방향으로 손을 이동시키는 탭 동작에 따라 거리 센서(106)의 센싱되는 거리값에 변동을 기초로, 영상 투사 영역(500)에 대해 전후 방향으로 손을 이동시키는 탭 동작을 인식할 수 있다. 그리고 제어부(170)는 인식된 탭 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수 있다.
상술한 트리거 동작에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라, 다양한 동작이 메뉴를 표시하기 위한 트리거 동작으로 인식될 수 있다.
다시 도 25를 참조한다.
도 25를 참조하면, 영상 투사 장치(100)의 제어부(170)는 하나 이상의 동작에 대한 메뉴를 영상 투사 영역(500)에 표시한다(S250). 제어부(170)는 표시된 메뉴에 대응하는 사용자 입력에 대한 거리를 센싱하고(S270), 센싱된 거리에 대응하는 동작을 수행한다(S290).
제어부(170)는 영상 투사부(180)가 영상 투사 영역(500)에 영상을 투사하도록 제어할 수 있다. 그리고 제어부(170)는 인식된 트리거 동작을 기초로, 영상 투사 장치(100)의 하나 이상의 동작과 관련된 메뉴를 영상 투사 영역(500)에 표시하도록 영상 투사부(180)를 제어할 수 있다. 이에 따라, 영상 투사부(180)는 영상 투사 영역(500)에 투사되는 영상에 하나 이상의 동작과 관련된 메뉴를 표시할 수 있다. 거리 센서(106)는 영상 투사 영역(500)에 표시되는 하나 이상의 메뉴에 대응하는 사용자 입력에 따른, 오브젝트까지의 거리를 센싱할 수 있다. 여기서 오브젝트는 사용자의 손일 수 있다. 그리고 제어부(170)는 표시된 메뉴 및 센싱된 거리에 대응하는 동작을 수행할 수 있다. 예를 들면, 제어부(170)는 센싱된 거리가 표시된 하나의 메뉴를 선택하기 위한 사용자 입력에 대응하면, 선택된 메뉴에 대응하는 동작을 수행할 수 있다.
이에 대해 도 32 내지 도 34를 참조하여 설명한다.
먼저, 하나의 거리 센서(106)가 구비된 경우에 대해 도 32 내지 도 34를 참조하여 설명한다.
도 32는 본 발명의 일 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 33은 본 발명의 일 실시 예에 따른 채널 메뉴 표시에 대한 예시도이다.
도 34는 본 발명의 일 실시 예에 따른 볼륨 메뉴 표시에 대한 예시도이다.
도 32를 참조하면, 제어부(170)는 인식된 트리거 동작에 대응하여, 영상 투사 영역(500)의 일 영역에 채널 메뉴(561) 및 볼륨 메뉴(571)를 각각 표시할 수 있다. 여기서 채널 메뉴(561)는 채널 변경 메뉴를 표시하기 위한 메뉴일 수 있고, 볼륨 메뉴(571)는 볼륨 변경 메뉴를 표시하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 채널 메뉴(561)를 영상 투사 영역(500)에서 제1 센싱 영역(711)에 대응하는 위치에 표시할 수 있고, 볼륨 메뉴(571)를 영상 투사 영역에서 제2 센싱 영역(731)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제1 센싱 영역(711)에 대한 사용자 입력을 인식하면, 사용자가 채널 메뉴(561)를 선택한 것으로 인식할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제2 센싱 영역(731)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 메뉴(571)를 선택한 것으로 인식할 수 있다.
한편, 제어부(170)는 사용자가 채널 메뉴(561)을 선택한 경우에 채널 변경 메뉴를 영상 투사 영역(500)에 표시할 수 있다. 도 33을 참조하면, 제어부(170)는 영상 투사 영역(500)의 일 영역에 채널 업 메뉴(562) 및 채널 다운 메뉴(572)를 각각 표시할 수 있다. 여기서 채널 업 메뉴(562) 및 채널 다운 메뉴(572)는 영상 투사 영역(500)에 표시되는 채널을 변경하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 채널 업 메뉴(562)를 영상 투사 영역(500)에서 제1 센싱 영역(711)에 대응하는 위치에 표시할 수 있고, 채널 다운 메뉴(563)를 영상 투사 영역에서 제2 센싱 영역(731)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제1 센싱 영역(711)에 대한 사용자 입력을 인식하면, 사용자가 채널 업 메뉴(562)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 다음 채널로 변경할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제2 센싱 영역(731)에 대한 사용자 입력을 인식하면, 사용자가 채널 다운 메뉴(572)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 이전 채널로 변경할 수 있다.
한편, 제어부(170)는 사용자가 볼륨 메뉴(571)을 선택한 경우에 볼륨 변경 메뉴를 영상 투사 영역(500)에 표시할 수 있다. 도 34를 참조하면, 제어부(170)는 영상 투사 영역(500)의 일 영역에 볼륨 업 메뉴(563) 및 볼륨 다운 메뉴(573)를 각각 표시할 수 있다. 여기서 볼륨 업 메뉴(563)는 오디오 출력부(185)에서 출력되는 오디오의 볼륨을 높이기 위한 메뉴일 수 있고, 볼륨 다운 메뉴(573)는 오디오 출력부(185)에서 출력되는 오디오의 볼륨을 낮추기 위한 메뉴일 수 있다. 그리고 제어부(170)는 볼륨 업 메뉴(563)를 영상 투사 영역(500)에서 제1 센싱 영역(711)에 대응하는 위치에 표시할 수 있고, 볼륨 다운 메뉴(573)를 영상 투사 영역에서 제2 센싱 영역(731)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제1 센싱 영역(711)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 업 메뉴(563)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 높일 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제2 센싱 영역(731)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 다운 메뉴(573)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 낮출 수 있다.
다음으로, 복수의 거리 센서(106a, 106b)가 구비된 경우에 대해 도 35를 참조하여 설명한다.
도 35는 본 발명의 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 35를 참조하면, 제어부(170)는 인식된 트리거 동작에 대응하여, 제1 거리영상 센서(106a)에 대응하는 영상 투사 영역(500)의 일 영역에 채널 업 메뉴(562) 및 채널 다운 메뉴(563)을 표시할 수 있다. 그리고 제어부(170)는 채널 업 메뉴(562)를 영상 투사 영역(500)에서 제3 센싱 영역(713)에 대응하는 위치에 표시할 수 있고, 채널 다운 메뉴(563)를 영상 투사 영역에서 제4 센싱 영역(733)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제3 센싱 영역(713)에 대한 사용자 입력을 인식하면, 사용자가 채널 업 메뉴(562)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 다음 채널로 변경할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제4 센싱 영역(733)에 대한 사용자 입력을 인식하면, 사용자가 채널 다운 메뉴(563)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 이전 채널로 변경할 수 있다. 제어부(180)는 인식된 트리거 동작에 대응하여, 제2 거리영상 센서(106b)에 대응하는 영상 투사 영역(500)의 일 영역에 볼륨 업 메뉴(572) 및 볼륨 다운 메뉴(573)을 표시할 수 있다. 그리고 제어부(170)는 볼륨 업 메뉴(572)를 영상 투사 영역(500)에서 제5 센싱 영역(714)에 대응하는 위치에 표시할 수 있고, 볼륨 다운 메뉴(573)를 영상 투사 영역에서 제6 센싱 영역(734)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제5 센싱 영역(714)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 업 메뉴(572)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 높일 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제6 센싱 영역(734)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 다운 메뉴(573)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 낮출 수 있다.
다음으로, 복수의 거리 센서(106a, 106b)가 구비된 경우에 대한 다른 실시예를 도 36을 참조하여 설명한다.
도 36은 본 발명의 또 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 36을 참조하면, 제어부(170)는 인식된 트리거 동작에 대응하여, 제1 거리영상 센서(106a)에 대응하는 영상 투사 영역(500)의 일 영역에 채널 업 메뉴(562), 채널 리스트 메뉴(564) 및 채널 다운 메뉴(563)을 표시할 수 있다. 여기서 채널 리스트 메뉴(564)는 하나 이상의 채널에 대한 리스트를 표시하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 채널 업 메뉴(562)를 영상 투사 영역(500)에서 제7 센싱 영역(715)에 대응하는 위치에 표시할 수 있고, 채널 리스트 메뉴(564)를 제8 센싱 영역(725)에 대응하는 위치에 표시할 수 있고, 채널 다운 메뉴(563)를 제9 센싱 영역(735)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 제1 거리 센서(106a)가 센싱한 거리를 기초로, 제7 센싱 영역(715)에 대한 사용자 입력을 인식하면, 사용자가 채널 업 메뉴(562)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 다음 채널로 변경할 수 있다. 그리고 제어부(170)는 제1 거리 센서(106a)가 센싱한 거리를 기초로, 제8 센싱 영역(725)에 대한 사용자 입력을 인식하면, 사용자가 채널 리스트 메뉴(564)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사부(180)를 통해 영상 투사 영역(500)에 채널 리스트를 표시할 수 있다. 그리고 제어부(170)는 제1 거리 센서(106a)가 센싱한 거리를 기초로, 제9 센싱 영역(735)에 대한 사용자 입력을 인식하면, 사용자가 채널 다운 메뉴(563)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 이전 채널로 변경할 수 있다.
한편, 제어부(180)는 인식된 트리거 동작에 대응하여, 제2 거리영상 센서(106b)에 대응하는 영상 투사 영역(500)의 일 영역에 볼륨 업 메뉴(572), 음소거 메뉴(574) 및 볼륨 다운 메뉴(573)을 표시할 수 있다. 여기서 음소거 메뉴(574)는 오디오 출력부(185)의 오디오 출력을 정지하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 볼륨 업 메뉴(572)를 영상 투사 영역(500)에서 제10 센싱 영역(717)에 대응하는 위치에 표시할 수 있고, 음소거 메뉴(574)를 영상 투사 영역(500)에서 제11 센싱 영역(727)에 대응하는 위치에 표시할 수 있고, 볼륨 다운 메뉴(573)를 영상 투사 영역에서 제12 센싱 영역(737)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 제2 거리 센서(106b)가 센싱한 거리를 기초로, 제10 센싱 영역(717)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 업 메뉴(572)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 높일 수 있다. 그리고 제어부(170)는 제2 거리 센서(106b)가 센싱한 거리를 기초로, 제11 센싱 영역(727)에 대한 사용자 입력을 인식하면, 사용자가 음소거 메뉴(574)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력을 정지할 수 있다. 그리고 제어부(170)는 제2 거리 센서(106b)가 센싱한 거리를 기초로, 제12 센싱 영역(737)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 다운 메뉴(573)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 낮출 수 있다.
한편, 상술한 센싱 거리에 대응하는 동작 수행에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라 다양한 메뉴가 표시될 수 있으며, 다양한 메뉴에 대응하는 다양한 동작이 영상 투사 장치(100)에서 수행될 수 있다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이 설명된 영상 투사 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (12)

  1. 영상 투사 장치의 동작 방법에 있어서,
    영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하는 단계;
    상기 센싱된 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하는 단계; 및
    상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  2. 제1항에 있어서,
    상기 영상 투사 영역에 대한 거리를 센싱하는 단계는
    상기 영상 투사 영역에 포함된 복수의 영역에 대한 거리를 각각 센싱하는 단계를 포함하고,
    상기 영상 투사 상태를 판단하는 단계는
    상기 복수의 영역 각각에 대해 센싱된 거리의 변화량을 기초로 상기 영상 투사 영역에 투사되는 영상 화면에 대한 사용자 입력을 인식하는 단계를 포함하고,
    상기 영상 투사 영역에 영상을 투사하는 단계는
    상기 인식된 사용자 입력에 대응하는 동작을 수행하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  3. 제2항에 있어서,
    상기 영상 화면에 대한 사용자 입력을 인식하는 단계는
    상기 복수의 영역 중 상기 센싱된 거리의 변화량이 기준량 이상인 영역에 대한 사용자 입력을 인식하는 단계를 포함하고,
    상기 인식된 사용자 입력에 대응하는 동작을 수행하는 단계는
    상기 변화량이 기준량 이상인 영역에 대응하는 동작을 수행하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  4. 제1항에 있어서,
    상기 영상 투사 상태를 판단하는 단계는
    상기 센싱된 거리를 기초로 상기 영상 투사 영역의 거리 변화를 감지하는 단계를 포함하고,
    상기 영상 투사 영역에 영상을 투사하는 단계는
    상기 감지된 영상 투사 영역의 거리 변화에 대응하여, 상기 투사되는 영상의 밝기를 조절하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  5. 제1항에 있어서,
    상기 영상 투사 상태를 판단하는 단계는
    상기 센싱된 거리를 기초로 상기 영상 투사 영역의 거리 변화를 감지하는 단계를 포함하고,
    상기 영상 투사 영역에 영상을 투사하는 단계는
    상기 감지된 영상 투사 영역의 거리 변화에 대응하여, 상기 투사되는 영상을 상기 영상 투사 영역이 아닌 다른 영역에 투사하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  6. 제1항에 있어서,
    상기 영상 투사 상태를 판단하는 단계는
    상기 센싱된 거리를 기초로 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간의 장애물을 인식하는 단계를 포함하고,
    상기 영상 투사 영역에 영상을 투사하는 단계는
    상기 인식된 장애물에 대응하여, 상기 투사되는 영상의 투사 방향, 투사되는 영상의 크기 중 하나 이상을 조절하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  7. 영상 투사 장치에 있어서,
    영상을 투사하는 영상 투사부;
    상기 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하는 센싱부; 및
    상기 센싱된 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하고, 상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하도록 제어하는 제어부를 포함하는
    영상 투사 장치.
  8. 제7항에 있어서,
    상기 센싱부는
    상기 영상 투사 영역에 포함된 복수의 영역에 대한 거리를 각각 센싱하고,
    상기 제어부는
    상기 복수의 영역 각각에 대해 센싱된 거리의 변화량을 기초로 상기 영상 투사 영역에 투사되는 영상 화면에 대한 사용자 입력을 인식하고, 상기 인식된 사용자 입력에 대응하는 동작을 수행하는
    영상 투사 장치.
  9. 제8항에 있어서,
    상기 제어부는
    상기 복수의 영역 중 상기 센싱된 거리의 변화량이 기준량 이상인 영역에 대한 사용자 입력을 인식하고,
    상기 변화량이 기준량 이상인 영역에 대응하는 동작을 수행하는
    영상 투사 장치.
  10. 제7항에 있어서,
    상기 제어부는
    상기 센싱된 거리를 기초로 상기 영상 투사 영역의 거리 변화를 감지하고,
    상기 감지된 영상 투사 영역의 거리 변화에 대응하여, 상기 투사되는 영상의 밝기를 조절하는
    영상 투사 장치.
  11. 제7항에 있어서,
    상기 제어부는
    상기 센싱된 거리를 기초로 상기 영상 투사 영역의 거리 변화를 감지하고,
    상기 상기 감지된 영상 투사 영역의 거리 변화에 대응하여, 상기 투사되는 영상을 상기 영상 투사 영역이 아닌 다른 영역에 투사하도록 제어하는
    영상 투사 장치.
  12. 제7항에 있어서,
    상기 제어부는
    상기 센싱된 거리를 기초로 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간의 장애물을 인식하고,
    상기 인식된 장애물에 대응하여, 상기 투사되는 영상의 투사 방향, 투사되는 영상의 크기 중 하나 이상을 조절하는
    영상 투사 장치.
PCT/KR2015/008366 2015-02-04 2015-08-10 영상 투사 장치 및 그의 동작 방법 WO2016125966A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/549,131 US10310676B2 (en) 2015-02-04 2015-08-10 Image projection apparatus and operation method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020150017547A KR102333931B1 (ko) 2015-02-04 2015-02-04 영상 투사 장치 및 그의 동작 방법
KR10-2015-0017547 2015-02-04
KR10-2015-0071272 2015-05-21
KR1020150071272A KR102360628B1 (ko) 2015-05-21 2015-05-21 영상 투사 장치 및 그의 동작 방법

Publications (1)

Publication Number Publication Date
WO2016125966A1 true WO2016125966A1 (ko) 2016-08-11

Family

ID=56564283

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/008366 WO2016125966A1 (ko) 2015-02-04 2015-08-10 영상 투사 장치 및 그의 동작 방법

Country Status (2)

Country Link
US (1) US10310676B2 (ko)
WO (1) WO2016125966A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11689702B2 (en) 2018-08-30 2023-06-27 Sony Corporation Information processing apparatus and information processing method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021192130A (ja) 2018-08-29 2021-12-16 ソニーグループ株式会社 触覚提示装置及び触覚提示システム
CN110012329B (zh) * 2019-03-19 2021-06-04 海信视像科技股份有限公司 一种显示设备中触控事件的响应方法及显示设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031334A (ja) * 2007-07-24 2009-02-12 Sharp Corp プロジェクタ及びプロジェクタの投射方法
KR20120029246A (ko) * 2010-09-16 2012-03-26 용인송담대학 산학협력단 프로젝터의 램프 밝기 자동 조절 장치 및 방법
US20120139689A1 (en) * 2010-12-06 2012-06-07 Mayumi Nakade Operation controlling apparatus
KR20130029740A (ko) * 2011-09-15 2013-03-25 푸나이덴끼 가부시끼가이샤 프로젝터
JP2014163954A (ja) * 2013-02-21 2014-09-08 Seiko Epson Corp プロジェクター、およびプロジェクターの制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6167529B2 (ja) * 2013-01-16 2017-07-26 株式会社リコー 画像投影装置、画像投影システム、制御方法およびプログラム
KR20150000656A (ko) * 2013-06-25 2015-01-05 삼성전자주식회사 휴대 단말에서 화면 이미지 출력 방법 및 장치
JPWO2015159548A1 (ja) * 2014-04-18 2017-04-13 Necソリューションイノベータ株式会社 投影制御装置、投影制御方法及び投影制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031334A (ja) * 2007-07-24 2009-02-12 Sharp Corp プロジェクタ及びプロジェクタの投射方法
KR20120029246A (ko) * 2010-09-16 2012-03-26 용인송담대학 산학협력단 프로젝터의 램프 밝기 자동 조절 장치 및 방법
US20120139689A1 (en) * 2010-12-06 2012-06-07 Mayumi Nakade Operation controlling apparatus
KR20130029740A (ko) * 2011-09-15 2013-03-25 푸나이덴끼 가부시끼가이샤 프로젝터
JP2014163954A (ja) * 2013-02-21 2014-09-08 Seiko Epson Corp プロジェクター、およびプロジェクターの制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11689702B2 (en) 2018-08-30 2023-06-27 Sony Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
US10310676B2 (en) 2019-06-04
US20180024696A1 (en) 2018-01-25

Similar Documents

Publication Publication Date Title
WO2017003007A1 (ko) 영상표시장치 및 이동 단말기
WO2019107945A1 (en) Method of providing service based on location of sound source and speech recognition device therefor
WO2016182132A1 (ko) 이동단말기 및 그 제어방법
WO2016017945A1 (en) Mobile device and method of pairing the same with electronic device
WO2019168380A1 (en) Electronic device
WO2019168383A1 (en) Electronic device
WO2015102284A1 (en) User terminal apparatus and control method thereof
WO2017047854A1 (ko) 이동 단말기 및 그 제어방법
WO2014042445A1 (en) Display apparatus and method for controlling display apparatus thereof
WO2021145644A1 (en) Mobile device and operating method thereof
WO2016144044A1 (en) Remote controller and method for controlling screen of display apparatus
WO2016010202A1 (en) Mobile terminal and control method for the mobile terminal
WO2016129778A1 (ko) 이동 단말기 및 그 제어 방법
WO2017111321A1 (ko) 영상표시장치
WO2016013705A1 (ko) 원격제어장치 및 그의 동작 방법
WO2015194773A1 (ko) 디스플레이 장치 및 그 구동 방법
WO2018048098A1 (en) Portable camera and controlling method therefor
WO2017082472A1 (ko) 이동단말기 및 그 제어방법
WO2016125966A1 (ko) 영상 투사 장치 및 그의 동작 방법
WO2017082583A1 (en) Electronic apparatus and method for controlling the same
WO2021137629A1 (en) Display device, mobile device, video calling method performed by the display device, and video calling method performed by the mobile device
WO2019151570A1 (ko) 디스플레이 장치
WO2017142163A1 (ko) 디스플레이 장치 및 그 동작 방법
WO2021137333A1 (ko) 디스플레이 장치
WO2022014738A1 (ko) 디스플레이 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15881284

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15549131

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15881284

Country of ref document: EP

Kind code of ref document: A1