KR20090116591A - A user interface controlling method using gesture in the proximal space - Google Patents
A user interface controlling method using gesture in the proximal space Download PDFInfo
- Publication number
- KR20090116591A KR20090116591A KR1020080068755A KR20080068755A KR20090116591A KR 20090116591 A KR20090116591 A KR 20090116591A KR 1020080068755 A KR1020080068755 A KR 1020080068755A KR 20080068755 A KR20080068755 A KR 20080068755A KR 20090116591 A KR20090116591 A KR 20090116591A
- Authority
- KR
- South Korea
- Prior art keywords
- function
- user interface
- display
- touch screen
- proximity
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Telephone Function (AREA)
Abstract
Description
본 발명은 사용자 인터페이스 제어방법에 관한 것이다.The present invention relates to a user interface control method.
보다 구체적으로, 본 발명은 근접 센서가 장착된 장치의 근접한 곳에서 사용자의 제스쳐를 검출하고, 검출된 제스쳐를 이용하여 사용자 인터페이스를 제어하는 다양한 방법을 제공한다.More specifically, the present invention provides various methods for detecting a user's gesture in the vicinity of a device equipped with a proximity sensor and controlling the user interface using the detected gesture.
오늘날 TV, 휴대폰, MP3 플레이어, PMP, 노트북, PDA 등의 전자 시스템들에는 다양한 입출력 장치들이 장착된다. Today, electronic systems such as TVs, cell phones, MP3 players, PMPs, notebooks and PDAs are equipped with various input / output devices.
다양한 입출력 장치들은 사용자가 위 시스템들을 편리하게 제어할 수 있도록 하기 위해 제공된다.Various input / output devices are provided for the user to conveniently control the above systems.
전자 시스템들 중에서도 휴대폰, MP3 플레이어, PMP, 노트북, PDA 등의 휴대형 장치들은 사이즈가 작기 때문에, 입출력 장치들을 장착하는데도 한계가 있다.Among electronic systems, portable devices such as mobile phones, MP3 players, PMPs, notebook computers, PDAs, and the like are small in size, and thus, there are limitations in mounting input / output devices.
최근 이러한 휴대형 장치들에는 사용자 인터페이스를 개선하기 위한 노력의 일환으로써 터치 스크린, 터치 패드, 네비게이션 패드 등이 장착되고 있는 추세이다. 터치 스크린을 채용함으로써 일반 PC에서 마우스 및 키보드 입력을 대체하고, 좁은 공간에서도 사용자로 하여금 다양한 방식으로 데이터를 입력하고, 명령을 입력하도록 할 수 있다.Recently, such portable devices have been equipped with touch screens, touch pads, and navigation pads as part of efforts to improve user interfaces. By adopting a touch screen, it replaces mouse and keyboard input in a general PC, and allows a user to input data and input commands in various ways even in a small space.
이러한 다양한 사용자 인터페이스에도 불구하고, 장치들의 입출력에는 많은 제한이 따르고, 사용자도 그만큼 불편을 느끼게 된다.Despite these various user interfaces, the input and output of devices are subject to a lot of limitations, and the user also feels uncomfortable.
휴대폰의 경우를 예로 들면, 통화 기능 외에 다양한 부가 기능을 추가하는 추세인데, 예를 들면, MP3 플레이어, 카메라 기능, 인터넷 접속 기능 등이 추가되고 있다.For example, in the case of a mobile phone, various additional functions are added in addition to a call function. For example, an MP3 player, a camera function, and an internet connection function are added.
이들 많은 기능들은 사용자가 모두 제어할 수 있도록 구성되는 것은 당연하지만, 장치의 사용 상태에 따라 사용자가 적절하게 기능을 제어하기에는 불편이 따른다.Naturally, many of these functions are configured to be controlled by the user, but it is inconvenient for the user to control the functions properly according to the use state of the device.
본 발명은 위와 같은 과제를 해결하기 위한 것으로서, 전자 시스템을 터치하지 않고, 전자 시스템의 근처에서 제스쳐를 취함으로써 전자 시스템을 제어할 수 있는 사용자 인터페이스 제어방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a user interface control method capable of controlling an electronic system by making a gesture in the vicinity of the electronic system without touching the electronic system.
본 발명은 장치 등의 다양한 사용자 인터페이스가 요구되는 환경에서 사용자에게 편리하면서도 생동감있는 장치의 사용감을 줄 수 있는 사용자 인터페이스 제어방법을 제공하는 것을 목적으로 한다.It is an object of the present invention to provide a user interface control method that can give a user a comfortable and lively device in an environment in which various user interfaces such as a device are required.
본 발명의 일 실시예에 따른 사용자 인터페이스 제어방법은, 디스플레이를 갖는 전자 장치의 사용자 인터페이스를 제어하는 방법으로서, 상기 디스플레이로의 오브젝트의 근접을 검출하는 단계; 상기 오브젝트의 2차원 움직임 패턴을 검출하는 단계; 및 상기 검출된 2차원 움직임 패턴에 따라 상기 사용자 인터페이스를 제어하는 단계를 포함한다.A method of controlling a user interface according to an embodiment of the present invention includes a method of controlling a user interface of an electronic device having a display, the method comprising: detecting proximity of an object to the display; Detecting a two-dimensional movement pattern of the object; And controlling the user interface according to the detected two-dimensional movement pattern.
본 발명의 일 실시예에 따른 사용자 인터페이스 제어방법은, 다수의 터치 감응 영역으로 분할된 터치 스크린을 갖는 전자 장치의 사용자 인터페이스를 제어하는 방법으로서, 상기 다수의 터치 감응 영역들의 제1 및 제2 영역 사이의 경계 위 공간의 오브젝트를 검출하고 해당 검출 신호를 출력하는 단계; 및 상기 검출 신호에 응답하여 상기 제1 및 제2 영역들에 해당하는 제1 및 제2 정보를 동시에 표시하는 단계를 포함한다.A user interface control method according to an embodiment of the present invention is a method of controlling a user interface of an electronic device having a touch screen divided into a plurality of touch sensitive regions, the first and second regions of the plurality of touch sensitive regions. Detecting an object in a space above a boundary between and outputting a corresponding detection signal; And simultaneously displaying first and second information corresponding to the first and second areas in response to the detection signal.
본 발명의 일 실시예에 따른 사용자 인터페이스 제어방법은, 터치 스크린을 갖는 전자 장치의 사용자 인터페이스를 제어하는 방법으로서, 상기 터치 스크린 상에 사용자 인터페이스를 표시하는 단계; 상기 터치 스크린의 표면 위로 오브젝트의 다수의 높이 중 제1 높이를 검출하는 단계; 각각 상기 다수의 높이 중 하나에 해당하는 다수의 기능들 중 제1 기능을 선택하는 단계; 및 상기 선택된 제1 기능을 수행하는 단계를 포함한다.A method of controlling a user interface according to an embodiment of the present invention includes a method of controlling a user interface of an electronic device having a touch screen, the method including: displaying a user interface on the touch screen; Detecting a first height of a plurality of heights of an object over a surface of the touch screen; Selecting a first function from among a plurality of functions corresponding to one of the plurality of heights, respectively; And performing the selected first function.
본 발명의 일 실시예에 따른 이동 단말기는, 디스플레이; 상기 디스플레이 위의 오브젝트의 근접을 검출하고, 상기 오브젝트의 2차원 움직임 패턴을 검출하고, 해당 근접 및 움직임 신호를 출력하도록 구성된 근접 센서; 및 상기 근접 및 움직임 신호를 기반으로 상기 디스플레이에 표시된 사용자 인터페이스를 제어하도록 구성된 프로세서를 포함한다.A mobile terminal according to an embodiment of the present invention, a display; A proximity sensor configured to detect proximity of an object on the display, detect a two-dimensional motion pattern of the object, and output a corresponding proximity and motion signal; And a processor configured to control a user interface displayed on the display based on the proximity and motion signals.
본 발명의 일 실시예에 따른 이동 단말기는, 다수의 터치 감응 영역으로 분할된 터치 스크린을 갖는 디스플레이; 상기 다수의 터치 감응 영역들 중 제1 및 제2 영역 간의 경계에서의 오브젝트를 검출하고, 해당 센서 신호를 출력하도록 구성된 근접 센서; 및 상기 디스플레이를 제어하여 상기 센서 신호에 응답하여 상기 제1 및 제2 영역에 해당하는 제1 및 제2 정보를 동시에 표시하도록 구성된 프로세서를 포함한다.A mobile terminal according to an embodiment of the present invention, a display having a touch screen divided into a plurality of touch sensitive areas; A proximity sensor configured to detect an object at a boundary between a first and a second area of the plurality of touch sensitive areas and output a corresponding sensor signal; And a processor configured to control the display to simultaneously display first and second information corresponding to the first and second areas in response to the sensor signal.
본 발명의 일 실시예에 따른 이동 단말기는, 터치 스크린을 갖는 디스플레이; 상기 터치 스크린의 표면 위의 오브젝트의 다수의 높이 중 제1 높이를 검출하고, 해당 제1 센서 신호를 출력하도록 구성된 근접 센서; 및 상기 다수의 높이들 중 하나에 해당하는 다수의 기능들 중 제1 기능을 선택하고, 상기 제1 센서 신호에 응답하여 상기 선택된 제1 기능을 수행하도록 구성된 프로세서를 포함한다.A mobile terminal according to an embodiment of the present invention, a display having a touch screen; A proximity sensor configured to detect a first height of a plurality of heights of an object on a surface of the touch screen and output a corresponding first sensor signal; And a processor configured to select a first function among a plurality of functions corresponding to one of the plurality of heights, and to perform the selected first function in response to the first sensor signal.
본 발명에 따르면 제한된 입출력 하드웨어로도 사용자에게 다양한 명령을 입력하도록 할 수 있다.According to the present invention, the user can input various commands even with limited input / output hardware.
본 발명에 따르면 사용자가 보다 직관적인 명령 입력을 통해, 보다 생동감있게 전자 시스템을 제어하도록 할 수 있다.According to the present invention, the user can control the electronic system more vividly through a more intuitive command input.
이하 도면을 참조하여 본 발명의 실시예들을 보다 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1a 내지 도 1c는 본 발명의 일 실시예에 따른 근접 센싱 시스템(11)의 동작을 나타낸다. 1A-1C illustrate the operation of
도 1a와 같이 근접 센싱 시스템(11)의 센싱 표면(12) 상방으로 소정 거리, d 예컨대 1cm 이내의 공간(이하 '센싱 필드'이라 한다)에 사용자의 손가락, 스타일러스 펜 등 오브젝트가 진입하면 그것을 센싱할 수 있다.As shown in FIG. 1A, when an object of a user's finger, stylus pen, or the like enters a space within a predetermined distance, d, for example, 1 cm (hereinafter referred to as a 'sensing field') above the
근접 센싱 시스템(11)으로는 캐패시턴스의 변화를 검출하는 캐패시턴스 시스템이나, 적외선을 방사하여 오브젝트에 의해 반사되는 적외선을 검출하는 적외선 시스템, 또는 이미지 센서를 사용하여 오브젝트의 근접을 검출하는 이미지 센싱 시스템을 사용할 수 있다. The
캐패시턴스 방식을 사용하는 경우에는 센싱 필드 내에 오브젝트가 접근하였 을 때 발생하는 캐패시턴스의 변화를 검출함으로써 오브젝트의 접근을 검출해낼 수 있다.In the case of using the capacitance method, the proximity of the object can be detected by detecting a change in capacitance generated when the object approaches the sensing field.
캐패시턴스 검출 방식의 근접 센싱 시스템에는 캐패시턴스값의 변화를 측정하는 캐패시턴스 검출 회로와 제어부 등(미도시)이 포함될 수 있다.The proximity sensing system of the capacitance detection method may include a capacitance detection circuit and a controller (not shown) for measuring a change in the capacitance value.
적외선 방식의 근접 센싱 시스템에는 오브젝트를 향해 적외선을 방사하는 적외선 방출부, 오브젝트에 의해 반사된 적외선을 수신하는 적외선 수신부, 및 변화 검출 회로, 및 제어부 등(미도시)이 포함될 수 있다.The infrared sensing system may include an infrared emitter that emits infrared rays toward an object, an infrared receiver that receives infrared rays reflected by the object, a change detection circuit, a controller, and the like (not shown).
적외선 방식을 사용하는 경우에는 센싱 표면(12)의 주변에 적외선 방출부와 수신부 어레이를 장착함으로써, 오브젝트의 근접 여부뿐만 아니라 센싱 표면(12) 상에서의 위치도 검출해낼 수 있다. 적외선 방식의 경우에는 캐패시턴스 방식에 비해 센싱 필드의 깊이 d를 상대적으로 높게 설정할 수 있다.In the case of using the infrared method, by mounting the infrared emitter and the receiver array around the
이미지 센서를 이용하는 경우에는 CMOS 센서 등의 이미지 센서에 의해 오브젝트의 이미지를 촬영하고 이미지 처리함으로써, 오브젝트의 접근 여부 및 움직임을 인식할 수 있다. 이미지 센서를 사용하는 경우에는 센싱 가능한 거리 d에 제약을 받지 않으며, 필요에 따라 조절할 수 있다.In the case of using an image sensor, an image sensor, such as a CMOS sensor, photographs an image of an object and processes the image to recognize whether the object is approaching or not. When using an image sensor, it is not limited by the sensing distance d and can be adjusted as needed.
본 발명의 일 실시예에 따라, 도 1a와 같이 오브젝트, 예컨대 사용자의 손가락이 센싱 필드 내로 접근하면 이것을 종래의 터치를 기반으로 동작되는 터치 패드나 터치 스크린에서의 터치로 판단하고 그에 해당하는 동작을 수행할 수 있다. 이하에서는 오브젝트가 근접 센싱 시스템의 센싱 거리 이내로 진입하는 동작을 픽 업(pickup) 동작이라 한다.According to an embodiment of the present invention, when an object, for example, a user's finger approaches the sensing field as shown in FIG. 1A, it is determined as a touch on a touch pad or a touch screen operated based on a conventional touch, and the corresponding operation is performed. Can be done. Hereinafter, an operation of entering an object within a sensing distance of the proximity sensing system is called a pickup operation.
오브젝트가 근접 센싱 시스템에 의해 픽업된 상태에서 도 1b와 같이 사용자가 오브젝트를 센싱 표면(12)에 평행하게 이동시키면 근접 센싱 시스템(11)은 사용자가 손가락을 실제로 터치하여 이동시켰을 때처럼, 즉 드래그할 때처럼 오브젝트의 움직임 패턴을 인식할 수 있다.If the user moves the object parallel to the
그에 따라, 근접 센싱 시스템(11)을 임의의 프로세서가 장착된 전자 장치에 장착하면, 그 장치의 프로세서는 패턴을 명령으로 인식하여 그 장치가 특정 동작을 수행하도록 할 수 있다.Accordingly, when the
움직임 패턴을 입력한 후에, 도 1c와 같이 사용자가 오브젝트를 센싱 표면으로부터 d 이상, 즉 센싱 필드 밖으로 멀리 떨어뜨리면 더 이상 손가락의 움직임을 검출하지 않게 된다. 이하 본 명세서에서는 센싱 영역에서 벗어나는 동작을 드롭(drop)이라고 한다.After inputting the movement pattern, as shown in FIG. 1C, when the user moves the object further than d from the sensing surface, that is, out of the sensing field, the movement of the finger is no longer detected. Hereinafter, in the present specification, an operation out of the sensing area is referred to as a drop.
도 2a 내지 도 2c와 같이, 본 발명의 일 실시예에 따라 근접 센싱 시스템(11)을 휴대폰 등의 디스플레이를 갖는 전자 장치(13)에 장착할 수 있다. 그에 따라, 전자 장치(13)의 근접한 거리에서 사용자의 제스쳐를 검출하여 그에 따른 동작을 수행할 수 있다.2A to 2C, the
본 발명에 따른 전자 장치(13)는 휴대폰, MP3 플레이어, PMP, 노트북, PDA 등 터치 스크린이 장착된 모든 종류의 장치들을 포함한다.The
본 실시예에서는 전자 장치(13)로서 인터넷 브라우징이 가능한 휴대폰의 경 우를 예로 들어 설명한다.In the present embodiment, a mobile phone capable of internet browsing as the
도 2a와 같이 전자 장치(13)의 전면, 즉 디스플레이가 부착된 면에 근접 센싱 시스템(11)을 장착할 수 있다. 바람직하게는, 근접 센싱 시스템(11)이 전자 장치(13)의 디스플레이의 전체면을 커버할 수 있다. As illustrated in FIG. 2A, the
손가락이나 스타일러스 펜 등의 오브젝트(14)가 센싱 필드 내에 진입하면 근접 센싱 시스템(11)은 그 오브젝트를 센싱하고, 그 오브젝트는 픽업된다.When an object 14 such as a finger or a stylus pen enters the sensing field, the
픽업된 상태에서 사용자가 오브젝트(14)로 패턴을 그리면 근접 센싱 시스템(11)은 그 패턴을 인식할 수 있다. 예컨대, 도 2b와 같이 사용자가 센싱 표면 상의 한 점으로부터 시작되는 스파이럴 패턴(15)을 그릴 수 있다. When the user draws a pattern with the object 14 in the picked-up state, the
사용자가 센싱 필드 밖으로 오브젝트를 멀리하면 드롭되어, 근접 센싱 시스템(11)은 더 이상 패턴을 인식하지 않는다.If the user moves the object out of the sensing field, it is dropped and the
전술한 바와 같이, 근접 센싱 시스템(11)은 캐패시턴스 검출 시스템, 적외선 검출식 시스템, 또는 이미지 센서 시스템을 사용할 수 있다. 이와 같은 근접 센싱 시스템(11)에 의해 터치 없이도 디스플레이 상에서 그 오브젝트의 위치를 검출해낼 수 있고, 그 오브젝트의 움직임 패턴, 즉 디스플레이 상에서의 제스쳐도 검출해낼 수 있다.As described above, the
전자 장치(13)의 제어부(미도시)는 검출된 제스쳐에 따라 그에 해당하는 동작을 수행할 수 있다. 예컨대, 도 2b와 같은 스파이럴 패턴(15)이 검출된 경우는 도 2c와 같이 줌인 동작을 수행하여 확대된 화면을 표시할 수 있다.The controller (not shown) of the
근접 센싱 시스템(11)은 사용자의 손가락 또는 스타일러스 펜이 그리는 원형 패턴이 점점 커지는 것을 검출할 수 있고, 전자 장치(13)의 제어부는 검출된 패턴으로부터 줌인 명령임을 판단할 수 있다. The
일 실시예에 따라, 화면을 확대시킴과 동시에 스파이럴 패턴(15)이 시작되는 포인트를 디스플레이의 중심점으로 이동시킬 수 있다. 즉, 사용자가 디스플레이의 중심부에서 시작되는 스파이럴을 그리면 줌인이 됨과 동시에 스파이럴 패턴(15)의 시작 포인트가 화면의 새로운 중심이 될 수 있다. 화면 중심의 이동은 손가락이 픽업되었을 때 또는 드롭되었을 때 수행될 수 있다.According to an exemplary embodiment, the screen may be enlarged and at the same time, the point where the
일 실시예에 따라, 사용자가 손가락으로 스파이럴 패턴(15)을 그릴 때, 손가락이 한바퀴를 돌 때마다 단계적으로 줌인할 수 있다. 즉, 사용자가 손가락을 한바퀴 돌릴 때마다, 소정 비율 예컨대 25%씩 화면을 확대시킬 수 있다. 위와 같은 단계적인 줌인은 손가락이 근접 센싱 시스템(11)에 의해 드롭되었을 때 수행되는 것이 바람직하다.According to an embodiment, when the user draws the
반대로, 사용자가 스파이럴 패턴(15)을 역방향으로 그리면 화면이 줌아웃 되도록 할 수 있다. 이 경우에는 시작점은 스파이럴 패턴(15)의 가장 외측이고, 종점은 스파이럴 패턴(15)의 중심 포인트가 된다. 줌 아웃하는 경우에도 마찬가지로, 사용자가 손가락으로 스파이럴 패턴(15)을 그릴 때, 손가락이 한바퀴를 돌 때마다 단계적으로 화면을 줌아웃 시킬 수 있다.On the contrary, when the user draws the
줌아웃의 경우에도 근접 센싱 시스템(11)은 사용자가 그리는 패턴을 검출하고, 전자 장치(13)의 제어부는 사용자가 그리는 원형 패턴의 반지름이 점점 작아지 는 것을 검출함으로써 그것이 줌아웃 명령임을 판단하고 줌아웃을 수행할 수 있다.Even in the case of zooming out, the
선택적으로, 사용자가 스파이럴 패턴(15)을 그리는 방향으로부터 그것이 줌인 명령인지 줌아웃 명령인지 판단할 수 있다. 예컨대, 사용자가 시계 방향으로 스파이럴 패턴을 그리면 줌인 명령으로, 반시계 방향으로 스파이럴 패턴을 그리면 줌아웃 명령으로 판단하여 그에 따른 동작을 수행하도록 설정할 수 있다. 그 반대로 설정하는 것도 물론 가능하다.Optionally, it may be determined from the direction in which the user draws the
일 실시예에 따라서는, 도 3a 또는 3b와 같이 사용자가 같은 크기의 원형 패턴을 반복해서 그리는 경우에도 화면을 줌인하도록 설정할 수 있다. 이 경우는 원형 패턴을 그리는 방향에 따라 줌인 또는 줌아웃을 수행하도록 설정할 수 있다. 예컨대, 도 3a와 같이 시계방향으로 하나의 원을 그릴 때마다 일정 비율만큼 줌인을 하고, 도 3b와 같이 시계반대방향으로 하나의 원을 그릴 때마다 일정 비율만큼 줌아웃하도록 구성할 수 있다.According to an exemplary embodiment, as shown in FIG. 3A or 3B, the screen may be zoomed in even when the user repeatedly draws a circular pattern having the same size. In this case, the zoom-in or zoom-out may be performed according to the direction in which the circular pattern is drawn. For example, each time a circle is drawn in a clockwise direction as shown in FIG. 3A, the user zooms in by a predetermined ratio, and each time a circle is drawn in a counterclockwise direction as shown in FIG. 3B, the user may be configured to zoom out by a certain ratio.
사용자가 근접 센싱 시스템(11)이 장착된 장치의 센싱 표면(12)에 근접하여 그리는 패턴에 따라 다양한 명령을 수행하도록 구성할 수 있으며, 패턴은 문자나 숫자일 수도 있다.The user may be configured to perform various commands according to a pattern drawn close to the
예컨대, 도 4과 같이 사용자가 전자 장치에 근접하여 예컨대 L자를 그리면 장치에 장착된 터치 스크린에 락을 설정할 수 있다. 마찬가지로 U자를 그리면 터치 스크린의 락을 해제하도록 설정할 수 있다. 이 경우, 터치 스크린에 락이 설정된 상태에서는 제어부가 U자 이외의 패턴 입력은 무시하도록 설정할 수 있다.For example, as shown in FIG. 4, when the user draws an L letter in close proximity to the electronic device, a lock may be set on the touch screen mounted on the device. Likewise, drawing a U character can be set to unlock the touch screen. In this case, when the lock is set on the touch screen, the controller may be set to ignore pattern input other than U.
전자 장치(13)가 MP3 등의 오디오 파일을 재생 기능, 비디오 파일 재생 기능, TV 수신 기능을 갖는 경우에도 제스쳐를 이용하여 사용자 인터페이스를 제어할 수 있다.Even when the
도 5a는 전자 장치(13)로 MP3 오디오 파일을 재생하는 화면을 나타낸다. 오디오 파일 재생 중에 도 5a와 같이 화면의 임의의 위치에 V자를 그리면 도 5b와 같이 볼륨 콘트롤 메뉴(15)를 디스플레이할 수 있다. 볼륨 콘트롤 메뉴(15)가 디스플레이된 상태에서, 사용자는 장치의 터치 스크린을 터치하여, 즉 볼륨 콘트롤 메뉴(15)를 터치하여 스크롤하면 볼륨을 조절할 수 있다. 비디오 파일 재생 중이나, TV수신 기능 수행 중에도 마찬가지로 구현될 수 있음은 물론이다.5A illustrates a screen of playing back an MP3 audio file by the
위에 설명한 예 외에도, 사용자가 근접 센싱 시스템(11)의 센싱 표면(12)에 근접하여 그릴 수 있는 패턴은 다양하게 변경될 수 있으며, 그 패턴에 따라 수행되는 동작도 다양하게 변경될 수 있을 것이다.In addition to the above-described example, the pattern that the user can draw in proximity to the
복수의 문자나 숫자의 패턴을 인식하여 그에 해당하는 명령을 수행하도록 하는 것도 가능하다. 예컨대, L자나 V자와 같은 한 문자가 아니라, "Lo" 또는 "Lock"등와 같이 복수개의 문자나 숫자로 이루어진 패턴을 입력하는 경우도 그에 해당하는 명령을 설정할 수 있으며, 해당 패턴이 입력되는 경우에는 해당 동작이 수행되도록 할 수 있다. It is also possible to recognize a pattern of a plurality of letters or numbers and to perform a corresponding command. For example, when entering a pattern consisting of a plurality of letters or numbers, such as "Lo" or "Lock", and not a single letter such as L or V, the corresponding command can be set. This operation can be performed.
사용자가 입력하는 패턴과 그에 해당하는 동작은 직관적으로 쉽게 이해할 수 있도록 설정되는 것이 바람직하다.The pattern input by the user and the corresponding operation are preferably set to be intuitively and easily understood.
전술한 바와 같이, 볼륨 제어의 경우에는 첫 글자인 V자 설정하는 것이 바람 직하고, 스파이럴 패턴으로 줌인을 하는 경우에는, 스파이럴 패턴이 점점 커지면 줌인, 스파이럴 패턴이 점점 작아지면 줌아웃 되도록 구성하는 것이 바람직하다.As described above, in the case of the volume control, it is preferable to set the first letter, V, and when zooming in with a spiral pattern, it is preferable to configure the zoom-in as the spiral pattern increases and zoom-out as the spiral pattern decreases. Do.
전술한 또는 후술할 실시예에서, 시각적 디스플레이에는 오디오 기반 또는 촉각 기반(예컨대, 진동) 피드백이 추가될 수 있다. 일 실시예에서, 상기 오디오 피드백의 볼륨 또는 진동 피드백의 강도는 스크린 위의 오브젝트의 거리에 따라 변화할 수 있다.In the embodiments described above or below, audio visual or tactile based (eg, vibrational) feedback may be added to the visual display. In one embodiment, the volume of the audio feedback or the strength of the vibration feedback may vary with the distance of the object on the screen.
도 6a 및 도 6b는 본 발명에 따른 근접 센싱을 이용한 사용자 인터페이스 제어방법의 또 다른 실시예를 나타낸다.6A and 6B illustrate another embodiment of a method for controlling a user interface using proximity sensing according to the present invention.
도 6a는 디스플레이가 화면의 대부분을 차지하고, 번호 버튼이 없는 소위 풀 터치 휴대폰을 나타낸다. 도 6a의 휴대폰의 디스플레이에는 상기 휴대폰의 메인 메뉴가 표시되어 있으며, 메인 메뉴는 통화, 메시지, 전화번호부, 알람/일정, 멀티미디어, 편의기능, 소리/진동, 화면설정, 휴대폰 설정 등의 메뉴를 포함할 수 있으며, 상기 메뉴들은 각각 아이콘으로 표시되어 있다.6A shows a so-called full touch mobile phone with a display occupying most of the screen and without a number button. The display of the mobile phone of FIG. 6A shows a main menu of the mobile phone, and the main menu includes menus such as a call, a message, a phone book, an alarm / schedule, a multimedia, a convenience function, a sound / vibration, a screen setting, a mobile phone setting, and the like. The menus are represented by icons, respectively.
도 6a와 같이 장치의 디스플레이는 각각 하나의 아이콘을 포함하는 다수의 서브 영역들(16)로 구분될 수 있다. As shown in FIG. 6A, the display of the device may be divided into a plurality of
사각형으로 구분되는 서브 영역들(16)의 내부 아무 곳이나 터치하면 명령이실행되도록 할 수도 있고, 서브 영역들(16)에 포함되어 있는 아이콘을 터치하여야 명령이 실행되도록 할 수 있다.If a user touches anywhere inside the
도 6b와 같이 사용자가 손가락을 장치의 디스플레이에 근접시키면, 장치에 장착된 근접 센싱 시스템이 손가락의 근접 및 그 위치를 검출한다. As shown in FIG. 6B, when the user approaches the finger on the display of the device, the proximity sensing system mounted on the device detects the proximity of the finger and its position.
그 검출된 위치에 따라 도 6b에 도시된 바와 같이 그 위치에 해당하는 아이콘의 설명(17)을 표시해줄 수 있다. 즉, 손가락의 위치가 통화 아이콘에 해당하는 서브 영역(16a)에 속하면 그에 대한 설명(17a)을 표시하고, 메시지 아이콘에 해당하는 서브 영역(16b)에 속하면 그에 대한 설명을 표시할 수 있다.According to the detected position, the
사용자는 손가락이나 스타일러스 펜으로 각 아이콘을 선택하여 해당 기능을 이용할 수 있다. 이 때, 사용자가 손가락이나 두꺼운 오브젝트를 이용해서 선택하는 경우에 오브젝트가 검출되는 위치가 복수의 선택가능한 영역에 걸치게 되어 어느 아이콘을 선택하는 것인지 불분명할 때가 있다. The user can select each icon with a finger or a stylus pen to use the corresponding function. At this time, when the user selects using a finger or a thick object, it is sometimes unclear which icon is selected because the position where the object is detected spans a plurality of selectable areas.
즉, 도 6c와 같이 2개의 아이콘 사이에 손가락이나 기타 오브젝트를 가져가게 되면 어느 것도 실행되지 않거나, 두 개의 명령이 동시에 실행되는 문제가 발생할 수 있다. 도 6c의 상황에서는 통화 메뉴(16a)를 실행하여야 할지, 메시지 메뉴(16b)를 실행하여야 할지 불분명하게 된다. 이 상태에서 그대로 터치를 하게 되면, 두 가지 모두 실행되지 않거나 또는 두가지 모두 실행될 수도 있다. That is, when a finger or other object is taken between two icons as shown in FIG. 6C, none of them may be executed or two commands may be executed simultaneously. In the situation of FIG. 6C, it is unclear whether the
사용자가 장치의 터치 스크린에 오브젝트를 근접시킨 경우에 어느 아이콘을 선택하는지 불분명한 경우에는 도 6c와 같이 가능성 있는 서브 영역(16a,16b) 모두에 대한 설명(17a,17b)을 표시할 수 있다. 표시되는 설명을 보고 사용자는 손가락을 자신이 원하는 서브 영역으로 이동한 다음 그 영역의 아이콘을 터치하여 원하는 명령을 수행할 수 있다.If it is unclear which icon is selected when the user brings the object close to the touch screen of the device, the
본 발명의 다른 실시예에서, 사용자가 그리는 패턴을 인식하여 이미지나 동 영상의 표시 방향을 변환할 수 있다.In another embodiment of the present invention, the display direction of an image or a video may be changed by recognizing a pattern drawn by a user.
도 7a와 같이 휴대폰 등의 전자 장치의 디스플레이에 세로 방향으로 사진이 표시되어 있는 경우에, 장치의 센싱 검출 시스템(11)에 근접하여 사용자가 회전 패턴(18)을 그리는 경우에 그에 응답하여 도 7b와 같이 가로 방향으로 사진을 표시할 수 있다. When a picture is displayed in the vertical direction on a display of an electronic device such as a mobile phone as shown in FIG. 7A, when the user draws the
위 실시예는 디스플레이가 장착되어 있는 전자 장치를 이용하여 동영상 파일을 재생하는 경우, 웹브라우징을 하는 경우 등에도 마찬가지로 적용될 수 있으며, 전자 장치의 임의의 동작 모드에서도 동일하게 동작하도록 구성할 수 있다.The above embodiment may be similarly applied to the case of playing a video file using the electronic device equipped with the display, the web browsing, etc., and may be configured to operate in the same operation mode of the electronic device.
도 8a 내지 도 8c는 본 발명의 다른 실시예에 따른 근접 센싱을 이용한 사용자 인터페이스 제어방법을 나타낸다.8A to 8C illustrate a method of controlling a user interface using proximity sensing according to another exemplary embodiment of the present invention.
근접 센싱 시스템(11)으로 캐패시턴스 측정 방식의 센싱 시스템을 사용하는 경우에는, 손가락 등의 오브젝트가 근접함에 따라 검출되는 캐패시턴스의 변화량이 크게 된다. 따라서, 검출되는 캐패시턴스 변화량에 따라 오브젝트까지의 거리를 측정할 수 있다. 근접 센싱 시스템(11)의 센싱 표면(12) 상방의 필드를 복수개의 섹션으로 구분하여 근접 정도를 판단할 수 있다.When the sensing system of the capacitance measurement method is used as the
적외선 검출 방식을 사용하는 경우에도 적외선이 오브젝트에 의해 반사되는 각을 이용하여 센싱 표면(12)으로부터 오브젝트까지의 높이를 알 수 있다. 이미지 센서를 이용한 근접 센싱 시스템(11)에서는 이미지 프로세싱을 통해 센싱 표면(12)에서 오브젝트까지의 높이를 알 수 있다.Even when using an infrared detection scheme, the angle from the
센싱 필드는 도 8a와 같이 근접 센싱 시스템(11)의 센싱 표면(12)으로부터의 거리에 따라 제1 필드(19a)와 제2 필드(19b)로 구분할 수 있다. 사용자가 제1 필드(19a) 밖에 있으면 아무런 입력이 없는 것으로 판단한다. The sensing field may be divided into a
도 8b와 같이 오브젝트가 제1 필드(19a)에 진입한 경우와, 도 8c와 같이 더 근접하여 제2 필드(19b)에 진입한 경우를 구분할 수 있다. 또한, 오브젝트가 센싱 표면(12)에 터치된 경우도 구분할 수 있다. 근접 센싱 시스템(11)을 사용자 인터페이스가 필요한 장치들에 장착하면, 오브젝트가 제1 필드(19a)에 있는 경우, 제2 필드(19b)에 있는 경우, 터치된 경우에 각각 다른 동작을 수행할 수 있다.As illustrated in FIG. 8B, an object enters the
예컨대, 근접 센싱 시스템(11)을 휴대폰에 장착한 경우에, 사용자가 손가락을 제1 필드(19a)에서 도 2b와 같은 패턴을 그리면 화면을 25%씩 줌인하고, 제2 필드(19b)에서 같은 동작을 하면 50% 줌인하도록 구성할 수 있다. 터치된 상태에서는 또 다른 동작을 수행하도록 구성할 수 있을 것이다.For example, when the
실시예에 따라서는, 사용자의 손가락이 제1 필드(19a)에서 제2 필드(19b)로 이동하면 일정 비율만큼 줌인하고, 제2 필드(19b)에서 제1 필드(19a)로 이동하면 일정 비율만큼 줌아웃하도록 구성할 수 있다.According to an embodiment, when the user's finger moves from the
실시예에 따라서는, 메뉴 선택 시에 사용자의 손가락이 제1 필드(19a)에 있는 경우는 그 손가락의 위치에 해당하는 아이콘을 확대하여 표시하고, 제2 필드(19b)에 진입하면 그 아이콘을 실행하도록 구성할 수 있다.According to an embodiment, when the user's finger is in the
또한, 실시예에 따라서는, 상기 전자 장치가 사진 보기 모드에 있고, 상기 사진 보기 모드에서 사진파일들의 프리뷰를 제공하는 경우에, 사용자의 손가락이 제1 필드(19a)에 있는 경우는 그 손가락 위치에 해당하는 프리뷰를 확대하고, 제2 필드(19b)로 진입하면 그 사진을 화면에 꽉 차게 표시할 수 있다.Further, according to an embodiment, when the electronic device is in the picture viewing mode and provides a preview of the picture files in the picture viewing mode, the finger position when the user's finger is in the
또한, 상기 손가락의 높이를 일정 시간 측정하여 그 변화를 검출할 수 있고, 그 변화에 따라 상기 전자 장치의 특정 동작을 수행하도록 구성할 수 있다. 예컨대, 손가락이 제1 필드(19a)와 제2 필드(19b) 사이를 3회 왕복하였으면, 즉 사용자가 손가락을 제1 필드(19a)와 제2 필드(19b)에서 흔들면, 흔든 횟수만큼 볼륨을 업 또는 다운하거나 화면을 줌인 또는 줌아웃 하도록 구성할 수 있다. In addition, the height of the finger may be measured for a predetermined time to detect the change and may be configured to perform a specific operation of the electronic device according to the change. For example, if a finger has reciprocated three times between the
실시예에 따라서는, 근접 센싱에 의한 동작은 동일하게 하되, 근접 센싱에 의해 측정되는 센싱 표면(12)으로부터의 거리, 즉 깊이에 따라 해당 동작의 피드백의 강도를 변화시킬 수 있다.According to an embodiment, the operation by the proximity sensing is the same, but the intensity of the feedback of the operation may be changed according to the distance from the
예컨대, 근접 센싱 시스템의 센싱 필드에 오브젝트가 진입했을 때, 텍타일 피드백이나, 사운드 피드백을 제공할 수 있는데, 오브젝트가 제1 필드(19a)에 있는 경우는 약한 피드백을 제공하고, 오브젝트가 제2 필드(19b)에 있는 경우는 상대적으로 강한 피드백을 제공할 수 있다. 그에 따라, 사용자에게 생동감있는 사용자 인터페이스를 제공할 수 있다.For example, when an object enters a sensing field of a proximity sensing system, it may provide tactile feedback or sound feedback. If the object is in the
다른 기능들로는 줌 기능, 회전 기능, 조리개 오픈 기능, 디졸브(dissolve) 기능, 메뉴 표시 기능과 같은 디스플레이 제어 기능들도 포함될 수 있다. 다른 기능들로는 스크린 활성화 기능도 포함될 수 있다. 즉, 오브젝트/손가락이 임계 거리 이상 멀리 떨어져 있을 때, 메뉴 아이콘은 비활성화될 수 있다. 오브젝트/손가 락이 특정 메뉴 아이콘 위에 있고, 임계 거리 이하에 있는 것으로 검출되면, 메뉴 아이콘이 활성화되어 서브 메뉴를 표시하거나 해당 메뉴 아이콘과 관련된 제어 기능을 제어할 수 있다.Other functions may include display control functions such as zoom function, rotation function, aperture open function, dissolve function, and menu display function. Other features may include screen activation. That is, the menu icon can be deactivated when the object / finger is far apart above the threshold distance. If it is detected that the object / finger is above a certain menu icon and below a threshold distance, the menu icon can be activated to display a submenu or to control a control function associated with the menu icon.
도 9a 및 도 9b는 본 발명의 또 다른 실시예에 따른 근접 센싱을 이용한 사용자 인터페이스 제어방법을 나타낸다.9A and 9B illustrate a method of controlling a user interface using proximity sensing according to another embodiment of the present invention.
도 9a는 사진 보기 기능이 장착된 풀 터치 휴대폰을 나타낸다. 다수의 사진의 미리 보기를 포함하는 아이콘(20)들이 표시되어 있다. 사용자가 이 중 하나를 터치하거나 더블 터치하면 해당 사진이 표시된다.9A illustrates a full touch mobile phone equipped with a photo viewing function.
사용자가 터치를 하지 않고, 휴대폰의 디스플레이 표면, 즉 센싱 표면으로부터 센싱 가능한 거리 내에 손가락을 근접시키는 경우에는 도 9b와 같이 해당 사진의 상세설명을 표시할 수 있다. 상세 설명은 그 사진의 파일명, 생성일, 파일 크기, 해상도 등을 포함할 수 있다. 센싱 표면을 직접 터치하면 해당 사진을 크게 표시한다.When the user does not touch and moves his or her finger within a sensing distance from the display surface of the mobile phone, that is, the sensing surface, the detailed description of the corresponding picture may be displayed as shown in FIG. 9B. The detailed description may include the file name, creation date, file size, resolution, etc. of the photo. Touch the sensing surface directly to make the photo larger.
위와 같은 동작은 근접 센싱 시스템이 장착된 다양한 장치들에 적용될 수 있다. 화면에 다양한 파일들이 표시되어 있는 경우에 터치없이 오브젝트를 근접시키면 그 파일에 대한 정보를 표시하여 사용자가 그 내용을 파악할 수 있다.The above operation can be applied to various devices equipped with the proximity sensing system. When various files are displayed on the screen, if an object is approached without a touch, information about the files can be displayed so that the user can grasp the contents.
전술한 실시예에서는 휴대폰의 경우를 예로 들어 설명하였으나, 본 발명은 휴대폰 등의 휴대용 장치 뿐만 아니라, 근접 센싱이 가능한 센서를 장착한 모든 장 치에 적용될 수 있다. In the above-described embodiment, the case of the mobile phone has been described as an example, but the present invention can be applied to all devices equipped with a sensor capable of proximity sensing as well as a portable device such as a mobile phone.
또한 본 발명의 사용자 인터페이스 제어방법은, 근접 센싱용 센서로 캐패시턴스 타입의 터치 스크린 뿐만 아니라, 적외선 방식의 터치 스크린 또는 카메라를 이용한 영상 인식 방법을 이용해서도 구현될 수 있다.In addition, the user interface control method of the present invention may be implemented by using an infrared type touch screen or an image recognition method using a camera as well as a capacitance type touch screen as a proximity sensing sensor.
도 10는 본 발명의 일 실시예에 따른 이동 단말기(100)의 블록도이다. 본 명세서에 언급된 임의의 이동 단말기(예컨대, 이동 단말기(10,21))는 거리 센서를 포함하는 부품들이 장착된 이동 단말기(100)일 수 있다. 전술한 바와 같이, 본 발명의 이동 단말기는 다양한 타입의 장치들을 사용하여 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 이동 단말기는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, 등이 있다.10 is a block diagram of a
도시된 이동 단말기(100)는 수개의 공지된 컴포넌트들로 구현할 수 있는 무선 통신부(110)를 포함한다. 예를 들어, 무선 통신부(110)는 통상적으로 이동 단말기(100)와 이동 단말기가 위치한 무선 통신 시스템 또는 네트워크 간의 무선 통신을 가능케하는 하나 이상의 컴포넌트들을 포함한다.The illustrated
방송 수신 모듈(111)은 방송 채널을 통해 외부 방송 관리 서버로부터 방송 신호 및/또는 방송과 관련된 정보를 수신한다. 방송 채널은 위성 채널 및 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
한편, 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.Meanwhile, the broadcast related information may be provided through a mobile communication network, and in this case, may be received by the
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).
상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성된다.The broadcast receiving module 111 receives broadcast signals using various broadcasting systems, and in particular, digital multimedia broadcasting-terrestrial (DMB-T), digital multimedia broadcasting-satellite (DMB-S), and media forward link (MediaFLO). Digital broadcast signals can be received using digital broadcasting systems such as only), digital video broadcast-handheld (DVB-H), integrated services digital broadcast-terrestrial (ISDB-T), and the like. Of course, the broadcast receiving module 111 is configured to be suitable for all broadcast systems providing broadcast signals as well as the digital broadcast system described above.
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the
또한, 이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. In addition, the
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 내장되거나 외장될 수 있다.The wireless internet module 113 refers to a module for wireless internet access, and the wireless internet module 113 may be internal or external.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.
또한, 위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈이 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다. 예를 들어, GPS 모듈은, 3개 이상의 위성으로부터 정확한 시간과 거리를 측정하여 3개의 각각 다른 거리를 삼각 방법에 따라서 현 위치를 정확히 계산할 수 있다. 3개의 위성으로부터 거리와 시간 정보를 얻고 1개 위성으로 오차를 수정하는 방법이 사용될 수 있다. 특히, GPS 모듈은 위성으로부터 수신한 위치 정보로부터, 위도, 경도, 고도의 위치뿐만 아니라 3차원의 속도 정보와 함께 정확한 시간까지 얻을 수 있다.In addition, the location information module 115 is a module for checking or obtaining the location of the mobile terminal. One example is the Global Position System (GPS) module. The GPS module receives location information from a plurality of satellites. Here, the location information may include coordinate information represented by latitude and longitude. For example, the GPS module can measure the exact time and distance from three or more satellites and accurately calculate the current position by triangulating three different distances. A method of obtaining distance and time information from three satellites and correcting the error with one satellite may be used. In particular, the GPS module can obtain not only the location of latitude, longitude, and altitude but also accurate time together with three-dimensional speed information from the location information received from the satellite.
한편, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력 을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)은 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Meanwhile, the A /
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)은 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the
마이크(122)은 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)를 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(151)과 상호 레이어 구조를 이룰 경우, 이를 터치 스크린이라 부를 수 있다.The
센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단 말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The
센싱부(140)는 자이로 센서, 가속도 센서 등의 움직임 또는 위치를 검출하기 위한 관성 센서 또는 사용자와 이동 단말기(100) 사이의 거리 관계를 검출 또는 측정하기 위한 거리 센서를 포함할 수 있다.The
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다. The
여기에서, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module; 'UIM'), 가입자 인증 모듈(Subscriber Identify Module; 'SIM'), 범용 사용자 인증 모듈(Universal Subscriber Identity Module; 'USIM') 등을 포함할 수 있다. 또한, 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. 이와 같은 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다.Here, the identification module is a chip that stores various types of information for authenticating the use authority of the
출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력 을 위한 것으로, 이에는 디스플레이부(151)와 음향 출력 모듈(152), 알람부(153) 등이 포함될 수 있다. 디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The
디스플레이부(151) 위에는 터치 스크린 패널이 장착될 수 있다. 이러한 구성에 의해 디스플레이부(151)는 입력부 및 출력부 모두의 역할을 할 수 있다.The touch screen panel may be mounted on the
디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고 이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수도 있다. 예를 들어, 이동 단말기(100)에 외부 디스플레이부(미도시)과 내부 디스플레이부(미도시)이 동시에 구비될 수 있다.The
음향 출력 모듈(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 스피커(speaker), 버저(Buzzer) 등 이 포함될 수 있다.The sound output module 152 outputs audio data received from the
알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(153)은 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 알람부(153)은 진동을 출력할 수 있다. 또는, 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 알람부(153)은 진동을 출력할 수 있다. 상기와 같은 진동 출력을 통해 사용자는 이벤트 발생을 인지할 수 있다. 물론 이벤트 발생 알림을 위한 신호는 디스플레이부(151)이나 음성 출력 모듈(152)을 통해서도 출력될 수 있다.The
메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적 어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 이동 단말기(100)는 인터넷(internet)상에서 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The
그리고 제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be implemented in a computer readable recording medium using, for example, software, hardware or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing the functions. It may be implemented by the
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.In a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed. The software code may be implemented by a software application written in a suitable programming language. In addition, the software code may be stored in the
도 10에 도시된 단말기(100)는, 유무선 통신 시스템 및 위성 기반 통신 시스템을 포함하여, 프레임(frame) 또는 패킷(packet)을 통하여 데이터(data)를 전송할 수 있는 통신 시스템에서 동작 가능하도록 구성될 수 있다.The terminal 100 illustrated in FIG. 10 may be configured to be operable in a communication system capable of transmitting data through a frame or packet, including a wired / wireless communication system and a satellite based communication system. Can be.
이하에서는, 도 11를 참조하여, 본 발명에 관련된 단말기가 동작 가능한 통신 시스템에 대하여 살펴보겠다. Hereinafter, referring to FIG. 11, a communication system capable of operating a terminal according to the present invention will be described.
통신 시스템은, 서로 다른 무선 인터페이스 및/또는 물리 계층을 이용할 수도 있다. 예를 들어, 통신 시스템에 의해 이용 가능한 무선 인터페이스에는, 주파수 분할 다중 접속(Frequency Division Multiple Access; 'FDMA'), 시분할 다중 접속(Time Division Multiple Access; 'TDMA'), 코드 분할 다중 접속(Code Division Multiple Access; 'CDMA'), 범용 이동통신 시스템(Universal Mobile Telecommunications Systems; 'UMTS')(특히, LTE(Long Term Evolution)), 이동통신 글로벌 시스템(Global System for Mobile Communications; 'GSM') 등이 포함될 수 있다. 이하에서는, 설명의 편의를 위하여, CDMA에 한정하여 설명하도록 한다. 그러나, 본 발명은, CDMA 무선 통신 시스템을 포함한 모든 통신 시스템 적용될 있음은 당연하다.The communication system may use different air interfaces and / or physical layers. For example, a radio interface usable by a communication system may include frequency division multiple access (FDMA), time division multiple access (TDMA), and code division multiple access (Code Division). Multiple Access (CDMA), Universal Mobile Telecommunications Systems (UMTS) (especially Long Term Evolution (LTE)), Global System for Mobile Communications (GSM), etc. May be included. Hereinafter, for convenience of description, the description will be limited to CDMA. However, it is a matter of course that the present invention is applicable to all communication systems including the CDMA wireless communication system.
도 11에 도시된 바와 같이, CDMA 무선 통신 시스템은, 복수의 단말기들(100), 복수의 기지국(Base Station; 'BS')(270), 기지국 제어부(Base Station Controllers; 'BSCs')(275), 이동 스위칭 센터(Mobile Switching Center; 'MSC')(280)를 포함할 수 있다. MSC(280)는, 일반 전화 교환망(Public Switched Telephone Network; 'PSTN')(290)과 연결되도록 구성되고, BSCs(275)와도 연결되도록 구성된다. BSCs(275)는, 백홀 라인(backhaul line)을 통하여, BS(270)과 짝을 이루어 연결될 수 있다. 백홀 라인은, E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL 또는 xDSL 중 적어도 하나에 따라서 구비될 수 있다. 따라서, 복수의 BSCs(275)가 도 11에 도시된 시스템에 포함될 수 있다.As illustrated in FIG. 11, the CDMA wireless communication system includes a plurality of
각각의 BS(270)는, 적어도 하나의 섹터를 포함할 수 있고, 각각의 섹터는, 전방향성 안테나 또는 BS(270)으로부터 방사상의 특정 방향을 가리키는 안테나를 포함할 수 있다. 또한, 각각의 섹터는, 다양한 형태의 안테나를 두 개 이상 포함할 수도 있다. 각각의 BS(270)는, 복수의 주파수 할당을 지원하도록 구성될 수 있고, 복수의 주파수 할당 각각은, 특정 스펙트럼(예를 들어, 1.25MHz, 5MHz 등)을 갖는다.Each
섹터와 주파수 할당의 교차는, CDMA 채널이라고 불릴 수 있다. BS(270)은, 기지국 송수신 하부 시스템(Base Station Transceiver Subsystem; 'BTSs')이라고 불릴수 있다. 이러한 경우, "기지국"이라는 단어는, 하나의 BSC(275) 및 적어도 하나의 BS(270)을 합하여 불릴 수도 있다. 기지국은, 또한 "셀 사이트"를 나타낼 수도 있다. 또는, 특정 BS(270)에 대한 복수의 섹터들 각각은, 복수의 셀 사이트로 불릴 수도 있다. The intersection of sectors and frequency assignments may be called a CDMA channel.
도 11에 도시된 바와 같이, 방송 송신부(Broadcasting Transmitter; 'BT')(295)는, 시스템 내에서 동작하는 단말기들(100)에게 방송 신호를 송신한다. 도 10에 도시된 방송용 모듈(111)은, BT(295)에 의해 전송되는 방송 신호를 수신하기 위해 단말기(100) 내에 구비된다. As shown in FIG. 11, the broadcasting transmitter (BT) 295 transmits a broadcast signal to the
뿐만 아니라, 도 11에서는, 여러 개의 위성 위치 확인 시스템(Global Positioning System; 'GPS') 위성(300)을 도시한다. 상기 위성들(300)은, 복수의 단말기(100) 중 적어도 하나의 단말기의 위치를 파악하는 것을 돕는다. 도 11에서는 두 개의 위성이 도시되어 있지만, 유용한 위치 정보는, 두 개 이하 또는 이상의 위성들에 의해 획득될 수도 있다. 도 10에 도시된 GPS 모듈(115)은, 원하는 위치 정보를 획득하기 위하여 위성들(300)과 협력한다. 여기에서는, GPS 추적 기술뿐만 아니라 위치를 추적할 수 있는 모든 기술들을 이용하여 위치를 추적할 수 있다. 또한, GPS 위성들(300) 중 적어도 하나는, 선택적으로 또는 추가로 위성 DMB 전송을 담당할 수도 있다.In addition, FIG. 11 illustrates a number of satellite positioning system (GPS)
무선 통신 시스템의 전형적인 동작 중, BS(270)은, 다양한 단말기들(100)로부터 역 링크 신호를 수신한다. 이때, 단말기들(100)은, 호를 연결 중이거나, 메시지를 송수신 중이거나 또는 다른 통신 동작을 수행중에 있다. 특정 기지국(270)에 의해 수신된 역 링크 신호들 각각은, 특정 기지국(270)에 의해 내에서 처리된다. 상기 처리 결과 생성된 데이터는, 연결된 BSC(275)로 송신된다. BSC(275)는, 기지국들(270) 간의 소프트 핸드오프(soft handoff)들의 조직화를 포함하여, 호 자원 할당 및 이동성 관리 기능을 제공한다. 또한, BSC(275)는, 상기 수신된 데이터를 MSC(280)으로 송신하고, MSC(280)은, PSTN(290)과의 연결을 위하여 추가적인 전송 서비스를 제공한다. 유사하게, PSTN(290)은 MSC(280)과 연결하고, MSC(280)은 BSCs(275)와 연결하고, BSCs(275)는 단말기들(100)로 순 링크 신호를 전송하도록 BS들(270)을 제어한다.During typical operation of a wireless communication system,
도 1a 내지 도 1c는 본 발명의 일 실시예에 따른 근접 센싱 시스템의 동작을 나타낸다. 1A-1C illustrate the operation of a proximity sensing system in accordance with one embodiment of the present invention.
도 2a 내지 도 2c는 본 발명의 일 실시예에 따란 사용자의 제스쳐를 이용하여 디스플레이를 줌인 또는 줌아웃하는 방법을 나타낸다.2A to 2C illustrate a method of zooming in or out of a display using a gesture of a user according to an embodiment of the present invention.
도 3a 및 3b는 본 발명의 다른 실시예에 따라 디스플레이를 줌인 또는 줌아웃하는 방법을 나타낸다.3A and 3B illustrate a method of zooming in or out of a display in accordance with another embodiment of the present invention.
도 4 내지 7b는 본 발명의 일 실시예에 따른 사용자 인터페이스 제어방법을 나타낸다.4 to 7b illustrate a user interface control method according to an embodiment of the present invention.
도 8a 내지 도 8c는 본 발명의 다른 실시예에 따른 근접 센싱 시스템의 동작을 나타낸다. 8A to 8C illustrate an operation of a proximity sensing system according to another embodiment of the present invention.
도 9a 및 9b는 본 발명의 일 실시예에 따른 사용자 인터페이스 제어방법을 나타낸다.9A and 9B illustrate a user interface control method according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 이동 단말기의 블록도이다.10 is a block diagram of a mobile terminal according to an embodiment of the present invention.
도 11은 도 10의 이동 단말기를 적용할 수 있는 CDMA 무선 통신 시스템의 블록도이다.FIG. 11 is a block diagram of a CDMA wireless communication system to which the mobile terminal of FIG. 10 can be applied.
Claims (21)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/196,104 US8219936B2 (en) | 2007-08-30 | 2008-08-21 | User interface for a mobile device using a user's gesture in the proximity of an electronic device |
PCT/KR2008/005066 WO2009028892A2 (en) | 2007-08-30 | 2008-08-28 | A user interface for a mobile device using a user's gesture in the proximity of an electronic device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20080042144 | 2008-05-07 | ||
KR1020080042144 | 2008-05-07 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090063377A Division KR101004489B1 (en) | 2009-07-13 | 2009-07-13 | A user interface controlling method using gesture in the proximal space |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090116591A true KR20090116591A (en) | 2009-11-11 |
KR100934514B1 KR100934514B1 (en) | 2009-12-29 |
Family
ID=41601347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080068755A KR100934514B1 (en) | 2007-08-30 | 2008-07-15 | User Interface Control Method Using Gesture in Adjacent Space |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100934514B1 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012038589A1 (en) * | 2010-09-22 | 2012-03-29 | Nokia Corporation | Apparatus and method for proximity based input |
KR101134192B1 (en) * | 2009-12-11 | 2012-04-09 | 한국과학기술원 | A method for controlling touch screen, a medium recoring the same, a control device for touch screen and mobile device using the same |
WO2012094396A3 (en) * | 2011-01-07 | 2012-10-04 | Microsoft Corporation | Natural input for spreadsheet actions |
KR20130090665A (en) * | 2012-02-06 | 2013-08-14 | 엘지전자 주식회사 | Apparatus for controlling 3-dimension display |
WO2014014292A1 (en) * | 2012-07-18 | 2014-01-23 | Park Chul | Method for operating personal portable terminal having touch panel |
KR101406668B1 (en) * | 2013-03-20 | 2014-06-20 | 한국과학기술원 | System, method for controlling user terminal using finger gesture, and user terminal comprising the same |
KR20140141211A (en) * | 2013-05-31 | 2014-12-10 | 삼성전자주식회사 | Method and apparatus for processing data using user gesture |
KR20150107785A (en) * | 2013-01-14 | 2015-09-23 | 퀄컴 인코포레이티드 | Use of emg for gesture recognition on surfaces |
US9983779B2 (en) | 2013-02-07 | 2018-05-29 | Samsung Electronics Co., Ltd. | Method of displaying menu based on depth information and space gesture of user |
EP3336662A4 (en) * | 2015-09-15 | 2019-05-29 | Omron Corporation | Character input method, and character input program, recording medium, and information processing device |
US10664154B2 (en) | 2015-12-15 | 2020-05-26 | Huawei Technologies Co., Ltd. | Displayed content adjustment based on a radian of an arc |
US10664652B2 (en) | 2013-06-15 | 2020-05-26 | Microsoft Technology Licensing, Llc | Seamless grid and canvas integration in a spreadsheet application |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110179376A1 (en) * | 2010-01-21 | 2011-07-21 | Sony Corporation | Three or higher dimensional graphical user interface for tv menu and document navigation |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69230419T2 (en) | 1991-05-31 | 2000-07-20 | Koninklijke Philips Electronics N.V., Eindhoven | Device with a human-machine interface |
US20090128498A1 (en) * | 2004-06-29 | 2009-05-21 | Koninklijke Philips Electronics, N.V. | Multi-layered display of a graphical user interface |
KR101255014B1 (en) * | 2005-11-18 | 2013-04-23 | 엘지전자 주식회사 | Mobile communication terminal having page data displaying function and controlling method thereof |
KR100778927B1 (en) * | 2005-12-29 | 2007-11-22 | 엠텍비젼 주식회사 | Device capable of recognizing non-contact key selection and method thereof |
-
2008
- 2008-07-15 KR KR1020080068755A patent/KR100934514B1/en active IP Right Grant
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101134192B1 (en) * | 2009-12-11 | 2012-04-09 | 한국과학기술원 | A method for controlling touch screen, a medium recoring the same, a control device for touch screen and mobile device using the same |
CN103210366A (en) * | 2010-09-22 | 2013-07-17 | 诺基亚公司 | Apparatus and method for proximity based input |
US8890818B2 (en) | 2010-09-22 | 2014-11-18 | Nokia Corporation | Apparatus and method for proximity based input |
WO2012038589A1 (en) * | 2010-09-22 | 2012-03-29 | Nokia Corporation | Apparatus and method for proximity based input |
CN103210366B (en) * | 2010-09-22 | 2016-11-02 | 诺基亚技术有限公司 | For apparatus and method based on neighbouring input |
US9747270B2 (en) | 2011-01-07 | 2017-08-29 | Microsoft Technology Licensing, Llc | Natural input for spreadsheet actions |
WO2012094396A3 (en) * | 2011-01-07 | 2012-10-04 | Microsoft Corporation | Natural input for spreadsheet actions |
US10732825B2 (en) | 2011-01-07 | 2020-08-04 | Microsoft Technology Licensing, Llc | Natural input for spreadsheet actions |
KR20130090665A (en) * | 2012-02-06 | 2013-08-14 | 엘지전자 주식회사 | Apparatus for controlling 3-dimension display |
WO2014014292A1 (en) * | 2012-07-18 | 2014-01-23 | Park Chul | Method for operating personal portable terminal having touch panel |
KR20150107785A (en) * | 2013-01-14 | 2015-09-23 | 퀄컴 인코포레이티드 | Use of emg for gesture recognition on surfaces |
US9983779B2 (en) | 2013-02-07 | 2018-05-29 | Samsung Electronics Co., Ltd. | Method of displaying menu based on depth information and space gesture of user |
US10795568B2 (en) | 2013-02-07 | 2020-10-06 | Samsung Electronics Co., Ltd. | Method of displaying menu based on depth information and space gesture of user |
KR101406668B1 (en) * | 2013-03-20 | 2014-06-20 | 한국과학기술원 | System, method for controlling user terminal using finger gesture, and user terminal comprising the same |
KR20140141211A (en) * | 2013-05-31 | 2014-12-10 | 삼성전자주식회사 | Method and apparatus for processing data using user gesture |
US10664652B2 (en) | 2013-06-15 | 2020-05-26 | Microsoft Technology Licensing, Llc | Seamless grid and canvas integration in a spreadsheet application |
EP3336662A4 (en) * | 2015-09-15 | 2019-05-29 | Omron Corporation | Character input method, and character input program, recording medium, and information processing device |
US10444851B2 (en) | 2015-09-15 | 2019-10-15 | Omron Corporation | Character input method, program for character input, recording medium, and information-processing device |
US10664154B2 (en) | 2015-12-15 | 2020-05-26 | Huawei Technologies Co., Ltd. | Displayed content adjustment based on a radian of an arc |
Also Published As
Publication number | Publication date |
---|---|
KR100934514B1 (en) | 2009-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100934514B1 (en) | User Interface Control Method Using Gesture in Adjacent Space | |
US8219936B2 (en) | User interface for a mobile device using a user's gesture in the proximity of an electronic device | |
KR101456001B1 (en) | Terminal and method for controlling the same | |
US8565828B2 (en) | Mobile terminal having touch sensor-equipped input device and control method thereof | |
EP2124138B1 (en) | Mobile terminal using proximity sensing | |
US9569088B2 (en) | Scrolling method of mobile terminal | |
US8170620B2 (en) | Mobile terminal and keypad displaying method thereof | |
US8423076B2 (en) | User interface for a mobile device | |
EP2101243B1 (en) | Mobile terminal and display method thereof | |
KR100981200B1 (en) | A mobile terminal with motion sensor and a controlling method thereof | |
KR101467766B1 (en) | Mobile terminal and screen displaying method thereof | |
KR101474452B1 (en) | Method for controlling touch input of mobile terminal | |
EP2570906A2 (en) | Mobile terminal and control method thereof | |
KR101502002B1 (en) | Mobile terminal using of proximity touch and wallpaper controlling method therefor | |
KR100912310B1 (en) | User interface controlling method by detecting user's gestures | |
KR101430475B1 (en) | Mobile terminal and screen displaying method thereof | |
KR100917527B1 (en) | User interface controlling method by detecting user's gestures | |
KR101004489B1 (en) | A user interface controlling method using gesture in the proximal space | |
KR20090111040A (en) | Mobile terminal and method of executing function therein | |
KR101430479B1 (en) | Mobile terminal and method of composing menu therein | |
KR20100024552A (en) | A method for controlling input and output of an electronic device using user's gestures | |
KR101486348B1 (en) | Mobile terminal and method of displaying screen therein | |
KR20100045434A (en) | A method for inputting orders using gestures | |
KR101455994B1 (en) | Mobile terminal and screen displaying method thereof | |
KR101452765B1 (en) | Mobile terminal using promixity touch and information input method therefore |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
A107 | Divisional application of patent | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121128 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20131122 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20141124 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20151124 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20161114 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20171114 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20181114 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20191114 Year of fee payment: 11 |