KR20100047793A - Apparatus for user interface based on wearable computing environment and method thereof - Google Patents
Apparatus for user interface based on wearable computing environment and method thereof Download PDFInfo
- Publication number
- KR20100047793A KR20100047793A KR1020090090147A KR20090090147A KR20100047793A KR 20100047793 A KR20100047793 A KR 20100047793A KR 1020090090147 A KR1020090090147 A KR 1020090090147A KR 20090090147 A KR20090090147 A KR 20090090147A KR 20100047793 A KR20100047793 A KR 20100047793A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- image
- signal
- computing environment
- measuring
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
본 발명은 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법에 관한 것으로, 특히 웨어러블 컴퓨팅 환경에 적합하면서 사용자 전면의 3차원 공간상에서 사용자 양손의 움직임을 웨어러블 시스템 혹은 주변 장치의 입력으로 사용할 수 있는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법에 관한 것이다.The present invention relates to a user interface device based on a wearable computing environment and a method thereof, and more particularly, a wearable computing device suitable for a wearable computing environment, which can be used as an input of a wearable system or a peripheral device in a three-dimensional space in front of the user. The present invention relates to a user interface device based on a computing environment and a method thereof.
본 발명은 지식경제부의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-048-01, 과제명: u-컴퓨팅 공간 협업을 위한 Wearable Personal Companion 기술 개발].The present invention is derived from a study conducted as part of the IT source technology development project of the Ministry of Knowledge Economy [Task management number: 2008-F-048-01, Task name: Development of Wearable Personal Companion technology for u-computing space collaboration] .
기존에 시스템이 갖추어진 제한된 공간에서 사용자의 움직임, 특히 손의 움직임을 검출하여 인간과 컴퓨터 사이의 상호작용(interaction)으로 사용하려는 시도들은 많이 연구되어져 왔다. 기존의 시스템들은 사용자가 장갑형태의 장치를 착용하거나 잘 갖추어진 정해지고 제한된 장소에서만 입력을 수행할 수 있는 단점이 있다. Many attempts have been made to detect the user's movement, especially the hand's movement in the limited space equipped with the system and use it as the interaction between human and computer. Existing systems have the disadvantage that the user may only wear input in the form of a well-equipped, well-equipped device.
또한, 현재 시판되고 있는 3차원 공간 마우스 혹은 펜과 같은 장치는 자이로센서를 이용하여 사용자 손의 움직임을 계측하여 사용자 입력으로 사용하고 있다. 이 장치 또한 사용자가 파지하고 사용해야 하며 사용자가 필요한 경우에 소지하고 다녀야하는 불편함이 있다.In addition, a commercially available device such as a three-dimensional space mouse or a pen measures a user's hand movement using a gyro sensor and uses it as a user input. This device is also inconvenient to be held and used by the user and carried by the user when necessary.
애플의 Ipod Touch, 마이크로소프트사의 Surface, 제프한의 Multi-Touch 장치와 같은 멀티 터치는 장치의 디스플레이에 터치를 적용하여 멀티 터치의 장점을 최대한 발휘하고 있지만, 손에 장치를 파지하거나 제한된 장치에서 사용해야 하는 불편함이 있다. Multi-touch, such as Apple's Ipod Touch, Microsoft's Surface, and Jeff's Multi-Touch device, take full advantage of multi-touch by applying touch to the device's display, but do not hold the device in your hand or use it on a limited device. There is discomfort.
특히, 장치 혹은 컴퓨터를 몸에 부착 혹은 착용하고 다니는 웨어러블 시스템을 위한 사용자 인터페이스인 경우 장치를 가지고 다녀야 하는 이동성 및 사용자가 손쉽게 사용하고 가지고 다닐 수 있는 착용성과 같은 요소들을 고려하여 설계하여야 한다.In particular, in the case of a user interface for a wearable system in which a device or a computer is attached to or worn on a body, the user interface should be designed in consideration of factors such as mobility required to carry the device and wearability that a user can easily use and carry.
상기한 과제를 해결하기 위한 본 발명의 목적은, 웨어러블 컴퓨팅 환경에 적합하면서 사용자 전면의 3차원 공간상에서 사용자 손과 같은 움직임으로 웨어러블 시스템 혹은 주변 장치의 입력으로 사용할 수 있는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법을 제공함에 있다.An object of the present invention for solving the above problems is, wearable computing environment-based user that can be used as input to the wearable system or peripheral devices in the three-dimensional space in front of the user in the same movement as the user's hand in a wearable computing environment An interface device and a method thereof are provided.
상기한 목적을 달성하기 위한 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치는, 사용자의 손목 부근에 착용되어 사용자의 손 위치를 알리는 위치신호를 발생하는 위치 지시기기로부터 발생된 위치신호를 수신하고, 사용자 전면의 영상을 계측하는 신호 계측수단, 및 상기 신호 계측수단에 의해 계측된 영상으로부터 3차원 좌표를 계산하고, 상기 신호 계측수단에 의해 수신된 위치신호로부터 상기 3차원 좌표상에서 사용자 손의 움직임 패턴을 인식하여, 대응하는 명령을 출력하는 신호 처리수단을 포함하는 것을 특징으로 한다.The wearable computing environment-based user interface device according to the present invention for achieving the above object, receives a position signal generated from a position indicating device that is worn near the user's wrist to generate a position signal indicating the user's hand position And 3D coordinates are calculated from the signal measuring means for measuring the image in front of the user, and the image measured by the signal measuring means, and the user's hand on the 3D coordinates from the position signal received by the signal measuring means. And signal processing means for recognizing a movement pattern and outputting a corresponding command.
상기 신호 계측수단은, 이미지 센서를 구비한 복수의 영상 계측부 및 사용자의 움직임으로부터 신체의 흔들림 정도를 계측하는 신체 흔들림 계측부를 포함하는 것을 특징으로 한다.The signal measuring means may include a plurality of image measuring units including an image sensor and a body shaking measuring unit for measuring a degree of shaking of a body from a user's movement.
상기 신체 흔들림 계측부는, 관성센서를 포함하는 것을 특징으로 한다.The body shake measurement unit is characterized in that it comprises an inertial sensor.
상기 영상 계측부는, 상기 위치 지시기기로부터 발생된 위치 신호와 상기 영상을 구분하기 위한 필터를 구비한 것을 특징으로 한다.The image measuring unit may include a filter for distinguishing the image from the position signal generated from the position indicating device.
상기 신호 처리수단은, 상기 복수의 영상 계측부에 구비된 이미지 센서의 화각이 서로 겹치는 영역에 가상의 디스플레이 화면을 구현하고, 상기 가상의 디스플레이 화면의 영상으로부터 3차원 좌표를 계산하는 것을 특징으로 한다.The signal processing unit may implement a virtual display screen in an area where the angles of view of the image sensors included in the plurality of image measuring units overlap each other, and calculate three-dimensional coordinates from an image of the virtual display screen.
상기 신호 처리수단은, 상기 복수의 영상 계측부에 의해 계측된 각 영상으로부터 2차원 좌표를 추출하는 2차원 좌표 계산부를 포함하며, 상기 2차원 좌표 계산부에 의해 추출된 2차원 좌표 및 상기 위치신호에 의해 감지된 손의 위치정보에 기초하여 3차원 좌표를 계산하는 것을 특징으로 한다.The signal processing means includes a two-dimensional coordinate calculation unit for extracting two-dimensional coordinates from each of the images measured by the plurality of image measuring units, and the two-dimensional coordinates and the position signal extracted by the two-dimensional coordinate calculation unit. It is characterized in that for calculating the three-dimensional coordinates based on the detected position information of the hand.
상기 신호 처리수단은, 상기 신체 흔들림 계측부에 의해 계측된 신체의 흔들림 정도에 기초하여 상기 영상 계측부로부터 계측된 영상의 흔들림을 보정하는 신체 흔들림 보정부를 더 포함하는 것을 특징으로 한다.The signal processing means further comprises a body shake correction unit for correcting the shake of the image measured from the image measuring unit based on the degree of shaking of the body measured by the body shake measuring unit.
상기 위치 지시기기는, 사용자 손의 위치 이동 시마다 위치신호를 발생하는 위치신호 발생수단 및 사용자로부터 제어명령을 입력받는 입력신호 계측수단을 포함하며, 상기 입력신호 계측수단으로 입력된 사용자 제어명령에 기초하여 상기 위치신호 발생수단의 동작을 제어하는 것을 특징으로 한다.The position indicating device includes a position signal generating means for generating a position signal every time the user moves the position of the user's hand and an input signal measuring means for receiving a control command from the user, and based on the user control command inputted to the input signal measuring means. To control the operation of the position signal generating means.
상기 위치신호 발생수단은, 상기 위치신호를 광 신호 형태로 발생하는 것을 특징으로 한다.The position signal generating means is characterized in that for generating the position signal in the form of an optical signal.
한편, 상기한 목적을 달성하기 위한 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법은, 사용자의 손목 부근에 착용되어 위치신호를 발생하는 위치 지시기기로부터 발생된 위치신호를 수신하고, 사용자 전면의 영상을 계측하는 단계, 상기 계측하는 단계에서 계측된 영상으로부터 3차원 좌표를 계산하는 단계, 상기 계측하는 단계에서 수신된 위치신호로부터 사용자 손의 위치를 파악하고, 상기 계산된 3차원 좌표상에서 사용자 손의 움직임 패턴을 인식하는 단계, 및 상기 인식하는 단계에서 인식된 움직임 패턴에 대응하는 명령을 출력하는 단계;를 포함하는 것을 특징으로 한다.On the other hand, the wearable computing environment-based user interface method according to the present invention for achieving the above object, receives a position signal generated from a position indicating device that is worn near the user's wrist to generate a position signal, the user front Measuring the image of the user, calculating three-dimensional coordinates from the image measured in the measuring step, determining the position of the user's hand from the position signal received in the measuring step, and checking the user on the calculated three-dimensional coordinates. Recognizing a movement pattern of the hand, and outputting a command corresponding to the movement pattern recognized in the recognition step.
상기 계측하는 단계는, 상기 사용자의 움직임으로부터 신체의 흔들림 정도를 계측하는 단계를 포함하는 것을 특징으로 한다.The measuring may include measuring a degree of shaking of the body from the movement of the user.
상기 계측된 신체의 흔들림 정도에 근거하여 상기 계측하는 단계에서 계측된 영상의 흔들림을 보정하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include correcting the shaking of the measured image based on the measured shaking degree of the body.
상기 계산하는 단계는, 상기 계측하는 단계에서 영상을 계측하는 복수의 이미지 센서의 화각이 서로 겹치는 영역에 가상의 디스플레이 화면을 구현하고, 상기 가상의 디스플레이 화면의 영상으로부터 3차원 좌표를 계산하는 것을 특징으로 한다.The calculating may include implementing a virtual display screen in an area where the angles of view of the plurality of image sensors measuring the image overlap each other, and calculating three-dimensional coordinates from the image of the virtual display screen. It is done.
상기 계산하는 단계는, 상기 복수의 영상 계측수단에 의해 계측된 각 영상으로부터 2차원 좌표를 추출하는 단계를 포함하며, 상기 추출된 2차원 좌표, 및 상기 계측하는 단계의 상기 위치신호에 의해 감지된 손의 위치정보에 기초하여 3차원 좌표를 계산하는 것을 특징으로 한다.The calculating may include extracting two-dimensional coordinates from each image measured by the plurality of image measuring means, wherein the extracted two-dimensional coordinates are detected by the position signal of the measuring step. The three-dimensional coordinates are calculated based on the position information of the hand.
상기 위치신호는, 사용자 손의 위치 이동 시마다 상기 위치 지시기기에 의해 발생되는 것을 특징으로 한다.The position signal is generated by the position indicating device whenever the position of the user's hand moves.
상기 위치신호는, 사용자로부터 상기 위치 지시기기로 손의 움직임의 시작과 끝을 알리는 신호가 입력되면, 상기 입력된 신호에 기초하여 발생되는 것을 특징으 로 한다.The position signal may be generated based on the input signal when a signal indicating the start and end of the hand movement is input from the user to the position indicating device.
상기 위치신호는, 광 신호 형태로 발생되는 것을 특징으로 한다.The position signal is characterized in that it is generated in the form of an optical signal.
본 발명에 따르면, 사용자 전면의 3차원 공간상에서 양손으로 제스처를 취할 때, 그 움직임을 추적하여 3차원적인 소정의 패턴으로 인식하여 처리함으로써, 사용자가 이동하면서 컴퓨터를 사용해야 하는 웨어러블 컴퓨팅 환경에서 사용자 공간에 멀티포인트 입력 기능을 지원하여 사용자 디스플레이 상의 객체를 선택하거나 조작하는 방법에 있어서 마치 공간 속의 사물을 다루는 듯한 사용자 친화적인 입력 인터페이스를 지원할 수 있는 이점이 있다.According to the present invention, when a gesture is performed with both hands in a three-dimensional space in front of the user, the movement is tracked, recognized as a predetermined pattern in three dimensions, and processed, thereby allowing the user to move and use a computer in a wearable computing environment. By supporting a multipoint input function, a method of selecting or manipulating an object on a user display has an advantage of supporting a user-friendly input interface that is like handling an object in a space.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하면 다음과 같다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
도 1 및 도 2는 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치를 설명하는데 참조되는 도면이다.1 and 2 are diagrams for explaining a wearable computing environment based user interface device according to the present invention.
도 1 및 도 2를 참조하면, 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치는 손목 부근에 장착되어, 손의 움직임을 감지하는 위치 지시기기(20)와, 위치 지시기기(20)에 의해 감지된 신호로부터 손의 움직임을 인식하고 그에 대응하는 동작을 처리하는 움직임 처리기기(10)를 포함한다.1 and 2, the wearable computing environment-based user interface device according to the present invention is mounted near a wrist, so that the
먼저, 사용자는 도 1에서와 같이, 웨어러블 컴퓨터의 벽면형 디스플레이 장치 혹은 HMD(Head Mounted Display)와 같은 실제 디스플레이 화면(1)이 아닌, 가상 의 디스플레이 화면(2) 상에서 디스플레이 화면(1)의 제어를 위하여 손을 움직이게 된다.First, as shown in FIG. 1, the user controls the
여기서, 손의 움직임은 글자, 기호, 제스처 등 사용자가 표현할 수 있는 모든 것이 해당되며, 한 손뿐만 아니라 양손에 의한 복합적인 제스처도 해당된다.Here, the movement of the hand corresponds to everything that the user can express, such as letters, symbols, and gestures, and corresponds to a complex gesture by both hands as well as one hand.
따라서, 사용자는 가상의 디스플레이 화면(2)에서 양손을 사용하여 입력함으로써, 실제 사용자의 눈 앞에 출력되는 사물을 멀티 터치와 유사하게 3차원 공간상에서 제어할 수 있다. 특히, 도 2에 도시된 바와 같이, 안경형태의 양 끝단에 부착된 복수의 영상 계측부(11a, 11b)를 통해 사용자 전면의 일정한 3차원 공간 내에서 입력을 수행할 수 있으며, 해당 공간은 복수의 영상 계측부(11a, 11b)로부터의 화각에 의해 결정된다.Therefore, the user inputs the
이때, 위치 지시기기(20)는 복수개 구비될 수 있다. 위치 지시기기(20)는 팔찌 형태로 구현되어, 사용자의 한쪽 손목 또는 양쪽 손목에 모두 착용될 수 있다. 뿐만 아니라, 위치 지시기기(20)는 반지 형태로 구현되어 사용자의 손가락에 착용될 수도 있다. 이에, 본 발명의 실시예에서는 위치 지시기기(20)가 팔찌 형태로 구현되어, 사용자의 양쪽 손목에 착용된 경우를 예로 하였으나, 이에 한정되는 것은 아니다. 위치 지시기기(20)에 대한 구체적인 설명은 도 4를 참조하도록 한다.In this case, the
한편, 움직임 처리기기(10)는 위치 지시기기(20)와 마찬가지로 사용자의 몸에 착용 가능한 형태로 구현되며, 그 실시예로는 안경, 모자, 옷 등과 같이 신체에 어느 부분에도 착용할 수 있다. 본 발명의 실시예에서는 사용자의 시각에서 보는 것과 마찬가지의 효과를 내기 위해, 움직임 처리기기(10)가 안경 형태로 구현된 것을 예로 한다.On the other hand, the
움직임 처리기기(10)에는 복수의 영상 계측부(11a, 11b)가 구비된다. 이때, 복수의 영상 계측부(11a, 11b)는 각각 서로 다른 위치에 배치되며, 해당 위치에서 위치 지시기기(20)로부터 발생되는 신호를 계측한다. 움직임 처리기기(10)에 대한 구체적인 설명은 도 3을 참조하도록 한다.The
도 3은 본 발명에 따른 움직임 처리기기(10)의 구성을 도시한 블록도이다.3 is a block diagram showing the configuration of the
도 3에 도시된 바와 같이, 본 발명에 따른 움직임 처리기기(10)는 신호 계측수단(11), 명령 입력수단(13), 신호 처리수단(15), 및 통신수단을 포함한다.As shown in FIG. 3, the
또한, 신호 계측수단(11)은 제1 영상 계측부(11a), 제2 영상 계측부(11b), 및 신체 흔들림 계측부(11c)를 포함한다.In addition, the signal measuring means 11 includes a first
제1 영상 계측부(11a) 및 제2 영상 계측부(11b)는 서로 다른 위치에 배치되며, 도 2에 도시된 바와 같이, 안경의 양쪽 끝에 배치될 수 있다. 물론, 도 3에서는 제1 영상 계측부(11a)와 제2 영상 계측부(11b)가 구비된 것을 예로 하였으나, 제3 영상 계측부 등 더 많이 구비될 수도 있다.The first
이때, 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)는 위치 지시기기(20)로부터 발생된 신호를 계측할 수 있는 이미지 센서인 것을 예로 한다. 물론, 위치 지시기기(20)에 의해 발생되는 적외선, 가시광선, 레이져 등의 형태를 가질 수 있 다.In this case, the first
또한, 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)는 위치 지시기기(20)로부터 발생된 신호를 수신하고, 수신된 신호로부터 사용자의 손 위치를 감지한다. 이때, 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)에는 이미지 센서에 의해 계측되는 영상 신호와 위치 지시기기(20)로부터 수신된 신호를 구분하기 위한 물리적인 필터가 구비된다. In addition, the first
이때, 물리적인 필터로는 적외선 통과대역 필터 등이 해당 될 수 있다. 적외선 통과대역 필터는 가시광선에 의한 간섭을 제거함으로써, 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)가 적외선 신호를 더욱 명확하게 계측할 수 있도록 한다.In this case, the physical filter may correspond to an infrared passband filter. The infrared passband filter removes the interference by the visible light, thereby allowing the first
한편, 신체 흔들림 계측부(11c)는 사용자의 신체 흔들림 정도를 계측한다. 신체 흔들림 계측부(11c)는 손의 움직임을 계측하는 경우, 사용자 신체의 흔들림에 의한 오차가 발생하는 것을 보완하기 위해 관성센서(IMU, Inertial Measurement Unit)를 추가로 구비할 수 있다. 이때, 신체 흔들림 계측부(11c)는 계측된 신호를 신호 처리 수단으로 전달한다.On the other hand, the body
명령 입력수단(13)은 사용자로부터 제어명령을 입력받기 위한 수단으로, 움직임 기기로부터의 제어명령을 수신하기 위한 통신모듈을 포함한다. The command input means 13 is a means for receiving a control command from a user, and includes a communication module for receiving a control command from a moving device.
위치 지시기기(20)로 사용자로부터의 사용자로부터 제어명령이 입력되면, 위치 지시기기(20)는 움직임 처리기기(10)로 해당 명령을 전송한다. 따라서, 명령 입 력수단(13)은 위치 지시기기로부터의 제어명령을 수신하여 신호 처리수단(15)으로 전달한다.When a control command is input from the user to the
신호 처리수단(15)은 2차원 좌표 계산부(15a), 3차원 좌표 계산부(15b), 신체 흔들림 보정부(15c), 패턴 인식부(15d), 및 명령 처리부(15e)를 포함한다.The signal processing means 15 includes a two-dimensional coordinate calculation section 15a, a three-dimensional coordinate
먼저, 2차원 좌표 계산부(15a)는 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)에 의해 계측된 각 영상으로부터 위치 지시기기(20)가 배치된 영역, 즉, 손이 위치한 영역에서의 손 위치에 대한 2차원 좌표를 계산한다. 이때, 2차원 좌표 계산부(15a)는 각각의 계측 영상에서 점 형태로 나타나는 적외선 이미지의 2차원 좌표를 추출한다.First, the 2D coordinate calculation unit 15a is an area in which the
이후, 3차원 좌표 계산부(15b)는 2차원 좌표 계산부(15a)에 의해 추출된 2차원 좌표를 이용하여 해당 위치에서의 3차원 좌표를 계산한다. 3차원 좌표의 계산을 위한 모델은 도 6을 참조한다.Thereafter, the 3D coordinate
이때, 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)와, 2차원 좌표 추적부, 3차원 좌표 계산부(15b)는 복합적으로 구현되어 하나의 프로세서로 처리될 수 있다.In this case, the first
신체 흔들림 보정부(15c)는 신체 흔들림 계측부(11c)에 의해 계측된 신호로부터 신체 흔들림 정도를 파악한다. 이때, 신체 흔들림 보정부(15c)는 파악된 정보에 근거하여 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)에 의해 계측된 영상에 대한 신체 흔들림을 보정한다.The body
패턴 인식부(15d)는 신체 흔들림 보정부(15c)에 의해 보정된 영상으로부터, 3차원 좌표 계산부(15b)에 의해 계산된 3차원 좌표에서의 움직임 패턴을 인식한다.The
이후, 명령 처리부(15e)는 패턴 인식부(15d)에 의해 인식된 움직임 패턴에 대응하는 명령을 추출하여, 통신수단(17)을 통해 착용형 컴퓨터로 전송한다.Thereafter, the
명령 처리부(15e)는 유무선 통신 인터페이스를 통해 다른 기기와 연결되어, 해당 기기로 명령을 전달할 수도 있다.The
이때, 3차원 좌표 계산부(15b), 패턴 인식부(15d), 및 명령 처리부(15e)는 2차원 좌표 계산부(15a)에 통신 인터페이스를 부가하여 외부의 다른 기기에서도 처리할 수도 있다.At this time, the three-dimensional coordinate
한편, 도 4는 본 발명에 따른 위치 지시기기(20)의 구성을 도시한 블록도이다.4 is a block diagram showing the configuration of the
도 4를 참조하면, 본 발명에 따른 위치 지시기기(20)는 위치신호 발생수단(21), 입력신호 계측수단(23), 신호 처리수단(25), 및 통신수단(27)을 포함한다.Referring to FIG. 4, the
위치신호 발생수단(21)은 해당 위치 지시기기(20)의 현재 위치를 알리기 위한 위치신호를 발생하는 수단이다. 위치신호 발생수단(21)은 적외선, 가시광선, 레이져 등과 같이 움직임 처리기기(10)의 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)에 의해 계측 가능한 신호 형태로 출력한다. 본 발명의 실시예에서, 위치신호 발생수단(21)은 적외선 신호를 발생하는 것을 예로 한다.The position signal generating means 21 is means for generating a position signal for notifying the current position of the
입력신호 계측수단(23)은 사용자로부터 제어명령을 입력받는 수단이다. 즉, 사용자는 컴퓨터 입력장치인 마우스의 클릭과 같은 동작으로 현재 사용자가 행하고 있는 손 움직임의 유효성을 지시한다. The input signal measuring means 23 is a means for receiving a control command from the user. That is, the user instructs the validity of the hand movement currently performed by the user by an operation such as a click of a mouse which is a computer input device.
이때, 입력신호 계측수단(23)은 반지형태의 버튼 조작, 손가락 또는 손목 접촉음, 근전도 등을 계측함으로써 사용자로부터의 제어명령을 인식한다. At this time, the input signal measuring means 23 recognizes a control command from the user by measuring a button operation in the shape of a ring, a finger or a wrist contact sound, an electromyography and the like.
예를 들어, 사용자가 엄지와 검지로 허공에서 짚는 행위(두드리는 행위)를 하면, 입력신호 계측수단(23)은 현재부터의 동작은 유효한 동작인 것으로 해석하여 움직임의 시작을 지시하는 신호로 인식한다. 또한, 입력신호 계측수단(23)은 사용자의 움직임이 없거나, 혹은 근전도를 사용할 경우에는 손가락을 짚는 행위와 벌어지는 행위로부터 움직임의 시작과 끝을 지시하는 명령을 계측할 수 있다.For example, when a user taps (taps) in the air with a thumb and index finger, the input signal measuring means 23 interprets that the present motion is a valid motion and recognizes it as a signal indicating the start of the motion. . In addition, the input signal measuring means 23 may measure a command for instructing the start and the end of the movement from the action of tapping a finger and the spreading action when there is no user movement or when using EMG.
입력신호 계측수단(23)은 계측된 사용자의 제어명령을 신호 처리수단(25)으로 전달한다. The input signal measuring means 23 transmits the measured user's control command to the signal processing means 25.
신호 처리수단(25)은 입력 신호 인식부(25a), 및 명령 처리부(25b)를 포함한다.The signal processing means 25 includes an input
입력 신호 인식부(25a)는 입력신호 계측수단(23)에 의해 계측된 사용자의 제어명령을 인식한다. 이때, 명령 처리부(25b)는 입력 신호 인식부(25a)에 의해 인식된 사용자의 제어명령을 통신수단(27)을 통해 움직임 처리기기(10)의 명령 입력수단(13)으로 전송한다.The input
한편, 명령 처리부(25b)는 입력 신호 인식부(25a)에 의해 사용자 움직임의 시작을 알리는 명령이 인식되면, 위치신호 발생수단(21)으로 소정의 제어신호를 출력한다. 따라서, 위치신호 발생수단(21)은 명령 처리부(25b)로부터의 제어신호에 따라 위치신호를 발생한다.On the other hand, the
도 5는 본 발명에 따른 움직임 처리기기의 영상 계측부에 대한 동작을 설명하는데 참조되는 예시도이다.5 is an exemplary view referred to for explaining the operation of the image measuring unit of the motion processing device according to the present invention.
도 5에 도시된 바와 같이, 제1 영상 계측부(11a)와 제2 영상 계측부(11b)는 정면의 영상을 취득하게 된다. 이때, 제1 영상 계측부(11a)와 제2 영상 계측부(11b)의 화각에 의해 가상의 디스플레이 화면(2)이 구현되는 영역을 결정한다.As shown in FIG. 5, the first
다시 말해, 제1 영상 계측부(11a)와 제2 영상 계측부(11b)는 일정한 화각(θ)을 가지며, 제1 영상 계측부(11a)와 제2 영상 계측부(11b)의 화각이 겹치는 영역에 가상의 디스플레이 화면(2)이 구현하도록 한다.In other words, the first
따라서, 상기와 같이 구현된 3차원 공간의 가상의 디스플레이 화면(2)에서 사용자는 손가락을 쥐거나 손가락을 짚는 형태의 제스쳐를 위하여 가상공간상의 객체를 선택하고 그 상태에서 손을 움직여 해당 객체를 이동하는 것과 같이 컴퓨터를 제어할 수 있게 된다.Therefore, in the
도 6은 본 발명에 따른 좌표 계산 방법에 대한 동작을 설명하는데 참조되는 예시도이다.6 is an exemplary view referred to for explaining the operation of the coordinate calculation method according to the present invention.
도 6을 참조하면, 위치 지시기기(20)의 위치신호 발생수단(21)으로부터 위치 신호가 발생되면 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)는 위치신호를 수신하게 된다.Referring to FIG. 6, when a position signal is generated from the position signal generating means 21 of the
이때, 3차원 좌표 계산부(15b)는 위치신호 발생수단(21)과 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)의 위치에 근거하여 3차원 좌표를 계산한다.At this time, the three-dimensional coordinate
3차원 좌표의 계산을 위한 모델은 아래 [수학식 1]을 이용하여 구할 수 있다.A model for calculating three-dimensional coordinates can be obtained by using
여기서, dr은 제1 영상 계측부(11a)에 위치신호 발생수단(21)으로부터 발생된 위치신호가 도달한 지점에서 중심까지의 거리이다. dl은 제2 영상 계측부(11b)에 위치신호 발생수단(21)으로부터 발생된 위치신호가 도달한 지점에서 중심까지의 거리이다.Here, dr is a distance from the point where the position signal generated from the position signal generating means 21 to the first
L은 제1 영상 계측부(11a)의 중심에서 제2 영상 계측부(11b)의 중심까지의 거리이다. L is the distance from the center of the first
f는 제1 영상 계측부(11a)와 제2 영상 계측부(11b)의 중심에서 제1 영상 계측부(11a)와 제2 영상 계측부(11b)에 수직 방향으로, 위치신호 발생수단(21)으로부터 발생된 위치신호와 만나는 지점까지의 거리, 즉, 해당 영상 계측부의 초점거리이다.f is generated from the position signal generating means 21 in a direction perpendicular to the first
x는 제1 영상 계측부(11a)와 제2 영상 계측부(11b)에서 위치신호 발생수단(21)까지의 수직거리이다.x is a vertical distance from the first
따라서, 3차원 좌표 계산부(15b)는 2차원 좌표 계산부(15a)로부터 추출된 2차원 좌표와 상기에서 산출된 x 값을 이용하여 3차원 좌표를 계산하게 된다.Therefore, the 3D coordinate
상기와 같이 구성되는 본 발명의 동작을 다음과 같다.The operation of the present invention configured as described above is as follows.
도 7은 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법에 대한 동작 흐름을 나타낸 순서도로서, 움직임 처리기기(10)의 동작을 나타낸 것이다.7 is a flowchart illustrating an operation flow of a wearable computing environment-based user interface method according to the present invention, and illustrates an operation of the
도 7에 도시된 바와 같이, 움직임 처리기기(10)는 위치 지시기기(20)로부터의 신호에 근거하여 사용자의 신체 움직임을 계측한다(100). 또한, 움직임 처리기기(10)의 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)의 이미지 센서를 이용하여 계측된 움직임 영상을 처리한다(S110).As shown in FIG. 7, the
이후, 2차원 좌표 계산부(15a)는 'S110' 과정의 영상으로부터 2차원 좌표를 계산하고(S120), 3차원 좌표 계산부(15b)는 'S120' 과정에서의 2차원 좌표 및 'S100' 과정에서 수신된 신호에 근거하여 3차원 좌표를 계산한다(S130)Thereafter, the two-dimensional coordinate calculation unit 15a calculates two-dimensional coordinates from the image of step S110 (S120), and the three-dimensional coordinate
한편, 신체 흔들림 계측부(11c)는 'S100' 과정에서 수신된 신호로부터 신체 흔들림 정도를 계측하고(S140), 신체 흔들림 보정부(15c)는 'S140' 과정에서 계측된 정보에 따라 해당 영상에서의 신체 흔들림 및 그에 따른 오차를 보정한다(S150).On the other hand, the body
패턴 인식부(15d)는 'S130' 과정에서 계산된 3차원 좌표와, 'S150' 과정에서 보정된 영상으로부터 사용자의 움직임 패턴을 인식하고(S160), 'S160' 과정에서 인식된 패턴에 대응하는 명령 데이터를 추출하여 통신모듈을 통해 착용형 컴퓨터로 전송한다(S170).The
본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법은 웨어러블 컴퓨터에 적용되는 것을 실시예로 기술하였으나, 웨어러블 컴퓨터뿐만 아니라 일반적인 컴퓨터의 인터페이스 장치로도 이용 가능함은 당연한 것이다.The wearable computing environment-based user interface device and method thereof according to the present invention have been described as being applied to a wearable computer as an embodiment, but it is natural that the wearable computer may be used as an interface device of a general computer as well as a wearable computer.
이상에서와 같이 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the wearable computing environment-based user interface device and the method thereof are not limited to the configuration and method of the embodiments described as described above, but the embodiments may be modified in various ways. All or part of each of the embodiments may be configured to be selectively combined to make it possible.
도 1 및 도 2 는 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치의 동작 설명에 참조되는 도이다.1 and 2 are views referred to for describing the operation of the wearable computing environment-based user interface device according to the present invention.
도 3 은 본 발명에 따른 사용자 인터페이스 장치의 움직임 처리기기에 대한 구성을 도시한 블록도이다.3 is a block diagram illustrating a configuration of a motion processing device of a user interface device according to the present invention.
도 4 는 본 발명에 따른 사용자 인터페이스 장치의 위치 지시기기에 대한 구성을 도시한 블록도이다.4 is a block diagram showing the configuration of the position indicating device of the user interface device according to the present invention.
도 5 는 본 발명에 따른 영상 계측 방법을 설명하는데 참조되는 예시도이다.5 is an exemplary view referred to to explain an image measuring method according to the present invention.
도 6 은 본 발명에 따른 위치 좌표 계측 방법을 설명하는데 참조되는 예시도이다.6 is an exemplary view referred to in describing a position coordinate measuring method according to the present invention.
도 7 은 본 발명에 따른 사용자 인터페이스 방법에 대한 동작 흐름을 도시한 순서도이다.7 is a flowchart illustrating an operation flow for a user interface method according to the present invention.
Claims (14)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/604,895 US20100103104A1 (en) | 2008-10-29 | 2009-10-23 | Apparatus for user interface based on wearable computing environment and method thereof |
JP2009248773A JP2010108500A (en) | 2008-10-29 | 2009-10-29 | User interface device for wearable computing environmental base, and method therefor |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20080106474 | 2008-10-29 | ||
KR1020080106474 | 2008-10-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100047793A true KR20100047793A (en) | 2010-05-10 |
KR101284797B1 KR101284797B1 (en) | 2013-07-10 |
Family
ID=42274719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090090147A KR101284797B1 (en) | 2008-10-29 | 2009-09-23 | Apparatus for user interface based on wearable computing environment and method thereof |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2010108500A (en) |
KR (1) | KR101284797B1 (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012077909A2 (en) * | 2010-12-10 | 2012-06-14 | 숭실대학교산학협력단 | Method and apparatus for recognizing sign language using electromyogram sensor and gyro sensor |
WO2013009047A2 (en) * | 2011-07-11 | 2013-01-17 | Korea Institute Of Science And Technology | Head mounted display apparatus and contents display method |
KR101251774B1 (en) * | 2011-05-17 | 2013-04-05 | 목원대학교 산학협력단 | Matching system, matching method, wearable input device and command signal providing method for incorporating real world into virtual reality for handicapped and elderly |
WO2014071254A1 (en) * | 2012-11-01 | 2014-05-08 | Eyecam, LLC | Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing |
KR101397812B1 (en) * | 2012-11-30 | 2014-05-20 | 강원대학교산학협력단 | Input system of touch and drag type in remote |
KR20150033204A (en) * | 2013-09-23 | 2015-04-01 | 엘지전자 주식회사 | Wearable mobile terminal and method for controlling the same |
KR101524575B1 (en) * | 2014-08-20 | 2015-06-03 | 박준호 | Wearable device |
KR20150091723A (en) * | 2014-02-03 | 2015-08-12 | 한국전자통신연구원 | Wrist wearable apparatus with transformable material |
US9183760B2 (en) | 2010-12-10 | 2015-11-10 | Foundation Of Soongsil University-Industry Cooperation | Method and apparatus for recognizing sign language using electromyogram sensor and gyro sensor |
US9560272B2 (en) | 2014-03-24 | 2017-01-31 | Samsung Electronics Co., Ltd. | Electronic device and method for image data processing |
US9563277B2 (en) | 2011-03-16 | 2017-02-07 | Samsung Electronics Co., Ltd. | Apparatus, system, and method for controlling virtual object |
US9829986B2 (en) | 2014-03-21 | 2017-11-28 | Samsung Electronics Co., Ltd. | Method and wearable device for providing a virtual input interface |
WO2018074893A1 (en) * | 2016-10-20 | 2018-04-26 | 삼성전자 주식회사 | Display apparatus, and image processing method thereof |
WO2019164048A1 (en) * | 2018-02-24 | 2019-08-29 | 링크플로우 주식회사 | Method for implementing user interface by user device and apparatus for performing same method |
US10401901B2 (en) | 2015-09-03 | 2019-09-03 | Motionvirtual, Inc. | Wearable device |
US10474191B2 (en) | 2014-10-15 | 2019-11-12 | Motionvirtual, Inc. | Wearable device |
KR102102309B1 (en) * | 2019-03-12 | 2020-04-21 | 주식회사 피앤씨솔루션 | Object recognition method for 3d virtual space of head mounted display apparatus |
US11314399B2 (en) | 2017-10-21 | 2022-04-26 | Eyecam, Inc. | Adaptive graphic user interfacing system |
KR20220113495A (en) * | 2019-12-11 | 2022-08-12 | 주식회사 소니 인터랙티브 엔터테인먼트 | Image processing apparatus, system, image processing method, and image processing program |
WO2022250238A1 (en) * | 2021-05-25 | 2022-12-01 | (주) 이즈커뮤니케이션즈 | System for information input into computer and method for calculating coordinates of input information by using information input system |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010205223A (en) * | 2009-03-06 | 2010-09-16 | Seiko Epson Corp | System and device for control following gesture for virtual object |
JP6149403B2 (en) * | 2013-01-07 | 2017-06-21 | セイコーエプソン株式会社 | Display device and control method of display device |
KR101560474B1 (en) | 2014-02-18 | 2015-10-14 | 성균관대학교산학협력단 | Apparatus and method for providing 3d user interface using stereoscopic image display device |
KR101655820B1 (en) | 2014-12-16 | 2016-09-22 | 현대자동차주식회사 | Time of arrival notice system and there of method using smart glasses |
KR101577359B1 (en) * | 2015-03-16 | 2015-12-14 | 박준호 | Wearable device |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003035515A (en) * | 2001-07-23 | 2003-02-07 | Nippon Telegr & Teleph Corp <Ntt> | Method, device and marker for detecting three- dimensional positions |
JP2004013314A (en) * | 2002-06-04 | 2004-01-15 | Fuji Xerox Co Ltd | Position measuring input support device |
JP2004078977A (en) | 2003-09-19 | 2004-03-11 | Matsushita Electric Ind Co Ltd | Interface device |
KR100571428B1 (en) * | 2003-12-24 | 2006-04-17 | 한국전자통신연구원 | Wearable Interface Device |
JP4038689B2 (en) * | 2004-01-21 | 2008-01-30 | ソニー株式会社 | Display control apparatus and method, recording medium, and program |
EP1821183A4 (en) * | 2004-10-05 | 2011-01-26 | Nikon Corp | Electronic device |
KR100674090B1 (en) | 2004-12-20 | 2007-01-24 | 한국전자통신연구원 | System for Wearable General-Purpose 3-Dimensional Input |
KR100851977B1 (en) | 2006-11-20 | 2008-08-12 | 삼성전자주식회사 | Controlling Method and apparatus for User Interface of electronic machine using Virtual plane. |
-
2009
- 2009-09-23 KR KR1020090090147A patent/KR101284797B1/en active IP Right Grant
- 2009-10-29 JP JP2009248773A patent/JP2010108500A/en active Pending
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9183760B2 (en) | 2010-12-10 | 2015-11-10 | Foundation Of Soongsil University-Industry Cooperation | Method and apparatus for recognizing sign language using electromyogram sensor and gyro sensor |
WO2012077909A3 (en) * | 2010-12-10 | 2012-08-02 | 숭실대학교산학협력단 | Method and apparatus for recognizing sign language using electromyogram sensor and gyro sensor |
WO2012077909A2 (en) * | 2010-12-10 | 2012-06-14 | 숭실대학교산학협력단 | Method and apparatus for recognizing sign language using electromyogram sensor and gyro sensor |
US9563277B2 (en) | 2011-03-16 | 2017-02-07 | Samsung Electronics Co., Ltd. | Apparatus, system, and method for controlling virtual object |
KR101251774B1 (en) * | 2011-05-17 | 2013-04-05 | 목원대학교 산학협력단 | Matching system, matching method, wearable input device and command signal providing method for incorporating real world into virtual reality for handicapped and elderly |
WO2013009047A2 (en) * | 2011-07-11 | 2013-01-17 | Korea Institute Of Science And Technology | Head mounted display apparatus and contents display method |
WO2013009047A3 (en) * | 2011-07-11 | 2013-03-14 | Korea Institute Of Science And Technology | Head mounted display apparatus and contents display method |
KR101315303B1 (en) * | 2011-07-11 | 2013-10-14 | 한국과학기술연구원 | Head mounted display apparatus and contents display method |
US9250443B2 (en) | 2011-07-11 | 2016-02-02 | Korea Institute Of Science And Technology | Head mounted display apparatus and contents display method |
WO2014071254A1 (en) * | 2012-11-01 | 2014-05-08 | Eyecam, LLC | Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing |
US9690376B2 (en) | 2012-11-01 | 2017-06-27 | Eyecam, Inc. | Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing |
KR20150099510A (en) * | 2012-11-01 | 2015-08-31 | 아이캠, 엘엘씨 | Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing |
US11262841B2 (en) | 2012-11-01 | 2022-03-01 | Eyecam Llc | Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing |
KR101397812B1 (en) * | 2012-11-30 | 2014-05-20 | 강원대학교산학협력단 | Input system of touch and drag type in remote |
KR20150033204A (en) * | 2013-09-23 | 2015-04-01 | 엘지전자 주식회사 | Wearable mobile terminal and method for controlling the same |
KR20150091723A (en) * | 2014-02-03 | 2015-08-12 | 한국전자통신연구원 | Wrist wearable apparatus with transformable material |
US10534442B2 (en) | 2014-03-21 | 2020-01-14 | Samsung Electronics Co., Ltd. | Method and wearable device for providing a virtual input interface |
US10168792B2 (en) | 2014-03-21 | 2019-01-01 | Samsung Electronics Co., Ltd. | Method and wearable device for providing a virtual input interface |
US9829986B2 (en) | 2014-03-21 | 2017-11-28 | Samsung Electronics Co., Ltd. | Method and wearable device for providing a virtual input interface |
US9560272B2 (en) | 2014-03-24 | 2017-01-31 | Samsung Electronics Co., Ltd. | Electronic device and method for image data processing |
WO2016028097A1 (en) * | 2014-08-20 | 2016-02-25 | Jun Ho Park | Wearable device |
KR101524575B1 (en) * | 2014-08-20 | 2015-06-03 | 박준호 | Wearable device |
US10474191B2 (en) | 2014-10-15 | 2019-11-12 | Motionvirtual, Inc. | Wearable device |
US10908642B2 (en) | 2014-10-15 | 2021-02-02 | Motionvirtual, Inc. | Movement-based data input device |
US10401901B2 (en) | 2015-09-03 | 2019-09-03 | Motionvirtual, Inc. | Wearable device |
US10747260B2 (en) | 2015-09-03 | 2020-08-18 | Motionvirtual, Inc. | Methods, devices, and systems for processing blood vessel data |
US10915993B2 (en) | 2016-10-20 | 2021-02-09 | Samsung Electronics Co., Ltd. | Display apparatus and image processing method thereof |
WO2018074893A1 (en) * | 2016-10-20 | 2018-04-26 | 삼성전자 주식회사 | Display apparatus, and image processing method thereof |
US11314399B2 (en) | 2017-10-21 | 2022-04-26 | Eyecam, Inc. | Adaptive graphic user interfacing system |
WO2019164048A1 (en) * | 2018-02-24 | 2019-08-29 | 링크플로우 주식회사 | Method for implementing user interface by user device and apparatus for performing same method |
KR20190102124A (en) * | 2018-02-24 | 2019-09-03 | 링크플로우 주식회사 | Method for implementing user interface of user equipment and apparatus for using the method |
KR102102309B1 (en) * | 2019-03-12 | 2020-04-21 | 주식회사 피앤씨솔루션 | Object recognition method for 3d virtual space of head mounted display apparatus |
US12114071B2 (en) | 2019-12-11 | 2024-10-08 | Sony Interactive Entertainment Inc. | Image processing apparatus, system, image processing method, and image processing program |
KR20220113495A (en) * | 2019-12-11 | 2022-08-12 | 주식회사 소니 인터랙티브 엔터테인먼트 | Image processing apparatus, system, image processing method, and image processing program |
WO2022250238A1 (en) * | 2021-05-25 | 2022-12-01 | (주) 이즈커뮤니케이션즈 | System for information input into computer and method for calculating coordinates of input information by using information input system |
Also Published As
Publication number | Publication date |
---|---|
KR101284797B1 (en) | 2013-07-10 |
JP2010108500A (en) | 2010-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101284797B1 (en) | Apparatus for user interface based on wearable computing environment and method thereof | |
US20100103104A1 (en) | Apparatus for user interface based on wearable computing environment and method thereof | |
CN110647237B (en) | Gesture-based content sharing in an artificial reality environment | |
US10444908B2 (en) | Virtual touchpads for wearable and portable devices | |
KR101302138B1 (en) | Apparatus for user interface based on wearable computing environment and method thereof | |
KR101844390B1 (en) | Systems and techniques for user interface control | |
AU2013347935B2 (en) | Computing interface system | |
EP3035164B1 (en) | Wearable sensor for tracking articulated body-parts | |
CN104254816A (en) | A data input device | |
CN105824431A (en) | Information input device and method | |
US10120444B2 (en) | Wearable device | |
KR102147430B1 (en) | virtual multi-touch interaction apparatus and method | |
KR20110063075A (en) | Gesture input apparatus and gesture recognition method and apparatus using the same | |
KR20120068253A (en) | Method and apparatus for providing response of user interface | |
CN104298340A (en) | Control method and electronic equipment | |
US11237632B2 (en) | Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions | |
KR102322968B1 (en) | a short key instruction device using finger gestures and the short key instruction method using thereof | |
CN203070205U (en) | Input equipment based on gesture recognition | |
KR20120037739A (en) | User interface device and method based on hand gesture recognition | |
KR101588021B1 (en) | An input device using head movement | |
JP2016115310A (en) | Electronic apparatus | |
RU2577467C1 (en) | Mobile device for sensor plane | |
JP2013164736A (en) | Input device for portable information device | |
KR20190022019A (en) | Wearable Mouse and the Operating Method Thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160628 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20171010 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180427 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190528 Year of fee payment: 7 |