Nothing Special   »   [go: up one dir, main page]

KR20100047793A - Apparatus for user interface based on wearable computing environment and method thereof - Google Patents

Apparatus for user interface based on wearable computing environment and method thereof Download PDF

Info

Publication number
KR20100047793A
KR20100047793A KR1020090090147A KR20090090147A KR20100047793A KR 20100047793 A KR20100047793 A KR 20100047793A KR 1020090090147 A KR1020090090147 A KR 1020090090147A KR 20090090147 A KR20090090147 A KR 20090090147A KR 20100047793 A KR20100047793 A KR 20100047793A
Authority
KR
South Korea
Prior art keywords
user
image
signal
computing environment
measuring
Prior art date
Application number
KR1020090090147A
Other languages
Korean (ko)
Other versions
KR101284797B1 (en
Inventor
손용기
임정묵
이동우
정현태
조일연
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US12/604,895 priority Critical patent/US20100103104A1/en
Priority to JP2009248773A priority patent/JP2010108500A/en
Publication of KR20100047793A publication Critical patent/KR20100047793A/en
Application granted granted Critical
Publication of KR101284797B1 publication Critical patent/KR101284797B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE: An apparatus for a user interface based on a wearable computing environment and a method thereof are provided to support a user-friendly input interface by recognizing the motion of gesture in 3D pattern. CONSTITUTION: A location indicator generates an optical signal near a wrist of a user, and a signal measuring unit(11) receives an optical signal. Plural image measurement units(11a,11b,11c) measure the front image of a user through an image sensor. A signal processor(15) calculates 3D coordinates through image analysis, and recognizes the motion pattern of both hands on the 3D coordinates. The signal processing unit outputs a command corresponding to the motion pattern.

Description

착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법{Apparatus for user interface based on wearable computing environment and method thereof}Apparatus for user interface based on wearable computing environment and method

본 발명은 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법에 관한 것으로, 특히 웨어러블 컴퓨팅 환경에 적합하면서 사용자 전면의 3차원 공간상에서 사용자 양손의 움직임을 웨어러블 시스템 혹은 주변 장치의 입력으로 사용할 수 있는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법에 관한 것이다.The present invention relates to a user interface device based on a wearable computing environment and a method thereof, and more particularly, a wearable computing device suitable for a wearable computing environment, which can be used as an input of a wearable system or a peripheral device in a three-dimensional space in front of the user. The present invention relates to a user interface device based on a computing environment and a method thereof.

본 발명은 지식경제부의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-048-01, 과제명: u-컴퓨팅 공간 협업을 위한 Wearable Personal Companion 기술 개발].The present invention is derived from a study conducted as part of the IT source technology development project of the Ministry of Knowledge Economy [Task management number: 2008-F-048-01, Task name: Development of Wearable Personal Companion technology for u-computing space collaboration] .

기존에 시스템이 갖추어진 제한된 공간에서 사용자의 움직임, 특히 손의 움직임을 검출하여 인간과 컴퓨터 사이의 상호작용(interaction)으로 사용하려는 시도들은 많이 연구되어져 왔다. 기존의 시스템들은 사용자가 장갑형태의 장치를 착용하거나 잘 갖추어진 정해지고 제한된 장소에서만 입력을 수행할 수 있는 단점이 있다. Many attempts have been made to detect the user's movement, especially the hand's movement in the limited space equipped with the system and use it as the interaction between human and computer. Existing systems have the disadvantage that the user may only wear input in the form of a well-equipped, well-equipped device.

또한, 현재 시판되고 있는 3차원 공간 마우스 혹은 펜과 같은 장치는 자이로센서를 이용하여 사용자 손의 움직임을 계측하여 사용자 입력으로 사용하고 있다. 이 장치 또한 사용자가 파지하고 사용해야 하며 사용자가 필요한 경우에 소지하고 다녀야하는 불편함이 있다.In addition, a commercially available device such as a three-dimensional space mouse or a pen measures a user's hand movement using a gyro sensor and uses it as a user input. This device is also inconvenient to be held and used by the user and carried by the user when necessary.

애플의 Ipod Touch, 마이크로소프트사의 Surface, 제프한의 Multi-Touch 장치와 같은 멀티 터치는 장치의 디스플레이에 터치를 적용하여 멀티 터치의 장점을 최대한 발휘하고 있지만, 손에 장치를 파지하거나 제한된 장치에서 사용해야 하는 불편함이 있다. Multi-touch, such as Apple's Ipod Touch, Microsoft's Surface, and Jeff's Multi-Touch device, take full advantage of multi-touch by applying touch to the device's display, but do not hold the device in your hand or use it on a limited device. There is discomfort.

특히, 장치 혹은 컴퓨터를 몸에 부착 혹은 착용하고 다니는 웨어러블 시스템을 위한 사용자 인터페이스인 경우 장치를 가지고 다녀야 하는 이동성 및 사용자가 손쉽게 사용하고 가지고 다닐 수 있는 착용성과 같은 요소들을 고려하여 설계하여야 한다.In particular, in the case of a user interface for a wearable system in which a device or a computer is attached to or worn on a body, the user interface should be designed in consideration of factors such as mobility required to carry the device and wearability that a user can easily use and carry.

상기한 과제를 해결하기 위한 본 발명의 목적은, 웨어러블 컴퓨팅 환경에 적합하면서 사용자 전면의 3차원 공간상에서 사용자 손과 같은 움직임으로 웨어러블 시스템 혹은 주변 장치의 입력으로 사용할 수 있는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법을 제공함에 있다.An object of the present invention for solving the above problems is, wearable computing environment-based user that can be used as input to the wearable system or peripheral devices in the three-dimensional space in front of the user in the same movement as the user's hand in a wearable computing environment An interface device and a method thereof are provided.

상기한 목적을 달성하기 위한 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치는, 사용자의 손목 부근에 착용되어 사용자의 손 위치를 알리는 위치신호를 발생하는 위치 지시기기로부터 발생된 위치신호를 수신하고, 사용자 전면의 영상을 계측하는 신호 계측수단, 및 상기 신호 계측수단에 의해 계측된 영상으로부터 3차원 좌표를 계산하고, 상기 신호 계측수단에 의해 수신된 위치신호로부터 상기 3차원 좌표상에서 사용자 손의 움직임 패턴을 인식하여, 대응하는 명령을 출력하는 신호 처리수단을 포함하는 것을 특징으로 한다.The wearable computing environment-based user interface device according to the present invention for achieving the above object, receives a position signal generated from a position indicating device that is worn near the user's wrist to generate a position signal indicating the user's hand position And 3D coordinates are calculated from the signal measuring means for measuring the image in front of the user, and the image measured by the signal measuring means, and the user's hand on the 3D coordinates from the position signal received by the signal measuring means. And signal processing means for recognizing a movement pattern and outputting a corresponding command.

상기 신호 계측수단은, 이미지 센서를 구비한 복수의 영상 계측부 및 사용자의 움직임으로부터 신체의 흔들림 정도를 계측하는 신체 흔들림 계측부를 포함하는 것을 특징으로 한다.The signal measuring means may include a plurality of image measuring units including an image sensor and a body shaking measuring unit for measuring a degree of shaking of a body from a user's movement.

상기 신체 흔들림 계측부는, 관성센서를 포함하는 것을 특징으로 한다.The body shake measurement unit is characterized in that it comprises an inertial sensor.

상기 영상 계측부는, 상기 위치 지시기기로부터 발생된 위치 신호와 상기 영상을 구분하기 위한 필터를 구비한 것을 특징으로 한다.The image measuring unit may include a filter for distinguishing the image from the position signal generated from the position indicating device.

상기 신호 처리수단은, 상기 복수의 영상 계측부에 구비된 이미지 센서의 화각이 서로 겹치는 영역에 가상의 디스플레이 화면을 구현하고, 상기 가상의 디스플레이 화면의 영상으로부터 3차원 좌표를 계산하는 것을 특징으로 한다.The signal processing unit may implement a virtual display screen in an area where the angles of view of the image sensors included in the plurality of image measuring units overlap each other, and calculate three-dimensional coordinates from an image of the virtual display screen.

상기 신호 처리수단은, 상기 복수의 영상 계측부에 의해 계측된 각 영상으로부터 2차원 좌표를 추출하는 2차원 좌표 계산부를 포함하며, 상기 2차원 좌표 계산부에 의해 추출된 2차원 좌표 및 상기 위치신호에 의해 감지된 손의 위치정보에 기초하여 3차원 좌표를 계산하는 것을 특징으로 한다.The signal processing means includes a two-dimensional coordinate calculation unit for extracting two-dimensional coordinates from each of the images measured by the plurality of image measuring units, and the two-dimensional coordinates and the position signal extracted by the two-dimensional coordinate calculation unit. It is characterized in that for calculating the three-dimensional coordinates based on the detected position information of the hand.

상기 신호 처리수단은, 상기 신체 흔들림 계측부에 의해 계측된 신체의 흔들림 정도에 기초하여 상기 영상 계측부로부터 계측된 영상의 흔들림을 보정하는 신체 흔들림 보정부를 더 포함하는 것을 특징으로 한다.The signal processing means further comprises a body shake correction unit for correcting the shake of the image measured from the image measuring unit based on the degree of shaking of the body measured by the body shake measuring unit.

상기 위치 지시기기는, 사용자 손의 위치 이동 시마다 위치신호를 발생하는 위치신호 발생수단 및 사용자로부터 제어명령을 입력받는 입력신호 계측수단을 포함하며, 상기 입력신호 계측수단으로 입력된 사용자 제어명령에 기초하여 상기 위치신호 발생수단의 동작을 제어하는 것을 특징으로 한다.The position indicating device includes a position signal generating means for generating a position signal every time the user moves the position of the user's hand and an input signal measuring means for receiving a control command from the user, and based on the user control command inputted to the input signal measuring means. To control the operation of the position signal generating means.

상기 위치신호 발생수단은, 상기 위치신호를 광 신호 형태로 발생하는 것을 특징으로 한다.The position signal generating means is characterized in that for generating the position signal in the form of an optical signal.

한편, 상기한 목적을 달성하기 위한 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법은, 사용자의 손목 부근에 착용되어 위치신호를 발생하는 위치 지시기기로부터 발생된 위치신호를 수신하고, 사용자 전면의 영상을 계측하는 단계, 상기 계측하는 단계에서 계측된 영상으로부터 3차원 좌표를 계산하는 단계, 상기 계측하는 단계에서 수신된 위치신호로부터 사용자 손의 위치를 파악하고, 상기 계산된 3차원 좌표상에서 사용자 손의 움직임 패턴을 인식하는 단계, 및 상기 인식하는 단계에서 인식된 움직임 패턴에 대응하는 명령을 출력하는 단계;를 포함하는 것을 특징으로 한다.On the other hand, the wearable computing environment-based user interface method according to the present invention for achieving the above object, receives a position signal generated from a position indicating device that is worn near the user's wrist to generate a position signal, the user front Measuring the image of the user, calculating three-dimensional coordinates from the image measured in the measuring step, determining the position of the user's hand from the position signal received in the measuring step, and checking the user on the calculated three-dimensional coordinates. Recognizing a movement pattern of the hand, and outputting a command corresponding to the movement pattern recognized in the recognition step.

상기 계측하는 단계는, 상기 사용자의 움직임으로부터 신체의 흔들림 정도를 계측하는 단계를 포함하는 것을 특징으로 한다.The measuring may include measuring a degree of shaking of the body from the movement of the user.

상기 계측된 신체의 흔들림 정도에 근거하여 상기 계측하는 단계에서 계측된 영상의 흔들림을 보정하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include correcting the shaking of the measured image based on the measured shaking degree of the body.

상기 계산하는 단계는, 상기 계측하는 단계에서 영상을 계측하는 복수의 이미지 센서의 화각이 서로 겹치는 영역에 가상의 디스플레이 화면을 구현하고, 상기 가상의 디스플레이 화면의 영상으로부터 3차원 좌표를 계산하는 것을 특징으로 한다.The calculating may include implementing a virtual display screen in an area where the angles of view of the plurality of image sensors measuring the image overlap each other, and calculating three-dimensional coordinates from the image of the virtual display screen. It is done.

상기 계산하는 단계는, 상기 복수의 영상 계측수단에 의해 계측된 각 영상으로부터 2차원 좌표를 추출하는 단계를 포함하며, 상기 추출된 2차원 좌표, 및 상기 계측하는 단계의 상기 위치신호에 의해 감지된 손의 위치정보에 기초하여 3차원 좌표를 계산하는 것을 특징으로 한다.The calculating may include extracting two-dimensional coordinates from each image measured by the plurality of image measuring means, wherein the extracted two-dimensional coordinates are detected by the position signal of the measuring step. The three-dimensional coordinates are calculated based on the position information of the hand.

상기 위치신호는, 사용자 손의 위치 이동 시마다 상기 위치 지시기기에 의해 발생되는 것을 특징으로 한다.The position signal is generated by the position indicating device whenever the position of the user's hand moves.

상기 위치신호는, 사용자로부터 상기 위치 지시기기로 손의 움직임의 시작과 끝을 알리는 신호가 입력되면, 상기 입력된 신호에 기초하여 발생되는 것을 특징으 로 한다.The position signal may be generated based on the input signal when a signal indicating the start and end of the hand movement is input from the user to the position indicating device.

상기 위치신호는, 광 신호 형태로 발생되는 것을 특징으로 한다.The position signal is characterized in that it is generated in the form of an optical signal.

본 발명에 따르면, 사용자 전면의 3차원 공간상에서 양손으로 제스처를 취할 때, 그 움직임을 추적하여 3차원적인 소정의 패턴으로 인식하여 처리함으로써, 사용자가 이동하면서 컴퓨터를 사용해야 하는 웨어러블 컴퓨팅 환경에서 사용자 공간에 멀티포인트 입력 기능을 지원하여 사용자 디스플레이 상의 객체를 선택하거나 조작하는 방법에 있어서 마치 공간 속의 사물을 다루는 듯한 사용자 친화적인 입력 인터페이스를 지원할 수 있는 이점이 있다.According to the present invention, when a gesture is performed with both hands in a three-dimensional space in front of the user, the movement is tracked, recognized as a predetermined pattern in three dimensions, and processed, thereby allowing the user to move and use a computer in a wearable computing environment. By supporting a multipoint input function, a method of selecting or manipulating an object on a user display has an advantage of supporting a user-friendly input interface that is like handling an object in a space.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하면 다음과 같다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

도 1 및 도 2는 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치를 설명하는데 참조되는 도면이다.1 and 2 are diagrams for explaining a wearable computing environment based user interface device according to the present invention.

도 1 및 도 2를 참조하면, 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치는 손목 부근에 장착되어, 손의 움직임을 감지하는 위치 지시기기(20)와, 위치 지시기기(20)에 의해 감지된 신호로부터 손의 움직임을 인식하고 그에 대응하는 동작을 처리하는 움직임 처리기기(10)를 포함한다.1 and 2, the wearable computing environment-based user interface device according to the present invention is mounted near a wrist, so that the position indicating device 20 and the position indicating device 20 for detecting a movement of a hand are provided. And a motion processor 10 for recognizing the movement of the hand from the detected signal and processing the corresponding motion.

먼저, 사용자는 도 1에서와 같이, 웨어러블 컴퓨터의 벽면형 디스플레이 장치 혹은 HMD(Head Mounted Display)와 같은 실제 디스플레이 화면(1)이 아닌, 가상 의 디스플레이 화면(2) 상에서 디스플레이 화면(1)의 제어를 위하여 손을 움직이게 된다.First, as shown in FIG. 1, the user controls the display screen 1 on the virtual display screen 2, not the actual display screen 1 such as the wall display device of the wearable computer or the head mounted display (HMD). The hand is moved for.

여기서, 손의 움직임은 글자, 기호, 제스처 등 사용자가 표현할 수 있는 모든 것이 해당되며, 한 손뿐만 아니라 양손에 의한 복합적인 제스처도 해당된다.Here, the movement of the hand corresponds to everything that the user can express, such as letters, symbols, and gestures, and corresponds to a complex gesture by both hands as well as one hand.

따라서, 사용자는 가상의 디스플레이 화면(2)에서 양손을 사용하여 입력함으로써, 실제 사용자의 눈 앞에 출력되는 사물을 멀티 터치와 유사하게 3차원 공간상에서 제어할 수 있다. 특히, 도 2에 도시된 바와 같이, 안경형태의 양 끝단에 부착된 복수의 영상 계측부(11a, 11b)를 통해 사용자 전면의 일정한 3차원 공간 내에서 입력을 수행할 수 있으며, 해당 공간은 복수의 영상 계측부(11a, 11b)로부터의 화각에 의해 결정된다.Therefore, the user inputs the virtual display screen 2 using both hands, thereby controlling the object output in front of the real user's eyes in a three-dimensional space similar to multi-touch. In particular, as shown in FIG. 2, the plurality of image measuring units 11a and 11b attached to both ends of the spectacles may perform input in a predetermined three-dimensional space in front of the user, and the corresponding space may include a plurality of images. It is determined by the angle of view from the image measuring units 11a and 11b.

이때, 위치 지시기기(20)는 복수개 구비될 수 있다. 위치 지시기기(20)는 팔찌 형태로 구현되어, 사용자의 한쪽 손목 또는 양쪽 손목에 모두 착용될 수 있다. 뿐만 아니라, 위치 지시기기(20)는 반지 형태로 구현되어 사용자의 손가락에 착용될 수도 있다. 이에, 본 발명의 실시예에서는 위치 지시기기(20)가 팔찌 형태로 구현되어, 사용자의 양쪽 손목에 착용된 경우를 예로 하였으나, 이에 한정되는 것은 아니다. 위치 지시기기(20)에 대한 구체적인 설명은 도 4를 참조하도록 한다.In this case, the position indicating device 20 may be provided in plurality. Position indicator 20 is implemented in the form of a bracelet, can be worn on one wrist or both wrists of the user. In addition, the position indicator 20 may be implemented in the form of a ring may be worn on the user's finger. Thus, in the embodiment of the present invention, the position indicating device 20 is implemented in the form of a bracelet, the case is worn on both wrists of the user as an example, but is not limited thereto. For a detailed description of the position indicating device 20, refer to FIG.

한편, 움직임 처리기기(10)는 위치 지시기기(20)와 마찬가지로 사용자의 몸에 착용 가능한 형태로 구현되며, 그 실시예로는 안경, 모자, 옷 등과 같이 신체에 어느 부분에도 착용할 수 있다. 본 발명의 실시예에서는 사용자의 시각에서 보는 것과 마찬가지의 효과를 내기 위해, 움직임 처리기기(10)가 안경 형태로 구현된 것을 예로 한다.On the other hand, the motion processing device 10 is implemented in a form that can be worn on the user's body like the position indicator 20, the embodiment may be worn on any part of the body, such as glasses, hats, clothes. In the embodiment of the present invention, the motion processing device 10 is implemented in the form of glasses in order to produce the same effect as seen from the user's perspective.

움직임 처리기기(10)에는 복수의 영상 계측부(11a, 11b)가 구비된다. 이때, 복수의 영상 계측부(11a, 11b)는 각각 서로 다른 위치에 배치되며, 해당 위치에서 위치 지시기기(20)로부터 발생되는 신호를 계측한다. 움직임 처리기기(10)에 대한 구체적인 설명은 도 3을 참조하도록 한다.The motion processor 10 includes a plurality of image measuring units 11a and 11b. In this case, the plurality of image measuring units 11a and 11b are disposed at different positions, respectively, and measure signals generated from the position indicating device 20 at the corresponding positions. A detailed description of the motion processing device 10 will refer to FIG. 3.

도 3은 본 발명에 따른 움직임 처리기기(10)의 구성을 도시한 블록도이다.3 is a block diagram showing the configuration of the motion processing device 10 according to the present invention.

도 3에 도시된 바와 같이, 본 발명에 따른 움직임 처리기기(10)는 신호 계측수단(11), 명령 입력수단(13), 신호 처리수단(15), 및 통신수단을 포함한다.As shown in FIG. 3, the motion processing device 10 according to the present invention includes a signal measuring means 11, a command input means 13, a signal processing means 15, and a communication means.

또한, 신호 계측수단(11)은 제1 영상 계측부(11a), 제2 영상 계측부(11b), 및 신체 흔들림 계측부(11c)를 포함한다.In addition, the signal measuring means 11 includes a first image measuring unit 11a, a second image measuring unit 11b, and a body shake measuring unit 11c.

제1 영상 계측부(11a) 및 제2 영상 계측부(11b)는 서로 다른 위치에 배치되며, 도 2에 도시된 바와 같이, 안경의 양쪽 끝에 배치될 수 있다. 물론, 도 3에서는 제1 영상 계측부(11a)와 제2 영상 계측부(11b)가 구비된 것을 예로 하였으나, 제3 영상 계측부 등 더 많이 구비될 수도 있다.The first image measuring unit 11a and the second image measuring unit 11b may be disposed at different positions, and may be disposed at both ends of the glasses as shown in FIG. 2. Of course, in FIG. 3, the first image measuring unit 11a and the second image measuring unit 11b are provided. However, the third image measuring unit may be further provided.

이때, 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)는 위치 지시기기(20)로부터 발생된 신호를 계측할 수 있는 이미지 센서인 것을 예로 한다. 물론, 위치 지시기기(20)에 의해 발생되는 적외선, 가시광선, 레이져 등의 형태를 가질 수 있 다.In this case, the first image measuring unit 11a and the second image measuring unit 11b may be image sensors capable of measuring signals generated from the position indicating device 20. Of course, it may have the form of infrared rays, visible light, laser, etc. generated by the position indicating device 20.

또한, 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)는 위치 지시기기(20)로부터 발생된 신호를 수신하고, 수신된 신호로부터 사용자의 손 위치를 감지한다. 이때, 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)에는 이미지 센서에 의해 계측되는 영상 신호와 위치 지시기기(20)로부터 수신된 신호를 구분하기 위한 물리적인 필터가 구비된다. In addition, the first image measuring unit 11a and the second image measuring unit 11b receive a signal generated from the position indicating device 20, and detect a user's hand position from the received signal. In this case, the first image measuring unit 11a and the second image measuring unit 11b include a physical filter for distinguishing the image signal measured by the image sensor from the signal received from the position indicating device 20.

이때, 물리적인 필터로는 적외선 통과대역 필터 등이 해당 될 수 있다. 적외선 통과대역 필터는 가시광선에 의한 간섭을 제거함으로써, 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)가 적외선 신호를 더욱 명확하게 계측할 수 있도록 한다.In this case, the physical filter may correspond to an infrared passband filter. The infrared passband filter removes the interference by the visible light, thereby allowing the first image measuring unit 11a and the second image measuring unit 11b to measure the infrared signal more clearly.

한편, 신체 흔들림 계측부(11c)는 사용자의 신체 흔들림 정도를 계측한다. 신체 흔들림 계측부(11c)는 손의 움직임을 계측하는 경우, 사용자 신체의 흔들림에 의한 오차가 발생하는 것을 보완하기 위해 관성센서(IMU, Inertial Measurement Unit)를 추가로 구비할 수 있다. 이때, 신체 흔들림 계측부(11c)는 계측된 신호를 신호 처리 수단으로 전달한다.On the other hand, the body shake measuring unit 11c measures the degree of body shake of the user. When measuring the movement of the hand, the body shake measurement unit 11c may further include an inertial measurement unit (IMU) to compensate for an error caused by the shaking of the user's body. At this time, the body shake measuring unit 11c transmits the measured signal to the signal processing means.

명령 입력수단(13)은 사용자로부터 제어명령을 입력받기 위한 수단으로, 움직임 기기로부터의 제어명령을 수신하기 위한 통신모듈을 포함한다. The command input means 13 is a means for receiving a control command from a user, and includes a communication module for receiving a control command from a moving device.

위치 지시기기(20)로 사용자로부터의 사용자로부터 제어명령이 입력되면, 위치 지시기기(20)는 움직임 처리기기(10)로 해당 명령을 전송한다. 따라서, 명령 입 력수단(13)은 위치 지시기기로부터의 제어명령을 수신하여 신호 처리수단(15)으로 전달한다.When a control command is input from the user to the position indicating device 20, the position indicating device 20 transmits the corresponding command to the motion processing device 10. Therefore, the command input means 13 receives the control command from the position indicating device and transmits it to the signal processing means 15.

신호 처리수단(15)은 2차원 좌표 계산부(15a), 3차원 좌표 계산부(15b), 신체 흔들림 보정부(15c), 패턴 인식부(15d), 및 명령 처리부(15e)를 포함한다.The signal processing means 15 includes a two-dimensional coordinate calculation section 15a, a three-dimensional coordinate calculation section 15b, a body shake correction section 15c, a pattern recognition section 15d, and a command processing section 15e.

먼저, 2차원 좌표 계산부(15a)는 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)에 의해 계측된 각 영상으로부터 위치 지시기기(20)가 배치된 영역, 즉, 손이 위치한 영역에서의 손 위치에 대한 2차원 좌표를 계산한다. 이때, 2차원 좌표 계산부(15a)는 각각의 계측 영상에서 점 형태로 나타나는 적외선 이미지의 2차원 좌표를 추출한다.First, the 2D coordinate calculation unit 15a is an area in which the position indicating device 20 is disposed from each image measured by the first image measuring unit 11a and the second image measuring unit 11b, that is, an area where a hand is located. Calculate the two-dimensional coordinates of the hand position at. At this time, the two-dimensional coordinate calculation unit 15a extracts the two-dimensional coordinates of the infrared image appearing in the form of points in each measurement image.

이후, 3차원 좌표 계산부(15b)는 2차원 좌표 계산부(15a)에 의해 추출된 2차원 좌표를 이용하여 해당 위치에서의 3차원 좌표를 계산한다. 3차원 좌표의 계산을 위한 모델은 도 6을 참조한다.Thereafter, the 3D coordinate calculation unit 15b calculates the 3D coordinates at the corresponding position by using the 2D coordinates extracted by the 2D coordinate calculation unit 15a. See FIG. 6 for a model for calculation of three-dimensional coordinates.

이때, 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)와, 2차원 좌표 추적부, 3차원 좌표 계산부(15b)는 복합적으로 구현되어 하나의 프로세서로 처리될 수 있다.In this case, the first image measuring unit 11a and the second image measuring unit 11b, the two-dimensional coordinate tracking unit, and the three-dimensional coordinate calculating unit 15b may be implemented in a complex manner and processed by one processor.

신체 흔들림 보정부(15c)는 신체 흔들림 계측부(11c)에 의해 계측된 신호로부터 신체 흔들림 정도를 파악한다. 이때, 신체 흔들림 보정부(15c)는 파악된 정보에 근거하여 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)에 의해 계측된 영상에 대한 신체 흔들림을 보정한다.The body shake correction unit 15c grasps the degree of body shake from the signal measured by the body shake measuring unit 11c. At this time, the body shake correction unit 15c corrects the body shake of the image measured by the first image measuring unit 11a and the second image measuring unit 11b based on the detected information.

패턴 인식부(15d)는 신체 흔들림 보정부(15c)에 의해 보정된 영상으로부터, 3차원 좌표 계산부(15b)에 의해 계산된 3차원 좌표에서의 움직임 패턴을 인식한다.The pattern recognizing unit 15d recognizes the movement pattern in the three-dimensional coordinates calculated by the three-dimensional coordinate calculation unit 15b from the image corrected by the body shake correction unit 15c.

이후, 명령 처리부(15e)는 패턴 인식부(15d)에 의해 인식된 움직임 패턴에 대응하는 명령을 추출하여, 통신수단(17)을 통해 착용형 컴퓨터로 전송한다.Thereafter, the command processor 15e extracts a command corresponding to the movement pattern recognized by the pattern recognition unit 15d and transmits the command to the wearable computer through the communication unit 17.

명령 처리부(15e)는 유무선 통신 인터페이스를 통해 다른 기기와 연결되어, 해당 기기로 명령을 전달할 수도 있다.The command processor 15e may be connected to another device through a wired / wireless communication interface to transmit a command to the corresponding device.

이때, 3차원 좌표 계산부(15b), 패턴 인식부(15d), 및 명령 처리부(15e)는 2차원 좌표 계산부(15a)에 통신 인터페이스를 부가하여 외부의 다른 기기에서도 처리할 수도 있다.At this time, the three-dimensional coordinate calculation unit 15b, the pattern recognition unit 15d, and the command processing unit 15e may add a communication interface to the two-dimensional coordinate calculation unit 15a and process it in other external devices.

한편, 도 4는 본 발명에 따른 위치 지시기기(20)의 구성을 도시한 블록도이다.4 is a block diagram showing the configuration of the position indicating device 20 according to the present invention.

도 4를 참조하면, 본 발명에 따른 위치 지시기기(20)는 위치신호 발생수단(21), 입력신호 계측수단(23), 신호 처리수단(25), 및 통신수단(27)을 포함한다.Referring to FIG. 4, the position indicating device 20 according to the present invention includes a position signal generating means 21, an input signal measuring means 23, a signal processing means 25, and a communication means 27.

위치신호 발생수단(21)은 해당 위치 지시기기(20)의 현재 위치를 알리기 위한 위치신호를 발생하는 수단이다. 위치신호 발생수단(21)은 적외선, 가시광선, 레이져 등과 같이 움직임 처리기기(10)의 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)에 의해 계측 가능한 신호 형태로 출력한다. 본 발명의 실시예에서, 위치신호 발생수단(21)은 적외선 신호를 발생하는 것을 예로 한다.The position signal generating means 21 is means for generating a position signal for notifying the current position of the position indicating device 20. The position signal generating means 21 outputs in the form of a signal that can be measured by the first image measuring unit 11a and the second image measuring unit 11b of the motion processing device 10, such as infrared rays, visible light, and laser. In the embodiment of the present invention, the position signal generating means 21 is an example of generating an infrared signal.

입력신호 계측수단(23)은 사용자로부터 제어명령을 입력받는 수단이다. 즉, 사용자는 컴퓨터 입력장치인 마우스의 클릭과 같은 동작으로 현재 사용자가 행하고 있는 손 움직임의 유효성을 지시한다. The input signal measuring means 23 is a means for receiving a control command from the user. That is, the user instructs the validity of the hand movement currently performed by the user by an operation such as a click of a mouse which is a computer input device.

이때, 입력신호 계측수단(23)은 반지형태의 버튼 조작, 손가락 또는 손목 접촉음, 근전도 등을 계측함으로써 사용자로부터의 제어명령을 인식한다. At this time, the input signal measuring means 23 recognizes a control command from the user by measuring a button operation in the shape of a ring, a finger or a wrist contact sound, an electromyography and the like.

예를 들어, 사용자가 엄지와 검지로 허공에서 짚는 행위(두드리는 행위)를 하면, 입력신호 계측수단(23)은 현재부터의 동작은 유효한 동작인 것으로 해석하여 움직임의 시작을 지시하는 신호로 인식한다. 또한, 입력신호 계측수단(23)은 사용자의 움직임이 없거나, 혹은 근전도를 사용할 경우에는 손가락을 짚는 행위와 벌어지는 행위로부터 움직임의 시작과 끝을 지시하는 명령을 계측할 수 있다.For example, when a user taps (taps) in the air with a thumb and index finger, the input signal measuring means 23 interprets that the present motion is a valid motion and recognizes it as a signal indicating the start of the motion. . In addition, the input signal measuring means 23 may measure a command for instructing the start and the end of the movement from the action of tapping a finger and the spreading action when there is no user movement or when using EMG.

입력신호 계측수단(23)은 계측된 사용자의 제어명령을 신호 처리수단(25)으로 전달한다. The input signal measuring means 23 transmits the measured user's control command to the signal processing means 25.

신호 처리수단(25)은 입력 신호 인식부(25a), 및 명령 처리부(25b)를 포함한다.The signal processing means 25 includes an input signal recognition section 25a and a command processing section 25b.

입력 신호 인식부(25a)는 입력신호 계측수단(23)에 의해 계측된 사용자의 제어명령을 인식한다. 이때, 명령 처리부(25b)는 입력 신호 인식부(25a)에 의해 인식된 사용자의 제어명령을 통신수단(27)을 통해 움직임 처리기기(10)의 명령 입력수단(13)으로 전송한다.The input signal recognizing section 25a recognizes a user's control command measured by the input signal measuring means 23. At this time, the command processing unit 25b transmits the user's control command recognized by the input signal recognition unit 25a to the command input unit 13 of the motion processing device 10 through the communication unit 27.

한편, 명령 처리부(25b)는 입력 신호 인식부(25a)에 의해 사용자 움직임의 시작을 알리는 명령이 인식되면, 위치신호 발생수단(21)으로 소정의 제어신호를 출력한다. 따라서, 위치신호 발생수단(21)은 명령 처리부(25b)로부터의 제어신호에 따라 위치신호를 발생한다.On the other hand, the command processor 25b outputs a predetermined control signal to the position signal generating means 21 when the command for notifying the start of user movement is recognized by the input signal recognition unit 25a. Therefore, the position signal generating means 21 generates the position signal in accordance with the control signal from the command processor 25b.

도 5는 본 발명에 따른 움직임 처리기기의 영상 계측부에 대한 동작을 설명하는데 참조되는 예시도이다.5 is an exemplary view referred to for explaining the operation of the image measuring unit of the motion processing device according to the present invention.

도 5에 도시된 바와 같이, 제1 영상 계측부(11a)와 제2 영상 계측부(11b)는 정면의 영상을 취득하게 된다. 이때, 제1 영상 계측부(11a)와 제2 영상 계측부(11b)의 화각에 의해 가상의 디스플레이 화면(2)이 구현되는 영역을 결정한다.As shown in FIG. 5, the first image measuring unit 11a and the second image measuring unit 11b acquire images of the front surface. In this case, an area in which the virtual display screen 2 is implemented is determined by the angles of view of the first image measuring unit 11a and the second image measuring unit 11b.

다시 말해, 제1 영상 계측부(11a)와 제2 영상 계측부(11b)는 일정한 화각(θ)을 가지며, 제1 영상 계측부(11a)와 제2 영상 계측부(11b)의 화각이 겹치는 영역에 가상의 디스플레이 화면(2)이 구현하도록 한다.In other words, the first image measuring unit 11a and the second image measuring unit 11b have a constant angle of view θ, and are virtual in an area where the angles of view of the first image measuring unit 11a and the second image measuring unit 11b overlap. The display screen 2 is implemented.

따라서, 상기와 같이 구현된 3차원 공간의 가상의 디스플레이 화면(2)에서 사용자는 손가락을 쥐거나 손가락을 짚는 형태의 제스쳐를 위하여 가상공간상의 객체를 선택하고 그 상태에서 손을 움직여 해당 객체를 이동하는 것과 같이 컴퓨터를 제어할 수 있게 된다.Therefore, in the virtual display screen 2 of the three-dimensional space implemented as described above, the user selects an object in the virtual space for the gesture of holding a finger or holding a finger and moves the object by moving a hand in the state. You can control your computer like you do.

도 6은 본 발명에 따른 좌표 계산 방법에 대한 동작을 설명하는데 참조되는 예시도이다.6 is an exemplary view referred to for explaining the operation of the coordinate calculation method according to the present invention.

도 6을 참조하면, 위치 지시기기(20)의 위치신호 발생수단(21)으로부터 위치 신호가 발생되면 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)는 위치신호를 수신하게 된다.Referring to FIG. 6, when a position signal is generated from the position signal generating means 21 of the position indicating device 20, the first image measuring unit 11a and the second image measuring unit 11b receive the position signal.

이때, 3차원 좌표 계산부(15b)는 위치신호 발생수단(21)과 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)의 위치에 근거하여 3차원 좌표를 계산한다.At this time, the three-dimensional coordinate calculation unit 15b calculates the three-dimensional coordinates based on the position of the position signal generating means 21, the first image measuring unit 11a, and the second image measuring unit 11b.

3차원 좌표의 계산을 위한 모델은 아래 [수학식 1]을 이용하여 구할 수 있다.A model for calculating three-dimensional coordinates can be obtained by using Equation 1 below.

Figure 112009058512295-PAT00001
Figure 112009058512295-PAT00001

여기서, dr은 제1 영상 계측부(11a)에 위치신호 발생수단(21)으로부터 발생된 위치신호가 도달한 지점에서 중심까지의 거리이다. dl은 제2 영상 계측부(11b)에 위치신호 발생수단(21)으로부터 발생된 위치신호가 도달한 지점에서 중심까지의 거리이다.Here, dr is a distance from the point where the position signal generated from the position signal generating means 21 to the first image measuring unit 11a reaches. dl is a distance from the point where the position signal generated from the position signal generating means 21 to the second image measuring unit 11b reaches.

L은 제1 영상 계측부(11a)의 중심에서 제2 영상 계측부(11b)의 중심까지의 거리이다. L is the distance from the center of the first image measuring unit 11a to the center of the second image measuring unit 11b.

f는 제1 영상 계측부(11a)와 제2 영상 계측부(11b)의 중심에서 제1 영상 계측부(11a)와 제2 영상 계측부(11b)에 수직 방향으로, 위치신호 발생수단(21)으로부터 발생된 위치신호와 만나는 지점까지의 거리, 즉, 해당 영상 계측부의 초점거리이다.f is generated from the position signal generating means 21 in a direction perpendicular to the first image measuring unit 11a and the second image measuring unit 11b at the center of the first image measuring unit 11a and the second image measuring unit 11b. The distance to the point where the position signal meets, that is, the focal length of the image measuring unit.

x는 제1 영상 계측부(11a)와 제2 영상 계측부(11b)에서 위치신호 발생수단(21)까지의 수직거리이다.x is a vertical distance from the first image measuring unit 11a and the second image measuring unit 11b to the position signal generating means 21.

따라서, 3차원 좌표 계산부(15b)는 2차원 좌표 계산부(15a)로부터 추출된 2차원 좌표와 상기에서 산출된 x 값을 이용하여 3차원 좌표를 계산하게 된다.Therefore, the 3D coordinate calculator 15b calculates the 3D coordinates using the 2D coordinates extracted from the 2D coordinate calculator 15a and the x value calculated above.

상기와 같이 구성되는 본 발명의 동작을 다음과 같다.The operation of the present invention configured as described above is as follows.

도 7은 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법에 대한 동작 흐름을 나타낸 순서도로서, 움직임 처리기기(10)의 동작을 나타낸 것이다.7 is a flowchart illustrating an operation flow of a wearable computing environment-based user interface method according to the present invention, and illustrates an operation of the motion processing device 10.

도 7에 도시된 바와 같이, 움직임 처리기기(10)는 위치 지시기기(20)로부터의 신호에 근거하여 사용자의 신체 움직임을 계측한다(100). 또한, 움직임 처리기기(10)의 제1 영상 계측부(11a) 및 제2 영상 계측부(11b)의 이미지 센서를 이용하여 계측된 움직임 영상을 처리한다(S110).As shown in FIG. 7, the motion processing device 10 measures a user's body motion based on a signal from the position indicating device 20 (100). In addition, the measured motion image is processed using the image sensors of the first image measuring unit 11a and the second image measuring unit 11b of the motion processing apparatus 10 (S110).

이후, 2차원 좌표 계산부(15a)는 'S110' 과정의 영상으로부터 2차원 좌표를 계산하고(S120), 3차원 좌표 계산부(15b)는 'S120' 과정에서의 2차원 좌표 및 'S100' 과정에서 수신된 신호에 근거하여 3차원 좌표를 계산한다(S130)Thereafter, the two-dimensional coordinate calculation unit 15a calculates two-dimensional coordinates from the image of step S110 (S120), and the three-dimensional coordinate calculation unit 15b of the two-dimensional coordinates and 'S100' in the step 'S120'. The three-dimensional coordinates are calculated based on the signal received in the process (S130).

한편, 신체 흔들림 계측부(11c)는 'S100' 과정에서 수신된 신호로부터 신체 흔들림 정도를 계측하고(S140), 신체 흔들림 보정부(15c)는 'S140' 과정에서 계측된 정보에 따라 해당 영상에서의 신체 흔들림 및 그에 따른 오차를 보정한다(S150).On the other hand, the body shake measurement unit 11c measures the degree of body shake from the signal received in step S100 (S140), and the body shake correction unit 15c measures the corresponding image according to the information measured in step S140. Body shaking and the resulting error is corrected (S150).

패턴 인식부(15d)는 'S130' 과정에서 계산된 3차원 좌표와, 'S150' 과정에서 보정된 영상으로부터 사용자의 움직임 패턴을 인식하고(S160), 'S160' 과정에서 인식된 패턴에 대응하는 명령 데이터를 추출하여 통신모듈을 통해 착용형 컴퓨터로 전송한다(S170).The pattern recognition unit 15d recognizes a user's movement pattern from the 3D coordinates calculated in step S130 and the image corrected in step S150 (S160), and corresponds to the pattern recognized in step S160. The command data is extracted and transmitted to the wearable computer through the communication module (S170).

본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법은 웨어러블 컴퓨터에 적용되는 것을 실시예로 기술하였으나, 웨어러블 컴퓨터뿐만 아니라 일반적인 컴퓨터의 인터페이스 장치로도 이용 가능함은 당연한 것이다.The wearable computing environment-based user interface device and method thereof according to the present invention have been described as being applied to a wearable computer as an embodiment, but it is natural that the wearable computer may be used as an interface device of a general computer as well as a wearable computer.

이상에서와 같이 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the wearable computing environment-based user interface device and the method thereof are not limited to the configuration and method of the embodiments described as described above, but the embodiments may be modified in various ways. All or part of each of the embodiments may be configured to be selectively combined to make it possible.

도 1 및 도 2 는 본 발명에 따른 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치의 동작 설명에 참조되는 도이다.1 and 2 are views referred to for describing the operation of the wearable computing environment-based user interface device according to the present invention.

도 3 은 본 발명에 따른 사용자 인터페이스 장치의 움직임 처리기기에 대한 구성을 도시한 블록도이다.3 is a block diagram illustrating a configuration of a motion processing device of a user interface device according to the present invention.

도 4 는 본 발명에 따른 사용자 인터페이스 장치의 위치 지시기기에 대한 구성을 도시한 블록도이다.4 is a block diagram showing the configuration of the position indicating device of the user interface device according to the present invention.

도 5 는 본 발명에 따른 영상 계측 방법을 설명하는데 참조되는 예시도이다.5 is an exemplary view referred to to explain an image measuring method according to the present invention.

도 6 은 본 발명에 따른 위치 좌표 계측 방법을 설명하는데 참조되는 예시도이다.6 is an exemplary view referred to in describing a position coordinate measuring method according to the present invention.

도 7 은 본 발명에 따른 사용자 인터페이스 방법에 대한 동작 흐름을 도시한 순서도이다.7 is a flowchart illustrating an operation flow for a user interface method according to the present invention.

Claims (14)

착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치로서,A user interface device based on a wearable computing environment, 사용자의 손목 부근에 착용되어 광 신호를 발생하는 위치 지시기기;A position indicating device worn near a user's wrist to generate an optical signal; 상기 위치 지시기기로부터 발생된 광 신호를 수신하고, 사용자 전면의 영상을 각각 계측하기 위한 이미지 센서를 구비한 복수의 영상 계측부를 포함하는 신호 계측수단; 및Signal measuring means including a plurality of image measuring units including an image sensor for receiving an optical signal generated from the position indicating device and measuring an image in front of a user; And 상기 신호 계측수단에 의해 계측된 각각의 영상을 분석하여 3차원 좌표를 계산하고, 상기 신호 계측수단에 의해 수신된 광 신호로부터 상기 3차원 좌표 상에서 사용자 손의 움직임 패턴을 인식하여, 대응하는 명령을 출력하는 신호 처리수단;을 포함하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치.Analyzes each image measured by the signal measuring means to calculate three-dimensional coordinates, and recognizes a movement pattern of the user's hand on the three-dimensional coordinates from the optical signal received by the signal measuring means, and receives a corresponding command. Signal processing means for outputting; wearable computing environment based user interface device comprising a. 청구항 1에 있어서,The method according to claim 1, 상기 신호 처리수단은,The signal processing means, 상기 복수의 영상 계측부에 구비된 이미지 센서의 화각이 서로 겹치는 영역에 가상의 디스플레이 화면을 구현하고, 상기 가상의 디스플레이 화면의 영상으로부터 3차원 좌표를 계산하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치.A user based on the wearable computing environment, wherein a virtual display screen is implemented in an area where the angles of view of the image sensors included in the plurality of image measuring units overlap each other, and three-dimensional coordinates are calculated from the images of the virtual display screen. Interface device. 청구항 1에 있어서,The method according to claim 1, 상기 신호 처리수단은,The signal processing means, 상기 복수의 영상 계측부에 의해 계측된 각 영상으로부터 2차원 좌표를 추출하는 2차원 좌표 계산부;를 포함하며,And a two-dimensional coordinate calculator for extracting two-dimensional coordinates from each of the images measured by the plurality of image measuring units. 상기 2차원 좌표 계산부에 의해 추출된 2차원 좌표 및 상기 광 신호에 의해 감지된 손의 위치정보에 기초하여 3차원 좌표를 계산하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치.The wearable computing environment-based user interface device, characterized in that for calculating the three-dimensional coordinates based on the extracted two-dimensional coordinates and the position information of the hand detected by the optical signal. 청구항 1에 있어서,The method according to claim 1, 상기 영상 계측부는,The image measuring unit, 상기 위치 지시기기로부터 발생된 위치 신호와 상기 영상을 구분하기 위한 필터를 구비한 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치.The wearable computing environment-based user interface device comprising a filter for distinguishing the image from the position signal generated from the position indicating device. 청구항 1에 있어서,The method according to claim 1, 상기 신호 계측수단은,The signal measuring means, 사용자의 움직임으로부터 신체의 흔들림 정도를 계측하는 신체 흔들림 계측부;를 더 포함하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치.The wearable computing environment-based user interface device further comprises a; body shake measurement unit for measuring the degree of shaking of the body from the user's movement. 청구항 5에 있어서,The method according to claim 5, 상기 신체 흔들림 계측부는,The body shake measurement unit, 관성센서를 포함하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치.A wearable computing environment based user interface device comprising an inertial sensor. 청구항 5에 있어서,The method according to claim 5, 상기 신호 처리수단은,The signal processing means, 상기 신체 흔들림 계측부에 의해 계측된 신체의 흔들림 정도에 기초하여 상기 영상 계측부로부터 계측된 영상의 흔들림을 보정하는 신체 흔들림 보정부;를 더 포함하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치.The wearable computing environment-based user interface device further comprising a; body shake correction unit for correcting the shake of the image measured from the image measuring unit based on the degree of shaking of the body measured by the body shake measuring unit. 청구항 1에 있어서,The method according to claim 1, 상기 위치 지시기기는,The position indicating device, 사용자 손의 위치 이동 시마다 광 신호를 발생하는 위치신호 발생수단; 및Position signal generating means for generating an optical signal each time a user's hand moves; And 사용자로부터 제어명령을 입력받는 입력신호 계측수단;을 포함하며,And an input signal measuring means for receiving a control command from a user. 상기 입력신호 계측수단으로 입력된 사용자 제어명령에 기초하여 상기 위치신호 발생수단의 동작을 제어하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치.Wearable computing environment based user interface device, characterized in that for controlling the operation of the position signal generating means based on a user control command input to the input signal measuring means. 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법으로서,As a user interface method based on wearable computing environment, 사용자의 손목 부근에 착용된 위치 지시기기로부터 사용자 손의 위치를 나타 내는 광 신호가 발생되는 단계;Generating an optical signal indicating the position of the user's hand from the position indicating device worn near the user's wrist; 상기 위치 지시기기로부터 발생된 광 신호를 수신하고, 사용자 전면에 대한 복수의 영상을 계측하는 단계;Receiving an optical signal generated from the position indicating device and measuring a plurality of images of the front of the user; 상기 계측하는 단계에서 계측된 각각의 영상을 분석하여 3차원 좌표를 계산하는 단계;Calculating three-dimensional coordinates by analyzing each image measured in the measuring step; 상기 계측하는 단계에서 수신된 광 신호로부터 사용자 손의 위치를 파악하고, 상기 계산된 3차원 좌표 상에서 사용자 손의 움직임 패턴을 인식하는 단계; 및Identifying a position of the user's hand from the optical signal received in the measuring step, and recognizing a movement pattern of the user's hand on the calculated 3D coordinates; And 상기 인식하는 단계에서 인식된 움직임 패턴에 대응하는 명령을 출력하는 단계;를 포함하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법.And outputting a command corresponding to the recognized movement pattern in the step of recognizing the wearable computing environment. 청구항 9에 있어서,The method according to claim 9, 상기 계산하는 단계는,The calculating step, 상기 계측하는 단계에서 영상을 계측하는 복수의 이미지 센서의 화각이 서로 겹치는 영역에 가상의 디스플레이 화면을 구현하고, 상기 가상의 디스플레이 화면의 영상으로부터 3차원 좌표를 계산하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법.Wearable computing environment characterized in that to implement a virtual display screen in the area where the angle of view of the plurality of image sensors for measuring the image in the measuring step and to calculate the three-dimensional coordinates from the image of the virtual display screen Based user interface method. 청구항 9에 있어서,The method according to claim 9, 상기 계산하는 단계는,The calculating step, 상기 복수의 영상 계측수단에 의해 계측된 각 영상으로부터 2차원 좌표를 추출하는 단계;를 포함하며,Extracting two-dimensional coordinates from each image measured by the plurality of image measuring means; 상기 추출된 2차원 좌표, 및 상기 계측하는 단계의 상기 광 신호에 의해 감지된 손의 위치정보에 기초하여 3차원 좌표를 계산하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법.The wearable computing environment-based user interface method, characterized in that for calculating the three-dimensional coordinates based on the extracted two-dimensional coordinates, and the position information of the hand detected by the optical signal of the measuring step. 청구항 9에 있어서,The method according to claim 9, 상기 계측하는 단계는,The measuring step, 상기 사용자의 움직임으로부터 신체의 흔들림 정도를 계측하는 단계;를 포함하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법.Measuring the degree of shaking of the body from the movement of the user; wearable computing environment based user interface method comprising a. 청구항 12에 있어서,The method according to claim 12, 상기 계측된 신체의 흔들림 정도에 근거하여 상기 계측하는 단계에서 계측된 영상의 흔들림을 보정하는 단계;를 더 포함하는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법.And correcting the shaking of the image measured in the measuring step based on the measured shaking degree of the body. 청구항 9에 있어서,The method according to claim 9, 상기 광 신호는,The optical signal is, 사용자로부터 상기 위치 지시기기로 손의 움직임의 시작과 끝을 알리는 신호가 입력되면, 상기 사용자로부터 입력된 신호에 기초하여 발생되는 것을 특징으로 하는 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 방법.The user interface method based on the wearable computing environment, characterized in that when a signal indicating the start and end of the movement of the hand from the user to the position indicating device is input, generated based on the signal input from the user.
KR1020090090147A 2008-10-29 2009-09-23 Apparatus for user interface based on wearable computing environment and method thereof KR101284797B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/604,895 US20100103104A1 (en) 2008-10-29 2009-10-23 Apparatus for user interface based on wearable computing environment and method thereof
JP2009248773A JP2010108500A (en) 2008-10-29 2009-10-29 User interface device for wearable computing environmental base, and method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080106474 2008-10-29
KR1020080106474 2008-10-29

Publications (2)

Publication Number Publication Date
KR20100047793A true KR20100047793A (en) 2010-05-10
KR101284797B1 KR101284797B1 (en) 2013-07-10

Family

ID=42274719

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090090147A KR101284797B1 (en) 2008-10-29 2009-09-23 Apparatus for user interface based on wearable computing environment and method thereof

Country Status (2)

Country Link
JP (1) JP2010108500A (en)
KR (1) KR101284797B1 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012077909A2 (en) * 2010-12-10 2012-06-14 숭실대학교산학협력단 Method and apparatus for recognizing sign language using electromyogram sensor and gyro sensor
WO2013009047A2 (en) * 2011-07-11 2013-01-17 Korea Institute Of Science And Technology Head mounted display apparatus and contents display method
KR101251774B1 (en) * 2011-05-17 2013-04-05 목원대학교 산학협력단 Matching system, matching method, wearable input device and command signal providing method for incorporating real world into virtual reality for handicapped and elderly
WO2014071254A1 (en) * 2012-11-01 2014-05-08 Eyecam, LLC Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
KR101397812B1 (en) * 2012-11-30 2014-05-20 강원대학교산학협력단 Input system of touch and drag type in remote
KR20150033204A (en) * 2013-09-23 2015-04-01 엘지전자 주식회사 Wearable mobile terminal and method for controlling the same
KR101524575B1 (en) * 2014-08-20 2015-06-03 박준호 Wearable device
KR20150091723A (en) * 2014-02-03 2015-08-12 한국전자통신연구원 Wrist wearable apparatus with transformable material
US9183760B2 (en) 2010-12-10 2015-11-10 Foundation Of Soongsil University-Industry Cooperation Method and apparatus for recognizing sign language using electromyogram sensor and gyro sensor
US9560272B2 (en) 2014-03-24 2017-01-31 Samsung Electronics Co., Ltd. Electronic device and method for image data processing
US9563277B2 (en) 2011-03-16 2017-02-07 Samsung Electronics Co., Ltd. Apparatus, system, and method for controlling virtual object
US9829986B2 (en) 2014-03-21 2017-11-28 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
WO2018074893A1 (en) * 2016-10-20 2018-04-26 삼성전자 주식회사 Display apparatus, and image processing method thereof
WO2019164048A1 (en) * 2018-02-24 2019-08-29 링크플로우 주식회사 Method for implementing user interface by user device and apparatus for performing same method
US10401901B2 (en) 2015-09-03 2019-09-03 Motionvirtual, Inc. Wearable device
US10474191B2 (en) 2014-10-15 2019-11-12 Motionvirtual, Inc. Wearable device
KR102102309B1 (en) * 2019-03-12 2020-04-21 주식회사 피앤씨솔루션 Object recognition method for 3d virtual space of head mounted display apparatus
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
KR20220113495A (en) * 2019-12-11 2022-08-12 주식회사 소니 인터랙티브 엔터테인먼트 Image processing apparatus, system, image processing method, and image processing program
WO2022250238A1 (en) * 2021-05-25 2022-12-01 (주) 이즈커뮤니케이션즈 System for information input into computer and method for calculating coordinates of input information by using information input system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205223A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp System and device for control following gesture for virtual object
JP6149403B2 (en) * 2013-01-07 2017-06-21 セイコーエプソン株式会社 Display device and control method of display device
KR101560474B1 (en) 2014-02-18 2015-10-14 성균관대학교산학협력단 Apparatus and method for providing 3d user interface using stereoscopic image display device
KR101655820B1 (en) 2014-12-16 2016-09-22 현대자동차주식회사 Time of arrival notice system and there of method using smart glasses
KR101577359B1 (en) * 2015-03-16 2015-12-14 박준호 Wearable device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003035515A (en) * 2001-07-23 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> Method, device and marker for detecting three- dimensional positions
JP2004013314A (en) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd Position measuring input support device
JP2004078977A (en) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd Interface device
KR100571428B1 (en) * 2003-12-24 2006-04-17 한국전자통신연구원 Wearable Interface Device
JP4038689B2 (en) * 2004-01-21 2008-01-30 ソニー株式会社 Display control apparatus and method, recording medium, and program
EP1821183A4 (en) * 2004-10-05 2011-01-26 Nikon Corp Electronic device
KR100674090B1 (en) 2004-12-20 2007-01-24 한국전자통신연구원 System for Wearable General-Purpose 3-Dimensional Input
KR100851977B1 (en) 2006-11-20 2008-08-12 삼성전자주식회사 Controlling Method and apparatus for User Interface of electronic machine using Virtual plane.

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9183760B2 (en) 2010-12-10 2015-11-10 Foundation Of Soongsil University-Industry Cooperation Method and apparatus for recognizing sign language using electromyogram sensor and gyro sensor
WO2012077909A3 (en) * 2010-12-10 2012-08-02 숭실대학교산학협력단 Method and apparatus for recognizing sign language using electromyogram sensor and gyro sensor
WO2012077909A2 (en) * 2010-12-10 2012-06-14 숭실대학교산학협력단 Method and apparatus for recognizing sign language using electromyogram sensor and gyro sensor
US9563277B2 (en) 2011-03-16 2017-02-07 Samsung Electronics Co., Ltd. Apparatus, system, and method for controlling virtual object
KR101251774B1 (en) * 2011-05-17 2013-04-05 목원대학교 산학협력단 Matching system, matching method, wearable input device and command signal providing method for incorporating real world into virtual reality for handicapped and elderly
WO2013009047A2 (en) * 2011-07-11 2013-01-17 Korea Institute Of Science And Technology Head mounted display apparatus and contents display method
WO2013009047A3 (en) * 2011-07-11 2013-03-14 Korea Institute Of Science And Technology Head mounted display apparatus and contents display method
KR101315303B1 (en) * 2011-07-11 2013-10-14 한국과학기술연구원 Head mounted display apparatus and contents display method
US9250443B2 (en) 2011-07-11 2016-02-02 Korea Institute Of Science And Technology Head mounted display apparatus and contents display method
WO2014071254A1 (en) * 2012-11-01 2014-05-08 Eyecam, LLC Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
US9690376B2 (en) 2012-11-01 2017-06-27 Eyecam, Inc. Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
KR20150099510A (en) * 2012-11-01 2015-08-31 아이캠, 엘엘씨 Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
US11262841B2 (en) 2012-11-01 2022-03-01 Eyecam Llc Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
KR101397812B1 (en) * 2012-11-30 2014-05-20 강원대학교산학협력단 Input system of touch and drag type in remote
KR20150033204A (en) * 2013-09-23 2015-04-01 엘지전자 주식회사 Wearable mobile terminal and method for controlling the same
KR20150091723A (en) * 2014-02-03 2015-08-12 한국전자통신연구원 Wrist wearable apparatus with transformable material
US10534442B2 (en) 2014-03-21 2020-01-14 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
US10168792B2 (en) 2014-03-21 2019-01-01 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
US9829986B2 (en) 2014-03-21 2017-11-28 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
US9560272B2 (en) 2014-03-24 2017-01-31 Samsung Electronics Co., Ltd. Electronic device and method for image data processing
WO2016028097A1 (en) * 2014-08-20 2016-02-25 Jun Ho Park Wearable device
KR101524575B1 (en) * 2014-08-20 2015-06-03 박준호 Wearable device
US10474191B2 (en) 2014-10-15 2019-11-12 Motionvirtual, Inc. Wearable device
US10908642B2 (en) 2014-10-15 2021-02-02 Motionvirtual, Inc. Movement-based data input device
US10401901B2 (en) 2015-09-03 2019-09-03 Motionvirtual, Inc. Wearable device
US10747260B2 (en) 2015-09-03 2020-08-18 Motionvirtual, Inc. Methods, devices, and systems for processing blood vessel data
US10915993B2 (en) 2016-10-20 2021-02-09 Samsung Electronics Co., Ltd. Display apparatus and image processing method thereof
WO2018074893A1 (en) * 2016-10-20 2018-04-26 삼성전자 주식회사 Display apparatus, and image processing method thereof
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
WO2019164048A1 (en) * 2018-02-24 2019-08-29 링크플로우 주식회사 Method for implementing user interface by user device and apparatus for performing same method
KR20190102124A (en) * 2018-02-24 2019-09-03 링크플로우 주식회사 Method for implementing user interface of user equipment and apparatus for using the method
KR102102309B1 (en) * 2019-03-12 2020-04-21 주식회사 피앤씨솔루션 Object recognition method for 3d virtual space of head mounted display apparatus
US12114071B2 (en) 2019-12-11 2024-10-08 Sony Interactive Entertainment Inc. Image processing apparatus, system, image processing method, and image processing program
KR20220113495A (en) * 2019-12-11 2022-08-12 주식회사 소니 인터랙티브 엔터테인먼트 Image processing apparatus, system, image processing method, and image processing program
WO2022250238A1 (en) * 2021-05-25 2022-12-01 (주) 이즈커뮤니케이션즈 System for information input into computer and method for calculating coordinates of input information by using information input system

Also Published As

Publication number Publication date
KR101284797B1 (en) 2013-07-10
JP2010108500A (en) 2010-05-13

Similar Documents

Publication Publication Date Title
KR101284797B1 (en) Apparatus for user interface based on wearable computing environment and method thereof
US20100103104A1 (en) Apparatus for user interface based on wearable computing environment and method thereof
CN110647237B (en) Gesture-based content sharing in an artificial reality environment
US10444908B2 (en) Virtual touchpads for wearable and portable devices
KR101302138B1 (en) Apparatus for user interface based on wearable computing environment and method thereof
KR101844390B1 (en) Systems and techniques for user interface control
AU2013347935B2 (en) Computing interface system
EP3035164B1 (en) Wearable sensor for tracking articulated body-parts
CN104254816A (en) A data input device
CN105824431A (en) Information input device and method
US10120444B2 (en) Wearable device
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
KR20110063075A (en) Gesture input apparatus and gesture recognition method and apparatus using the same
KR20120068253A (en) Method and apparatus for providing response of user interface
CN104298340A (en) Control method and electronic equipment
US11237632B2 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
KR102322968B1 (en) a short key instruction device using finger gestures and the short key instruction method using thereof
CN203070205U (en) Input equipment based on gesture recognition
KR20120037739A (en) User interface device and method based on hand gesture recognition
KR101588021B1 (en) An input device using head movement
JP2016115310A (en) Electronic apparatus
RU2577467C1 (en) Mobile device for sensor plane
JP2013164736A (en) Input device for portable information device
KR20190022019A (en) Wearable Mouse and the Operating Method Thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160628

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171010

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190528

Year of fee payment: 7