Nothing Special   »   [go: up one dir, main page]

KR101779564B1 - Method and Apparatus for Motion Recognition - Google Patents

Method and Apparatus for Motion Recognition Download PDF

Info

Publication number
KR101779564B1
KR101779564B1 KR1020110031492A KR20110031492A KR101779564B1 KR 101779564 B1 KR101779564 B1 KR 101779564B1 KR 1020110031492 A KR1020110031492 A KR 1020110031492A KR 20110031492 A KR20110031492 A KR 20110031492A KR 101779564 B1 KR101779564 B1 KR 101779564B1
Authority
KR
South Korea
Prior art keywords
motion
space
time
events
unit
Prior art date
Application number
KR1020110031492A
Other languages
Korean (ko)
Other versions
KR20120026956A (en
Inventor
이준행
델부럭 토비
류현석
박근주
신창우
Original Assignee
삼성전자주식회사
유니버시티 오브 취리히
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 유니버시티 오브 취리히 filed Critical 삼성전자주식회사
Priority to US13/229,429 priority Critical patent/US8698092B2/en
Publication of KR20120026956A publication Critical patent/KR20120026956A/en
Priority to US14/199,164 priority patent/US9317127B2/en
Application granted granted Critical
Publication of KR101779564B1 publication Critical patent/KR101779564B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

동작 인식 장치 및 그 방법이 제공된다. 일 측면에 따르면, 적어도 하나의 이미지 센서를 이용하여, 피사체 중 움직임이 발생한 부분을 센싱하여 이벤트를 출력하고, 이벤트를 이용하여 움직임이 발생한 부분의 움직임 궤적을 추적하며,, 추적된 움직임 궤적에 따라 기기의 동작을 제어할 수 있다. A motion recognition apparatus and method therefor are provided. According to an aspect of the present invention, at least one image sensor is used to sense a motion occurrence part of a subject to output an event, track a motion locus of a motion occurrence area using an event, The operation of the device can be controlled.

Description

동작 인식 장치 및 그 방법{Method and Apparatus for Motion Recognition}[0001] The present invention relates to a method and apparatus for motion recognition,

기술분야는 동작 인식 장치 및 그 방법에 관한 것으로서, 피사체 중 움직임이 발생한 부분을 센싱하여 움직임 궤적을 추적하고, 추적된 움직임 궤적에 따라 기기의 동작을 제어할 수 있다.The present invention relates to a motion recognition apparatus and a method thereof, and it is possible to track a motion locus by sensing a motion occurrence part of a subject and to control the motion of the device according to the track motion locus.

인간과 전자 기기 사이의 상호작용을 위한 UI(User Interface)로서 키보드, 마우스, 또는 터치 패널 등을 들 수 있다. 예를 들어, 터치 패널에서 사용되는 터치 기술의 경우, 사용자는 반드시 화면에 터치를 하여 UI를 조작할 수 있다. 터치 횟수가 증가함에 따라 패널의 화면이 손상될 수 있으며, 사용자는 직접 접촉에 의해 위생적으로 불쾌감을 느낄 수 있다. 따라서, 인간과 전자 기기 사이에 자연스러우면서도 상호작용이 강화된 직관적인 인터페이싱 기술을 제공하여 사용자 편의를 향상시킬 필요성이 있다.A user interface (UI) for interaction between a human and an electronic device includes a keyboard, a mouse, and a touch panel. For example, in the case of a touch technology used in a touch panel, a user must touch the screen to operate the UI. As the number of touch increases, the screen of the panel may be damaged, and the user may feel uncomfortable hygiene by direct contact. Accordingly, there is a need to improve user convenience by providing an intuitive interfacing technique that enhances interaction between humans and electronic devices naturally.

일 측면에 있어서, 피사체 중 움직임이 발생한 부분을 센싱하여 이벤트들을 출력하는 이미지 센서; 출력되는 이벤트들의 시공간 상관도를 이용하여 움직임이 발생한 부분의 움직임 궤적을 추적하는 움직임 추적부; 및 추적된 움직임 궤적으로부터 움직임이 발생한 부분의 동작 패턴을 판단하는 동작 패턴 판단부를 포함하는, 동작 인식 장치가 제공된다.In one aspect, there is provided an image processing apparatus comprising: an image sensor that senses a motion occurrence portion of a subject and outputs events; A motion tracking unit for tracking a motion trajectory of a motion-generated portion using a time-space correlation diagram of output events; And an operation pattern determining unit that determines an operation pattern of a portion where the motion is generated from the traced motion trajectory.

상기 피사체의 움직임을 센싱하기 위해 상기 피사체를 향한 광을 출력하는 광원부를 더 포함할 수 있다.And a light source unit for outputting light toward the subject to sense motion of the subject.

이때, 상기 광원부는, 적외선 광을 출력할 수 있다.At this time, the light source unit can output infrared light.

빛의 세기를 측정하는 광 측정부; 및 상기 광 측정부에서 측정한 상기 빛의 세기가 기설정한 광량보다 작은 경우, 광을 출력하는 광원부를 더 포함할 수 있다.A light measuring unit for measuring intensity of light; And a light source for outputting light when the intensity of the light measured by the light measuring unit is smaller than a predetermined light intensity.

이미지 센서가 복수 개인 경우, 복수 개의 이미지 센서들로부터 출력되는 이벤트들의 히스토그램을 이용하여, 이미지 센서들 간의 시차를 산출하는 시차 산출부; 및 산출된 시차를 기준으로 복수 개의 이미지 센서들로부터 출력되는 이벤트들을 합성하는 합성부를 더 포함할 수 있다.A parallax calculating unit for calculating a parallax between image sensors using a histogram of events output from a plurality of image sensors when there are a plurality of image sensors; And a synthesizer for synthesizing events output from the plurality of image sensors based on the calculated parallax.

산출된 시차를 이용하여 움직임이 발생한 부분의 깊이를 산출하는 깊이 산출부를 더 포함할 수 있다.And a depth calculating unit for calculating a depth of a portion where motion is generated using the calculated parallax.

이미지 센서들 각각은, 복수 개의 센싱 유닛들로 이루어지며, 복수 개의 센싱 유닛들 중 움직임이 발생한 부분에 대응하는 타겟 센싱 유닛들이 이벤트를 출력할 수 있다.Each of the image sensors is made up of a plurality of sensing units, and the target sensing units corresponding to a part of the plurality of sensing units where the motion occurs can output an event.

움직임 추적부는, 타겟 센싱 유닛들로부터 입력되는 이벤트들을 이용하여, 타겟 센싱 유닛들 간의 시공간 상관도를 각각 산출하는 복수 개의 시공간 상관기들; 및 각각 산출되는 시공간 상관도의 고저(高低)를 이용하여, 움직임이 발생한 부분의 움직임 궤적을 추적하는 움직임 궤적 추적부를 포함할 수 있다.The motion tracking unit includes: a plurality of space-time correlators, each of which calculates a space-time correlation between target sensing units using events input from the target sensing units; And a motion trajectory tracing unit for tracing a motion trajectory of a portion where motion occurs, using the calculated high and low values of the space-time correlation.

복수 개의 시공간 상관기들은, 각각 시공간 상관도를 나타내는 내부 상태값을 가지며, 이벤트들이 입력될 때마다 내부 상태값을 증가시키고, 증가된 내부 상태값과 설정된 임계값을 비교하여 시공간 상관도의 고저를 판단할 수 있다.The plurality of space time correlators each have an internal state value indicating a space-time correlation, and each time an event is input, the internal state value is incremented, and the increased internal state value is compared with a preset threshold value to determine a space- can do.

한편, 동작 인식 장치는 빛의 세기를 측정하는 광 측정부를 더 포함하고, 상기 복수 개의 시공간 상관기들은, 상기 빛의 세기를 고려해서 상기 임계값을 설정할 수 도 있다.Meanwhile, the motion recognition apparatus may further include a light measuring unit for measuring light intensity, and the plurality of space-time correlators may set the threshold value in consideration of the light intensity.

다른 한편, 상기 동작 인식 장치는 상기 이미지 센서가 복수 개인 경우, 상기 이미지 센서들 간의 시차를 이용하여 상기 움직임이 발생한 부분의 깊이를 산출하는 깊이 산출부를 더 포함하고, 상기 복수 개의 시공간 상관기들은, 상기 움직임이 발생한 부분의 깊이를 고려해서 상기 임계값을 설정할 수도 있다.The motion recognition device may further include a depth calculating unit that calculates a depth of the motion-generating part using the parallax between the image sensors when the image sensor is plural, wherein the plurality of space- The threshold may be set in consideration of the depth of the portion where the motion occurs.

움직임 궤적 추적부는, 복수 개의 시공간 상관기들 중 시공간 상관도가 높은 시공간 상관기들을 그룹핑하여 하나의 클러스터-움직임이 발생한 부분에 대응하는 형상임-를 생성하고, 생성된 클러스터의 중심 위치와 이전에 산출된 클러스터의 중심 위치를 연계하여 움직임 궤적을 추적할 수 있다.The motion trajectory tracking unit groups space-time correlators having a high time-space correlation among a plurality of space-time correlators to generate one cluster-type corresponding to a part where motion occurs, The movement locus can be traced by connecting the center position of the cluster.

복수 개의 시공간 상관기들은, 이미지 센서의 분할된 영역들과 각각 매핑되며, 분할된 영역들은 적어도 하나의 주변 영역과 오버랩될 수 있다.The plurality of space-time correlators are each mapped to the divided regions of the image sensor, and the divided regions may overlap with at least one surrounding region.

판단된 동작 패턴을 참조하여 제어 명령을 출력하는 동작 제어부를 더 포함할 수 있다.And an operation control unit for outputting a control command with reference to the determined operation pattern.

다른 측면에 있어서, 이미지 센서에 의해 촬영되는 피사체 중 움직임이 발생한 부분을 센싱하여 이벤트들을 출력하는 단계; 출력되는 이벤트들의 시공간 상관도를 이용하여 움직임이 발생한 부분의 움직임 궤적을 추적하는 단계; 및 추적된 움직임 궤적으로부터 움직임이 발생한 부분의 동작 패턴을 판단하는 단계를 포함하는, 동작 인식 방법이 제공된다.In another aspect of the present invention, there is provided a method of detecting a motion of a subject, the method comprising sensing motion of a subject photographed by the image sensor and outputting events; Tracking motion trajectories of a motion-generating portion using the time-space correlation diagrams of output events; And determining an action pattern of a motion-generated portion from the traced motion trajectory.

상기 이벤트들을 출력하는 단계 이전에, 상기 피사체의 움직임을 센싱하기 위해 상기 피사체를 향한 광을 출력하는 단계를 더 포함할 수 있다.The method may further include outputting light toward the subject to sense motion of the subject before outputting the events.

상기 이벤트들을 출력하는 단계 이전에, 빛의 세기를 측정하는 단계; 및 상기 광 측정부에서 측정한 상기 빛의 세기가 기설정한 광량보다 작은 경우, 광을 출력하는 단계를 더 포함할 수 있다.Measuring the intensity of light prior to outputting the events; And outputting light when the intensity of the light measured by the light measuring unit is smaller than a preset light amount.

이미지 센서가 복수 개인 경우, 복수 개의 카메라들의 이미지 센서들로부터 출력되는 이벤트들의 히스토그램을 이용하여, 이미지 센서들 간의 시차를 산출하는 단계; 및 산출된 시차를 기준으로 복수 개의 이미지 센서들로부터 출력되는 이벤트들을 합성하는 단계; 산출된 시차를 이용하여 움직임이 발생한 부분의 깊이를 산출하는 단계를 더 포함할 수 있다.Calculating a parallax between image sensors using a histogram of events output from image sensors of a plurality of cameras when there are a plurality of image sensors; And synthesizing events output from the plurality of image sensors based on the calculated disparity; And calculating the depth of the portion where the motion has occurred using the calculated parallax.

복수 개의 시공간 상관기들이, 타겟 센싱 유닛들로부터 입력되는 이벤트들을 이용하여, 타겟 센싱 유닛들 간의 시공간 상관도를 각각 산출하는 단계를 더 포함하며, 추적하는 단계는, 각각 산출되는 시공간 상관도의 고저(高低)를 이용하여, 움직임이 발생한 부분의 움직임 궤적을 추적할 수 있다.Wherein each of the plurality of space-time correlators, using events input from the target sensing units, each calculating a space-time correlation between target sensing units, The movement trajectory of the portion where the motion occurs can be tracked.

복수 개의 시공간 상관기들은 각각 시공간 상관도를 나타내는 내부 상태값을 가지며, 산출하는 단계는, 이벤트들이 입력될 때마다 내부 상태값을 증가시키고, 증가된 내부 상태값과 설정된 임계값을 비교하여 시공간 상관도의 고저를 판단할 수 있다.Wherein the plurality of space time correlators each have an internal state value indicating a space-time correlation, and the calculating step increases an internal state value each time events are input, compares the increased internal state value with a preset threshold value, Can be determined.

한편, 빛의 세기를 측정하는 단계를 더 포함하고, 상기 산출하는 단계는, 상기 빛의 세기를 고려해서 상기 임계값을 설정할 수 있다.The method may further include measuring light intensity, and the calculating step may set the threshold value in consideration of the light intensity.

다른 한편, 상기 이미지 센서가 복수 개인 경우, 상기 이미지 센서들 간의 시차를 이용하여 상기 움직임이 발생한 부분의 깊이를 산출하는 단계를 더 포함하고, 상기 산출하는 단계는, 상기 움직임이 발생한 부분의 깊이를 고려해서 상기 임계값을 설정할 수 있다.The method may further include calculating a depth of a portion where the motion occurs by using a parallax between the image sensors when the image sensor has a plurality of images, The threshold value can be set.

움직임 궤적을 추적하는 단계는, 복수 개의 시공간 상관기들 중 시공간 상관도가 높은 시공간 상관기들을 그룹핑하여 하나의 클러스터-움직임이 발생한 부분에 대응하는 형상임-를 생성하는 단계; 생성된 클러스터의 중심 위치를 산출하는 단계; 및 산출된 중심 위치와 이전에 산출된 중심 위치를 연계하여 움직임 궤적을 추적하는 단계를 포함할 수 있다.The step of tracing the movement trajectory includes: grouping space time correlators having a high space-time correlation among a plurality of space-time correlators to generate one cluster - a shape corresponding to a part in which motion occurs; Calculating a center position of the generated cluster; And tracking the motion locus by linking the calculated center position and the previously calculated center position.

판단된 동작 패턴을 참조하여 제어 명령을 출력하는 단계를 더 포함할 수 있다.And outputting a control command with reference to the determined operation pattern.

또 다른 측면에 있어서, 피사체 중 움직임이 발생한 부분을 센싱하여 이벤트들을 출력하는 이미지 센서; 및 상기 출력되는 이벤트들의 시공간 상관도를 이용하여 상기 움직임이 발생한 부분의 움직임 궤적을 추적하고, 상기 추적된 움직임 궤적으로부터 상기 움직임이 발생한 부분의 동작 패턴을 판단하고, 상기 판단된 동작 패턴을 참조하여 대응하는 사용자의 입력 신호를 식별하도록 구성된(configured) 적어도 하나의 프로세서,를 포함하는, 사용자의 동작 입력을 감지하는 동작 인식 장치가 제공된다.
According to another aspect of the present invention, there is provided an image processing apparatus comprising: an image sensor that senses a motion of a subject and outputs events; And a controller for tracking motion trajectories of the motion-generating portion using the time-space correlation diagrams of the output events, determining an operation pattern of the motion-generated portion from the traced motion trajectory, referring to the determined motion pattern At least one processor configured to identify an input signal of a corresponding user is provided.

동작 인식 장치 및 그 방법에 의하면, 이미지 센서는 일정한 시간 간격으로 이미지를 출력하는 기존의 센서와 달리 광의 강도 변화가 있는 센싱 유닛에서만 이벤트를 출력함으로써 고정된 이미지를 제외한 움직이는 객체만을 검출할 수 있다. 이에 의해, 동작 인식 장치 및 그 방법은 움직이는 객체를 인식하기 위하여 수반되는 이미지 전처리 과정을 생략할 수 있으며, 기존의 동작 인식 시스템에서 필요로 하는 높은 컴퓨팅 파워를 필요로 하지 않는다. According to the motion recognition apparatus and method, an image sensor can detect only a moving object except for a fixed image by outputting an event only in a sensing unit having a change in light intensity, unlike an existing sensor that outputs an image at a predetermined time interval. Accordingly, the motion recognition apparatus and method can omit the image preprocessing process to recognize a moving object, and do not require high computing power required in a conventional motion recognition system.

또한, 동작 인식 장치 및 그 방법에 의하면, 1ms 수준의 매우 빠른 속도로 객체의 움직임을 인식할 수 있으므로, 실시간으로 움직임을 인식할 수 있다. In addition, according to the motion recognition apparatus and method thereof, motion of an object can be recognized at a very high speed of 1 ms level, so that motion can be recognized in real time.

또한, 동작 인식 장치 및 그 방법에 의하면, 복수 개의 이미지 센서를 이용함으로써 움직임이 발생한 객체의 깊이 정보를 알 수 있다. 깊이 정보는 손을 몸 앞으로 내미는 push 동작 등 깊이감을 가지는 동작 인식에 사용될 수 있다. 또한, 깊이 정보는 배경 잡음을 제거할 때도 사용될 수 있다. 예를 들어, 움직인 사람과 카메라들과의 깊이 정보를 알고 있는 경우, 움직인 사람보다 먼 거리에서 발생하는 움직임은 무시함으로써, 사람 뒤에서 움직임이 발생하여도 정확하게 동작을 인식할 수 있다.In addition, according to the motion recognition apparatus and method, depth information of an object in which a motion occurs can be known by using a plurality of image sensors. The depth information can be used for motion recognition with a depth sense such as a pushing operation for pushing the hand toward the body. The depth information can also be used to remove background noise. For example, when the depth information of the moving person and the camera is known, the motion occurring at a distance farther than the moving person is ignored, so that the motion can be accurately recognized even when the motion occurs behind the person.

도 1은 제1동작 인식 장치의 구성 예를 나타낸다.
도 2는 제1움직임 추적부의 구성 예를 도시한 도면이다.
도 3은 제1이미지 센서를 이루는 센싱 유닛들의 어레이 및 수신 필드의 일 예를 도시한 도면이다.
도 4는 제1 내지 제n시공간 상관기들 간의 공간적인 연관성을 설명하기 위한 도면이다. 의 일 예를 보여주는 도면이다.
도 5는 제1 내지 제n시공간 상관기들을 그룹핑하여 제1 내지 제3클러스터들을 생성한 일 예를 보여주는 도면이다.
도 6은 생성된 클러스터를 이용하여 움직임이 발생한 부분의 움직임 궤적을 추적하는 일 예를 설명하기 위한 도면이다.
도 7은 출력되는 이벤트로부터 움직임 궤적을 추적하는 일련의 과정을 보여주는 도면이다.
도 8은 제2동작 인식 장치의 구성 예를 나타낸다.
도 9는 제1 및 제2촬영부의 제1 및 제2이미지 센서들로부터 출력된 이벤트들의 일 예를 도시한 도면이다.
도 10은 이벤트들의 히스토그램으로부터 시차를 구하는 과정을 설명하기 위한 도면이다.
도 11은 제1동작 인식 장치의 동작 인식 방법을 설명하기 위한 흐름도이다.
도 12는 제2동작 인식 장치의 동작 인식 방법을 설명하기 위한 흐름도이다.
Fig. 1 shows a configuration example of a first motion recognition device.
2 is a diagram showing a configuration example of the first motion tracking unit.
3 is a diagram showing an example of an array and a reception field of the sensing units constituting the first image sensor.
4 is a diagram for explaining a spatial relation between first through nth space time correlators. Fig.
5 is a diagram illustrating an example of generating first through third clusters by grouping first through nth space time correlators.
FIG. 6 is a diagram for explaining an example of tracking a motion locus of a motion-generated portion using the generated cluster.
FIG. 7 is a diagram illustrating a series of processes for tracking motion trajectories from output events.
Fig. 8 shows a configuration example of the second motion recognition device.
9 is a diagram showing an example of events output from the first and second image sensors of the first and second photographing units.
FIG. 10 is a diagram for explaining a process of obtaining a time difference from a histogram of events.
11 is a flowchart for explaining an operation recognition method of the first motion recognition device.
12 is a flowchart for explaining an operation recognition method of the second operation recognition device.

이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 제1동작 인식 장치(100)의 구성 예를 나타낸다.Fig. 1 shows an example of the configuration of the first motion recognition device 100. Fig.

도 1을 참조하면, 피사체의 움직임에 따라 동작 패턴을 인식하는 제1동작 인식 장치(100)는 제1촬영부(110), 제1움직임 추적부(120), 제1동작 패턴 판단부(130), 제1패턴 저장부(140) 및 제1동작 제어부(150)를 포함할 수 있다.Referring to FIG. 1, a first motion recognition apparatus 100 for recognizing an operation pattern according to a motion of a subject includes a first imaging unit 110, a first motion tracking unit 120, a first motion pattern determination unit 130 ), A first pattern storage unit 140, and a first operation control unit 150.

제1촬영부(110)는 피사체를 촬영하며, 동영상, 정지영상 촬영이 가능한 카메라를 예로 들 수 있다. 제1촬영부(110)는 하나 이상의 렌즈를 포함하는 광학계(미도시)와, 제1이미지 센서(111)를 포함한다. 피사체는 움직임이 가능한 사람, 동물, 로봇 등 다양하다.The first photographing unit 110 may be a camera capable of photographing a subject and photographing a moving image or a still image. The first imaging unit 110 includes an optical system (not shown) including one or more lenses and a first image sensor 111. The subject can be anyone who can move, animals, robots, and so on.

제1이미지 센서(111)는 피사체 중 움직임이 발생한 부분을 센싱하여 이벤트들을 출력한다. 제1이미지 센서(111)는 후술할 도 3에 도시된 바와 같이 어레이된 복수 개의 센싱 유닛들을 포함한다. 센싱 유닛들은 영상의 픽셀단위로 구비될 수 있다. 예를 들어, 제1촬영부(110)에서 출력되는 영상이 60×60인 경우, 센싱 유닛들은 60×60 형태로 구비될 수 있다. The first image sensor 111 senses a part where a motion occurs in a subject and outputs events. The first image sensor 111 includes a plurality of sensing units arrayed as shown in Fig. 3, which will be described later. The sensing units may be provided in units of pixels of an image. For example, when the image output from the first photographing unit 110 is 60x60, the sensing units may be provided in a 60x60 form.

센싱 유닛들은 수광소자(Light Receiving Element)일 수 있다. 피사체 또는 피사체의 일부가 움직이는 경우, 제1이미지 센서(111)의 센싱 유닛들에 의해 센싱되는 광의 강도는 변한다. 제1이미지 센서(111)의 경우, 센싱 유닛들 중 광의 강도 변화가 센싱되는 타겟 센싱 유닛들이 이벤트를 출력한다. 즉, 센싱 유닛들 중 움직임이 발생한 부분에 대응하는 타겟 센싱 유닛들이 이벤트를 출력한다. 타겟 센싱 유닛은 이벤트를 출력하는 센싱 유닛이다.The sensing units may be light receiving elements. When the subject or a part of the subject moves, the intensity of the light sensed by the sensing units of the first image sensor 111 changes. In the case of the first image sensor 111, the target sensing units in which the intensity variation of the light among the sensing units is sensed output an event. That is, the target sensing units corresponding to the portion of the sensing unit where the motion occurs output an event. The target sensing unit is a sensing unit for outputting an event.

이벤트는 {이벤트가 발생한 시간, 이벤트를 출력한 센싱 유닛의 위치, 극성} 등의 정보를 포함한다. 극성(polarity)은 센싱 유닛에서 수광된 광의 강도가 증가하여 이벤트가 발생한 경우 'on'이 되며, 수광된 광의 강도가 감소하여 이벤트가 발생한 경우 'off'가 된다. 이 때, 각 센싱 유닛은 광의 강도 변화량이 설정된 기준값보다 크거나 작을 때, 이벤트를 출력할 수 있다.The event includes information such as the time at which the event occurred, the position of the sensing unit outputting the event, polarity, and the like. The polarity is 'on' when the intensity of the light received by the sensing unit increases and the intensity of the received light is 'off' when an event occurs. At this time, each sensing unit can output an event when the intensity change amount of the light is larger or smaller than the set reference value.

제1움직임 추적부(120)는 제1이미지 센서(111)로부터 출력되는 이벤트들의 시공간 상관도(Spatiotemporal Correlation)를 이용하여, 움직임이 발생한 부분의 움직임 궤적을 추적할 수 있다. The first motion tracking unit 120 may track a motion trajectory of a motion-generated portion using spatial-temporal correlations of events output from the first image sensor 111.

도 2는 제1움직임 추적부(120)의 구성 예를 도시한 도면이다.FIG. 2 is a diagram illustrating an example of the configuration of the first motion tracking unit 120. Referring to FIG.

도 2를 참조하면, 제1움직임 추적부(120)는 제1 내지 제n시공간 상관기들(Spatiotemporal Correlator) (121-1, 121-2, …, 121-n, n은 양수) 및 제1움직임 궤적 추적부(123)를 포함한다.Referring to FIG. 2, the first motion tracking unit 120 includes first to nth spatial correlation correlators 121-1, 121-2, ..., 121-n, where n is a positive number, And a trajectory tracking unit 123.

제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)은 타겟 센싱 유닛들로부터 입력되는 이벤트들을 이용하여, 타겟 센싱 유닛들 간의 시공간 상관도를 각각 산출할 수 있다. The first to nth space time correlators 121-1, 121-2, ..., 121-n may calculate the space-time correlation between the target sensing units using the events input from the target sensing units, respectively .

이하에서는 시공간 상관도를 설명하기 위하여, 도 3을 참조하여 먼저 수신 필드(Receptive Field)에 대해 설명하며, 제1시공간 상관기(121-1)를 예로 들어 설명한다.Hereinafter, in order to explain the space-time correlation, a reception field will be described first with reference to FIG. 3, and a first space time correlator 121-1 will be described as an example.

도 3은 제1이미지 센서(111)를 이루는 센싱 유닛들의 어레이 및 수신 필드의 일 예를 도시한 도면이다.3 is a diagram showing an example of an array and a reception field of the sensing units constituting the first image sensor 111. As shown in FIG.

도 3을 참조하면, 제1시공간 상관기(121-1)는 제1이미지 센서(111) 중 특정 영역을 이루는 센싱 유닛들로부터 출력되는 이벤트를 입력받는다. 특정 영역은 곧 수신 필드를 의미한다. 제1시공간 상관기(121-1)와 전기적으로 연결되어 제1시공간 상관기(121-1)에게 이벤트를 출력할 수 있는 센싱 유닛들이 차지하는 영역을 수신 필드이라 한다. 수신 필드는 m×m(m은 양수) 크기를 가질 수 있다. 따라서, 제1시공간 상관기(121-1)는 수신 필드의 센싱 유닛들 중 적어도 하나로부터 이벤트를 입력받을 수 있다. 제2 내지 제n시공간 상관기(121-2, …, 121-n) 역시 대응하는 수신 필드의 센싱 유닛들과 연결되어 이벤트를 입력받을 수 있다.Referring to FIG. 3, the first space time correlator 121-1 receives events output from the sensing units constituting a specific region of the first image sensor 111. FIG. The specific area means the reception field immediately. An area that is electrically connected to the first space-time correlator 121-1 and occupied by the sensing units capable of outputting an event to the first space-time correlator 121-1 is referred to as a reception field. The receive field may have a size of m x m (where m is a positive number). Accordingly, the first space time correlator 121-1 may receive an event from at least one of the sensing units of the reception field. The second to nth space time correlators 121-2, ..., 121-n may also be connected to the sensing units of the corresponding reception field to receive events.

다시 도 2를 참조하면, 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)은 각각 현재의 시공간 상관도를 나타내는 내부 상태값을 갖는다. 각 내부 상태값은 서로 동일하거나 또는 다를 수 있으며, 일 예로 전압값일 수 있다. 내부 상태값은 현재의 내부 상태값과, 새로 입력되는 이벤트에 의해 결정될 수 있다. 이벤트가 입력되는 경우, 내부 상태값은 증가하며, 이벤트의 입력이 없는 경우, 설정된 시간이 지남에 따라 내부 상태값은 감소할 수 있다. 내부 상태값의 감소는 내부 상태값을 저장하는 메모리의 대역폭(bandwidth) 로드를 최소화할 수 있다. Referring again to FIG. 2, the first to nth space time correlators 121-1, 121-2,..., 121-n each have an internal state value indicating a current space-time correlation. Each internal state value may be equal to or different from each other, and may be, for example, a voltage value. The internal state value can be determined by the current internal state value and the newly input event. When an event is input, the internal state value increases. If there is no event input, the internal state value may decrease as the set time passes. Reducing the internal state value can minimize the bandwidth load of the memory storing the internal state value.

자세히 설명하면, 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)은 해당하는 제1이미지 센서(111)로부터 이벤트들이 입력될 때마다 내부 상태값을 증가시키고, 증가된 내부 상태값과 설정된 임계값을 비교하여 시공간 상관도의 고저(高低)를 판단할 수 있다. 시공간 상관도는 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n) 각각으로 입력된 이벤트들간의 시간적 상관도와 공간적 상관도를 의미한다. The first to nth space time correlators 121-1, 121-2, ..., 121-n increase the internal state value each time events are input from the corresponding first image sensor 111 , The increased internal state value can be compared with the set threshold to determine the high or low of the space-time correlation. The space-time correlation is a temporal correlation and a spatial correlation between events input to the first to nth space-time correlators 121-1, 121-2, ..., and 121-n, respectively.

[수학식 1]은 입력되는 이벤트에 의해 제n시공간 상관기(121-n, n=1, 2, 3, …)로부터 출력되는 출력값을 산출하기 위한 관계식이다.(1) is a relational expression for calculating an output value output from the nth space time correlator 121-n (n = 1, 2, 3, ...) according to an input event.

Figure 112011024865506-pat00001
Figure 112011024865506-pat00001

Figure 112011024865506-pat00002
Figure 112011024865506-pat00002

[수학식 1]을 참조하면, Qn(t)는 시간 t에서 제n시공간 상관기(121-n)의 내부 상태값, Qn(tprev)는 이전 시간에서 제n시공간 상관기(121-n)의 내부 상태값, 즉, 현재의 내부 상태값, tprev는 이전에 입력된 이벤트 세트들 중 가장 최근에 이벤트 세트가 발생한 시간이다. 또한, e(t)는 시간 t에서 입력되는 이벤트 세트, outn(t)는 제n시공간 상관기(121-n)의 출력값,

Figure 112011024865506-pat00003
는 임계값이다. 이벤트 세트는 시간 t에서 발생하는 이벤트들에 대한 단순 정보를 나타낸다. 예를 들어, 처음 t=0라는 시간에 이벤트가 세 개가 발생했다면 e(0) = {e_1, e_2, e_3}이다. e_n(n=은 n=1, 2, 3, …)은 n번째 타겟 센싱 유닛의 이벤트이다. Q n (t) is the internal state value of the n th space-time correlator 121-n at time t, Q n (t prev ) is the internal state value of the n th space-time correlator 121-n at the previous time, ), I.e., the current internal state value, t prev , is the time at which the event set occurred most recently among the previously input event sets. Also, e (t) is an event set input at time t, out n (t) is an output value of the nth space time correlator 121-n,
Figure 112011024865506-pat00003
Is a threshold value. The event set represents simple information about events occurring at time t. For example, if three events occurred at the time t = 0 for the first time, e (0) = {e_1, e_2, e_3}. e_n (n = n = 1, 2, 3, ...) is an event of the nth target sensing unit.

제n시공간 상관기(121-n)는 시간 t에서, 대응하는 수신 필드의 센싱 유닛들 중 하나의 타겟 센싱 유닛으로부터 이벤트가 입력되면, 이전의 내부 상태값(Qn(tprev))을 증가시킨다. 증가되는 정도는 이벤트를 발생한 타겟 센싱 유닛에 설정된 가중치의 영향을 받는다. 따라서, 동시에 복수 개의 이벤트가 입력되면, 증가되는 속도도 빨라진다. 가중치는 센싱 유닛들마다 다르게 설정될 수 있다.When the n-th space-time correlator (121-n) is an event it is input from one of the target sensing unit of the sensing unit of a receiving field, corresponding to the time t,, thereby increasing the previous internal states of the value (Q n (t prev)) . The degree of increase is affected by the weight set in the target sensing unit that generated the event. Therefore, when a plurality of events are input at the same time, the rate of increase also increases. The weights may be set differently for each sensing unit.

제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)은 시공간 상관도의 고저에 따라 다른 출력값을 제1움직임 궤적 추적부(123)로 출력한다. 즉, 제n시공간 상관기(121-n)는 내부 상태값(Qn(t))이 설정된 임계값(

Figure 112011024865506-pat00004
)을 초과하면, 제n시공간 상관기(121-n)로 이벤트를 출력한 타겟 센싱 유닛들 간의 시공간 상관도가 높은 것으로 판단하고, 1을 출력한다. 또한, 제n시공간 상관기(121-n)는 내부 상태값(Qn(t))이 설정된 임계값(
Figure 112011024865506-pat00005
)보다 작거나 같으면, 시공간 상관도가 낮은 것으로 판단하고, 0을 출력할 수 있다. '1'은 'high' 또는 'true' 형태로도 대신 출력되며, '0'은 'low' 또는 'false' 형태로 대신 출력될 수 있다. 선택적으로, 제n시공간 상관기(121-n)의 출력이 '1'인 된 후, 제n시공간 상관기(121-n)는 제n시공간 상관기(121-n)의 내부 상태값을 설정된 양만큼 감소시킬 수 있다.The first to nth space time correlators 121-1, 121-2, ..., 121-n output different output values to the first motion trajectory tracking unit 123 according to the spatial and temporal correlation. That is, the nth space time correlator 121-n determines whether the internal state value Q n (t)
Figure 112011024865506-pat00004
, It is determined that the time-space correlation degree between the target sensing units outputting the event to the nth space time correlator 121-n is high, and 1 is output. Also, the nth space time correlator 121-n determines whether or not the internal state value Q n (t)
Figure 112011024865506-pat00005
), It is determined that the space-time correlation is low, and 0 can be output. '1' can also be output in the form of 'high' or 'true', and '0' can be output in the form of 'low' or 'false' instead. Alternatively, the nth space time correlator 121-n may reduce the internal state value of the nth space time correlator 121-n by a predetermined amount after the output of the nth space time correlator 121-n becomes '1' .

상술한 설명에 의하면, 제n시공간 상관기(121-n)에 의해 산출되는 내부 상태값(Qn(t))은 타겟 센싱 유닛들로부터 제n시공간 상관기(121-n)로 입력되는 이벤트들의 공간적 연관성 및 시간적 연관성을 나타낼 수 있다. 예를 들어, 하나의 타겟 센싱 유닛으로부터 연속적으로 이벤트들이 제n시공간 상관기(121-n)로 입력되면, 내부 상태값(Qn(t))은 입력되는 이벤트들간의 시간적 연관성을 나타낼 수 있다. 또한, 두 개의 타겟 센싱 유닛으로부터 동시에 두 개의 이벤트가 제n시공간 상관기(121-n)로 입력되면, 즉, 두 개의 타겟 센싱 유닛이 근접하며, 동일한 제n시공간 상관기(121-n)에 연결되어 있으면, 두 개의 이벤트들은 공간적으로 높은 연관성을 갖는다. 두 개의 타겟 센싱 유닛으로부터 동시에 두 개의 이벤트가 입력되었으므로 두 개의 이벤트들은 시간적 상관성도 갖는다.According to the above description, the internal state value Q n (t) calculated by the n-th time-space correlator 121-n is the spatial state of the events input from the target sensing units to the nth space- Associations and temporal associations. For example, if events are continuously input to the nth time-space correlator 121-n from one target sensing unit, the internal state value Q n (t) may represent a temporal association between incoming events. Also, if two events are simultaneously input from the two target sensing units to the nth space time correlator 121-n, i.e., the two target sensing units are close and connected to the same nth space time correlator 121-n If so, the two events have a high spatial relevance. Since two events are simultaneously input from two target sensing units, the two events also have temporal correlation.

한편, 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)은 서로 공간적인 연관성을 가질 수 있다. On the other hand, the first to n-th space time correlators 121-1, 121-2, ..., 121-n may have a spatial relationship with each other.

도 4는 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n) 간의 공간적인 연관성을 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining a spatial relationship between the first through n-th space time correlators 121-1, 121-2,..., 121-n.

도 4를 참조하면, 제1이미지 센서(111)는 복수 개의 수신 필드들로 논리적으로 분할될 수 있다. 분할된 수신 필드들은 적어도 하나의 주변 영역과 오버랩된다. 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)은 제1이미지 센서(111)의 분할된 수신 필드들과 각각 매핑될 수 있다. 각 수신 필드에 위치하는 센싱 유닛들은 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n) 중 대응하는 시공간 상관기에게 이벤트를 출력한다.Referring to FIG. 4, the first image sensor 111 may be logically divided into a plurality of reception fields. The segmented receive fields overlap with at least one surrounding area. The first to nth space time correlators 121-1, 121-2, ..., 121-n may be mapped to the divided receive fields of the first image sensor 111, respectively. The sensing units located in each reception field output an event to the corresponding one of the first to n-th spacetime correlators 121-1, 121-2, ..., 121-n.

도 4에서, C(i,j)는 제1이미지 센서(111)의 중심에 위치하는 수신 필드의 중심 좌표이다. C(i-1,j)는 중심 좌표가 x축 방향(즉, 수평 방향)으로 '1'만큼 이동한 수신 필드의 중심 좌표이다. 도 4의 경우, '1'은 3개의 픽셀만큼 이격되었음을 의미하며, 이는 변경가능하다.In FIG. 4, C (i, j) is the center coordinate of the reception field located at the center of the first image sensor 111. C (i-1, j) is the center coordinate of the reception field whose center coordinate is shifted by '1' in the x-axis direction (that is, the horizontal direction). In the case of FIG. 4, '1' means that three pixels are spaced apart, which is changeable.

도 4에 도시된 바와 같이, 수신 필드들이 일부 오버랩되는 것은 동일한 이벤트가 동시에 적어도 두 개의 시공간 상관기로 출력될 수 있음을 의미한다. 수신 필드들이 일부 오버랩되는 영역을 가짐으로써, 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n) 간의 공간적 상관도 또는 수신 필드들 간의 공간적 상관도가 부여될 수 있다. 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n) 간의 공간적 상관도는 움직임 궤적을 추적할 때 영향을 미칠 수 있다.As shown in FIG. 4, some overlap of the receive fields means that the same event can be simultaneously output to at least two space-time correlators. The spatial correlation between the first to n th space time correlators 121-1, 121-2, ..., 121-n or the spatial correlation between the reception fields can be given by having the reception fields partially overlap each other have. The spatial correlation between the first to nth space time correlators 121-1, 121-2, ..., 121-n may have an effect on tracking motion trajectories.

다시 도 2를 참조하면, 제1움직임 궤적 추적부(123)는 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)로부터 각각 산출되는 시공간 상관도의 출력값, 즉, 고저(高低)를 이용하여, 움직임이 발생한 부분의 움직임 궤적을 추적할 수 있다.Referring back to FIG. 2, the first motion locator tracking unit 123 estimates the output values of the space-time correlation calculated from the first to nth space time correlators 121-1, 121-2, ..., and 121-n, That is, it is possible to track the motion locus of the portion where the motion occurs by using the high and low.

제1움직임 궤적 추적부(123)는 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n) 중 시공간 상관도가 높은 시공간 상관기들을 그룹핑하여 하나의 클러스터를 생성한다. 구체적으로 설명하면, 제1움직임 궤적 추적부(123)는 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n) 중 '1'을 출력한 시공간 상관기들을 수신 필드의 겹침을 기준으로 그룹핑한다. 즉, 제1움직임 궤적 추적부(123)는 서로 겹치는 시공간 상관기들을 그룹핑하여 하나의 클러스터를 생성한다. '1'을 출력하였음은 높은 시공간 상관도를 가짐을 의미한다.The first movement trajectory tracking unit 123 generates one cluster by grouping the space time correlators having high time-space correlation among the first to nth space time correlators 121-1, 121-2, ..., 121-n . Specifically, the first motion trajectory tracking unit 123 compares space-time correlators outputting '1' among the first through n-th space-time correlators 121-1, 121-2, ..., and 121- As shown in FIG. That is, the first motion locator tracking unit 123 generates a cluster by grouping the space time correlators overlapping each other. The output of '1' means high spatial and temporal correlation.

도 5는 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)을 그룹핑하여 제1 내지 제3클러스터들(cluster n, n=1, 2, 3)을 생성한 일 예를 보여주는 도면이다.5 illustrates a method of generating first through third clusters (cluster n, n = 1, 2, 3) by grouping first through nth space time correlators 121-1, 121-2, Fig.

도 5를 참조하면, 제1클러스터(cluster 1)는 서로 오버랩되는 두 개의 수신 필드(51, 53)를 그룹핑하여 생성된다. 제2클러스터(cluster 2)는 서로 오버랩되는 10의 수신 필드들을 그룹핑하여 생성된다. 제3클러스터(cluster 3)는 서로 오버랩되는 7개의 수신 필드들을 그룹핑하여 생성된다. Referring to FIG. 5, a first cluster (cluster 1) is generated by grouping two reception fields 51 and 53 overlapping with each other. The second cluster (cluster 2) is generated by grouping 10 reception fields overlapping each other. The third cluster (cluster 3) is generated by grouping seven reception fields overlapping each other.

한편, 제1움직임 궤적 추적부(123)는 클러스터를 이용하여 움직임이 발생한 부분의 위치를 알 수 있다. 즉, 제1이미지 센서(111)는 광의 광도에 변화가 있는 타겟 센싱 유닛만 이벤트를 출력하므로, 이벤트들 간의 시공간 상관도를 이용하여 움직임이 발생한 부분을 찾을 수 있다. 이를 위하여, 제1움직임 궤적 추적부(123)는 클러스터의 중심 위치를 산출하며, 산출된 중심 위치와 이전에 산출된 클러스터의 중심 위치를 연계하여 움직임 궤적을 추적할 수 있다. 클러스터는 움직임이 발생한 부분에 대응하는 형상을 가질 수 있다.On the other hand, the first movement trajectory tracking unit 123 can know the position of a portion where the motion occurs using the cluster. That is, the first image sensor 111 outputs only the target sensing unit having a change in the luminous intensity of the light, so that the part where the motion occurs can be found using the space-time correlation between the events. For this, the first motion trajectory tracking unit 123 calculates the center position of the cluster, and tracks the motion locus by linking the calculated center position with the center position of the previously calculated cluster. The cluster may have a shape corresponding to the portion where the motion occurs.

제1움직임 궤적 추적부(123)는 클러스터에 포함된 각 시공간 상관기의 위치와 상수를 승산하고, 승산 결과들의 평균값을 클러스터의 중심 위치로 정할 수 있다. 시공간 상관기의 위치는 시공간 상관기가 커버하는 영역을 대표하는 위치일 수 있다. 상수는 시공간 상관기들에서 산출된 내부 상태값(Q(t)), 특정 시간 구간 동안 시공간 상관기들에게 입력된 이벤트들의 개수 등 다양한 값이 될 수 있다.The first motion trajectory tracking unit 123 may multiply the position of each space-time correlator included in the cluster by a constant, and set the average value of the multiplication results as the center position of the cluster. The location of the space-time correlator may be a location representative of the area covered by the space-time correlator. The constant may be various values such as an internal state value (Q (t)) calculated by space time correlators, the number of events input to space time correlators during a specific time interval, and the like.

예를 들어, 클러스터가 제1 및 제2시공간 상관기(121-1, 121-2)의 그룹핑에 의해 생성되었으며, 제1시공간 상관기(121-1)의 내부 상태값은 Q1, 제2시공간 상관기(121-2)의 내부 상태값은 Q2이다. 그리고, 제1시공간 상관기(121-1)를 대표하는 위치는 (x1, y1), 제2시공간 상관기(121-2)를 대표하는 위치는 (x2, y2)이다. 제1움직임 궤적 추적부(123)는 [수학식 2]를 이용하여 클러스터의 중심 위치를 산출할 수 있다.For example, a cluster is generated by the grouping of the first and second space-time correlators 121-1 and 121-2, the internal state value of the first space-time correlator 121-1 is Q1, the second space- 121-2) is Q2. The position representative of the first space-time correlator 121-1 is (x1, y1), and the position representative of the second space-time correlator 121-2 is (x2, y2). The first movement trajectory tracking unit 123 can calculate the center position of the cluster using Equation (2).

Figure 112011024865506-pat00006
Figure 112011024865506-pat00006

Figure 112011024865506-pat00007
Figure 112011024865506-pat00007

[수학식 2]에서, x'는 클러스터의 중심 위치의 x좌표, y'는 중심 위치의 y좌표이다.In Equation (2), x 'is the x coordinate of the center position of the cluster, and y' is the y coordinate of the center position.

도 6은 생성된 클러스터를 이용하여 움직임이 발생한 부분의 움직임 궤적을 추적하는 일 예를 설명하기 위한 도면이다. FIG. 6 is a diagram for explaining an example of tracking a motion locus of a motion-generated portion using the generated cluster.

제1움직임 궤적 추적부(123)는 클러스터가 생성될 때마다 클러스터의 중심 위치를 산출한다. 도 6을 참조하면, 제1움직임 궤적 추적부(123)는 시간 t1, t2, t3에서 순차적으로 클러스터를 생성하고, 각 클러스터의 중심 위치를 산출한다. 그리고, 제1움직임 궤적 추적부(123)는 산출된 중심 위치를 연결하여 움직임 궤적을 추적한다. 즉, 움직임이 발생한 부분의 움직임 궤적은, 그룹화된 시공간 상관기들(즉, 그룹화된 수신 필드들)의 위치를 산출함으로써 추적될 수 있다.The first movement trajectory tracking unit 123 calculates the center position of the cluster each time a cluster is generated. Referring to FIG. 6, the first motion locator tracking unit 123 sequentially generates clusters at time t1, t2, and t3, and calculates the center position of each cluster. The first movement trajectory tracking unit 123 tracks the movement trajectory by connecting the calculated center positions. That is, the motion trajectory of the motion-generating portion can be tracked by calculating the position of the grouped space-time correlators (i.e., grouped receive fields).

도 7은 출력되는 이벤트로부터 움직임 궤적을 추적하는 일련의 과정을 보여주는 도면이다.FIG. 7 is a diagram illustrating a series of processes for tracking motion trajectories from output events.

도 7을 참조하면, 흰색 포인트는 광의 강도가 감소하여 발생한 'off' 극성의 이벤트, 검은색 포인트는 광의 광도가 증가하여 발생한 'on' 극성의 이벤트이다. 이벤트들이 모여있는 부분이 제1이미지 센서(111)에 의해 센싱된 움직임이 있는 부분이다. 이벤트들의 밀집도가 클수록 움직임 변화가 큼을 의미한다. 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)은 입력되는 이벤트들을 이용하여 시공간 상관도의 고저를 나타내는 출력값을 출력한다. 제1움직임 궤적 추적부(123)는 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n) 중 '1'을 출력한 시공간 상관기들을 그룹핑하여 클러스터를 생성하고, 클러스터의 중심 위치(p)를 산출한다. 제1움직임 궤적 추적부(123)는 산출된 중심 위치를 이전에 산출된 중심 위치와 연결하여 움직임 궤적을 추적할 수 있다. 도 7에서 'object'는 움직임이 발생한 부분으로서 클러스터에 대응하는 영역으로, 손을 예로 들 수 있다.Referring to FIG. 7, a white point is an event of 'off' polarity generated by a decrease in light intensity, and a black point is an event of 'on' polarity generated by an increase in light brightness. The portion where the events are gathered is the portion where the motion is sensed by the first image sensor 111. The larger the density of events, the greater the change in motion. The first to nth space time correlators 121-1, 121-2, ..., 121-n output an output value indicating the temporal correlation of the space-time correlation using input events. The first motion locator tracking unit 123 generates a cluster by grouping space time correlators outputting '1' among the first to nth space time correlators 121-1, 121-2, ..., and 121-n, The center position p of the cluster is calculated. The first motion trajectory tracking unit 123 may track the motion trajectory by connecting the calculated center position to the previously calculated center position. In FIG. 7, 'object' is a region corresponding to a cluster as a part where a motion occurs, for example, a hand.

다시 도 1을 참조하면, 제1동작 패턴 판단부(130)는 제1움직임 추적부(120)에서 추적된 움직임 궤적으로부터, 움직임이 발생한 부분의 동작 패턴을 판단할 수 있다. 특히, 제1동작 패턴 판단부(130)는 추적된 움직임 궤적으로부터 동작 패턴을 표현하기 위한 특징 성분들을 구하고, 특징 성분들과 제1패턴 저장부(140)에 저장된 동작 패턴들을 비교하여, 움직임이 발생한 부분의 동작 패턴을 판단할 수 있다. 특징 성분들로는 클러스터의 위치, 클러스터가 움직인 방향, 클러스터의 움직임 각도 등 다양한 파라미터를 예로 들 수 있다.Referring back to FIG. 1, the first motion pattern determiner 130 may determine an operation pattern of a motion-affected portion from a motion trajectory tracked by the first motion-tracking unit 120. FIG. In particular, the first operation pattern determination unit 130 obtains the feature components for expressing the operation pattern from the traced movement trajectory, compares the feature components with the operation patterns stored in the first pattern storage unit 140, It is possible to determine the operation pattern of the generated portion. The feature parameters include various parameters such as the position of the cluster, the direction in which the cluster moves, and the angle of movement of the cluster.

제1패턴 저장부(140)는 복수 개의 특징 성분들의 값과 그에 대응하는 동작 패턴을 저장할 수 있다. The first pattern storage unit 140 may store values of a plurality of feature components and a corresponding operation pattern.

제1동작 제어부(150)는 판단된 동작 패턴을 참조하여 사용자의 입력 신호를 식별하고, 식별된 사용자의 입력 신호에 따라 기기(미도시)를 제어하기 위한 제어 명령을 기기에게 출력할 수 있다. 기기는 제1동작 인식 장치(100)와 유무선 통신 가능한 곳에 구비되거나, 또는, 기기 내에 제1동작 인식 장치(100)가 구비될 수 있다.The first operation control unit 150 may identify the input signal of the user by referring to the determined operation pattern, and may output a control command to the apparatus for controlling the apparatus (not shown) according to the input signal of the identified user. The device may be provided at a place capable of performing wired / wireless communication with the first motion recognition device 100, or the first motion recognition device 100 may be provided in the device.

한편, 피사체의 움직임에 따라 이벤트를 출력하는 제1이미지 센서(111)는 주변 밝기에 영향을 받는다, 즉, 제1이미지 센서(111)는 주변 밝기가 어두운 경우 밝을 때 보다 상대적으로 출력하는 이벤트가 감소된다.On the other hand, the first image sensor 111, which outputs an event according to the movement of the subject, is affected by the ambient brightness. That is, when the ambient brightness is dark, .

주변 밝기의 영향을 줄이기 위해 제1동작 인식 장치(100)는 제1광원부(160)와 제1광 측정부(170) 중에서 하나 또는 모두를 더 포함할 수도 있다.The first motion recognition apparatus 100 may further include one or both of the first light source unit 160 and the first light measurement unit 170 to reduce the influence of the ambient brightness.

먼저, 제1광원부(160)만 제1동작 인식 장치(100)에 추가된 경우, 제1광원부(160)는 어두울 때에도 피사체의 움직임을 정확히 센싱하기 위해 피사체를 향한 광을 출력한다. 이때, 출력하는 광은 적외선 광이 될 수 있다.First, when only the first light source unit 160 is added to the first motion recognition device 100, the first light source unit 160 outputs light toward the subject to accurately sense the motion of the subject even when it is dark. At this time, the output light may be infrared light.

다음으로, 제1광원부(160)와 제1광 측정부(170)가 모두 제1동작 인식 장치(100)에 추가된 경우, 제1광 측정부(170)는 빛의 세기를 측정한다. 그리고, 제1광원부(160)는 제1광 측정부(170)에서 측정한 빛의 세기가 기설정한 광량보다 작은 경우, 광을 출력한다.Next, when both the first light source unit 160 and the first light measurement unit 170 are added to the first motion recognition apparatus 100, the first light measurement unit 170 measures the intensity of light. The first light source unit 160 outputs light when the intensity of the light measured by the first light measurement unit 170 is smaller than the predetermined light intensity.

먼저, 제1광 측정부(170)만 제1동작 인식 장치(100)에 추가된 경우, 제1광 측정부(170)는 빛의 세기를 측정한다. 그리고, 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)은 시공간 상관도의 고저(高低)를 판단하기에 앞서 빛의 세기를 고려해서 임계값을 설정한다. 즉, 제1 내지 제n시공간 상관기들(121-1, 121-2, …, 121-n)은 빛의 세기가 약하면, 임계값을 상대적으로 낮게 설정하고, 빛의 세기가 강하면, 임계값을 상대적으로 높게 설정할 수 있다.First, when only the first light measuring unit 170 is added to the first motion recognizing apparatus 100, the first light measuring unit 170 measures the intensity of light. The first to nth space time correlators 121-1, 121-2, ..., and 121-n set threshold values in consideration of light intensity before determining the high and low of the space-time correlation . That is, when the intensity of the light is weak, the first to nth space time correlators 121-1, 121-2, ..., 121-n set the threshold value relatively low, and when the intensity of the light is strong, It can be set relatively high.

또한, 도 1의 예에서, 제1동작 인식 장치(100)는 제어부(미도시)를 더 포함할 수 있다. 제어부(미도시)는 제1동작 인식 장치(100)의 전반적인 동작을 제어할 수 있다. 그리고, 제어부(미도시)는 제1움직임 추적부(120), 제1동작 패턴 판단부(130) 및 제1동작 제어부(150)의 기능을 수행할 수 있다. 제어부(미도시), 제1움직임 추적부(120), 제1동작 패턴 판단부(130) 및 제1동작 제어부(150)를 구분하여 도시한 것은 각 기능들을 구별하여 설명하기 위함이다. 따라서 제어부(미도시)는 제1움직임 추적부(120), 제1동작 패턴 판단부(130) 및 제1동작 제어부(150) 각각의 기능을 수행하도록 구성된(configured) 적어도 하나의 프로세서를 포함할 수 있다. 또한, 제어부(미도시)는 제1움직임 추적부(120), 제1동작 패턴 판단부(130) 및 제1동작 제어부(150) 각각의 기능 중 일부를 수행하도록 구성된(configured) 적어도 하나의 프로세서를 포함할 수 있다.Further, in the example of Fig. 1, the first motion recognition device 100 may further include a control unit (not shown). The control unit (not shown) can control the overall operation of the first motion recognition device 100. [ The control unit (not shown) may perform the functions of the first motion tracking unit 120, the first motion pattern determination unit 130, and the first motion control unit 150. The control unit (not shown), the first motion tracking unit 120, the first operation pattern determination unit 130, and the first operation control unit 150 are separately shown to distinguish the respective functions. Accordingly, the control unit (not shown) includes at least one processor configured to perform the functions of the first motion tracking unit 120, the first motion pattern determination unit 130, and the first motion control unit 150 . In addition, the control unit (not shown) may include at least one processor configured to perform some of the functions of the first motion tracking unit 120, the first motion pattern determination unit 130, and the first motion control unit 150, . ≪ / RTI >

도 8은 제2동작 인식 장치(200)의 구성 예를 나타낸다.Fig. 8 shows a configuration example of the second motion recognition device 200. Fig.

도 8을 참조하면, 피사체의 움직임에 따라 동작 패턴을 인식하는 제2동작 인식 장치(200)는 제1촬영부(811), 제2촬영부(812), 제3촬영부(813), 시차 산출부(820), 깊이 산출부(830), 합성부(840), 제2움직임 추적부(850), 제2동작 패턴 판단부(860), 제2패턴 저장부(870) 및 제2동작 제어부(880)를 포함할 수 있다.Referring to FIG. 8, the second motion recognition device 200 for recognizing an operation pattern according to the movement of a subject includes a first imaging unit 811, a second imaging unit 812, a third imaging unit 813, The second motion pattern determination unit 860, the second pattern storage unit 870, and the second motion estimation unit 860. The motion estimation unit 820, the depth calculation unit 830, the composition unit 840, the second motion tracking unit 850, And a control unit 880.

제1 내지 제3촬영부(811, 812, 813), 제2움직임 추적부(850), 제2동작 패턴 판단부(860), 제2패턴 저장부(870) 및 제2동작 제어부(880)는 도 1의 제1촬영부(110), 제1움직임 추적부(120), 제1동작 패턴 판단부(130), 제1패턴 저장부(140) 및 제1동작 제어부(150)와 유사하므로 상세한 설명은 생략한다.The second motion pattern determination unit 860, the second pattern storage unit 870, and the second motion control unit 880. The first to third imaging units 811, 812, and 813, the second motion tracking unit 850, Is similar to the first imaging unit 110, the first motion tracking unit 120, the first motion pattern determination unit 130, the first pattern storage unit 140, and the first motion control unit 150 of FIG. 1 A detailed description thereof will be omitted.

제2동작 인식 장치(200)는 복수 개의 촬영부를 포함할 수 있으며, 도 2에는 3개의 촬영부들(811, 812, 813)이 도시된다. 제1 내지 제3촬영부들(811, 812, 813)은 동일하거나 서로 다른 피사체를 촬영하며, 각각 제1 내지 제3이미지 센서(811a, 812a, 813a)를 구비한다. 제1 내지 제3이미지 센서(811a, 812a, 813a)는 움직임이 발생한 부분을 센싱하여 이벤트를 출력하며, 제1이미지 센서(111)와 유사한 동작을 수행한다.The second motion recognition apparatus 200 may include a plurality of photographing units, and three photographing units 811, 812 and 813 are illustrated in FIG. The first to third photographing units 811, 812 and 813 photograph the same or different subjects and have first to third image sensors 811a, 812a and 813a, respectively. The first to third image sensors 811a, 812a, and 813a sense an area where a motion occurs, output an event, and perform operations similar to those of the first image sensor 111. [

시차 산출부(820)는 제1 내지 제3이미지 센서들(811a, 812a, 813a)로부터 출력되는 이벤트들의 히스토그램을 이용하여, 제1 내지 제3이미지 센서들(811a, 812a, 813a) 간의 시차(disparity)를 산출할 수 있다. 예를 들어, 두 개의 제1 및 제2촬영부(811, 812)가 구비되고, 동일한 피사체를 촬영하는 경우, 제1촬영부(811) 및 제2촬영부(812)는 각각 사람의 좌안과 우안에 대응하며, 따라서, 산출되는 시차는 양안 시차일 수 있다.The parallax calculating unit 820 calculates parallax between the first to third image sensors 811a, 812a and 813a using the histogram of the events output from the first to third image sensors 811a, 812a and 813a disparity can be calculated. For example, in a case where two first and second photographing units 811 and 812 are provided, and the same subject is photographed, the first photographing unit 811 and the second photographing unit 812 are respectively disposed in the left and right And therefore, the calculated disparity can be a binocular disparity.

한편, 제1 내지 제3촬영부들(811, 812, 813)을 이용하여 동작 인식을 수행하는 경우, 제2동작 인식 장치(800)는 움직임이 발생한 부분의 움직임을 3차원적으로 인식할 수 있다. 즉, 제2동작 인식 장치(800)는 움직임이 발생한 부분의 상하 또는 좌우의 2차원적 위치 정보뿐만 아니라, 제1 내지 제3촬영부들(811, 812, 813)과 움직임이 발생한 부분까지의 깊이를 획득할 수 있다.
Meanwhile, when motion recognition is performed using the first to third photographing units 811, 812, and 813, the second motion recognition device 800 can three-dimensionally recognize the motion of the motion occurrence portion . In other words, the second motion recognition device 800 recognizes not only the two-dimensional position information of the upper and lower parts, the left and right parts of the motion occurrence part, but also the depth of the first to third photographing parts 811, 812, Can be obtained.

도 9는 제1 및 제2촬영부(811, 812)의 제1 및 제2이미지 센서들(811a, 812a)로부터 출력된 이벤트들의 일 예를 도시한 도면이다. 9 is a diagram showing an example of events output from the first and second image sensors 811a and 812a of the first and second photographing units 811 and 812. [

도 9를 참조하면, 제1이벤트는 제1이미지 센서(811a)로부터 출력되는 이벤트, 제2이벤트는 제2이미지 센서(812a)로부터 출력되는 이벤트이다. 제1이벤트와 제2이벤트의 분포 형태는 유사함을 알 수 있다.Referring to FIG. 9, the first event is an event output from the first image sensor 811a, and the second event is an event output from the second image sensor 812a. It can be seen that the distribution patterns of the first event and the second event are similar.

시차 산출부(820)는 제1이벤트에 대한 제1히스토그램과, 제2이벤트에 대한 제2히스토그램을 x축 어드레스를 기준으로 구한다.The parallax calculating unit 820 calculates a first histogram for the first event and a second histogram for the second event on the basis of the x-axis address.

도 10은 이벤트들의 히스토그램으로부터 시차를 구하는 과정을 설명하기 위한 도면이다.FIG. 10 is a diagram for explaining a process of obtaining a time difference from a histogram of events.

도 10을 참조하면, x축 어드레스는 제1이미지 센서(811a)를 이루는 센싱 유닛들의 위치 중 x축 좌표이며, Bins는 동시에 제1이벤트를 발생한 타겟 센싱 유닛들 중 동일한 x축 어드레스(xi)를 가지는 타겟 센싱 유닛들의 개수이다. 제1 히스토그램은 모든 x축 어드레스에 대해 Bins가 산출된 결과이다. 이는 제2히스토그램 역시 이와 동일하므로 상세한 설명은 생략한다.10, the x-axis address is the x-axis coordinate of the positions of the sensing units constituting the first image sensor 811a, Bins is the same x-axis address (x i ) among the target sensing units that simultaneously generate the first event, Lt; / RTI > The first histogram is the result of calculating Bins for all x-axis addresses. This is also the same for the second histogram, so a detailed description will be omitted.

시차 산출부(820)는 제1히스토그램과 제2히스토그램의 상호 연관성을 이용하여 양안 시차의 값을 구할 수 있다. 즉, 시차 산출부(820)는 제1히스토그램과 제2히스토그램 중 하나, 예를 들어, 제1히스토그램을, x축 방향으로 일정 오프셋 간격으로 이동하며, 이동된 후 제1히스토그램과 제2히스토그램의 상호 연관성을 구한다. 상호 연관성은 제1 및 제2히스토그램의 형태의 닮은 정도를 나타내며, 상호 연관성이 1이면 서로 일치함을 의미한다. 시차 산출부(820)는 제1히스토그램과 제2히스토그램과 가장 일치할 때, 즉, 상호 연관성이 1에 가장 근접하거나 1인 경우, 제1히스토그램이 이동한 거리를 양안 시차로 정한다.The parallax calculating unit 820 can obtain the value of the binocular parallax using the correlation between the first histogram and the second histogram. That is, the parallax calculating unit 820 moves one of the first histogram and the second histogram, for example, the first histogram in a predetermined offset interval in the x-axis direction, and then calculates the difference between the first histogram and the second histogram Obtain a correlation. The correlation shows the degree of resemblance of the shapes of the first and second histograms, and if the correlation is 1, it means that they match each other. The parallax calculating unit 820 determines the binocular parallax as the distance to which the first histogram has moved when the parallax coincides most with the first and second histograms, that is, when the correlation is closest to 1 or 1.

깊이 산출부(830)는 산출된 시차, 예를 들어, 양안 시차를 이용하여 움직임이 발생한 부분의 깊이를 산출할 수 있다. 시차로부터 깊이를 산출하는 알고리즘은 주지된 다양한 기술들 중 하나를 사용할 수 있다. 산출된 시차가 클수록 움직임이 발생한 부분이 제1 및 제2촬영부들(811, 812)과 가까이 있음을 의미한다. The depth calculating unit 830 can calculate the depth of a portion where a motion occurs using the calculated parallax, for example, binocular parallax. An algorithm for calculating the depth from the disparity can use one of a variety of well known techniques. The larger the calculated parallax, the closer the moving parts are to the first and second photographing units 811 and 812. [

합성부(840)는 시차 산출부(820)에서 산출된 시차를 기준으로 제1 및 제2이미지 센서(812a)로부터 출력되는 이벤트들을 합성하여, 이벤트들로 이루어지는 하나의 영상을 출력할 수 있다. 예를 들어, 합성부(840)는 도 10에 의해 산출된 양안 시차를 이용하여 움직임이 가장 큰 부분이 가장 잘 겹치도록, 제1 및 제2이미지 센서들(811a, 812a)로부터 출력되는 제1 및 제2이벤트들로 이루어지는 영상을 합성할 수 있다.The combining unit 840 may combine the events output from the first and second image sensors 812a based on the parallax calculated by the parallax calculating unit 820 and output one image of the events. For example, the synthesizing unit 840 synthesizes the first and second image signals outputted from the first and second image sensors 811a and 812a so as to best overlap the parts with the greatest motion using the binocular parallax calculated by FIG. And the second event.

제2움직임 추적부(850)는 합성부(840)로부터 출력되는 영상의 이벤트들로부터, 복수 개의 시공간 상관기들을 이용하여 움직임이 발생한 부분을 판단 및 움직임 궤적을 추적할 수 있다. 합성부(840)로부터 출력되는 영상을 이루는 이벤트들의 분포는 밀집된 영역과 덜 밀집된 영역으로 구분될 수 있다. 제2움직임 추적부(850)는 이벤트들의 밀집도가 가장 큰 영역의 이벤트들을 이용하여 움직임 궤적을 추적할 수 있다. 이벤트들의 밀집도가 큰 것은 움직임 정도가 큰 것을 의미하기 때문이다.The second motion tracking unit 850 can determine a motion occurrence portion and track a motion trajectory from the video events output from the combining unit 840 using a plurality of space time correlators. The distribution of the events constituting the image output from the synthesis unit 840 can be divided into a dense region and a less dense region. The second motion tracking unit 850 may track motion trajectories using events of the largest density of events. The larger the density of events, the greater the degree of motion.

제2움직임 추적부(850)는 움직임 궤적을 추적할 때, 깊이 산출부(830)를 통해 산출된 움직임이 발생한 부분의 깊이를 고려할 수 있다. 보다 상세히 설명하면, The second motion tracking unit 850 may take into account the depth of the portion where the motion is calculated through the depth calculating unit 830 when tracking the motion locus. More specifically,

제2움직임 추적부(850)에 포함된 시공간 상관기들은 시공간 상관도의 고저(高低)를 판단하기에 앞서 움직임이 발생한 부분의 깊이를 고려해서 임계값을 설정한다. 즉, 제2움직임 추적부(850)에 포함된 시공간 상관기들은 움직임이 발생한 부분의 깊이가 멀면, 임계값을 상대적으로 낮게 설정하고, 움직임이 발생한 부분의 깊이가 가까우면, 임계값을 상대적으로 높게 설정할 수 있다.The time-space correlators included in the second motion-tracking unit 850 set thresholds in consideration of the depth of the motion-occurring portion before determining the high-low of the space-time correlation. That is, if the depth of the motion-generating part is large, the space-time correlator included in the second motion-tracking unit 850 sets the threshold value relatively low, and if the depth of the motion- Can be set.

제2동작 패턴 판단부(860)는 제2움직임 추적부(850)에서 추적된 움직임 궤적으로부터, 움직임이 발생한 부분의 동작 패턴을 판단할 수 있다. 특히, 제2동작 패턴 판단부(860)는 제2패턴 저장부(870)에 저장된 동작 패턴들을 이용하여, 움직임이 발생한 부분의 동작 패턴을 판단할 수 있다.The second motion pattern determination unit 860 can determine an operation pattern of a motion portion from the motion locus tracked by the second motion tracking unit 850. Particularly, the second operation pattern determination unit 860 can determine the operation pattern of the portion where the motion occurs, using the operation patterns stored in the second pattern storage unit 870.

제2동작 제어부(880)는 판단된 동작 패턴을 참조하여 사용자의 입력 신호를 식별하고, 식별된 사용자의 입력 신호에 따라 기기(미도시)를 제어하기 위한 제어 명령을 기기에게 출력할 수 있다.The second operation control unit 880 can identify the input signal of the user by referring to the determined operation pattern and output a control command for controlling the device (not shown) according to the input signal of the identified user.

한편, 피사체의 움직임에 따라 이벤트를 출력하는 제1 내지 제3이미지 센서들(811a, 812a, 813a)은 주변 밝기에 영향을 받는다, 즉, 제1 내지 제3이미지 센서들(811a, 812a, 813a)은 주변 밝기가 어두운 경우 밝을 때 보다 상대적으로 출력하는 이벤트가 감소된다.On the other hand, the first to third image sensors 811a, 812a, and 813a that output events according to the movement of the subject are affected by the ambient brightness, that is, the first to third image sensors 811a, 812a, ), The relative output event is reduced when the surrounding brightness is dark.

주변 밝기의 영향을 줄이기 위해 제2동작 인식 장치(200)는 제2광원부(890)와 제2광 측정부(895) 중에서 하나 또는 모두를 더 포함할 수도 있다.The second motion recognition device 200 may further include one or both of the second light source unit 890 and the second light measurement unit 895 to reduce the influence of the ambient brightness.

먼저, 제2광원부(890)만 제2동작 인식 장치(200)에 추가된 경우, 제2광원부(890)는 어두울 때에도 피사체의 움직임을 정확히 센싱하기 위해 피사체를 향한 광을 출력한다. 이때, 출력하는 광은 적외선 광이 될 수 있다.First, when only the second light source unit 890 is added to the second motion recognition device 200, the second light source unit 890 outputs light toward the subject in order to accurately sense motion of the subject even when it is dark. At this time, the output light may be infrared light.

다음으로, 제2광원부(890)와 제2광 측정부(895)가 모두 제1동작 인식 장치(100)에 추가된 경우, 제2광 측정부(895)는 빛의 세기를 측정한다. 그리고, 제2광원부(890)는 제2광 측정부(895)에서 측정한 빛의 세기가 기설정한 광량보다 작은 경우, 광을 출력한다.Next, when both the second light source unit 890 and the second light measurement unit 895 are added to the first motion recognition apparatus 100, the second light measurement unit 895 measures the intensity of light. The second light source unit 890 outputs light when the intensity of the light measured by the second light measurement unit 895 is smaller than the predetermined light amount.

먼저, 제2광 측정부(895)만 제2동작 인식 장치(200)에 추가된 경우, 제2광 측정부(895)는 빛의 세기를 측정한다. 그리고, 제2움직임 추적부(850)에 포함된 시공간 상관기들은 시공간 상관도의 고저(高低)를 판단하기에 앞서 빛의 세기를 고려해서 임계값을 설정한다. 즉, 제2움직임 추적부(850)에 포함된 시공간 상관기들은 빛의 세기가 약하면, 임계값을 상대적으로 낮게 설정하고, 빛의 세기가 강하면, 임계값을 상대적으로 높게 설정할 수 있다.First, when only the second light measuring unit 895 is added to the second motion recognizing apparatus 200, the second light measuring unit 895 measures the intensity of light. The space time correlator included in the second motion tracking unit 850 sets a threshold value in consideration of the light intensity before determining the high and low of the space-time correlation. That is, if the intensity of the light is weak, the time-space correlators included in the second motion tracking unit 850 may set the threshold value relatively low and set the threshold value relatively high when the intensity of the light is strong.

또한, 도 8의 예에서, 제2동작 인식 장치(800)는 제어부(미도시)를 더 포함할 수 있다. 제어부(미도시)는 제2동작 인식 장치(800)의 전반적인 동작을 제어할 수 있다. 그리고, 제어부(미도시)는 시차 산출부(820), 깊이 산출부(830), 합성부(840), 제2움직임 추적부(850), 제2동작 패턴 판단부(860) 및 제2동작 제어부(880)의 기능을 수행할 수 있다. 제어부(미도시), 시차 산출부(820), 깊이 산출부(830), 합성부(840), 제2움직임 추적부(850), 제2동작 패턴 판단부(860) 및 제2동작 제어부(880)를 구분하여 도시한 것은 각 기능들을 구별하여 설명하기 위함이다. 따라서 제어부(미도시)는 시차 산출부(820), 깊이 산출부(830), 합성부(840), 제2움직임 추적부(850), 제2동작 패턴 판단부(860) 및 제2동작 제어부(880) 각각의 기능을 수행하도록 구성된(configured) 적어도 하나의 프로세서를 포함할 수 있다. 또한, 제어부(미도시)는 시차 산출부(820), 깊이 산출부(830), 합성부(840), 제2움직임 추적부(850), 제2동작 패턴 판단부(860) 및 제2동작 제어부(880) 각각의 기능 중 일부를 수행하도록 구성된(configured) 적어도 하나의 프로세서를 포함할 수 있다.In the example of Fig. 8, the second motion recognition device 800 may further include a control unit (not shown). The control unit (not shown) can control the overall operation of the second motion recognition device 800. The control unit (not shown) includes a parallax calculating unit 820, a depth calculating unit 830, a composing unit 840, a second motion tracking unit 850, a second motion pattern determining unit 860, And can perform the function of the control unit 880. A depth calculating unit 830, a combining unit 840, a second motion tracking unit 850, a second motion pattern determining unit 860, and a second motion controlling unit (not shown) 880) are shown separately for explaining the respective functions. Accordingly, the control unit (not shown) includes a parallax calculating unit 820, a depth calculating unit 830, a composing unit 840, a second motion tracking unit 850, a second motion pattern determining unit 860, And at least one processor configured to perform each function of the processor 880. The control unit (not shown) includes a parallax calculating unit 820, a depth calculating unit 830, a composing unit 840, a second motion tracking unit 850, a second motion pattern determining unit 860, And may include at least one processor configured to perform some of the functions of each of the controllers 880.

도 11은 제1동작 인식 장치의 동작 인식 방법을 설명하기 위한 흐름도이다.11 is a flowchart for explaining an operation recognition method of the first motion recognition device.

도 11의 각 단계는 도 1의 제1동작 인식 장치(100)의 제어부(미도시) 또는 프로세서(미도시)에 의해 동작될 수 있다.Each step of Fig. 11 can be operated by a control unit (not shown) or a processor (not shown) of the first motion recognition apparatus 100 of Fig.

1110단계에서, 제1동작 인식 장치는 광 측정부를 포함하는 경우 빛의 세기를 측정한다,In step 1110, the first motion recognition device measures the intensity of light when it includes a light measuring part,

1112단계에서. 제1동작 인식 장치는 피사체의 움직임을 센싱하기 위해 피사체를 향한 광을 출력한다. 이때, 1112단계의 광 출력은 피사체를 촬영할 때마다 발생할 수도 있고, 1110단계에서 측정한 빛의 세기가 기설정한 광량 미만인 경우에만 출력될 수도 있다.In step 1112, The first motion recognition device outputs light toward the subject to sense motion of the subject. At this time, the light output of step 1112 may occur every time the subject is photographed, or may be output only when the intensity of light measured in step 1110 is less than a predetermined light amount.

상기 1110단계와 1112단계는 선택적인 단계로 동작 인식 방법에 포함되지 않을 수도 있고, 두 단계의 일부만 포함될 수도 있다.Steps 1110 and 1112 may be optional and may not be included in the motion recognition method, or may include only a portion of the two steps.

1114단계에서, 제1동작 인식 장치는 카메라를 이용하여 피사체를 촬영하며, 피사체를 촬영 중 움직임이 발생한 부분에 대응하는 센싱 유닛을 통해 이벤트들을 대응하는 시공간 상관기들에게 출력한다. 카메라는 복수 개의 센싱 유닛들이 어레이된 이미지 센서를 구비하며, 이미지 센서는 광 강도의 변화량을 통해 움직임이 발생한 부분의 센싱 유닛이 이벤트를 출력하도록 한다.In step 1114, the first motion recognition device captures a subject using a camera, and outputs the events to the corresponding space time correlators through a sensing unit corresponding to the part where the motion occurred during the shooting of the subject. The camera has an image sensor in which a plurality of sensing units are arrayed, and the image sensor allows the sensing unit of the part where the motion occurs to output an event through the amount of change in light intensity.

1116단계에서 시공간 상관도의 고저(高低)를 판단하는 척도인 임계값을 설정한다. 이때, 임계값은 실험에 의해 기설정된 값으로 고정될 수도 있고, 1110단계에서 측정한 빛의 세기에 따라 가변 될 수도 있다.In step 1116, a threshold, which is a scale for determining the high and low of the space-time correlation, is set. At this time, the threshold value may be fixed to a preset value by the experiment, or may be varied according to the intensity of the light measured in step 1110.

1118단계에서, 제1동작 인식 장치는 입력되는 이벤트들을 이용하여 시공간 상관기들의 내부 상태값을 증가시킨다. 내부 상태값은 이벤트들 간의 시공간 상관도를 나타내는 척도가 될 수 있다.In step 1118, the first motion recognition device uses the input events to increase the internal state value of space time correlators. The internal state value may be a measure of the time-space correlation between events.

1120단계에서, 제1동작 인식 장치는 시공간 상관기들 별로 내부 상태값과 임계값을 비교한다.In step 1120, the first motion recognition device compares the internal state value and the threshold value for each space-time correlators.

1120단계의 비교결과, 증가된 내부 상태값이 설정된 임계값을 초과하면, 1122단계에서, 제1동작 인식 장치는 해당 시공간 상관기의 시공간 상관도가 높은 것으로 판단하고, 출력값 '1'을 출력한다.If it is determined in step 1120 that the increased internal state value exceeds the set threshold value, the first motion recognition apparatus determines that the space-time correlation of the space-time correlator is high and outputs the output value '1' in step 1122.

1120단계의 비교결과, 증가된 내부 상태값이 설정된 임계값을 이하하면, 1124단계에서, 제1동작 인식 장치는 해당 시공간 상관기의 시공간 상관도가 낮은 것으로 판단하고, 출력값 '0'을 출력한다.If it is determined in step 1120 that the increased internal state value is less than the preset threshold value, the first motion recognition device determines that the space-time correlation of the space-time correlator is low and outputs the output value '0' in step 1124.

1126단계에서, 제1동작 인식 장치는 출력값이 '1'인 시공간 상관기들을 그룹핑하여 클러스터를 생성한다. 이 때, 제1동작 인식 장치는 주변의 시공간 상관기들과 오버랩되는 시공간 상관기들을 하나의 클러스터로 그룹핑한다.In step 1126, the first motion recognition device generates clusters by grouping space time correlators having an output value of '1'. At this time, the first motion recognition apparatus groups the space time correlators overlapping with the surrounding space-time correlators into one cluster.

1128단계에서, 제1동작 인식 장치는 각 클러스터의 중심 위치를 산출한다. 예를 들어, 제1동작 인식 장치는 클러스터에 포함된 각 시공간 상관기의 위치와 상수를 이용하여 클러스터의 중심 위치를 구할 수 있다.In step 1128, the first motion recognition device calculates the center position of each cluster. For example, the first motion recognition apparatus can obtain the center position of the cluster using the position and the constant of each space-time correlator included in the cluster.

1130단계에서, 제1동작 인식 장치는 산출된 중심 위치와 이전에 산출된 클러스터의 중심 위치를 연계하여 움직임이 발생한 부분의 움직임 궤적을 추적한다.In step 1130, the first motion recognition device tracks the motion locus of the part where the motion occurs by associating the calculated center position with the center position of the previously calculated cluster.

1132단계에서, 제1동작 인식 장치는 추적된 움직임 궤적으로부터 동작 패턴을 표현하기 위한 특징 성분들을 추출한다.In step 1132, the first motion recognition device extracts the feature components for expressing the motion pattern from the tracked motion trajectory.

1134단계에서, 제1동작 인식 장치는 추출된 특징 성분들과 기저장된 동작 패턴들을 비교하여, 움직임이 발생한 부분의 동작 패턴을 판단하고, 판단된 동작 패턴을 참조하여 기기(미도시)의 동작을 제어할 수 있다. 기기(미도시)는 제1동작 인식 장치와 연결되어 있거나, 기기 내에 제1동작 인식 장치가 구비될 수 있다.In step 1134, the first motion recognition device compares the extracted feature components with pre-stored motion patterns to determine an motion pattern of a motion-generated part, and refers to the determined motion pattern to perform motion of the device (not shown) Can be controlled. The device (not shown) may be connected to the first motion recognition device, or a first motion recognition device may be provided in the device.

도 12는 제2동작 인식 장치의 동작 인식 방법을 설명하기 위한 흐름도이다.12 is a flowchart for explaining an operation recognition method of the second operation recognition device.

도 12의 각 단계는 도 8의 제2동작 인식 장치(800)의 제어부(미도시) 또는 프로세서(미도시)에 의해 동작될 수 있다.Each step of Fig. 12 can be operated by a control unit (not shown) or a processor (not shown) of the second motion recognition device 800 of Fig.

1210단계에서, 제2동작 인식 장치는 광 측정부를 포함하는 경우 빛의 세기를 측정한다,In step 1210, the second motion recognition device measures the intensity of the light when it includes a light measuring part,

1212단계에서. 제1동작 인식 장치는 피사체의 움직임을 센싱하기 위해 피사체를 향한 광을 출력한다. 이때, 1212단계의 광 출력은 피사체를 촬영할 때마다 발생할 수도 있고, 1210단계에서 측정한 빛의 세기가 기설정한 광량 미만인 경우에만 출력될 수도 있다.In step 1212. The first motion recognition device outputs light toward the subject to sense motion of the subject. At this time, the light output of step 1212 may be generated each time a subject is photographed, or may be output only when the intensity of light measured in step 1210 is less than a predetermined light amount.

상기 1210단계와 1212단계는 선택적인 단계로 동작 인식 방법에 포함되지 않을 수도 있고, 두 단계의 일부만 포함될 수도 있다.Steps 1210 and 1212 may be optional steps or may not be included in the motion recognition method, or may include only a part of the two steps.

1214단계에서, 제2동작 인식 장치는 복수 개의 카메라를 이용하여 피사체를 촬영하며, 피사체 중 움직임이 발생한 부분에 대응하는 타겟 센싱 유닛을 통해 이벤트들을 해당 시공간 상관기들에게 출력한다.In operation 1214, the second motion recognition device captures a subject using a plurality of cameras, and outputs events to the space-time correlators through a target sensing unit corresponding to a portion in which motion occurs in the subject.

1216단계에서, 제2동작 인식 장치는 복수 개의 카메라에 구비된 이미지 센서들로부터 출력되는 이벤트들에 대한 히스토그램을 생성한다.In operation 1216, the second motion recognition device generates a histogram of events output from the image sensors provided in the plurality of cameras.

1218단계에서, 제2동작 인식 장치는 생성된 히스토그램들 중 하나를 x축 방향으로 일정 오프셋 간격으로 이동하며, 이동된 후 히스토그램들 간의 상호 연관성을 구한다. In step 1218, the second motion recognition apparatus moves one of the generated histograms in the x-axis direction at a predetermined offset interval, and obtains the correlation between the histograms after being moved.

1220단계에서, 제2동작 인식 장치는 상호 연관성이 가장 클 때, 즉, 상호 연관성이 1에 가장 근접하거나 1인 경우, 히스토그램이 x축 방향으로 이동한 거리(즉, 오프셋)를 시차로 정한다.In step 1220, the second motion recognition apparatus time-lags the distance (i.e., the offset) in which the histogram moves in the x-axis direction when the correlation is greatest, i.e., the closeness is 1 or 1.

1222단계에서, 제2동작 인식 장치는 산출된 시차를 이용하여 움직임이 발생한 부분의 깊이를 산출할 수 있다.In step 1222, the second motion recognition device can calculate the depth of the portion where the motion occurs using the calculated parallax.

1224단계에서, 제2동작 인식 장치는 산출된 시차를 기준으로, 1214단계로부터 입력되는 이벤트들을 합성하여, 이벤트들로 이루어지는 하나의 영상을 출력할 수 있다. In operation 1224, the second motion recognition apparatus may synthesize events input from operation 1214 on the basis of the calculated time difference, and output one image including the events.

1226단계에서 시공간 상관도의 고저(高低)를 판단하는 척도인 임계값을 설정한다. 이때, 임계값은 실험에 의해 기설정된 값으로 고정될 수도 있고, 1210단계에서 측정한 빛의 세기에 따라 가변 될 수도 있다.In step 1226, a threshold value, which is a scale for determining the high and low of the space-time correlation, is set. At this time, the threshold value may be fixed to a preset value by an experiment, or may be variable according to the intensity of light measured in step 1210.

복수 개의 카메라에 의해 획득되는 이벤트들로 이루어지는 영상이 하나로 합성되고, 임계값이 설정되면, 제2동작 인식 장치는 도 11의 1118단계로 진입하여 움직임 궤적을 추적하고 동작을 제어하는 동작을 수행할 수 있다. 즉, 이벤트들이 합성된 이후의 동작은 도 11을 참조하여 설명한 동작과 유사하므로 상세한 설명은 생략한다.When a threshold value is set, the second motion recognition apparatus proceeds to step 1118 of FIG. 11 to track motion trajectory and control operation of the motion . That is, the operation after the events are synthesized is similar to the operation described with reference to FIG. 11, and a detailed description thereof will be omitted.

상술한 제1 및 제2동작 인식 장치는 TV, 컴퓨터, Game Console등 다양한 어플리케이션 프로그램을 활용하는 기기에서 기존의 Remote Controller를 대체하여 응용될 수 있다.The above-described first and second motion recognition apparatuses can be applied to replace an existing remote controller in an apparatus using various application programs such as a TV, a computer, and a game console.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. The methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and configured for the present invention or may be available to those skilled in the art of computer software.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

100: 제1동작 인식 장치 110: 제1촬영부
120: 제1움직임 추적부 130: 제1동작 패턴 판단부
140: 제1패턴 저장부 150: 제1동작 제어부
160: 제1광원부 170: 제1광 측정부
121-1, 121-2, …, 121-n: 제1 내지 제n시공간 상관기들
100: first motion recognition device 110: first photographing part
120: first motion tracking unit 130: first motion pattern determining unit
140: first pattern storage unit 150: first operation control unit
160: first light source unit 170: first light measuring unit
121-1, 121-2, ... , 121-n: first to nth space time correlators

Claims (28)

피사체 중 움직임이 발생한 부분을 센싱하여 이벤트들을 출력하는 이미지 센서;
상기 출력되는 이벤트들의 시공간 상관도를 이용하여 상기 움직임이 발생한 부분의 움직임 궤적을 추적하는 움직임 추적부; 및
상기 추적된 움직임 궤적으로부터 상기 움직임이 발생한 부분의 동작 패턴을 판단하는 동작 패턴 판단부
를 포함하는, 동작 인식 장치.
An image sensor that senses a part where a motion occurs in a subject and outputs events;
A motion tracking unit for tracking a motion trajectory of a portion where the motion occurs using the time-space correlation of the output events; And
An operation pattern determination unit for determining an operation pattern of a portion where the motion has occurred from the tracked motion trajectory,
And a motion recognition device.
제1항에 있어서,
상기 피사체의 움직임을 센싱하기 위해 상기 피사체를 향한 광을 출력하는 광원부
를 더 포함하는, 동작 인식 장치.
The method according to claim 1,
And a light source unit for outputting light toward the subject to sense motion of the subject,
Further comprising:
제2항에 있어서,
상기 광원부는,
적외선 광을 출력하는,
동작 인식 장치.
3. The method of claim 2,
The light source unit includes:
Infrared light,
Motion recognition device.
제1항에 있어서,
빛의 세기를 측정하는 광 측정부; 및
상기 광 측정부에서 측정한 상기 빛의 세기가 기설정한 광량보다 작은 경우, 광을 출력하는 광원부
를 더 포함하는, 동작 인식 장치.
The method according to claim 1,
A light measuring unit for measuring intensity of light; And
When the intensity of the light measured by the light measuring unit is smaller than a preset light amount,
Further comprising:
제1항에 있어서,
상기 이미지 센서가 복수 개인 경우, 상기 복수 개의 이미지 센서들로부터 출력되는 이벤트들의 히스토그램을 이용하여, 상기 이미지 센서들 간의 시차를 산출하는 시차 산출부; 및
상기 산출된 시차를 기준으로 상기 복수 개의 이미지 센서들로부터 출력되는 이벤트들을 합성하는 합성부
를 더 포함하는, 동작 인식 장치.
The method according to claim 1,
A parallax calculating unit for calculating a parallax between the image sensors using a histogram of events output from the plurality of image sensors when the image sensors are plural; And
And a synthesizer for synthesizing events output from the plurality of image sensors on the basis of the calculated parallax,
Further comprising:
제5항에 있어서,
상기 산출된 시차를 이용하여 상기 움직임이 발생한 부분의 깊이를 산출하는 깊이 산출부
를 더 포함하는, 동작 인식 장치.
6. The method of claim 5,
And a depth calculating unit for calculating a depth of the portion where the motion is generated using the calculated parallax,
Further comprising:
제1항에 있어서,
상기 이미지 센서는, 복수 개의 센싱 유닛들로 이루어지며, 상기 복수 개의 센싱 유닛들 중 상기 움직임이 발생한 부분에 대응하는 타겟 센싱 유닛들이 상기 이벤트들을 출력하는, 동작 인식 장치.
The method according to claim 1,
Wherein the image sensor comprises a plurality of sensing units and target sensing units corresponding to a portion in which the motion has occurred out of the plurality of sensing units output the events.
제7항에 있어서,
상기 움직임 추적부는,
상기 타겟 센싱 유닛들로부터 입력되는 이벤트들을 이용하여, 상기 타겟 센싱 유닛들 간의 시공간 상관도를 각각 산출하는 복수 개의 시공간 상관기들; 및
상기 각각 산출되는 시공간 상관도의 고저(高低)를 이용하여, 상기 움직임이 발생한 부분의 움직임 궤적을 추적하는 움직임 궤적 추적부
를 포함하는, 동작 인식 장치.
8. The method of claim 7,
The motion-
A plurality of space-time correlators for respectively calculating a space-time correlation between the target sensing units using events input from the target sensing units; And
And a motion trajectory tracking unit for tracking the motion trajectory of the part in which the motion occurs using the calculated high and low values of the space-
And a motion recognition device.
제8항에 있어서,
상기 복수 개의 시공간 상관기들은, 각각 상기 타겟 센싱 유닛들 간의 시공간 상관도를 나타내는 내부 상태값을 가지며, 상기 이벤트들이 입력될 때마다 상기 내부 상태값을 증가시키고, 상기 증가된 내부 상태값과 설정된 임계값을 비교하여 상기 타겟 센싱 유닛들 간의 시공간 상관도의 고저를 판단하는, 동작 인식 장치.
9. The method of claim 8,
Wherein the plurality of space time correlators each have an internal state value indicating a time-space correlation between the target sensing units, incrementing the internal state value each time the events are input, And determines the level of the time-space correlation between the target sensing units.
제9항에 있어서,
빛의 세기를 측정하는 광 측정부를 더 포함하되,
상기 복수 개의 시공간 상관기들은,
상기 빛의 세기를 고려해서 상기 임계값을 설정하는
동작 인식 장치.
10. The method of claim 9,
And a light measuring unit for measuring intensity of light,
Wherein the plurality of space-
The threshold value is set in consideration of the intensity of the light
Motion recognition device.
제9항에 있어서,
상기 이미지 센서가 복수 개인 경우, 상기 복수 개의 이미지 센서들 간의 시차를 이용하여 상기 움직임이 발생한 부분의 깊이를 산출하는 깊이 산출부를 더 포함하되,
상기 복수 개의 시공간 상관기들은,
상기 움직임이 발생한 부분의 깊이를 고려해서 상기 임계값을 설정하는
동작 인식 장치.
10. The method of claim 9,
Further comprising a depth calculating unit for calculating a depth of a portion where the motion occurs by using a parallax between the plurality of image sensors when the image sensors are plural,
Wherein the plurality of space-
The threshold value is set in consideration of the depth of the portion where the motion occurs
Motion recognition device.
제8항에 있어서,
상기 움직임 궤적 추적부는, 상기 복수 개의 시공간 상관기들 중 상기 타겟 센싱 유닛들 간의 시공간 상관도가 높은 시공간 상관기들을 그룹핑하여 하나의 클러스터-상기 움직임이 발생한 부분에 대응하는 형상임-를 생성하고, 상기 생성된 클러스터의 중심 위치와 이전에 산출된 클러스터의 중심 위치를 연계하여 상기 움직임이 발생한 부분의 움직임 궤적을 추적하는, 동작 인식 장치.
9. The method of claim 8,
Wherein the motion trajectory tracking unit generates one cluster - a shape corresponding to a portion where the motion occurs, by grouping space time correlators having high temporal correlation between the target sensing units among the plurality of space time correlators, Wherein the motion locus of the part in which the motion is generated is correlated with the center position of the cluster that has been previously calculated and the center position of the previously calculated cluster.
제8항에 있어서,
상기 복수 개의 시공간 상관기들은, 상기 이미지 센서의 분할된 영역들과 각각 매핑되며, 상기 분할된 영역들은 적어도 하나의 주변 영역과 오버랩되는, 동작 인식 장치.
9. The method of claim 8,
Wherein the plurality of space-time correlators are each mapped to the divided regions of the image sensor, and the divided regions overlap with at least one surrounding region.
제1항에 있어서,
상기 판단된 동작 패턴을 참조하여 제어 명령을 출력하는 동작 제어부
를 더 포함하는, 동작 인식 장치.
The method according to claim 1,
An operation control unit for outputting a control command with reference to the determined operation pattern,
Further comprising:
이미지 센서에 의해 촬영되는 피사체 중 움직임이 발생한 부분을 센싱하여 이벤트들을 출력하는 단계;
상기 출력되는 이벤트들의 시공간 상관도를 이용하여 상기 움직임이 발생한 부분의 움직임 궤적을 추적하는 단계; 및
상기 추적된 움직임 궤적으로부터 상기 움직임이 발생한 부분의 동작 패턴을 판단하는 단계
를 포함하는, 동작 인식 방법.
Sensing events of a subject photographed by the image sensor and outputting events;
Tracing a motion trajectory of the motion-generated portion using the time-space correlation diagram of the output events; And
Determining an action pattern of the motion-generated portion from the traced motion trajectory
Gt; a < / RTI >
제15항에 있어서,
상기 이벤트들을 출력하는 단계 이전에,
상기 피사체의 움직임을 센싱하기 위해 상기 피사체를 향한 광을 출력하는 단계
를 더 포함하는, 동작 인식 방법.
16. The method of claim 15,
Prior to outputting the events,
And outputting light toward the subject to sense motion of the subject
Further comprising the steps of:
제15항에 있어서,
상기 이벤트들을 출력하는 단계 이전에,
빛의 세기를 측정하는 단계; 및
상기 측정된 빛의 세기가 기설정한 광량보다 작은 경우, 광을 출력하는 단계
를 더 포함하는, 동작 인식 방법.
16. The method of claim 15,
Prior to outputting the events,
Measuring the intensity of light; And
When the intensity of the measured light is smaller than the predetermined light amount,
Further comprising the steps of:
제15항에 있어서,
상기 이미지 센서가 복수 개인 경우, 상기 복수 개의 이미지 센서들로부터 출력되는 이벤트들의 히스토그램을 이용하여, 상기 이미지 센서들 간의 시차를 산출하는 단계; 및
상기 산출된 시차를 기준으로 상기 복수 개의 이미지 센서들로부터 출력되는 이벤트들을 합성하는 단계
를 더 포함하는, 동작 인식 방법.
16. The method of claim 15,
Calculating a parallax between the image sensors using a histogram of events output from the plurality of image sensors when the image sensors are plural; And
Synthesizing events output from the plurality of image sensors based on the calculated parallax;
Further comprising the steps of:
제18항에 있어서,
상기 산출된 시차를 이용하여 상기 움직임이 발생한 부분의 깊이를 산출하는 단계
를 더 포함하는, 동작 인식 방법.
19. The method of claim 18,
Calculating a depth of the motion-generated portion using the calculated parallax
Further comprising the steps of:
제15항에 있어서,
상기 이미지 센서는, 복수 개의 센싱 유닛들로 이루어지며,
상기 이벤트들을 포함하는 단계에서, 상기 복수 개의 센싱 유닛들 중 상기 움직임이 발생한 부분에 대응하는 타겟 센싱 유닛들이 상기 이벤트들을 출력하는, 동작 인식 방법.
16. The method of claim 15,
Wherein the image sensor comprises a plurality of sensing units,
Wherein, in the step of including the events, target sensing units corresponding to a portion of the plurality of sensing units where the motion occurs output the events.
제20항에 있어서,
복수 개의 시공간 상관기들이, 상기 타겟 센싱 유닛들로부터 입력되는 이벤트들을 이용하여, 상기 타겟 센싱 유닛들 간의 시공간 상관도를 각각 산출하는 단계
를 더 포함하며,
상기 추적하는 단계는,
상기 각각 산출되는 시공간 상관도의 고저(高低)를 이용하여, 상기 움직임이 발생한 부분의 움직임 궤적을 추적하는, 동작 인식 방법.
21. The method of claim 20,
Calculating a space-time correlation between the target sensing units, using a plurality of time-space correlators, the events input from the target sensing units
Further comprising:
Wherein the tracing comprises:
Wherein the movement trajectory of the portion where the motion occurs is tracked using the calculated high and low values of the space-time correlation.
제21항에 있어서,
상기 복수 개의 시공간 상관기들은 각각 상기 타겟 센싱 유닛들 간의 시공간 상관도를 나타내는 내부 상태값을 가지며,
상기 산출하는 단계는,
상기 이벤트들이 입력될 때마다 상기 내부 상태값을 증가시키고, 상기 증가된 내부 상태값과 설정된 임계값을 비교하여 상기 타겟 센싱 유닛들 간의 시공간 상관도의 고저를 판단하는, 동작 인식 방법.
22. The method of claim 21,
Wherein the plurality of space time correlators each have an internal state value indicating a space-time correlation between the target sensing units,
Wherein the calculating step comprises:
Wherein the internal state value is incremented each time the events are input, and the increase or decrease in the space-time correlation between the target sensing units is determined by comparing the increased internal state value with a preset threshold value.
제22항에 있어서,
빛의 세기를 측정하는 단계를 더 포함하고,
상기 산출하는 단계는,
상기 빛의 세기를 고려해서 상기 임계값을 설정하는
동작 인식 방법.
23. The method of claim 22,
Further comprising the step of measuring the intensity of light,
Wherein the calculating step comprises:
The threshold value is set in consideration of the intensity of the light
Motion recognition method.
제22항에 있어서,
상기 이미지 센서가 복수 개인 경우, 상기 복수 개의 이미지 센서들 간의 시차를 이용하여 상기 움직임이 발생한 부분의 깊이를 산출하는 단계를 더 포함하고,
상기 산출하는 단계는,
상기 움직임이 발생한 부분의 깊이를 고려해서 상기 임계값을 설정하는
동작 인식 방법.
23. The method of claim 22,
Further comprising the step of calculating a depth of a portion where the motion occurs by using a parallax between the plurality of image sensors when the image sensors are plural,
Wherein the calculating step comprises:
The threshold value is set in consideration of the depth of the portion where the motion occurs
Motion recognition method.
제21항에 있어서,
상기 움직임 궤적을 추적하는 단계는,
상기 복수 개의 시공간 상관기들 중 상기 타겟 센싱 유닛들 간의 시공간 상관도가 높은 시공간 상관기들을 그룹핑하여 하나의 클러스터-상기 움직임이 발생한 부분에 대응하는 형상임-를 생성하는 단계;
상기 생성된 클러스터의 중심 위치를 산출하는 단계; 및
상기 산출된 중심 위치와 이전에 산출된 클러스터의 중심 위치를 연계하여 상기 움직임이 발생한 부분의 움직임 궤적을 추적하는 단계
를 포함하는, 동작 인식 방법.
22. The method of claim 21,
The step of tracking the motion trajectory includes:
Grouping space-time correlators having a high time-space correlation between the target sensing units among the plurality of space-time correlators to generate one cluster - a shape corresponding to a portion where the motion occurs;
Calculating a center position of the generated cluster; And
Tracking the motion locus of the part in which the motion has occurred by associating the calculated center position with the center position of the previously calculated cluster
Gt; a < / RTI >
제21항에 있어서,
상기 복수 개의 시공간 상관기들은 상기 이미지 센서의 분할된 영역들과 각각 매핑되며, 상기 분할된 영역들은 적어도 하나의 주변 영역과 오버랩되는, 동작 인식 방법.
22. The method of claim 21,
Wherein the plurality of space-time correlators are each mapped to the divided regions of the image sensor, and wherein the divided regions overlap with at least one surrounding region.
제15항에 있어서,
상기 판단된 동작 패턴을 참조하여 제어 명령을 출력하는 단계
를 더 포함하는, 동작 인식 방법.
16. The method of claim 15,
Outputting a control command with reference to the determined operation pattern
Further comprising the steps of:
피사체 중 움직임이 발생한 부분을 센싱하여 이벤트들을 출력하는 이미지 센서; 및
상기 출력되는 이벤트들의 시공간 상관도를 이용하여 상기 움직임이 발생한 부분의 움직임 궤적을 추적하고, 상기 추적된 움직임 궤적으로부터 상기 움직임이 발생한 부분의 동작 패턴을 판단하고, 상기 판단된 동작 패턴을 참조하여 대응하는 사용자의 입력 신호를 식별하도록 구성된(configured) 적어도 하나의 프로세서,
를 포함하는, 사용자의 동작 입력을 감지하는 동작 인식 장치.
An image sensor that senses a part where a motion occurs in a subject and outputs events; And
A motion trajectory of a portion where the motion is generated by using a time-space correlation diagram of the output events, determining an operation pattern of the motion-generated portion from the traced motion trajectory, referring to the determined motion pattern, At least one processor configured to identify a user's input signal,
And an operation input unit for inputting an operation input of the user.
KR1020110031492A 2010-09-10 2011-04-06 Method and Apparatus for Motion Recognition KR101779564B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/229,429 US8698092B2 (en) 2010-09-10 2011-09-09 Method and apparatus for motion recognition
US14/199,164 US9317127B2 (en) 2010-09-10 2014-03-06 Method and apparatus for motion recognition

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100089040 2010-09-10
KR20100089040 2010-09-10

Publications (2)

Publication Number Publication Date
KR20120026956A KR20120026956A (en) 2012-03-20
KR101779564B1 true KR101779564B1 (en) 2017-09-20

Family

ID=46132613

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110031492A KR101779564B1 (en) 2010-09-10 2011-04-06 Method and Apparatus for Motion Recognition

Country Status (1)

Country Link
KR (1) KR101779564B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102017688B1 (en) * 2012-07-18 2019-09-04 삼성전자주식회사 Proximity sensor and proximity sensing method using light quantity of reflection light
US9767571B2 (en) 2013-07-29 2017-09-19 Samsung Electronics Co., Ltd. Apparatus and method for analyzing image including event information
KR102129916B1 (en) * 2013-07-29 2020-08-05 삼성전자주식회사 Apparatus and method for analyzing an image including event information
KR102169482B1 (en) * 2014-01-08 2020-10-23 엘지전자 주식회사 Video display device and operating method thereof
KR102265143B1 (en) * 2014-05-16 2021-06-15 삼성전자주식회사 Apparatus and method for processing input
KR102357680B1 (en) * 2014-11-17 2022-02-03 삼성전자주식회사 Method and device to detect movement of object based on event
KR102433931B1 (en) 2015-07-30 2022-08-19 삼성전자주식회사 Method and device for recognizing motion

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100188548A1 (en) 2009-01-28 2010-07-29 Robinson Ian N Systems for Capturing Images Through A Display

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100188548A1 (en) 2009-01-28 2010-07-29 Robinson Ian N Systems for Capturing Images Through A Display

Also Published As

Publication number Publication date
KR20120026956A (en) 2012-03-20

Similar Documents

Publication Publication Date Title
KR101792866B1 (en) Method and Apparatus for Motion Recognition using event sensor and color sensor
KR101779564B1 (en) Method and Apparatus for Motion Recognition
US8698092B2 (en) Method and apparatus for motion recognition
KR101880998B1 (en) Apparatus and Method for motion recognition with event base vision sensor
CN107466411B (en) Two-dimensional infrared depth sensing
CN108156450B (en) Method for calibrating a camera, calibration device, calibration system and machine-readable storage medium
CN109076145B (en) Automatic range control for active illumination depth camera
KR100776801B1 (en) Gesture recognition method and system in picture process system
US9465444B1 (en) Object recognition for gesture tracking
US9721343B2 (en) Method and system for gesture identification based on object tracing
CN106471523B (en) Color identification using infrared imaging
CN111353355B (en) Motion tracking system and method
JP6454984B2 (en) Hand position determination method and device based on depth image
KR20150038877A (en) User interfacing apparatus and method using an event corresponding a user input
US12131544B2 (en) Method for capturing motion of an object and a motion capture system
JP2006244272A (en) Hand position tracking method, device and program
CN104459681B (en) Adaptive distance estimations
KR101289883B1 (en) System and method for generating mask image applied in each threshold in region
CN112183271A (en) Image processing method and device
US20240192489A1 (en) Eye tracking system and a corresponding method
CN116820251B (en) Gesture track interaction method, intelligent glasses and storage medium
WO2024194944A1 (en) Information processing device, system, information processing method, information processing program, and computer system
CN112445325A (en) Virtual touch method and device, computer equipment and storage medium
KR20150031522A (en) A Template-Matching-Based High-Speed Face Tracking Method Using Depth Information
Odeh et al. Low-cost infrared interaction device based on motion tracking

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant