Nothing Special   »   [go: up one dir, main page]

KR20020017576A - System and method for motion capture using camera image - Google Patents

System and method for motion capture using camera image Download PDF

Info

Publication number
KR20020017576A
KR20020017576A KR1020000051006A KR20000051006A KR20020017576A KR 20020017576 A KR20020017576 A KR 20020017576A KR 1020000051006 A KR1020000051006 A KR 1020000051006A KR 20000051006 A KR20000051006 A KR 20000051006A KR 20020017576 A KR20020017576 A KR 20020017576A
Authority
KR
South Korea
Prior art keywords
information
image
motion
target object
digital signal
Prior art date
Application number
KR1020000051006A
Other languages
Korean (ko)
Inventor
정의권
Original Assignee
이준서
주식회사 엑스코드
이영진
(주)퍼스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이준서, 주식회사 엑스코드, 이영진, (주)퍼스트 filed Critical 이준서
Priority to KR1020000051006A priority Critical patent/KR20020017576A/en
Publication of KR20020017576A publication Critical patent/KR20020017576A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A motion capture system and a method using images are provided to extract motion information of an object from information learned by analyzing the motion of the object using images to apply the motion to a virtual character. CONSTITUTION: A motion capture system using images includes an image capturing means(10) for capturing an image of an object, a digital signal converter(20) for converting the captured image into a digital signal, and a digital signal processor(30) for processing the digital signal to analyze the image so as to recognize a corresponding object from information learned in advance and calculating coordinates of each of parts of the recognized object. The system further has a main controller(50) for extracting motion information of the object from the input image, controlling a series of processes for applying the motion information to a corresponding character, and outputting coordinate information of the recognized object, a character control processor(60) for determining the motion of the character, and a memory(40) for storing the learned information with respect to the object and calculation information used for calculating motion tracking coordinates from the input image.

Description

화상을 이용한 모션 캡처 시스템과 모션 캡처 방법{System and method for motion capture using camera image}System and method for motion capture using camera image}

본 발명은 움직임 대상(object)의 움직임(motion)을 추적하여 가상의 캐릭터의 움직임에 적용하기 위한 모션 캡처(motion capture) 장치에 관한 것으로, 영상 취득수단인 카메라를 이용하여 대상 물체에 대한 이미지를 취득하고, 이로부터 움직임을 추적하여 그 움직움을 가상의 캐릭터에 적용할 수 있도록 하는 화상을 이용한 모션 캡처 시스템과 모션 캡처 방법에 관한 것이다.The present invention relates to a motion capture device for tracking a motion of a moving object and applying the motion to a virtual character. The present invention relates to a motion capture system and a motion capture method using an image that can acquire and track a motion therefrom and apply the motion to a virtual character.

컴퓨터 기술의 발달로 현실과는 다른 가상의 세계를 구현할 수 있으며, 또한 현실이 아닌 가상의 영상을 구현할 수 있게 되었다.With the development of computer technology, it is possible to realize a virtual world different from reality, and also to realize a virtual image that is not real.

이와 같은 가상의 영상들은 영화, 3D 애니메이션 등을 통해 많이 사용되어 오고 있는 데, 이와 같은 영상에서는 현실에서의 대상 물체의 움직임 그대로 움직이는 현실감이 중요하다.Such virtual images have been used a lot through movies, 3D animations, etc. In such images, the reality of moving the target object in reality is important.

따라서, 대상 물체의 움직임을 추적하고, 이와 같은 움직임을 가상의 캐릭터의 움직임에 적용하기 위하여 많은 장치들이 개발되어 사용되어지고 있다.Therefore, many devices have been developed and used to track the movement of a target object and apply such movement to the movement of a virtual character.

이와 같은 장치를 모션 캡처라 하는 데, 일반적으로 모션 캡처란 사람의 움직임을 추출분석하여 3차원 사이버 캐릭터에 접목 시키므로써, 3차원의 캐릭터가 가상의 공간에서 동작을 인간과 동일하게 하도록 접목시키는 기술이다.Such a device is called motion capture. In general, motion capture is a technology that extracts and analyzes human movements and combines them with three-dimensional cyber characters to make the three-dimensional characters equal to humans in virtual space. to be.

이와 같은 모션 캡처에는 다양한 장치가 사용되고 있다.Various devices are used for such motion capture.

현재 상용화되고 있는 모션 캡처 시스템은 대부분 인체에 마커(marker)나 센서를 착용한 후 카메라로 잡은 마커 영상이나 센서로부터 나온 데이터를 분석해 인체 각 관절들의 위치와 방향 등을 측정한다.Most of the current motion capture systems that use markers or sensors on the human body measure the position and direction of each joint of the human body by analyzing marker images captured by the camera or data from the sensors.

여기에 사용된 마커나 센서의 작동방식에 따라 네가지 정도로 나눌 수 있으며, 각각을 초음파(acoustic), 보철(prosthetics), 자기(magnetic), 광학(optical) 방식이라 한다.Depending on how the markers or sensors used here are divided into four, each is called an ultrasonic, prosthetics, magnetic, optical method.

이중에서 현재에서 현재 자기방식과 광학방식을 이용한 장치들이 가장 널리 사용되고 있다.Among these, devices using magnetic and optical methods are the most widely used at present.

초음파 방식은 다수의 초음파를 발생하는 센서와 3개의 초음파 수신부로 구성된다.The ultrasonic method includes a sensor for generating a plurality of ultrasonic waves and three ultrasonic receivers.

움직임을 추적 검출하기 위한 연기자의 각 과절에 부착된 초음파 센서들은 순차적으로 초음파를 발생하고, 그 초음파가 수신장치에 수신되기까지 걸린 시간을 이용해서 센서에서 수신부까지의 거리를 계산한다.Ultrasonic sensors attached to each of the actors' tracks for tracking and detecting movements sequentially generate ultrasonic waves, and calculate the distance from the sensor to the receiver using the time taken for the ultrasonic waves to be received by the receiver.

각 센서들의 3차원 공간상 위치는 3개의 수신부에서 각각 계산된 값을 이용한 삼각 측량원리에 의해 구할 수 있다.The three-dimensional position of each sensor can be obtained by triangulation principle using the values calculated at each of three receivers.

이와 같은 초음파 방식의 문제점은 첫째, 샘플링 빈도(sampling rate)가 높지 않고 또 동시에 사용할 수 있는 초음파 발생장치수가 많지 않다는 점이다.The problem with the ultrasonic method is that first, the sampling rate is not high and the number of ultrasonic generators that can be used at the same time is not large.

둘째, 센서가 커서 연기자의 동작이 부자연스러워 질 수 있고, 셋째, 음향장치의 특성상 초음파의 반사에 의한 영향을 많이 받는다는 점이다.Second, the sensor is large, the actor's operation can be unnatural, and third, the sound device is affected by the reflection of the ultrasonic wave.

그러나, 이 방식은 이러한 문제점들에 비해 환경의 간섭 등을 별로 받지 않고 위치 측정에 필요한 계산량이 적어 실시간 처리가 가능하며 값이 싸다는 게 장점이다.However, this method is advantageous in that it is possible to perform real-time processing and is inexpensive due to a small amount of calculation required for location measurement without being subjected to environmental interference.

또한, 보철방식 모션 캡처 시스템은 연기자의 관절 움직임을 측정하기 위한전위차계(potentiometer)와 슬라이더(slider)로 이루어진 복합체로 구성되어 있다.In addition, the prosthetic motion capture system is composed of a complex consisting of a potentiometer and a slider for measuring the joint movement of the performer.

이 시스템은 수신장치를 갖지 않기 때문에 다른 환경의 간섭이나 영향을 전혀 받지 않는 절대적인 측정장치이다.Since this system does not have a receiver, it is an absolute measuring device that is not affected by any interference or influence from other environments.

따라서 초기 셋업 과정(calibration)이 거의 필요없고 고가의 스튜디어 환경설비도 필요없다.As a result, little initial setup is required, and no expensive studio environment is required.

또한, 이 장치는 다른 장치에 비해 저가이고, 매우 높은 샘플링 빈도로 모션 데이터를 획득할 수 있는 장점이 있다.In addition, the device is inexpensive compared to other devices, and has the advantage of acquiring motion data with a very high sampling frequency.

그러나 보철방식을 이용한 시스템은 부담스러운 기계장치를 연기자의 몸에 부착해야 하므로 동작이 부자연스러워질 수 있고, 보철장치가 연기자의 각 관절에 얼마나 정확하게 위치했는지에 따라 정확도가 달라진다는 단점이 있다.However, the system using the prosthetic method has a disadvantage in that the operation of the prosthetic device must be attached to the body of the performer, and the accuracy of the prosthetic device varies depending on how precisely the prosthetic device is positioned at each joint of the performer.

일반적으로 보철방식 시스템은 기존의 애니메이션 제작기술인 키프레임방식 및 동작제어방식과 함께 사용돼 키프레임이나 스텝동작의 생성에 이용된다.In general, the prosthetic system is used together with the existing animation production technology, keyframe method and motion control method, to generate keyframes or step motions.

또한, 자기식 시스템은 연기자의 각 관절부위에 자기장을 계측할 수 있는 센서를 부착하고 자기장 발생장치 근처에서 연기자가 움직일 때 각 센서에서 측정되는 자기장의 변화를 다시 공간적인 변화량으로 계산, 움직임을 측정하는 방식이다.In addition, the magnetic system attaches a sensor to measure the magnetic field at each joint of the performer, and calculates the change in the magnetic field measured by each sensor as a spatial change when the actor moves near the magnetic field generating device. That's the way it is.

각 센서와 자기장 발생장치 및 본체는 케이블로 연결되어 있는데 최근에는 무선으로 이루어진 시스템도 선을 보이고 있다.Each sensor, magnetic field generator, and main unit are connected by cable. Recently, a wireless system is showing a line.

자기식 시스템의 장점은 비교적 저렴하며 가격대 성능비가 우수하고 실시간 처리가 가능하다는 점이다.The advantages of magnetic systems are that they are relatively inexpensive, cost-effective, and enable real-time processing.

그러나 유선방식의 센서인 경우, 센서로부터 연결된 케이블들로 인해 연기자의 동작에 제한을 주고, 이것으로 인해 복잡하고 빠른 움직임을 자연스럽게 표현하는 것을 어렵게 한다.However, in the case of a wired sensor, the cables connected from the sensor limit the performance of the performer, which makes it difficult to express complex and fast movements naturally.

이런 단점을 보완하기 위해 케이블을 무선송신기에 연결한 무선 시스템이 이미 개발, 판매되고 있지만, 역시 연기자의 신체에 커다란 송신기를 부착해야 한다.To compensate for this drawback, wireless systems that connect cables to radio transmitters have already been developed and marketed, but also large transmitters must be attached to the performer's body.

또한, 자기장 영역 안에서만 가능하므로 동작반경이 제한되는 단점을 갖는다.In addition, since it is possible only in the magnetic field region, the operating radius is limited.

따라서, 자기 방식은 1~3m의 반경내에서 실시간으로 움직이는 동작을 캡처하는 데 적당하다고 할 수 있다.Thus, the magnetic method is suitable for capturing motion moving in real time within a radius of 1 to 3 m.

광학방식 시스템은 연기자의 주요 분절 부분에 적외선을 반사하는 반사 마커(Reflective Marker)들을 부착하고 3~6대의 적외선 필터가 부착된 카메라를 이용해 반사되는 마커들의 2차원 좌표를 생성한다.The optical system attaches reflective markers that reflect infrared light to the main segment of the performer and generates two-dimensional coordinates of the reflected markers using a camera with three to six infrared filters.

여러대의 카메라로 캡처한 2차원 좌표는 전용 프로그램으로 분석되어 3차원 공간상 좌표로 계산, 애니메이션에 활용한다.Two-dimensional coordinates captured by multiple cameras are analyzed by a dedicated program and used for calculation and animation in three-dimensional space.

광학식 시스템의 장점 중 하나는 높은 샘플링 빈도를 들 수 있는데 스포츠 선수의 동작과 같이 매우 빠른 움직임을 캡처할 때 유용하다.One of the advantages of the optical system is its high sampling frequency, which is useful when capturing very fast movements, such as the movement of a sports player.

또한 연기자에 부착되는 마커의 크기가 작고 가벼워서 연기자가 자유롭게 동작을 표현할 수 있으며, 200개 이상의 마커를 처리할 수 있어 다수 연기자의 동작을 동시에 캡처할 수도 있다.In addition, since the size of the marker attached to the actor is small and light, the actor can freely express the movement, and can process more than 200 markers to simultaneously capture the movement of multiple actors.

또 다른 시스템에 비해 넓은 공간(5*5*2.5m)에서 캡처가 가능하며 캡처 정밀도면에서도 다른 제품에 비해 높다.Capable of capturing in a large space (5 * 5 * 2.5m) compared to other systems, the capture accuracy is higher than other products.

그러나 광학식 시스템의 단점은 마커가 다른 물체에 의해 가려질 때 마커의 궤적을 잠시 잃어버리게 된다는 점이다.The disadvantage of the optical system, however, is that the marker's trajectory is lost for a while when the marker is covered by another object.

이런 문제로 인해 모션 데이터를 후처리하는 과정이 필요하며 이것은 실시간 모션 캡처를 어렵게 하는 커다란 장애요인이기도 하다.This problem requires post-processing of the motion data, which is a big obstacle to making real-time motion capture difficult.

또한, 이방식은 다른 방식에 비해 매우 고가인점도 하나의 단점이다.In addition, this method is very expensive compared to other methods is a disadvantage.

본 발명에서는 영상 취득수단인 카메라를 이용하여 입력되는 영상으로부터 해당하는 물체를 미리 사전에 학습된 정보로부터 인식하고, 이와 같이 인식된 대상 물체의 움직임을 분석하고, 이를 기반으로 하여, 대상 물체(사람)의 움직임을 해당하는 가상의 캐릭터에 적용할 수 있도록 하는 모션 캡처를 제공하고자 한 것이다.According to the present invention, a corresponding object is recognized from previously learned information from an image input using a camera, which is an image acquisition means, and the movement of the recognized object is analyzed. It is to provide a motion capture that can apply the motion of) to the corresponding virtual character.

도 1은 본 발명 화상을 이용한 모션 캡처 방법의 실행과정을 개략적으로 나타낸 플로우챠트.1 is a flowchart schematically illustrating an execution process of a motion capture method using an image of the present invention.

도 2는 도 1에서와 같은 실행수순에 있어서, 대상 물체를 인식하고, 인식된 물체의 이동 좌표를 산출하는 과정을 나타낸 플로우챠트.FIG. 2 is a flowchart illustrating a process of recognizing a target object and calculating movement coordinates of the recognized object in the execution procedure as shown in FIG. 1.

도 3a, 도 3b는 입력 2차원 영상에 대한 움직임의 일예를 나타낸 도면.3A and 3B illustrate an example of motion of an input two-dimensional image.

도 4는 다중 좌표 계산 방법을 이용하기 위한 카메라의 설치예를 나타낸 도면.4 is a diagram showing an installation example of a camera for using the multi-coordinate calculation method.

도 5는 본 발명 시스템이 적용되는 가상 현실 게임 장치의 구성을 나타낸 블록도.5 is a block diagram showing the configuration of a virtual reality game apparatus to which the present invention system is applied.

도 6은 본 발명에 있어서, 사이버 캐릭터 표정 제어를 위하여 사람의 얼굴 윤곽을 인식하기 위한 일예를 나타낸 도면.FIG. 6 is a diagram for one example of recognizing a face outline of a person for controlling a cyber character expression in the present invention. FIG.

도 7a,7b는 본 발명에 있어서, 수화시스템에 적용함에 있어, 수화의 패턴을 학습 또는 검출의 일예를 나타낸 도면.7A and 7B illustrate an example of learning or detecting a pattern of a sign language in application to a sign language system in the present invention.

본 발명 화상을 이용한 모션 캡처 시스템은,Motion capture system using the image of the present invention,

움직임을 추출하기 위한 대상 물체의 영상을 취득하기 위한 영상취득수단과,Image acquisition means for acquiring an image of a target object for extracting motion;

영상취득수단으로부터 입력된 영상을 디지털 처리가능한 디지털 신호로 변환하는 디지털신호변환수단과,Digital signal conversion means for converting an image input from the image acquisition means into a digital signal capable of digital processing;

변환된 디지털 신호를 처리하여, 입력된 영상을 분석하여 미리 학습된 정보로부터 해당하는 물체를 인식하고, 인식된 물체의 각 부분별 좌표를 연산하는 디지털 신호처리수단과,Digital signal processing means for processing the converted digital signal, analyzing the input image to recognize a corresponding object from previously learned information, and calculating coordinates for each part of the recognized object;

입력 영상으로부터 대상 물체의 움직임정보를 추출하여, 해당하는 캐릭터에 적용하기 위한 일련의 과정을 제어하며, 디지털 신호처리수단으로부터 인식된 물체의 해당 좌표 정보를 출력하는 주제어수단과,Main control means for extracting the motion information of the target object from the input image, controlling a series of processes for applying to the corresponding character, and outputs the corresponding coordinate information of the object recognized from the digital signal processing means;

주제어수단으로부터 대상 물체의 인식정보와 연산된 해당 좌표정보를 입력받아 해당하는 캐릭터의 움직임을 결정하는 캐릭터 제어처리수단과,Character control processing means for receiving the recognition information of the target object and the calculated coordinate information from the main control means to determine the movement of the corresponding character;

물체에 대한 학습 정보 및 입력된 영상으로부터 움직임 추적 좌표를 연산하기 위한 연산정보를 저장하는 메모리수단을 포함하여 구성됨을 특징으로 한다.And memory means for storing arithmetic information for calculating the motion tracking coordinates from the inputted image and the learning information about the object.

이와 같은 구성을 특징으로 하는 본 발명 화상 캡처 장치는 영상취득수단으로부터 얻어지는 움직임 대상 물체의 순수 입력영상을 분석하여, 물체의 각 부분별 좌표를 얻어, 이로부터 임의의 캐릭터의 움직임 정보를 추출할 수 있도록 함에 그 특징이 있는 것으로,The image capture device of the present invention having such a configuration can analyze the pure input image of the moving object obtained from the image acquisition means, obtain coordinates for each part of the object, and extract motion information of any character therefrom. Is characterized by the fact that

상기 영상취득수단은 하나 또는 하나이상의 카메라로 구성되어, 움직임 정보를 추출하기 위한 대상 물체의 각 방향의 위치에 설치하게 된다.The image acquisition means is composed of one or more cameras, it is installed at each position of the target object for extracting the motion information.

이와 같이 영상취득수단으로부터 얻어진 입력 이미지는 디지털 신호 변환수단을 통해 디지털 신호처리가능한 신호로 변환되고, 변환된 디지털 이미지 신호는 디지털 신호처리수단으로 입력된다.In this way, the input image obtained from the image acquisition means is converted into a signal capable of digital signal processing through the digital signal conversion means, and the converted digital image signal is input to the digital signal processing means.

디지털 신호처리수단에서는 입력 이미지에 대하여 이미 학습되어 메모리수단에 저장된 물체에 대한 학습정보와 비교하여 해당하는 물체를 인식하게 되고, 이와 같이 인식된 대상 물체의 움직임 좌표를 검출하게 된다.The digital signal processing means recognizes the corresponding object by comparing the learning information about the object already learned about the input image and stored in the memory means, and detects the motion coordinates of the recognized object.

이와 같은 인식된 물체에 대한 정보와 검출된 좌표에 따라서 해당하는 임의의 캐릭터의 움직임정보를 결정하여 캐릭터 제어처리수단에서 해당 캐릭터를 제어하여 표시 및 저장하게 된다.The motion information of a corresponding character is determined according to the information on the recognized object and the detected coordinates, and the character control processing means controls and displays the character.

이와 같이 입력 영상으로부터 대상 물체의 움직임을 검출하게 되는 본 발명 화상을 이용한 모션 캡처 시스템과 캡처 방법에 대하여 그 실행과정을 설명하면 다음과 같다.As described above, the motion capture system and the capture method using the image of the present invention which detects the movement of the target object from the input image will be described.

물체별로 영상 이미지를 통해 학습하고, 그 학습된 정보를 저장하는 과정과,Learning through video images for each object, and storing the learned information;

움직임 정보를 추출하기 위한 대상의 물체를 촬영하여 입력되는 영상을 일정한 크기로 나누어 전처리 과정을 거쳐 입력되는 영상 프레임간에 연결성을 갖도록 하는 과정과,Taking a target object for extracting motion information and dividing the input image into a predetermined size so as to have connectivity between input image frames through a preprocessing process;

상기 과정을 통해 얻어진 이미지로부터 학습된 정보를 기반으로 대상 물체를 인식하는 과정과,Recognizing a target object based on the information learned from the image obtained through the process,

인식된 물체는 중앙 좌표 조정을 거친후 인식된 물체를 이미 사전학습된 물체별로 프레임과 프레임간에 이동량을 추출하여 그 이동 좌표를 해당 물체별로 산출하는 과정의 실행수순으로 이루어짐을 특징으로 한다.The recognized object is characterized in that the process of calculating the movement coordinates for each object by extracting the amount of movement between the frame and the object for each object already pre-learned after the center coordinate adjustment.

그리고, 상기 대상 물체를 인식하는 과정은,And, the process of recognizing the target object,

이전 입력 프레임으로부터 대상 물체의 움직임 벡터 성분을 추출하는 단계와,Extracting a motion vector component of the object from a previous input frame;

추출된 움직임 벡터 성분으로부터 다음 프레임의 대상 물체에 대하여 움직임 추정(motion estimation)을 실행하여 대상 물체를 검색하는 단계와,Retrieving the target object by performing motion estimation on the target object of the next frame from the extracted motion vector component;

검색결과 움직임 추정된 해당 좌표에 대상 물체가 존재할 경우에는 물체를 인식하여 라벨링(labeling)하는 단계와,Recognizing and labeling an object when a target object exists at a corresponding coordinate estimated by the search result;

검색결과 움직임 추정된 해당좌표에 대상 물체가 존재하지 않을 경우에는 해당 위치로부터 각 방향으로 대상 물체를 검색하여 대상 물체를 찾아 라벨링하는 단계로 이루어짐을 특징으로 한다.If the target object does not exist in the coordinates whose motion is estimated as a result of the search, the target object is searched for in each direction from the corresponding position to find and label the target object.

그리고, 움직임 추정을 통해 대상 물체를 검색하기 위하여 필요한 이전 입력 프레임이 없는 초기 입력 프레임과 두 번째 입력 프레임에 있어서는 학습에 의해 설정된 좌표상의 대상 물체를 인식하고, 그 이동 좌표의 산출에 있어서도 기준 좌표로 산출하도록 함을 특징으로 한다.In addition, in the initial input frame and the second input frame in which there is no previous input frame necessary to search for the target object through motion estimation, the target object on the coordinate set by learning is recognized, and the reference coordinate is also calculated in the calculation of the movement coordinate. It is characterized in that the calculation.

이와 같은 특징을 갖는 본 발명 화상을 이용한 모션 캡처 시스템에 있어서의 모션 캡처방법은 물체의 움직임을 산출하는 과정에 있어서, 먼저 물체의 종류를 인식하여 인식된 물체가 프레임간에 시계열차에 따른 움직임 성분을 감지하여 이를 디지털 데이터화 하도록 하는 것으로, 첨부된 도면 도 1 및 도 2를 참조하여 설명하면 다음과 같다.The motion capture method in the motion capture system using the image of the present invention having such a feature, in the process of calculating the motion of the object, first recognizes the type of the object and recognizes the motion component according to the time series between frames. To detect and digitalize this, it will be described with reference to the accompanying drawings, FIGS. 1 and 2 as follows.

도 1은 본 발명 화상을 이용한 모션 캡처 시스템에 있어, 모션 캡처 방법의 실행수순을 개략적으로 나타낸 플로우 챠트이고, 도 2는 도 1에서와 같은 실행수순에 있어서, 대상 물체를 인식하고, 인식된 물체의 이동 좌표를 산출하는 과정을 나타낸 플로우챠트이다.FIG. 1 is a flow chart schematically showing an execution procedure of a motion capture method in a motion capture system using an image of the present invention, and FIG. 2 is an object recognized in the execution procedure as shown in FIG. A flowchart illustrating a process of calculating the moving coordinate of.

실제 움직임을 유발하는 개체 자체(대상 물체)를 학습하여 저장하고, 저장된 정보로부터 인식을 하는 것이다.It learns and stores the object itself (target object) that causes actual movement and recognizes it from the stored information.

본 발명은 모션 캡처하기 이전에 인체의 예를 들 경우 머리, 가슴, 각 특정부위를 미리 입력된 일반적인 해당 영상으로부터 학습하게 된다.In the present invention, before the motion capture, for example, the head, the chest, and each specific part of the human body are learned from a corresponding general input image.

이와 같이 학습된 정보는 저장되어 있으며, 이로부터 이후 순차적으로 입력되는 영상 이미지내의 대상 물체를 찾아내도록 하는 것이다.In this way, the learned information is stored, and from this, the target object in the video image which is sequentially input thereafter is found.

먼저, 하나 또는 하나이상의 각 영상취득수단으로부터 순차적으로 영상 프레임이 입력되며, 입력되는 영상은 전처리 과정을 거쳐 프레임간에 연결성을 갖는 과정을 실행하게 된다.First, image frames are sequentially input from one or more image acquisition means, and the input image is preprocessed to perform a process having connectivity between the frames.

이와 같이 전처리 과정이 완료된 영상 프레임을 통해 주제어수단에서는 이미 사전에 학습 저장되어 있던 학습 정보를 기반으로 물체의 형태를 파악한후, 이를 통해 인식한다.In this way, the main control unit recognizes the shape of the object based on the learning information previously learned and stored through the image frame in which the preprocessing process is completed, and recognizes it.

이후, 이와 같이 인식된 물체는 중앙 좌표 조정을 거친후 인식된 물체를 이미 사전에 학습된 정보를 기반으로 하여 프레임과 프레임간에 이동량을 추출하여 그 이동 물체의 좌표를 산출한다.Then, the object recognized as described above undergoes the coordinate adjustment of the center, and based on the previously learned information on the recognized object, the movement amount is extracted between the frame and the frame to calculate the coordinates of the moving object.

이때, 이와 같이 해당하는 물체를 인식하고, 좌표를 산출함에 있어, 움직임 추정을 통해 미리 예측된 위치에 해당하는 물체가 있는 가를 검색하여 움직임을 추적할 대상 물체를 찾아내게 되는 바,At this time, in recognizing the corresponding object and calculating the coordinates, the target object to track the movement is found by searching whether there is an object corresponding to the previously predicted position through the motion estimation.

도 2에 도시된 바와 같이, 다음 프레임(N+1)이 입력되면, 현재 프레임(N) 이전의 프레임(N-1)이 존재하는 가를 판단하게 된다.As shown in FIG. 2, when the next frame N + 1 is input, it is determined whether the frame N-1 before the current frame N exists.

여기서, 현재 프레임(N)이란 현재 처리되는 프레임을 의미하며, 이전 프레임(N-1)은 현재 프레임(N)으로부터 다음 프레임(N+1)에 대하여 움직임 추정을 통해 추적할 대상 물체의 이동 위치를 추정하여 대상 물체를 찾아내고, 그 이동 좌표를 산출할 수 있도록 하기 위한 것이고, 다음 프레임(N+1)은 움직임 추적을 하기 위한 다음 대상의 입력 프레임을 의미하는 것이다.Here, the current frame (N) means a frame that is currently being processed, the previous frame (N-1) is a moving position of the target object to be tracked through the motion estimation for the next frame (N + 1) from the current frame (N) In order to estimate the target object and to calculate the movement coordinates, the next frame (N + 1) means the input frame of the next target for motion tracking.

이전 프레임(N-1)이 존재하게 되면, 이전의 프레임(N-1)으로부터 현재의 프레임(N)간의 움직임 벡터성분을 추출하여 움직임 추정을 실행하여, 다음 입력 프레임(N+1)의 해당하는 물체의 위치를 예측하게 되고, 이 예측된 위치에 찾고자 하는 즉, 추적하고자 하는 물체가 존재하는 가를 학습 정보를 기반으로 검색하게 된다.When the previous frame N-1 is present, the motion vector component between the current frame N is extracted from the previous frame N-1, motion estimation is performed, and the corresponding input of the next input frame N + 1 is performed. The position of the object to be predicted is predicted, and the object to be searched, that is, the object to be tracked, is searched based on the learning information.

해당하는 위치에 대상 물체가 존재할 경우 그 물체를 인식하고, 인식된 물체의 좌표를 설정하게 된다.If the object exists at the corresponding position, the object is recognized and the coordinates of the recognized object are set.

그러나, 예측된 위치에 대상 물체가 존재하지 않을 경우에는 예측된 위치로부터 각 방향(4방향)으로 찾고자 하는 대상 물체를 검색하여 좌표를 설정하게 된다.However, when the target object does not exist at the predicted position, the coordinates are set by searching for the target object to be found in each direction (four directions) from the predicted position.

여기서, 초기 입력되는 첫 번째 프레임인 경우 학습에 의해 설정된 위치를 기준으로 하여 검색하여 대상 물체를 찾게 된다.In this case, in the case of the first frame to be initially input, the target object is found by searching based on the position set by the learning.

예를 들면, 사람의 경우 서있는 형상으로부터 각 위치의 머리, 팔, 다리 등의 각 개체(대상 물체)를 찾게 되는 것이다.For example, in the case of a person, each object (target object) such as a head, an arm and a leg at each position is found from a standing shape.

두 번째 프레임에 있어서도, 현재 프레임인 초기 첫 번째 프레임의 이전 프레임이 없으므로, 첫 번째 프레임으로부터 학습에 의해 설정된 위치로부터 대상 물체를 검색하게 되며, 세 번째 프레임부터는 다음 프레임이 입력될 때, 이전 프레임이 존재하게 되므로, 상기에서와 같이 대상 물체를 검색하여 찾아 좌표를 설정하게 되는 것이다.Even in the second frame, since there is no previous frame of the first frame that is the current frame, the target object is searched from the position set by the learning from the first frame. From the third frame, when the next frame is input, the previous frame is Since it exists, as described above, the target object is searched and found to set the coordinates.

2차원 영상의 3차원 좌표의 추적은 근본적으로 입력 영상의 거리적 오차를 지원하여야 한다.Tracking of 3D coordinates of 2D image should basically support the distance error of input image.

이는 입력되는 영상을 단일화면에서 구분을 할 수 없다라는 점이다. 즉, 최소 3차원화 하기 위해서는 카메라를 각기 다른 지점에서 최소한 2대이상 설치하여야 하는데 본 발명에서는 위와 같은 스테레오 비젼을 이용한 영상의 추출보다는 미리 학습된 해당물체를 인식하여 이를 추적한뒤 2차원에서 3차원 성분을 추출할 수 있다.This means that the input video cannot be distinguished on a single screen. In other words, at least two cameras should be installed at different points in order to be at least three-dimensional, but in the present invention, rather than extracting the image using the stereo vision as described above, the target object is recognized and tracked and then three-dimensional in three dimensions. Dimensional components can be extracted.

도 3a 및 도 3b는 이차원 영상이다. 그러나 여기에 각각의 개체들의 움직임을 선과 각으로 표시하여 보면 3차원의 영상을 유추할 수 있다.3A and 3B are two-dimensional images. However, if the movement of each object is represented by lines and angles, three-dimensional images can be inferred.

먼저, A 지점과 B 지점간의 높이와 각도가 변경이 되었으며, A 지점과 B 지점간의 길이가 짧아진다.First, the height and angle between point A and point B have been changed, and the length between point A and point B becomes short.

따라서, 각각의 입력 성분인 각도와 지점간의 거리만으로도 3차원의 움직임을 유추할 수 있는 것이다.Therefore, the three-dimensional motion can be inferred only by the angle between each input component and the distance between the points.

즉, 지점 A와 B는 A가 3차원의 공간좌표축으로 이동을 하는 경우 A와 B의 거리가 감소되며, A와 B의 각도 또한 엇각으로 변화하게 되어 물체의 실제적인 공간좌표축을 계산할 수 있게 되는 것이다.That is, the points A and B decrease the distance of A and B when A moves to the three-dimensional spatial coordinate axis, and the angles of A and B also change at different angles to calculate the actual spatial coordinate axis of the object. will be.

먼저, 움직임을 산출할 물체는 그 좌표 데이터를 2차원에서 추출하며, 그 움직임의 패턴이 겹쳐지거나 망실된 경우 입력 영상 자체를 특수한 경우의 공간좌표축에서 미리 학습된 자료와 비교하여 그 움직임을 예측하는 것이다.First, the object to calculate the motion extracts the coordinate data in two dimensions, and when the pattern of the motion is overlapped or lost, the input image itself is compared with the previously learned data on the spatial coordinate axis in a special case to predict the motion. will be.

위와 같은 기술은 영상취득수단인 카메라의 설치된 수가 적을 경우 사용되며, 카메라의 설치 개수가 늘어난 경우 다음 카메라로 그 해당 좌표와 물체를 넘겨 계속 추적하여 그 3차원 좌표를 얻을 수 있는 것이다.The above technique is used when the installed number of cameras, which are image acquisition means, is small, and when the installed number of cameras is increased, the 3D coordinates can be obtained by continuously tracking the corresponding coordinates and objects to the next camera.

도 4는 이와 같은 다중 좌표 계산 방법을 이용하기 위한 카메라의 설치예를 나타낸 것으로, 다중 좌표 계산 방법이란, 2차원 좌표의 3차원 변화는 각각의 이동물체의 각도값을 추출하여 정면 부분의 입력단에서 그 지점 좌표와 물체의 특성을 이관하여 처리하는 것을 말하는 것이다.Figure 4 shows an installation example of a camera for using such a multi-coordinate calculation method, the multi-coordinate calculation method, the three-dimensional change of the two-dimensional coordinates is extracted from the angle of the moving object at the input end of the front portion It refers to the processing of the point coordinates and the object's characteristics.

물론 보다 정밀한 데이터를 얻기 위해서는 입력단의 수(카메라의 수)가 많아야 되지만, 특정 움직임(즉, 제한동작)을 감지하기 위해서는 매우 저 비용에 효과적으로 이용할 수 있다.Of course, in order to obtain more accurate data, the number of input terminals (the number of cameras) must be large, but it can be effectively used at a very low cost to detect a specific movement (that is, a limited motion).

또한 물체의 지점을 인식하는 것이 아니라, 물체 자체를 인식하므로, 보다 정확한 공간좌표를 얻기 위해서 입력단의 수를 늘이는 것은 효율적이다.In addition, since the object itself is recognized instead of the point of the object, it is efficient to increase the number of input stages to obtain more accurate spatial coordinates.

이와 같은 본 발명은 캐릭터 제어처리수단으로써, 각 적용가능한 것으로, 도면에 도시된 바와 같은 적용예가 가능한 것으로, 첨부된 도면을 참조하여 설명하면 다음과 같다.The present invention as described above is applicable to each of the character control processing means, which can be applied as shown in the drawings, and will be described with reference to the accompanying drawings.

[가상 현실 게임장치][Virtual Reality Game Device]

도 5는 본 발명의 모션 캡처 시스템이 적용되는 가상 현실 게임장치의 구성 블록도를 나타낸 것이다.5 is a block diagram of a virtual reality game apparatus to which the motion capture system of the present invention is applied.

이의 구성을 설명하면, 게임머(gamer)의 영상을 취득하기 위한 카메라(10)와, 카메라(10)로부터 입력된 영상을 디지털 신호처리가 가능한 신호로 변환하기 위한 비디오 코덱(video codec)(20)과, 비디오 코덱(20)으로부터 입력되는 영상 프레임에 대하여 분석하여 추적 대상 물체를 인식하고, 인식된 물체의 좌표정보를 연산하는 디지털 신호처리기(DSP)(30)와, 대상 물체를 인식하기 위하여 사전에 학습된 물체의 학습정보와, 좌표를 연산하기 위한 연산정보를 저장하기 위한 메모리(40)와, 검출된 연산좌표로부터 해당하는 대상 캐릭터에 적용하기 위한 일련의 과정을 제어하는 주제어 마이크로프로세서(50)와, 게임프로그램 제어를 위한 일련의 제어프로그램이 내장되며, 주제어 마이크로프로세서(50)로부터 입력되는 대상 물체의 연산 좌표 정보를 이용하여 게임프로그램내의 대상 캐릭터의 움직임을 제어하는 게임 프로세서(60)를 포함하여 구성된다.The configuration thereof will be described by a camera 10 for acquiring an image of a gamer and a video codec 20 for converting an image input from the camera 10 into a signal capable of digital signal processing. And a digital signal processor (DSP) 30 which analyzes an image frame input from the video codec 20 to recognize a tracking object and calculates coordinate information of the recognized object, and a dictionary for recognizing the target object. A main memory microprocessor 50 for controlling a series of processes for applying the learning information of the object learned to the object, the calculation information for calculating coordinates, and the applied character to the corresponding target character from the detected calculation coordinates. ), And a series of control programs for controlling the game program are built-in, and the game program is generated by using the operation coordinate information of the target object input from the main controller microprocessor 50. It is configured to include a game processor 60, which controls the movement of the target character in the program.

이와 같은 본 발명이 적용된 가상현실 게임장치는 소정의 내용 줄거리를 갖는 게임 프로그램 내의 캐릭터를 게임머의 동작에 따라 매치시켜 움직일 수 있도록 함에 그 특징이 있는 것으로,The virtual reality game apparatus to which the present invention is applied is characterized in that the characters in the game program having a predetermined content plot can be moved according to the motion of the gamer.

카메라(10)를 통해 게임머의 움직임을 영상을 입력받아, 영상 프레임을 비디오 코덱(20)을 통해 디지털 신호로 변환시켜 디지털 신호처리기(30)에서 처리 가능한 신호로 변환하게 된다.The camera 10 receives an image of the gamer's movement, converts the image frame into a digital signal through the video codec 20, and converts the image frame into a signal that can be processed by the digital signal processor 30.

디지털 신호처리기(30)에서는 이와 같이 입력되는 게임머의 영상 프레임을 분석하여, 메모리(40)에 미리 학습되어 저장된 정보로부터 게임머의 각 신체부분을 인식하고, 각 부분별 좌표를 연산하게 된다.The digital signal processor 30 analyzes the video frame of the gamer input as described above, recognizes each body part of the gamer from information previously learned and stored in the memory 40, and calculates coordinates for each part.

이와 같이 연산된 좌표 정보는 주제어 마이크로 프로세서(50)를 통해 게임 프로세서(60)로 입력되고, 게임 프로세서(60)에서는 이와 같은 좌표 정보를 이용하여 지정된 캐릭터의 움직임을 제어하게 된다.The coordinate information calculated as described above is input to the game processor 60 through the main controller microprocessor 50, and the game processor 60 controls the movement of a specified character using such coordinate information.

이와 같은 본 발명의 실시예는 게임기 장치에 본 발명의 화상을 이용한 모션 캡처 시스템을 적용하므로써, 게이머의 동작이 그대로 게임에 반영되도록 함에 그특징이 있다 할 것이다.Such an embodiment of the present invention will be characterized in that by applying the motion capture system using the image of the present invention to the game machine device, the gamers' motion is reflected in the game as it is.

[ 사이버 캐릭터 표정 제어][Cyber Character Expression Control]

또한, 본 발명은 채팅, 사이버 공간에서의 자신의 분신인 아바타와 같은 경우에 있어서, 얼굴의 표정변화를 사이버 공간내의 캐릭터 표정에 적용할 수도 있다.In addition, the present invention can apply a change in facial expression to a character expression in cyberspace in the case of a chat or an avatar which is his alter ego in cyberspace.

도 5에서와 같은 장치를 그대로 적용하며, 다만 게임 프로세서가 채팅 또는 별도의 프로그램 처리장치로 적용할 수 있으며, 카메라를 얼굴에 적용하여 한정적으로 촬영하면 된다.The same device as shown in FIG. 5 is applied as it is, but the game processor may be applied as a chat or a separate program processing device.

도 6에서와 같이, 표정의 인식은 먼저 사람의 얼굴 외각을 찾는데 그 중점을 둔다.As in Figure 6, the recognition of the facial expression first focuses on finding the outer appearance of a person.

먼저, 눈과 미간사이의 영상 패턴을 찾아 이를 기준으로 얼굴을 인식한다.First, the image pattern between the eye and the eye is detected and face is recognized based on the image pattern.

인식된 얼굴은 각각의 부위별로 미리 학습된 신경망 정보에 따라 눈, 코, 눈썹, 입술, 등의 움직임을 산출하게 된다.The recognized face calculates movements of eyes, nose, eyebrows, lips, and the like according to neural network information previously learned for each part.

즉, 대상 물체인 얼굴의 각 부분을 인식하고, 앞서 설명한 바와 같이, 좌표정보를 연산하게 되고, 이와 같은 정보로부터 별도의 프로세서에서 사이버 공간상의 가상의 캐릭터에 적용하여 해당하는 모습을 표현할 수 있다.That is, each part of the face, which is the target object, is recognized, and as described above, the coordinate information is calculated, and a corresponding processor can be expressed by applying to the virtual character in the cyber space from such information.

[수화 시스템에 적용예][Application example to sign language system]

또한, 이와 같은 본 발명을 적용하게 되면, 손의 움직임을 영상으로 분석하는 경우 수화를 텍스트 또는 음성으로 출력할 수 있도록 구성할 수 있게 되는 바,In addition, if the present invention is applied, the bar can be configured to output a sign language as text or voice when analyzing the movement of the hand as an image.

본 실시예는 손의 움직임중 일치되는 패턴에서 학습된 패턴이 추출된 경우이를 음성 또는 텍스트로 표시하여 주도록 함에 그 특징이 있는 것으로,The present embodiment is characterized in that when the learned pattern is extracted from the matching pattern during the movement of the hand, it is displayed by voice or text.

도 7a, 도 7b에 도시된 바와 같이, 미리 수화에 있어, 손의 움직임을 학습하여, 그 움직임이 뜻하는 정보를 함께 메모리에 저장하게 된다.As shown in FIGS. 7A and 7B, in sign language, a hand movement is learned in advance, and information indicating the movement is stored together in a memory.

본 실시예에 있어서는 입력 영상 프레임에 대하여 대상 물체를 인식하고, 즉 손의 각 부분을 인식하여, 손가락의 방향 등에 관련한 패턴을 추출하게 된다.In this embodiment, the target object is recognized with respect to the input image frame, that is, each part of the hand is recognized, and a pattern related to the direction of the finger or the like is extracted.

이후, 이와 같이 추출된 패턴을 학습된 정보로 저장된 손의 움직임 패턴과 비교하게 되는 방향성 검사를 실행하게 된다.Thereafter, the directionality test is performed to compare the extracted pattern with the movement pattern of the hand stored as the learned information.

동일한 패턴이 검출되면, 그 패턴이 뜻하는 의미를 읽어 텍스트로 출력하기 위한 영상 출력수단 또는 음성으로 출력하기 위한 음성출력수단으로 전달하여 수화에 대한 의미를 문자 또는 음성으로 표시하여 주게 된다.When the same pattern is detected, the meaning of the pattern is read and transmitted to an image output means for outputting as text or an audio output means for outputting as audio, and the meaning of sign language is displayed as text or voice.

이와 같은 본 발명은 종래의 모션 캡처 시스템이 적용되는 해당분야에 다양하게 적용될 수 있다.Such a present invention can be variously applied in the related art to which a conventional motion capture system is applied.

이상에서 설명한 바와 같이, 화상을 이용하여 대상 물체의 움직임을 분석하여 학습된 정보로부터 대상 물체의 움직임 정보를 추출하여 가상의 캐릭터에 이의 움직임을 적용할 수 있도록 하므로써, 모션 캡처 시스템을 구현한 것으로써, 대상 물체의 움직임을 추출하기 위한 장비의 사용이 간편하며, 고가의 장비를 필요로 하지 않는다.As described above, by implementing the motion capture system by analyzing the motion of the target object using the image to extract the motion information of the target object from the learned information and apply the motion to the virtual character. In addition, the use of equipment for extracting the movement of the target object is simple and does not require expensive equipment.

Claims (5)

움직임을 추출하기 위한 대상 물체의 영상을 취득하기 위한 영상취득수단과,Image acquisition means for acquiring an image of a target object for extracting motion; 영상취득수단으로부터 입력된 영상을 디지털 처리가능한 디지털 신호로 변환하는 디지털신호변환수단과,Digital signal conversion means for converting an image input from the image acquisition means into a digital signal capable of digital processing; 변환된 디지털 신호를 처리하여, 입력된 영상을 분석하여 미리 학습된 정보로부터 해당하는 물체를 인식하고, 인식된 물체의 각 부분별 좌표를 연산하는 디지털 신호처리수단과,Digital signal processing means for processing the converted digital signal, analyzing the input image to recognize a corresponding object from previously learned information, and calculating coordinates for each part of the recognized object; 입력 영상으로부터 대상 물체의 움직임정보를 추출하여, 해당하는 캐릭터에 적용하기 위한 일련의 과정을 제어하며, 디지털 신호처리수단으로부터 인식된 물체의 해당 좌표 정보를 출력하는 주제어수단과,Main control means for extracting the motion information of the target object from the input image, controlling a series of processes for applying to the corresponding character, and outputs the corresponding coordinate information of the object recognized from the digital signal processing means; 주제어수단으로부터 대상 물체의 인식정보와 연산된 해당 좌표정보를 입력받아 해당하는 캐릭터의 움직임을 결정하는 캐릭터 제어처리수단과,Character control processing means for receiving the recognition information of the target object and the calculated coordinate information from the main control means to determine the movement of the corresponding character; 물체에 대한 학습 정보 및 입력된 영상으로부터 움직임 추적 좌표를 연산하기 위한 연산정보를 저장하는 메모리수단을 포함하여 구성됨을 특징으로 하는 화상을 이용한 모션 캡처 시스템.And memory means for storing learning information about an object and calculation information for calculating motion tracking coordinates from an input image. 물체별로 영상 이미지를 통해 학습하고, 그 학습된 정보를 저장하는 과정과,Learning through video images for each object, and storing the learned information; 움직임 정보를 추출하기 위한 대상의 물체를 촬영하여 입력되는 영상을 일정한 크기로 나누어 전처리 과정을 거쳐 입력되는 영상 프레임간에 연결성을 갖도록하는 과정과,Photographing a target object for extracting motion information and dividing an input image into a predetermined size so as to have connectivity between input image frames through a preprocessing process; 상기 과정을 통해 얻어진 이미지로부터 학습된 정보를 기반으로 대상 물체를 인식하는 과정과,Recognizing a target object based on the information learned from the image obtained through the process, 인식된 물체는 중앙 좌표 조정을 거친후 인식된 물체를 이미 사전학습된 물체별로 프레임과 프레임간에 이동량을 추출하여 그 이동 좌표를 해당 물체별로 산출하는 과정의 실행수순으로 이루어짐을 특징으로 하는 화상을 이용한 모션 캡처 방법.Recognized object is a process of extracting the amount of movement between the frame and the frame for each object already pre-learned after adjusting the center coordinates, and calculating the movement coordinate for each object. Motion capture method. 제 2항에 있어서, 상기 대상 물체를 인식하고, 인식된 대상 물체의 이동 좌표를 설정하는 과정은,The process of claim 2, wherein the recognizing the target object and setting movement coordinates of the recognized target object include: 이전 입력 프레임으로부터 대상 물체의 움직임 벡터 성분을 추출하는 단계와,Extracting a motion vector component of the object from a previous input frame; 추출된 움직임 벡터 성분으로부터 다음 프레임의 대상 물체에 대하여 움직임 추정(motion estimation)을 실행하여 대상 물체를 검색하는 단계와,Retrieving the target object by performing motion estimation on the target object of the next frame from the extracted motion vector component; 검색결과 움직임 추정된 해당 좌표에 대상 물체가 존재할 경우에는 물체를 인식하여 라벨링(labeling)하는 단계와,Recognizing and labeling an object when a target object exists at a corresponding coordinate estimated by the search result; 검색결과 움직임 추정된 해당좌표에 대상 물체가 존재하지 않을 경우에는 해당 위치로부터 각 방향으로 대상 물체를 검색하여 대상 물체를 찾아 라벨링하는 단계로 이루어지며,If a target object does not exist in the coordinates whose motion is estimated as a result of the search, the target object is searched for in each direction from the corresponding position to find and label the target object. 그리고, 움직임 추정을 통해 대상 물체를 검색하기 위하여 필요한 이전 입력프레임이 없는 경우 학습에 의해 설정된 좌표상의 대상 물체를 인식하고, 그 이동 좌표의 산출에 있어서도 기준 좌표로 산출하도록 단계를 포함하여 이루어짐을 특징으로 하는 화상을 이용한 모션 캡처 방법.And if there is no previous input frame necessary to search for the target object through motion estimation, recognizing the target object on the coordinate set by learning, and calculating the reference coordinate in the calculation of the movement coordinate. Motion capture method using an image. 게임머(gamer)의 영상을 취득하기 위한 카메라와, 카메라로부터 입력된 영상을 디지털 신호처리가 가능한 신호로 변환하기 위한 비디오 코덱(video codec)과, 비디오 코덱으로부터 입력되는 영상 프레임에 대하여 분석하여 추적 대상 물체를 인식하고, 인식된 물체의 좌표정보를 연산하는 디지털 신호처리기(DSP)와, 대상 물체를 인식하기 위하여 사전에 학습된 물체의 학습정보와, 좌표를 연산하기 위한 연산정보를 저장하기 위한 메모리와, 검출된 연산좌표로부터 해당하는 대상 캐릭터에 적용하기 위한 일련의 과정을 제어하는 주제어 마이크로프로세서와, 게임프로그램 제어를 위한 일련의 제어프로그램이 내장되며, 주제어 마이크로프로세서로부터 입력되는 대상 물체의 연산 좌표 정보를 이용하여 게임프로그램내의 대상 캐릭터의 움직임을 제어하는 게임 프로세서를 포함하여 구성되어 가상 현실 게임장치에 적용되는 것을 특징으로 하는 화상을 이용한 모션 캡처 시스템.A camera for acquiring an image of a gamer, a video codec for converting an image input from the camera into a signal capable of digital signal processing, and an image frame input from the video codec for analysis. Digital signal processor (DSP) for recognizing an object and calculating coordinate information of the recognized object, a memory for storing learning information of an object previously learned for recognizing a target object and calculation information for calculating coordinates And a main control microprocessor for controlling a series of processes to be applied to the corresponding target character from the detected operational coordinates, and a series of control programs for controlling the game program, and the operation coordinates of the target object input from the main control microprocessor. To control the movement of the target character in the game program using the information. Im processor is configured to include a motion capture system using an image, characterized in that applied to a virtual reality game device. 제 1항 또는 제 4항에 있어서, 메모리에 저장되는 학습되어 저장되는 정보는 수화를 따르는 손 또는 손가락의 움직임 패턴 정보와, 그 패턴이 의미하는 내용 정보가 더 포함되어 저장되고, 디지털신호처리수단에서 입력 프레임으로부터 메모리에 저장된 손 또는 손가락의 움직임 패턴과 비교하고, 해당하는 움직임 패턴에 따르는 의미정보를 읽어 출력하도록 구성되며,The digital signal processing means according to claim 1 or 4, wherein the learned and stored information stored in the memory further includes a movement pattern information of a hand or a finger following a sign language, and content information of the pattern. Is compared to the movement pattern of the hand or finger stored in the memory from the input frame, and is configured to read and output semantic information according to the corresponding movement pattern, 주제어수단의 제어를 받아 수화의 의미를 텍스트로 출력하기 위한 문자 출력수단과, 주제어수단의 제어를 받아 수화의 의미를 음성으로 출력하기 위한 음성출력수단을 더 포함하여 수화의 의미를 음성 또는 문자로 나타내는 수화시스템에 적용되는 것을 특징으로 하는 화상을 이용한 모션 캡처 시스템.Character output means for outputting the meaning of sign language as text under the control of the main control means, and voice output means for outputting the meaning of sign language as voice under the control of the main control means; A motion capture system using an image, which is applied to a sign language system.
KR1020000051006A 2000-08-31 2000-08-31 System and method for motion capture using camera image KR20020017576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000051006A KR20020017576A (en) 2000-08-31 2000-08-31 System and method for motion capture using camera image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000051006A KR20020017576A (en) 2000-08-31 2000-08-31 System and method for motion capture using camera image

Publications (1)

Publication Number Publication Date
KR20020017576A true KR20020017576A (en) 2002-03-07

Family

ID=19686299

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000051006A KR20020017576A (en) 2000-08-31 2000-08-31 System and method for motion capture using camera image

Country Status (1)

Country Link
KR (1) KR20020017576A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100483639B1 (en) * 2001-02-09 2005-04-15 고나미 가부시끼가이샤 Photographing game machine
KR100586815B1 (en) * 2005-04-26 2006-06-08 인하대학교 산학협력단 System and method for measuring position of threedimensions
WO2006137670A1 (en) * 2005-06-20 2006-12-28 Samsung Electronics Co., Ltd. Method for realizing user interface using camera and mobile communication terminal for the same
KR100682987B1 (en) * 2005-12-08 2007-02-15 한국전자통신연구원 Apparatus and method for three-dimensional motion recognition using linear discriminant analysis
WO2007066953A1 (en) * 2005-12-08 2007-06-14 Electronics And Telecommunications Research Institute Apparatus for recognizing three-dimensional motion using linear discriminant analysis
US7239718B2 (en) 2002-12-20 2007-07-03 Electronics And Telecommunications Research Institute Apparatus and method for high-speed marker-free motion capture
KR100855450B1 (en) * 2007-06-04 2008-09-01 에스케이 텔레콤주식회사 Method for transferring motion style of movie object and apparatus applied to the same
US7561741B2 (en) * 2002-12-16 2009-07-14 Lg Electronics, Inc. Apparatus for operating a mobile communication terminal with integrated photographic apparatus and method thereof
KR100913396B1 (en) * 2006-12-04 2009-08-21 한국전자통신연구원 Apparatus and method for recognizing person's behaviors using motion vector
KR100940860B1 (en) * 2007-12-18 2010-02-09 한국전자통신연구원 Method and apparatus for generating locomotion of digital creature
WO2010050895A1 (en) * 2008-11-03 2010-05-06 Nanyang Polytechnic System and method for providing command signals from a captured image
WO2010096554A2 (en) * 2009-02-23 2010-08-26 Wellcore Corporation Identifying a type of motion of an object
KR101312625B1 (en) * 2006-11-03 2013-10-01 삼성전자주식회사 Apparatus and method for tracking gesture
US8885920B2 (en) 2009-09-22 2014-11-11 Samsung Electronics Co., Ltd. Image processing apparatus and method
KR20180077987A (en) * 2016-12-29 2018-07-09 이강현 Method for calculating motion data of image
KR102234646B1 (en) * 2020-03-31 2021-04-01 (주)케이넷 이엔지 Apparatus and method for experience of virtual reality
CN115006822A (en) * 2022-05-28 2022-09-06 广州市讯元智体科技有限公司 Intelligent fitness mirror control system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR920022121A (en) * 1991-05-08 1992-12-19 소오 유끼 How to write animation
JPH07281817A (en) * 1994-04-04 1995-10-27 Hitachi Ltd Information processor and its command input method
JPH10154238A (en) * 1996-09-25 1998-06-09 Matsushita Electric Ind Co Ltd Action generation device
JP2000036057A (en) * 1998-07-21 2000-02-02 Hitachi Ltd Action generating method for character
KR20000017755A (en) * 1999-11-11 2000-04-06 황병익 Method for Acquisition of Data About Motion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR920022121A (en) * 1991-05-08 1992-12-19 소오 유끼 How to write animation
JPH07281817A (en) * 1994-04-04 1995-10-27 Hitachi Ltd Information processor and its command input method
JPH10154238A (en) * 1996-09-25 1998-06-09 Matsushita Electric Ind Co Ltd Action generation device
JP2000036057A (en) * 1998-07-21 2000-02-02 Hitachi Ltd Action generating method for character
KR20000017755A (en) * 1999-11-11 2000-04-06 황병익 Method for Acquisition of Data About Motion

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100483639B1 (en) * 2001-02-09 2005-04-15 고나미 가부시끼가이샤 Photographing game machine
US7561741B2 (en) * 2002-12-16 2009-07-14 Lg Electronics, Inc. Apparatus for operating a mobile communication terminal with integrated photographic apparatus and method thereof
US7239718B2 (en) 2002-12-20 2007-07-03 Electronics And Telecommunications Research Institute Apparatus and method for high-speed marker-free motion capture
KR100586815B1 (en) * 2005-04-26 2006-06-08 인하대학교 산학협력단 System and method for measuring position of threedimensions
US8694053B2 (en) 2005-06-20 2014-04-08 Samsung Electronics Co., Ltd. Method for realizing user interface using camera and mobile communication terminal for the same
US8965452B2 (en) 2005-06-20 2015-02-24 Samsung Electronics Co., Ltd Method for realizing user interface using camera and mobile communication terminal for the same
WO2006137670A1 (en) * 2005-06-20 2006-12-28 Samsung Electronics Co., Ltd. Method for realizing user interface using camera and mobile communication terminal for the same
US10545645B2 (en) 2005-06-20 2020-01-28 Samsung Electronics Co., Ltd Method for realizing user interface using camera and mobile communication terminal for the same
US9836196B2 (en) 2005-06-20 2017-12-05 Samsung Electronics Co., Ltd. Method for realizing user interface using camera and mobile communication terminal for the same
WO2007066953A1 (en) * 2005-12-08 2007-06-14 Electronics And Telecommunications Research Institute Apparatus for recognizing three-dimensional motion using linear discriminant analysis
KR100682987B1 (en) * 2005-12-08 2007-02-15 한국전자통신연구원 Apparatus and method for three-dimensional motion recognition using linear discriminant analysis
KR101312625B1 (en) * 2006-11-03 2013-10-01 삼성전자주식회사 Apparatus and method for tracking gesture
KR100913396B1 (en) * 2006-12-04 2009-08-21 한국전자통신연구원 Apparatus and method for recognizing person's behaviors using motion vector
KR100855450B1 (en) * 2007-06-04 2008-09-01 에스케이 텔레콤주식회사 Method for transferring motion style of movie object and apparatus applied to the same
KR100940860B1 (en) * 2007-12-18 2010-02-09 한국전자통신연구원 Method and apparatus for generating locomotion of digital creature
WO2010050895A1 (en) * 2008-11-03 2010-05-06 Nanyang Polytechnic System and method for providing command signals from a captured image
WO2010096554A3 (en) * 2009-02-23 2011-01-13 Wellcore Corporation Identifying a type of motion of an object
WO2010096554A2 (en) * 2009-02-23 2010-08-26 Wellcore Corporation Identifying a type of motion of an object
US8885920B2 (en) 2009-09-22 2014-11-11 Samsung Electronics Co., Ltd. Image processing apparatus and method
KR20180077987A (en) * 2016-12-29 2018-07-09 이강현 Method for calculating motion data of image
KR102234646B1 (en) * 2020-03-31 2021-04-01 (주)케이넷 이엔지 Apparatus and method for experience of virtual reality
CN115006822A (en) * 2022-05-28 2022-09-06 广州市讯元智体科技有限公司 Intelligent fitness mirror control system

Similar Documents

Publication Publication Date Title
KR20020017576A (en) System and method for motion capture using camera image
US7340100B2 (en) Posture recognition apparatus and autonomous robot
US8565479B2 (en) Extraction of skeletons from 3D maps
KR101738569B1 (en) Method and system for gesture recognition
KR100361462B1 (en) Method for Acquisition of Motion Capture Data
US9753119B1 (en) Audio and depth based sound source localization
WO2021085578A1 (en) Ball tracking apparatus and ball tracking method
CN101996311A (en) Yoga stance recognition method and system
Kowalski et al. Holoface: Augmenting human-to-human interactions on hololens
CN105225270A (en) A kind of information processing method and electronic equipment
Kawai et al. A support system for visually impaired persons to understand three-dimensional visual information using acoustic interface
CN113033501A (en) Human body classification method and device based on joint quaternion
Chung et al. Postrack: A low cost real-time motion tracking system for vr application
KR101447958B1 (en) Method and apparatus for recognizing body point
KR101527792B1 (en) Method and apparatus for modeling interactive character
Frigola et al. Visual human machine interface by gestures
Chung et al. Vision based motion tracking system for interactive entertainment applications
JPH05108302A (en) Information input method using voice and pointing action
CN116485953A (en) Data processing method, device, equipment and readable storage medium
CN115223240A (en) Motion real-time counting method and system based on dynamic time warping algorithm
Cordea et al. 3-D head pose recovery for interactive virtual reality avatars
CN109200562A (en) Body-sensing yoga realization method and system
Meers et al. Head-pose tracking with a time-of-flight camera
Kohn et al. Real-time gesture recognition using bio inspired 3D vision sensor
CN112416124A (en) Dance posture feedback method and device

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
N231 Notification of change of applicant
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J801 Dismissal of trial

Free format text: REJECTION OF TRIAL FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20021220

Effective date: 20040430

Free format text: TRIAL NUMBER: 2002101004726; REJECTION OF TRIAL FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20021220

Effective date: 20040430