Nothing Special   »   [go: up one dir, main page]

KR20180015570A - Apparatus and method for processing image pair obtained from a stereo camera - Google Patents

Apparatus and method for processing image pair obtained from a stereo camera Download PDF

Info

Publication number
KR20180015570A
KR20180015570A KR1020170078174A KR20170078174A KR20180015570A KR 20180015570 A KR20180015570 A KR 20180015570A KR 1020170078174 A KR1020170078174 A KR 1020170078174A KR 20170078174 A KR20170078174 A KR 20170078174A KR 20180015570 A KR20180015570 A KR 20180015570A
Authority
KR
South Korea
Prior art keywords
frame image
image
feature
image pair
subject
Prior art date
Application number
KR1020170078174A
Other languages
Korean (ko)
Other versions
KR102458242B1 (en
Inventor
밍카이 저우
지화 리우
춘 왕
장현성
허진구
린 마
타오 홍
웨이헹 리우
웨이밍 리
자이란 왕
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/668,261 priority Critical patent/US20180041747A1/en
Publication of KR20180015570A publication Critical patent/KR20180015570A/en
Application granted granted Critical
Publication of KR102458242B1 publication Critical patent/KR102458242B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • H04N13/0246
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

An apparatus of processing an image pair is capable of generating a target region, including a subject, from each of a first frame image and a second frame image of an image pair and extracting one or more feature points from the generated target region. The apparatus of processing an image pair is capable of connecting the feature points based on a spatial distance of the feature points to generate a tree having the feature points as nodes. Also, the apparatus of processing an image pair is capable of determining cost required when matching a feature point corresponding to a node with respect to a plurality of frame images, and capable of accumulating cost determined for each node according to a branch of the tree. The apparatus of processing an image pair is capable of determining a disparity of a feature point based on a result of accumulating the cost. The determined disparity can be used for determining a distance between the subject and a stereo camera that photographs an image pair. Further, the apparatus of processing an image pair is capable of tracking a position of the subject commonly included in a plurality of image pairs sequentially photographed according to a time.

Description

스테레오 카메라로부터 획득된 이미지 페어를 처리하는 장치 및 방법{APPARATUS AND METHOD FOR PROCESSING IMAGE PAIR OBTAINED FROM A STEREO CAMERA}[0001] APPARATUS AND METHOD FOR PROCESSING IMAGE PAIR OBTAINED FROM A STEREO CAMERA [0002]

이하의 실시예들은 스테레오 카메라로부터 획득된 이미지 페어를 처리하는 장치 및 방법에 관한 것이다.The following embodiments are directed to an apparatus and method for processing an image pair obtained from a stereo camera.

사람의 시각은 주위 환경의 정보를 얻기 위한 감각의 하나로서, 양안을 통해 사물의 위치와 멀고 가까움을 인지할 수 있다. 사람의 뇌는 양안을 통해 들어오는 시각 정보들로부터 하나의 거리정보로 합성함으로써, 보이는 물체의 거리를 결정할 수 있다. 스테레오 카메라 시스템은 상술한 사람의 시각 기능을 기계로 구현한 시스템이다. 스테레오 카메라 시스템은 두 개의 카메라를 이용하여 얻은 이미지 페어에 스테레오 매칭(stereo matching)을 수행할 수 있다. 스테레오 카메라 시스템은 스테레오 매칭을 통해 촬영된 이미지에 포함된 피사체의 양안 시차(Binocular parallax)를 결정하고, 이미지의 모든 픽셀 또는 피사체에 대한 양안 시차 맵을 결정할 수 있다.Human vision is one of the senses for obtaining the information of the surrounding environment, and it can be recognized that the position of the object is far and near through the binocular. The human brain can determine the distance of visible objects by composing them into one distance information from the visual information coming in through the binocular. The stereo camera system is a system in which the above-described visual function of a person is implemented by a machine. A stereo camera system can perform stereo matching on image pairs obtained using two cameras. The stereo camera system can determine the binocular parallax of the subject included in the photographed image through stereo matching and determine the binocular disparity map for all pixels or objects in the image.

일실시예에 따르면, 피사체를 촬영한 스테레오 카메라로부터 획득된 이미지 페어의 제1 프레임 이미지 및 제2 프레임 이미지 각각에서, 상기 피사체가 포함된 타겟 영역을 생성하는 단계, 상기 타겟 영역내의 특징 포인트를 추출하는 단계, 상기 제1 프레임 이미지에서 추출된 특징 포인트 및 상기 제2 프레임 이미지에서 추출된 특징 포인트를 매칭하여, 상기 특징 포인트의 시차를 계산하는 단계 및 상기 특징 포인트의 시차에 기초하여, 상기 피사체 및 상기 스테레오 카메라 간의 거리를 결정하는 단계를 포함하는 이미지 페어 처리 방법이 제공된다.According to one embodiment, in each of a first frame image and a second frame image of an image pair obtained from a stereo camera that photographs a subject, creating a target area including the subject, extracting feature points in the target area Calculating a parallax of the feature point by matching the feature point extracted from the first frame image and the feature point extracted from the second frame image and calculating the parallax of the feature point based on the parallax of the feature point, And determining a distance between the stereo cameras.

일실시예에 따르면, 상기 계산하는 단계는, 상기 제1 프레임 이미지의 특징 포인트들 간의 수평 거리, 수직 거리 또는 유클리디언 거리에 기초하여 상기 제1 프레임 이미지의 특징 포인트들을 연결하여, 상기 제1 프레임 이미지의 특징 포인트들을 노드로 하는 제1 트리를 생성하는 단계, 상기 제2 프레임 이미지의 특징 포인트들 간의 수평 거리, 수직 거리 또는 유클리디언 거리에 기초하여 상기 제2 프레임 이미지의 특징 포인트들을 연결하여, 상기 제2 프레임 이미지의 특징 포인트들을 노드로 하는 제2 트리를 생성하는 단계 및 상기 제1 프레임 이미지의 특징 포인트 및 상기 제2 프레임 이미지의 특징 포인트의 시차를 계산하기 위하여, 상기 제1 트리의 노드들 및 상기 제2 트리의 노드들을 매칭하는 단계를 포함하는 이미지 페어 처리 방법이 제공된다.According to one embodiment, the calculating step comprises concatenating feature points of the first frame image based on a horizontal distance, a vertical distance or an Euclidean distance between the feature points of the first frame image, Generating a first tree having feature points of a frame image as nodes, connecting feature points of the second frame image based on a horizontal distance, a vertical distance, or an Euclidean distance between the feature points of the second frame image Generating a second tree having feature points of the second frame image as nodes and calculating a parallax of feature points of the first frame image and feature points of the second frame image, And matching the nodes of the second tree and the nodes of the second tree.

일실시예에 따르면, 상기 매칭하는 단계는, 상기 제1 트리의 노드들 및 상기 제2 트리의 노드들을 매칭할 때의 비용을 상기 제1 트리의 노드들의 가지를 따라 누적하는 단계 및 상기 누적된 비용에 기초하여 상기 제1 프레임 이미지의 특징 포인트 및 상기 제2 프레임 이미지의 특징 포인트의 시차를 결정하는 단계를 포함하고, 상기 비용은, 매칭의 대상이 되는 상기 제1 트리의 노드 및 상기 제2 트리의 노드의 휘도 및 시차에 기초하여 결정되는 이미지 페어 처리 방법이 제공된다.According to one embodiment, the matching step comprises accumulating the costs of matching the nodes of the first tree and the nodes of the second tree along the branches of the nodes of the first tree, And determining the parallax of the feature point of the first frame image and the feature point of the second frame image based on the cost, wherein the cost is determined based on the node of the first tree and the second There is provided an image fair processing method which is determined based on luminance and parallax of a node of a tree.

일실시예에 따르면, 상기 제1 프레임 이미지의 타겟 영역 및 상기 타겟 영역의 위치에 따라 결정되는 제2 프레임 이미지의 대응 영역간의 휘도 차이에 기초하여, 상기 피사체와 관련된 시차 범위를 결정하는 단계를 더 포함하는 이미지 페어 처리 방법이 제공된다.According to one embodiment, the step of determining a parallax range associated with the subject based on a luminance difference between a corresponding region of the second frame image determined according to the target region of the first frame image and the position of the target region A method of processing an image pair is provided.

일실시예에 따르면, 상기 특징 포인트의 시차를 계산하는 단계는, 상기 결정된 시차 범위내에서 상기 제1 프레임 이미지에서 추출된 특징 포인트 및 상기 제2 프레임 이미지에서 추출된 특징 포인트를 매칭하는 이미지 페어 처리 방법이 제공된다.According to an embodiment, the step of calculating the parallax of the feature point may include an image pair process for matching feature points extracted from the first frame image and feature points extracted from the second frame image within the determined disparity range Method is provided.

일실시예에 따르면, 상기 시차 범위를 결정하는 단계는, 상기 제2 프레임 이미지의 대응 영역을 평행 이동하는 단계 및 상기 평행 이동된 상기 대응 영역 및 상기 제1 프레임 이미지의 타겟 영역의 휘도를 비교하는 단계를 포함하는 이미지 페어 처리 방법이 제공된다.According to one embodiment, the step of determining the parallax range comprises the steps of parallel shifting the corresponding area of the second frame image and comparing the luminance of the corresponding area of the parallel area and the target area of the first frame image There is provided an image pair processing method including the steps of:

일실시예에 따르면, 상기 타겟 영역의 특징 값을 추출하는 단계, 상기 추출된 특징 값에 기초하여, 상기 이미지 페어의 특징값 평면을 생성하는 단계, 상기 이미지 페어 이전에 획득된 이미지 페어의 특징값 평면으로부터 생성된 특징값 평면 모델과 상기 특징값 평면을 비교하는 단계 및 상기 특징값 평면 모델과 상기 특징값 평면을 비교한 결과에 기초하여, 상기 이미지 페어에서 상기 피사체의 위치를 결정하는 단계를 더 포함하는 이미지 페어 처리 방법이 제공된다.According to one embodiment, there is provided a method of generating a feature value, the method comprising: extracting a feature value of the target area; generating a feature value plane of the image pair based on the extracted feature value; Comparing the feature value plane model generated from the plane with the feature value plane and determining the position of the object in the image pair based on a result of comparing the feature value plane model with the feature value plane, A method of processing an image pair is provided.

일실시예에 따르면, 상기 결정된 피사체의 위치에 기초하여 상기 특징값 평면 모델을 변경하는 단계를 더 포함하는 이미지 페어 처리 방법이 제공된다.According to one embodiment, there is provided an image fair processing method, further comprising changing the feature value plane model based on the determined position of the subject.

일실시예에 따르면, 피사체를 촬영한 이미지 페어가 저장되는 메모리 및 상기 이미지 페어를 처리하는 프로세서를 포함하고, 상기 프로세서는, 상기 이미지 페어의 제1 프레임 이미지 및 제2 프레임 이미지 각각에서, 상기 피사체가 포함된 타겟 영역을 생성하고, 상기 타겟 영역내의 특징 포인트를 추출하고, 상기 제1 프레임 이미지에서 추출된 특징 포인트 및 상기 제2 프레임 이미지에서 추출된 특징 포인트를 매칭하여, 상기 특징 포인트의 시차를 계산하고, 상기 특징 포인트의 시차에 기초하여, 상기 피사체 및 상기 스테레오 카메라 간의 거리를 결정하는 이미지 페어 처리 장치가 제공된다.According to one embodiment, there is provided a computer program product comprising a memory in which an image pair photographed by a subject is stored, and a processor for processing the image pair, wherein in each of a first frame image and a second frame image of the image pair, Extracting feature points in the target area, matching the feature points extracted in the first frame image and the feature points extracted in the second frame image, and calculating a parallax of the feature points And determines a distance between the subject and the stereo camera based on the parallax of the feature point.

일실시예에 따르면, 상기 프로세서는, 상기 제1 프레임 이미지의 특징 포인트들을 노드로 하는 제1 트리 및 상기 제2 프레임 이미지의 특징 포인트들을 노드로 하는 제2 트리를 매칭할 때의 비용에 기초하여, 상기 제1 프레임 이미지의 특징 포인트 및 상기 제2 프레임 이미지의 특징 포인트의 시차를 계산하는 이미지 페어 처리 장치가 제공된다.According to one embodiment, the processor is further configured to determine, based on the cost of matching a first tree having feature points of the first frame image as nodes and a second tree of feature points of the second frame image as nodes A feature point of the first frame image, and a feature point of the second frame image.

일실시예에 따르면, 상기 프로세서는, 상기 제1 트리의 노드에 대응하는 특징 포인트 및 상기 제2 트리의 노드에 대응하는 특징 포인트의 휘도 및 시차에 기초하여 결정된 유사도를 이용하여 상기 비용을 결정하는 이미지 페어 처리 장치가 제공된다.According to one embodiment, the processor determines the cost using the similarity determined based on the luminance and the parallax of the feature point corresponding to the node of the first tree and the feature point corresponding to the node of the second tree An image pair processing apparatus is provided.

일실시예에 따르면, 상기 제1 트리 및 상기 제2 트리 각각은, 공간 거리가 가장 작은 상기 제1 프레임 이미지의 특징 포인트들 및 공간 거리가 가장 작은 상기 제2 프레임 이미지의 특징 포인트들을 연결하여 생성되는 이미지 페어 처리 장치가 제공된다.According to one embodiment, each of the first tree and the second tree is generated by connecting feature points of the first frame image having the smallest spatial distance and feature points of the second frame image having the smallest spatial distance Is provided.

일실시예에 따르면, 상기 프로세서는, 상기 제1 프레임 이미지의 타겟 영역 및 상기 타겟 영역의 위치에 따라 결정되는 제2 프레임 이미지의 대응 영역간의 휘도 차이에 기초하여, 상기 피사체와 관련된 시차 범위를 결정하는 이미지 페어 처리 장치가 제공된다.According to one embodiment, the processor determines a parallax range associated with the subject based on a luminance difference between a corresponding region of a second frame image determined according to a target region of the first frame image and a position of the target region An image pair processing apparatus is provided.

일실시예에 따르면, 상기 프로세서는, 상기 결정된 시차 범위내에서 상기 제1 프레임 이미지에서 추출된 특징 포인트 및 상기 제2 프레임 이미지에서 추출된 특징 포인트를 매칭하는 이미지 페어 처리 장치가 제공된다.According to one embodiment, the processor is provided with an image pair processing apparatus for matching feature points extracted from the first frame image and feature points extracted from the second frame image within the determined disparity range.

일실시예에 따르면, 상기 프로세서는, 상기 타겟 영역의 특징 값을 추출하고, 상기 추출된 특징 값에 기초하여, 상기 이미지 페어의 특징 값 평면을 생성하고, 상기 이미지 페어 이전에 획득된 이미지 페어의 특징 값 평면으로부터 생성된 특징 값 평면 모델과 상기 특징 값 평면을 비교하고, 상기 특징 값 평면 모델과 상기 특징 값 평면을 비교한 결과에 기초하여, 상기 이미지 페어에서 상기 피사체의 위치를 결정하는 이미지 페어 처리 장치가 제공된다.According to one embodiment, the processor is configured to extract a feature value of the target area, generate a feature value plane of the image pair based on the extracted feature value, and generate a feature value plane of the image pair obtained before the image pair An image pair that determines the position of the subject in the image pair based on a result of comparing the feature value plane model generated from the feature value plane and the feature value plane, Processing apparatus is provided.

도 1은 일실시예에 따른 이미지 페어 처리 장치의 구조를 설명하기 위한 개념적인 도면이다.
도 2는 일실시예에 따른 이미지 페어 처리 장치가 프레임 이미지에서 타겟 영역을 생성하고, 생성된 타겟 영역을 이용하여 피사체의 시차 범위를 결정하는 동작을 설명하기 위한 예시적인 도면이다.
도 3은 일실시예에 따른 이미지 페어 처리 장치가 도 2의 예시로부터 계산한 휘도 차이를 도시한 그래프이다.
도 4는 일실시예에 따른 이미지 페어 처리 장치가 타겟 영역 내의 특징 포인트를 결정하는 동작을 설명하기 위한 예시적인 도면이다.
도 5는 일실시예에 따른 이미지 페어 처리 장치가 최소 트리를 생성하는 동작을 설명하기 위한 예시적인 도면이다.
도 6은 AD, census, AD+census에 대한 비교 실험 결과를 도시한 도면이다.
도 7은 일실시예에 따른 이미지 페어 처리 장치가 이미지 페어에 포함된 피사체 및 스테레오 카메라간의 거리를 결정하는 동작을 설명하기 위한 도면이다.
도 8은 일실시예에 따른 이미지 페어 처리 장치가 복수의 이미지 페어에 공통적으로 포함된 피사체의 위치를 추적하는 동작을 설명하기 위한 흐름도이다.
도 9는 일실시예에 따른 이미지 페어 처리 장치가 특징값 평면을 특징값 평면 모델로 피팅하여 계산한 응답값의 분포를 도시한 그래프이다.
1 is a conceptual diagram for explaining a structure of an image pair processing apparatus according to an embodiment.
2 is an exemplary diagram for explaining an operation of an image-pair processing apparatus according to an embodiment for generating a target area in a frame image and determining a parallax range of the object using the generated target area.
3 is a graph showing the luminance difference calculated from the example of FIG. 2 by the image pair processing apparatus according to one embodiment.
4 is an exemplary diagram for explaining an operation in which an image pair processing apparatus according to an embodiment determines feature points in a target area.
5 is an exemplary diagram illustrating an operation in which an image pair processing apparatus according to an embodiment generates a minimum tree.
6 is a graph showing the results of a comparative experiment for AD, census, and AD + census.
FIG. 7 is a diagram for explaining an operation of determining an image pair processing apparatus according to an embodiment, the distance between a subject and a stereo camera included in an image pair. FIG.
Fig. 8 is a flowchart for explaining an operation of an image-pair processing apparatus according to an embodiment for tracking the position of an object commonly included in a plurality of image pairs.
9 is a graph showing a distribution of response values calculated by fitting an image plane processing apparatus according to an embodiment to a feature value plane model.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of embodiments are set forth for illustration purposes only and may be embodied with various changes and modifications. Accordingly, the embodiments are not intended to be limited to the specific forms disclosed, and the scope of the disclosure includes changes, equivalents, or alternatives included in the technical idea.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first or second, etc. may be used to describe various elements, but such terms should be interpreted solely for the purpose of distinguishing one element from another. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected or connected to the other element, although other elements may be present in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises ", or" having ", and the like, are used to specify one or more of the described features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 일실시예에 따른 이미지 페어 처리 장치의 구조를 설명하기 위한 개념적인 도면이다. 일실시예에 따른 이미지 페어 처리 장치는 차량, 로봇, 스마트 착용 장비, 컴퓨터 단말 또는 이동 단말에 적용될 수 있다.1 is a conceptual diagram for explaining a structure of an image pair processing apparatus according to an embodiment. The image pair processing apparatus according to one embodiment may be applied to a vehicle, a robot, a smart wearing equipment, a computer terminal or a mobile terminal.

도 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치는 이미지 페어를 수신하기 위하여 서로 다른 각도에서 피사체를 촬영하는 스테레오 카메라(101)를 포함할 수 있다. 다른 실시예에 따르면, 이미지 페어 처리 장치는 스테레오 카메라(101)와 유선 네트워크 또는 무선 네트워크를 통해 연결될 수 있고, 스테레오 카메라(101)가 획득한 이미지 페어를 수신하여 저장할 수 있다.Referring to FIG. 1, an image pair processing apparatus according to an embodiment may include a stereo camera 101 for photographing a subject at different angles to receive an image pair. According to another embodiment, the image pair processing apparatus may be connected to the stereo camera 101 via a wired network or a wireless network, and may receive and store the image pair acquired by the stereo camera 101. [

스테레오 카메라(101)는 동일한 피사체를 촬영하는 복수의 이미지 센서를 포함할 수 있다. 두 개의 이미지 센서는 일정한 거리만큼 이격되어 배치될 수 있다. 이미지 센서들 각각은 피사체를 촬영하여 프레임 이미지를 생성할 수 있고, 스테레오 카메라(101)는 피사체를 촬영한 시간에 따라 프레임 이미지들의 페어(이미지 페어)를 출력할 수 있다. 이하에서는, 스테레오 카메라(101)가 사람의 두 눈과 유사하게 서로 다른 각도에서 피사체를 촬영하는 제1 이미지 센서 및 제2 이미지 센서를 포함하는 것으로 가정한다. 제1 이미지 센서 및 제2 이미지 센서들 각각은 피사체를 촬영하여 제1 프레임 이미지 및 제2 프레임 이미지를 출력할 수 있다.The stereo camera 101 may include a plurality of image sensors that photograph the same object. The two image sensors may be spaced apart by a certain distance. Each of the image sensors can photograph a subject to generate a frame image, and the stereo camera 101 can output a pair (image pair) of frame images according to the time when the subject is photographed. Hereinafter, it is assumed that the stereo camera 101 includes a first image sensor and a second image sensor that photograph a subject at different angles, similar to two eyes of a person. Each of the first image sensor and the second image sensor may photograph a subject to output a first frame image and a second frame image.

도 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치는 이미지 페어의 제1 프레임 이미지 및 제2 프레임 이미지 각각에서, 피사체가 포함된 타겟 영역을 생성하는 타겟 영역 생성기(102)를 포함할 수 있다. 타겟 영역 생성기(102)는 제1 프레임 이미지에서 피사체가 포함된 일부분을 포함하는 제1 프레임 이미지의 타겟 영역을 생성할 수 있다. 유사하게, 타겟 영역 생성기(102)는 제2 프레임 이미지에서 피사체가 포함된 일부분을 포함하는 제2 프레임 이미지의 타겟 영역을 생성할 수 있다. 타겟 영역의 형태는 다각형 또는 원형일 수 있으며, 피사체의 형태를 고려하여 결정될 수 있다.Referring to FIG. 1, an image pair processing apparatus according to an embodiment may include a target area generator 102 for generating, in each of a first frame image and a second frame image of an image pair, a target area including a subject have. The target area generator 102 may generate a target area of the first frame image including a portion including the subject in the first frame image. Similarly, the target area generator 102 may generate a target area of a second frame image that includes a portion in which the subject is included in the second frame image. The shape of the target area may be polygonal or circular, and may be determined in consideration of the shape of the subject.

도 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치는 타겟 영역내의 특징 포인트를 추출하는 특징 포인트 추출기(103)를 포함할 수 있다. 특징 포인트 추출기(103)는 이미지 페어의 모든 프레임 이미지에 대하여 특징 포인트를 추출할 수 있다. 특징 포인트는 복수의 프레임 이미지의 매칭을 용이하게 만드는 타겟 영역내의 픽셀로 선택될 수 있다. 복수의 프레임 이미지의 매칭은 복수의 프레임 이미지에 공통된 픽셀, 피사체, 배경을 식별하도록 복수의 프레임 이미지를 처리하는 동작을 의미한다.Referring to FIG. 1, an image pair processing apparatus according to an embodiment may include a feature point extractor 103 for extracting feature points in a target area. Feature point extractor 103 may extract feature points for all frame images of the image pair. The feature point may be selected as a pixel in the target area that facilitates matching of the plurality of frame images. Matching of a plurality of frame images means an operation of processing a plurality of frame images so as to identify a pixel, a subject, and a background common to a plurality of frame images.

도 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치는 복수의 프레임 이미지들 각각의 특징 포인트들을 연결하는 특징 포인트 연결기(107)를 포함할 수 있다. 특징 포인트 연결기(107)는 특징 포인트 사이의 공간 거리에 기초하여 특징 포인트를 연결할 수 있다. 특징 포인트 연결기(107)는 복수의 프레임 이미지들 각각의 타겟 영역에서 특징 포인트들을 연결하여 연결 그래프를 생성할 수 있다.Referring to FIG. 1, an image pair processing apparatus according to an embodiment may include a feature point connector 107 connecting feature points of each of a plurality of frame images. Feature point connector 107 may connect feature points based on the spatial distance between feature points. Feature point connector 107 may connect feature points in a target area of each of a plurality of frame images to generate a connection graph.

도 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치는 복수의 프레임 이미지들의 특징 포인트를 매칭할 때의 비용을 측정하는 매칭 비용 측정기(104)를 포함할 수 있다. 매칭 비용 측정기(104)는 특징 포인트 연결기(107)에 의해 생성된 연결 그래프를 이용하여 특징 포인트를 매칭할 때의 비용을 측정할 수 있다. 매칭 비용 측정기(104)는 연결 그래프에 기초하여, 특징 포인트들 각각에서 측정된 비용을 누적할 수 있다.Referring to FIG. 1, an image pair processing apparatus according to an exemplary embodiment may include a matching cost measurer 104 for measuring a cost when matching feature points of a plurality of frame images. The matching cost measurer 104 may measure the cost of matching feature points using the connection graph generated by the feature point connector 107. [ The matching cost measurer 104 may accumulate the measured costs at each of the feature points based on the connection graph.

보다 구체적으로, 도 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치는 연결 그래프로부터 최소 트리를 생성하는 최소 트리 생성기(108)를 포함할 수 있다. 최소 트리는 복수의 프레임 이미지들의 타겟 영역 각각에 대하여 생성될 수 있으며, 타겟 영역 내의 모든 특징 포인트들을 최소 트리의 노드로써 포함할 수 있다. 최소 트리의 예로 최소 비용 생성 트리(minimum cost spanning tree)가 있다. 매칭 비용 측정기(104)는 최소 트리 생성기(108)에 의해 생성된 최소 트리에 기초하여, 특징 포인트들 각각에서 측정된 비용을 누적할 수 있다. 보다 구체적으로, 매칭 비용 측정기(104)는 모든 특징 포인트를 노드로 하는 최소 트리에서, 각 노드에 대응하는 특징 포인트를 매칭할 때의 비용을 결정한 다음, 노드의 가지를 따라 결정된 비용을 누적할 수 있다. 즉, 매칭 비용 측정기(104)가 최소 트리를 따라 비용을 누적함으로써, 특징 포인트 연결기(107)에 의해 생성된 연결 그래프보다 가지가 감소된 최소 트리가 사용될 수 있다. 따라서, 비용을 누적할 때 필요한 계산량이 줄어들 수 있다.More specifically, with reference to FIG. 1, an image pair processing apparatus according to an embodiment may include a minimum tree generator 108 that generates a minimum tree from a connection graph. The minimum tree may be created for each of the target regions of the plurality of frame images and may include all feature points within the target region as nodes of the minimum tree. An example of a minimal tree is a minimum cost spanning tree. The matching cost measurer 104 may accumulate the measured costs at each of the feature points based on the minimum tree generated by the minimum tree generator 108. [ More specifically, the matching cost measurer 104 determines the cost of matching the feature points corresponding to each node in the minimum tree with all the feature points as nodes, and then accumulates the determined cost along the branches of the nodes have. That is, the matching tree 104 accumulates costs along the minimum tree, so that a minimum tree with a reduced branch than the connection graph generated by the feature point connector 107 can be used. Therefore, the amount of calculation required when accumulating costs can be reduced.

매칭 비용 측정기(104)가 특징 포인트를 매칭할 때의 비용을 측정하는 과정에서, 피사체의 시차 범위가 활용될 수 있다. 도 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치는 복수의 프레임 이미지의 타겟 영역들의 휘도 차이에 기초하여, 피사체와 관련된 시차 범위를 결정하는 시차 범위 결정기(109)를 포함할 수 있다. 시차 범위 결정기(109)는 이미지 페어의 특정 프레임 이미지의 타겟 영역에 대하여, 다른 프레임 이미지에서 특정 프레임 이미지의 타겟 영역과 동일한 높이, 형태 및 크기를 가지는 대응 영역을 식별한 다음, 특정 프레임 이미지의 타겟 영역과 다른 프레임 이미지의 대응 영역의 휘도의 차이값을 결정할 수 있다. 시차 범위 결정기(109)는 최소의 휘도 차이값에 기초하여 피사체의 시차 범위를 결정할 수 있다. 매칭 비용 측정기(104)는 결정된 시차 범위에 기초하여 특징 포인트들을 매칭할 수 있다. 따라서, 특징 포인트를 매칭할 때의 비용을 측정하는 속도가 향상될 수 있다.In the process of measuring the cost when the matching cost measurer 104 matches feature points, the parallax range of the subject can be utilized. Referring to FIG. 1, an image pair processing apparatus according to an embodiment may include a parallax range determiner 109 for determining a parallax range associated with a subject, based on a luminance difference of target areas of a plurality of frame images. The parallax range determiner 109 identifies, for the target area of the specific frame image of the image pair, a corresponding area having the same height, shape and size as the target area of the specific frame image in the other frame image, It is possible to determine the difference value of the luminance of the corresponding region of the region and the other frame image. The parallax range determiner 109 can determine the parallax range of the subject based on the minimum luminance difference value. The matching cost measurer 104 may match feature points based on the determined disparity range. Thus, the speed of measuring the cost when matching feature points can be improved.

도 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치는 누적된 비용에 기초하여 특징 포인트의 시차를 계산하는 특징 포인트 시차 계산기(105)를 포함할 수 있다. 특징 포인트 시차 계산기(105)는 누적된 비용을 최소로 하는 시차를 특징 포인트의 시차로 결정할 수 있다. 특징 포인트 시차 계산기(105)는 타겟 영역 내의 모든 특징 포인트들의 시차를 결정할 수 있다.Referring to FIG. 1, an image pair processing apparatus according to an embodiment may include a feature point disparity calculator 105 that calculates a disparity of a feature point based on accumulated costs. The feature point time difference calculator 105 can determine the time difference that minimizes the accumulated cost as the time difference of the feature point. Feature point disparity calculator 105 can determine the disparity of all feature points in the target area.

도 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치는 타겟 영역 내의 특징 포인트들 각각의 시차에 기초하여, 피사체 및 스테레오 카메라(101) 간의 거리를 결정하는 피사체 거리 결정기(106)를 포함할 수 있다. 피사체 거리 결정기(106)는 결정된 피사체 및 스테레오 카메라(101) 간의 거리에 기초하여, 알람 처리 또는 조작적 처리(operational treatment)를 수행할 수 있다.1, an image pair processing apparatus according to an embodiment includes a subject distance determiner 106 that determines a distance between a subject and a stereo camera 101, based on the parallax of each of the feature points in the target area . The subject distance determiner 106 can perform alarm processing or operational treatment based on the distance between the determined subject and the stereo camera 101. [

도 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치는 시간을 따라 순차적으로 획득된 복수의 이미지 페어에서 피사체의 위치를 추적하는 피사체 추적기(110)를 포함할 수 있다. 스테레오 카메라(101)로부터 새롭게 획득된 이미지 페어가 입력될 때마다, 피사체 추적기(110)는 과거에 입력된 이미지 페어에서 피사체를 추적한 결과에 기초하여 새롭게 획득된 이미지 페어의 피사체의 위치를 결정할 수 있다.Referring to FIG. 1, an image pair processing apparatus according to an exemplary embodiment may include a subject tracker 110 for tracking the position of a subject in a plurality of image pairs sequentially obtained over time. Every time a newly acquired image pair is input from the stereo camera 101, the subject tracker 110 can determine the position of the subject of the newly acquired image pair based on the result of tracking the subject in an image pair entered in the past have.

도 1에 도시된 이미지 페어 처리 장치의 구조는 개념적인 것으로, 도시된 타겟 영역 생성기(102), 특징 포인트 추출기(103), 매칭 비용 측정기(104), 특징 포인트 시차 계산기(105), 피사체 거리 결정기(106), 특징 포인트 연결기(107), 최소 트리 생성기(108), 시차 범위 결정기 및 피사체 추적기(110)는 하나 이상의 싱글-코어 프로세서 또는 멀티-코어 프로세서로 구현될 수 있다. 도시된 타겟 영역 생성기(102) 내지 피사체 추적기(110)는 하나 이상의 프로세서 및 메모리의 조합으로 구현될 수 있다.The structure of the image pair processing apparatus shown in FIG. 1 is conceptual and includes a target area generator 102, a feature point extractor 103, a matching cost measurer 104, a feature point time difference calculator 105, The feature point connector 107, the minimum tree generator 108, the disparity range determiner, and the object tracker 110 may be implemented as one or more single-core processors or multi-core processors. The illustrated target region generator 102 to subject tracker 110 may be implemented as a combination of one or more processors and memories.

도 2는 일실시예에 따른 이미지 페어 처리 장치가 프레임 이미지에서 타겟 영역(210)을 생성하고, 생성된 타겟 영역(210)을 이용하여 피사체의 시차 범위를 결정하는 동작을 설명하기 위한 예시적인 도면이다. 2 is an exemplary diagram for explaining an operation of an image-pair processing apparatus according to an embodiment for generating a target area 210 in a frame image and determining a parallax range of a subject using the generated target area 210 to be.

시차는 수평 방향으로 일정한 거리만큼 이격된 두 개의 이미지 센서에서 동일한 피사체를 촬영하여 생성된 두 개의 프레임 이미지에서, 두 개의 프레임 이미지 각각에 포함된 피사체의 이미지의 수평 좌표의 차이를 의미한다. 도 1의 스테레오 카메라(101)로부터 획득된 이미지 페어에서, 시차는 제1 프레임 이미지 및 제2 프레임 이미지 각각에 포함된 피사체의 위치의 차이를 의미한다.The parallax means a difference in horizontal coordinate of an image of a subject included in each of two frame images in two frame images generated by photographing the same subject in two image sensors spaced by a certain distance in the horizontal direction. In the image pair obtained from the stereo camera 101 of Fig. 1, the parallax means a difference in the position of the subject included in each of the first frame image and the second frame image.

이미지 페어가 동일한 피사체를 촬영하여 획득된 프레임 이미지의 페어이므로, 제1 프레임 이미지의 피사체 이미지를 픽셀 단위로 평행이동하는 경우, 제1 프레임 이미지의 평행이동된 피사체 이미지는 제2 프레임 이미지의 피사체 이미지와 중첩될 수 있다. 도 2를 참고하면, 이미지 페어 처리 장치는 피사체(도 2의 경우, 자동차)보다 약간 넓은 타겟 영역(210)을 단위로 평행이동을 수행할 수 있다.When the object image of the first frame image is moved in parallel on a pixel-by-pixel basis, the parallel-shifted object image of the first frame image is a pair of frame images obtained by photographing the same subject, Lt; / RTI > Referring to FIG. 2, the image pair processing apparatus can perform parallel movement in units of a target area 210 slightly wider than the subject (in the case of FIG. 2, the car).

이하에서는 이미지 페어 처리 장치가 제1 프레임 이미지(예를 들어, 스테레오 카메라 중에서 좌측 카메라로부터 획득된 좌측 영상)로부터 타겟 영역(210)을 생성한 것으로 가정한다. 이미지 페어 처리 장치는 제1 프레임 이미지의 타겟 영역(210)의 제1 프레임 이미지상의 좌표에 기초하여, 타겟 영역(210)에 대응하는 제2 프레임 이미지(220)(예를 들어, 스테레오 카메라 중에서 우측 카메라로부터 획득된 우측 영상)의 영역(이하 타겟 영역(210)의 대응 영역이라 한다)을 결정할 수 있다.Hereinafter, it is assumed that the image pair processing apparatus has created the target area 210 from the first frame image (for example, the left image obtained from the left camera in the stereo camera). The image pair processing device may generate a second frame image 220 corresponding to the target area 210 (e.g., the right side of the stereo camera 220) based on the coordinates on the first frame image of the target area 210 of the first frame image (Hereinafter, referred to as a corresponding region of the target region 210) of the target region 210 (the right image obtained from the camera).

이미지 페어 처리 장치는 대응 영역을 타겟 영역(210)의 좌표에 기초하여 평행이동하여, 복수 개의 대응 영역을 생성할 수 있다. 예를 들어, 이미지 페어 처리 장치는 타겟 영역(210)과 동일한 좌표 및 크기를 가지는 제2 프레임 이미지(220)의 영역을 수평 방향(예를 들어, x축의 양의 방향)으로 k 픽셀만큼 평행이동하여, 대응 영역 k를 생성할 수 있다. 따라서, 타겟 영역(210) 및 대응 영역 k의 좌표는 k 개 픽셀만큼 다를 수 있다. 타겟 영역(210)이 피사체를 포함하는 영역으로 설정되므로, 복수 개의 대응 영역이 피사체를 포함할 수 있다.The image pair processing apparatus can translate the corresponding region based on the coordinates of the target region 210 to generate a plurality of corresponding regions. For example, the image pair processing apparatus may move an area of the second frame image 220 having the same coordinates and size as the target area 210 by k pixels in the horizontal direction (for example, positive direction of the x axis) , So that the corresponding region k can be generated. Thus, the coordinates of the target area 210 and the corresponding area k may differ by k pixels. Since the target area 210 is set as the area including the subject, a plurality of corresponding areas may include the subject.

이미지 페어 처리 장치는 생성된 복수의 대응 영역 및 타겟 영역(210)의 휘도 차이에 기초하여, 피사체와 관련된 시차 범위를 결정할 수 있다. 상기 휘도 차이를 최소로 하는 대응 영역의 위치 및 타겟 영역(210)의 위치의 차이가 피사체의 시차일 수 있다. 시차 범위는 휘도 차이를 최소로 하는 대응 영역 및 타겟 영역(210)의 시차를 포함할 수 있다. 예를 들어, 대응 영역 α 및 타겟 영역(210)의 휘도 차이가 최소인 경우, 시차 범위는 대응 영역 α이 타겟 영역(210)의 위치를 기준으로 평행 이동한 정도인 α를 포함할 수 있다.The image pair processing apparatus can determine the parallax range associated with the subject based on the generated difference of the plurality of corresponding regions and the target region 210. [ The difference between the position of the corresponding region and the position of the target region 210 that minimizes the luminance difference may be the parallax of the subject. The parallax range may include the parallax of the corresponding area and the target area 210 that minimize the luminance difference. For example, if the difference in luminance between the corresponding region? And the target region 210 is minimal, the parallax range may include?, Which is the degree to which the corresponding region? Has moved parallel to the position of the target region 210. [

도 2를 참고하면, 이미지 페어 처리 장치는 제2 프레임 이미지(220)의 대응 영역을 스윕 라인(sweep line)(230, 240)을 따라 평행이동할 수 있다. 스윕 라인(230, 240)은 제2 프레임 이미지(220)의 수평 축 또는 x 축에 평행한 선으로 결정될 수 있다. 스윕 라인(230, 240)의 수직 좌표 또는 y 좌표는 타겟 영역(210)의 제1 프레임 이미지상의 수직 좌표 또는 y 좌표에 기초하여 결정될 수 있다. 이미지 페어 처리 장치는 대응 영역을 스윕 라인(230, 240)을 따라 평행이동하는 정도를 0 픽셀부터 제2 프레임 이미지(220)의 수평 길이 이하까지 조절할 수 있다. 예를 들어, 이미지 페어 처리 장치는 0 픽셀부터 100 픽셀까지 대응 영역을 스윕 라인(230, 240)을 따라 평행이동하여 101 개의 대응 영역을 생성할 수 있다. 또는, 이미지 페어 처리 장치는 0 픽셀부터 256 픽셀까지 대응 영역을 스윕 라인(230, 240)을 따라 평행이동하여 257 개의 대응 영역을 생성할 수 있다.Referring to FIG. 2, the image pair processing device may translate corresponding regions of the second frame image 220 along sweep lines 230 and 240. The sweep lines 230 and 240 may be determined as a horizontal axis of the second frame image 220 or a line parallel to the x axis. The vertical or y coordinate of the sweep lines 230 and 240 may be determined based on the vertical or y coordinate on the first frame image of the target area 210. [ The image pair processing device can adjust the degree of parallel movement of the corresponding area along the sweep lines 230 and 240 from 0 pixels to below the horizontal length of the second frame image 220. [ For example, the image pair processing apparatus can generate 101 corresponding regions by moving the corresponding region from 0 pixels to 100 pixels along the sweep lines 230 and 240. Alternatively, the image pair processing apparatus may generate 257 corresponding regions by moving corresponding regions from 0 pixels to 256 pixels along the sweep lines 230 and 240.

대응 영역이 타겟 영역(210)의 위치를 중심으로 픽셀 단위 만큼 평행이동 할 때에, 시차 범위는 대응 영역이 이동할 수 있는 픽셀의 구간으로 결정될 수 있다. 예를 들어, 도 2를 참고하면, 시차 범위 [0, 100]는 대응 영역이 타겟 영역(210)의 위치를 기준으로 스윕 라인(230, 240)을 따라 0 픽셀 내지 100 픽셀까지 이동할 수 있음을 의미한다. 일실시예에 따른 이미지 페어 처리 장치는 시차 범위 [0, 100] 내의 복수의 대응 영역 각각에 대하여, 타겟 영역(210)과의 휘도 차이를 결정할 수 있다.When the corresponding region is moved in parallel by a pixel unit around the position of the target region 210, the parallax range can be determined as a section of the pixel where the corresponding region can move. For example, referring to FIG. 2, the parallax range [0, 100] may be set such that the corresponding region can move from 0 to 100 pixels along the sweep lines 230, 240 with respect to the position of the target region 210 it means. The image-pair processing apparatus according to one embodiment can determine the difference in luminance between the target region 210 and each of a plurality of corresponding regions within the parallax range [0, 100].

도 3은 일실시예에 따른 이미지 페어 처리 장치가 도 2의 예시로부터 계산한 휘도 차이를 도시한 그래프(300)이다. 도 3을 참고하면, 가로축은 시차, 즉, 대응 영역이 타겟 영역의 위치를 기준으로 평행이동한 정도를 픽셀 단위로 나타낸 것이다. 세로 축은 제2 프레임 이미지의 대응 영역 및 제1 프레임 이미지의 타겟 영역간의 휘도 차이를 나타낸 것이다. 그래프(300)의 곡선의 형태는 개구가 위로 향한 포물선일 수 있다. 이미지 페어 처리 장치는 휘도 차이가 최소가 되는 시차인 Dopt를 식별할 수 있다. Dopt만큼 평행 이동된 대응 영역 Dopt에 포함되는 제2 프레임 이미지의 일부분은 나머지 대응 영역의 그것보다 타겟 영역과 가장 매칭될 수 있다.FIG. 3 is a graph 300 showing the luminance difference calculated from the example of FIG. 2 by the image pair processing apparatus according to one embodiment. Referring to FIG. 3, the abscissa represents the parallax, that is, the degree of parallel movement of the corresponding region with respect to the position of the target region in pixel units. And the vertical axis represents the luminance difference between the corresponding area of the second frame image and the target area of the first frame image. The shape of the curve of the graph 300 may be a parabola with the opening up. The image pair processing apparatus can identify the time difference Dopt at which the luminance difference is minimum. A portion of the second frame image included in the corresponding region Dopt shifted by Dopt may best match the target region than that of the remaining corresponding region.

이미지 페어 처리 장치는 수학식 1 및 수학식 2에 기초하여 Dopt를 포함하는 시차 범위 [minD, maxD]를 계산할 수 있다.The image pair processing apparatus can calculate the disparity range [minD, maxD] including Dopt based on Equation (1) and Equation (2).

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

수학식 1 및 수학식 2에서, &&는 AND 조건 연산자를 의미하며, max_disparity는 이미지 페어 처리 장치가 대응 영역을 최대로 평행 이동한 정도를 의미한다. difference(d)는 대응 영역 d 및 타겟 영역 간의 휘도 차이를 의미한다. 수학식 1 및 수학식 2는 예시적인 수학식으로, 휘도 차이에 적용되는 계수 또는 임계치는 다른 값으로 설정될 수 있다. 일실시예에 따른 이미지 페어 처리 장치는 샘플링을 이용하여 대응 영역 및 타겟 영역 간의 휘도 차이를 결정할 수 있다. In Equations (1) and (2), && means an AND condition operator, and max_disparity means the degree to which the image pair processing apparatus moves the corresponding region to the maximum parallel. The difference (d) means a luminance difference between the corresponding region d and the target region. Equations (1) and (2) are exemplary mathematical expressions, and coefficients or thresholds applied to the luminance difference may be set to different values. An image pair processing apparatus according to an embodiment can use sampling to determine a luminance difference between a corresponding region and a target region.

도 3을 참고하면, 이미지 페어 처리 장치가 최종적으로 계산하는 시차 범위 [minD, maxD]는 이미지 페어 처리 장치가 시차 범위 [minD, maxD]를 계산하기 위하여 대응 영역을 평행 이동한 범위 [0, 100] 보다 작을 수 있다. 이미지 페어 처리 장치가 시차 범위 [minD, maxD]를 이후 특징 포인트의 시차, 더 나아가서, 피사체의 시차 또는 피사체와 스테레오 카메라 간의 거리를 구하는데 사용하므로, 이미지 페어 처리 장치가 수행하는 계산량이 감소할 수 있다.3, the parallax range [minD, maxD] finally calculated by the image pair processing apparatus is a range [0, 100] in which the image pair processing apparatus calculates the parallax range [minD, maxD] ]. The image pair processing apparatus uses the parallax range [minD, maxD] to obtain the parallax of the subsequent feature point, furthermore, the parallax of the subject or the distance between the subject and the stereo camera, so that the amount of calculation performed by the image fair- have.

도 4는 일실시예에 따른 이미지 페어 처리 장치가 타겟 영역 내의 특징 포인트를 결정하는 동작을 설명하기 위한 예시적인 도면이다. 4 is an exemplary diagram for explaining an operation in which an image pair processing apparatus according to an embodiment determines feature points in a target area.

도 4를 참고하면, 이미지 페어 처리 장치가 타겟 영역(410, 420)에서 추출한 특징 포인트가 도트로 표시된다. 이미지 페어 처리 장치는 ORB(Oriented FAST and Rotate BRIEF) 방식에 기초하여 특징 포인트를 추출할 수 있다. 이외에도 이미지 페어 처리 장치는 BRISK(Binary Robust Invariant Scalable Keypoints) BRISK(Binary Robust Invariant Scalable Keypoints) 방식, OFAST 방식 또는 FAST 방식에 기초하여 특징 포인트를 추출할 수 있다.Referring to FIG. 4, feature points extracted from the target regions 410 and 420 by the image pair processing apparatus are displayed in dots. The image pair processing apparatus can extract characteristic points based on an ORB (Oriented FAST and Rotate BRIEF) method. In addition, the image pair processing apparatus can extract feature points based on BRISK (Binary Robust Invariant Scalable Keypoints) BRISK (Binary Robust Invariant Scalable Keypoints) method, OFAST method, or FAST method.

이미지 페어 처리 장치는 피사체 및 스테레오 카메라 간의 거리를 결정하기 위하여, 타겟 영역 내의 픽셀 전체의 시차를 구하는 대신, 추출된 특징 포인트의 시차만을 계산할 수 있다. 따라서, 이미지 페어 처리 장치가 피사체 및 스테레오 카메라 간의 거리를 결정하는데 필요한 시간 또는 계산량이 감소할 수 있다.In order to determine the distance between the subject and the stereo camera, the image-pair processing apparatus can calculate only the parallax of the extracted feature points instead of obtaining the parallax of the entire pixels in the target area. Therefore, the time or calculation amount required for the image pair processing apparatus to determine the distance between the subject and the stereo camera can be reduced.

일실시예에 따른 이미지 페어 처리 장치는 타겟 영역내에서 추출된 특징 포인트들을 연결하여, 프레임 이미지의 타겟 영역 별로 연결 그래프를 생성할 수 있다. 이미지 페어 처리 장치는 특징 포인트들간의 수평 거리, 수직 거리 및 유클리디언 거리를 측정한 다음, 측정된 거리가 가장 가까운 두 개의 특징 포인트를 서로 연결할 수 있다. 보다 구체적으로, (1) 특징 포인트 p에 대하여, 특징 포인트 q 및 특징 포인트 p의 수평 거리가 가장 가까운 경우, 이미지 페어 처리 장치는 특징 포인트 p 및 q를 연결할 수 있다. (2) 특징 포인트 p에 대하여, 특징 포인트 q 및 특징 포인트 p의 수직 거리가 가장 가까운 경우, 이미지 페어 처리 장치는 특징 포인트 p 및 q를 연결할 수 있다. (3) 특징 포인트 p에 대하여, 특징 포인트 q 및 특징 포인트 p의 유클리디언 거리가 가장 가까운 경우, 이미지 페어 처리 장치는 특징 포인트 p 및 q를 연결할 수 있다. 이미지 페어 처리 장치가 생성한 연결 그래프는 글로벌 그래프로써, 하나의 특징 포인트가 최대 3개의 다른 특징 포인트 - 최소 수평 거리를 가지는 특징 포인트, 최소 수직 거리를 가지는 특징 포인트, 최소 유클리디언 거리를 가지는 특징 포인트 - 들과 연결된 3-connected 그래프일 수 있다.The image pair processing apparatus according to an exemplary embodiment may connect extracted feature points within a target area to generate a link graph for each target area of the frame image. The image pair processing device can measure the horizontal distance, the vertical distance and the Euclidean distance between the feature points, and then connect the two feature points with the measured distance closest to each other. More specifically, (1) for feature point p, if the horizontal distance of feature point q and feature point p is closest, the image pair processing device may connect feature points p and q. (2) For feature point p, if the vertical distance of feature point q and feature point p is closest, the image pair processing device may connect feature points p and q. (3) For feature point p, if the Euclidean distance of feature point q and feature point p is closest, the image pair processing device may connect feature points p and q. The connection graph generated by the image pair processing apparatus is a global graph, in which one feature point is divided into a feature point having a maximum of three different feature points - a minimum horizontal distance, a feature point having a minimum vertical distance, a feature having a minimum Euclidean distance It can be a 3-connected graph connected to points.

일실시예에 따른 이미지 페어 처리 장치는 생성된 연결 그래프로부터 타겟 영역내의 특징 포인트들 각각을 노드로 하는 최소 트리를 생성할 수 있다. 따라서, 최소 트리는 프레임 이미지의 타겟 영역별로 생성될 수 있다. 도 5는 일실시예에 따른 이미지 페어 처리 장치가 최소 트리를 생성하는 동작을 설명하기 위한 예시적인 도면이다.An image pair processing apparatus according to an embodiment can generate a minimum tree from each generated connection graph as nodes of each feature point in the target area. Therefore, the minimum tree can be generated for each target area of the frame image. 5 is an exemplary diagram illustrating an operation in which an image pair processing apparatus according to an embodiment generates a minimum tree.

이미지 페어 처리 장치는 연결 그래프의 각 변(edge)의 가중치(weight)를, 변을 따라 연결된 두 특징 포인트 사이의 공간 거리로 결정할 수 있다. 이미지 페어 처리 장치는 결정된 가중치에 기초하여 특징 포인트들을 연결함으로써, 최소 트리를 생성할 수 있다. 최소 트리는 연결 그래프의 모든 변 중에서, 가중치의 합을 최소로 하는 변을 포함할 수 있다. 최소 트리는 최소 신장 트리(MST, Minimum Spanning Tree) 또는 분할 트리(ST, Segment Tree)일 수 있다. 도 5를 참고하면, 이미지 페어 처리 장치가 타겟 영역(510, 520)의 특징 포인트들로부터 생성한 최소 트리가 도시된다. 이미지 페어 처리 장치가 특징 포인트들로부터 생성한 최소 트리로써, 최소 신장 트리가 타겟 영역(510)에 도시된다. 이미지 페어 처리 장치가 특징 포인트들로부터 생성한 최소 트리로써, 분할 트리가 타겟 영역(520)에 도시된다.The image pair processing device can determine the weight of each edge of the connection graph as the spatial distance between two feature points connected along the sides. The image pair processing device can generate the minimum tree by concatenating the feature points based on the determined weight. The minimum tree may include, among all sides of the connection graph, sides that minimize the sum of the weights. The minimum tree may be a minimum spanning tree (MST) or a segment tree (ST). Referring to FIG. 5, the minimum tree created by the image pair processing device from the feature points of the target areas 510, 520 is shown. The minimum extension tree is shown in the target area 510, with the minimum pair of trees generated by the image pair processing device from the feature points. The partition tree is shown in the target area 520, with the minimum tree created by the image pair processing device from the feature points.

예를 들어, 이미지 페어 처리 장치는 prim 알고리즘을 이용하여 최소 신장 트리를 생성할 수 있다. 보다 구체적으로, 이미지 페어 처리 장치는 특징 포인트들 중 어느 하나를 루트 노드(root node)로 선택한 다음, 루트 노드로 선택된 특징 포인트의 변 중에서, 가중치가 가장 작은 변을 최소 트리에 추가할 수 있다. 이미지 페어 처리 장치는 최소 트리에 추가된 변을 통하여 루트 노드로 선택된 특징 포인트와 연결된 다른 특징 포인트를 식별할 수 있다. 이미지 페어 처리 장치는 식별된 다른 특징 포인트를 루트 노드의 하위 노드인 리프 노드(leaf node)로 선택할 수 있다. 이미지 페어 처리 장치는 리프 노드로 선택된 특징 포인트의 변 중에서, 가중치가 가장 작은 변(보다 구체적으로, 최소 트리에 추가된 변을 제외한 나머지 변 중에서 가중치가 가장 작은 변)을 최소 트리에 추가할 수 있다. 이미지 페어 처리 장치는 리프 노드의 변 중에서 최소 트리로 추가된 변에 대해서도 상술한 동작을 반복적으로 수행함으로써, 루트 노드로 선택된 특징 포인트에서 시작되어 모든 특징 포인트들을 연결하는 최소 신장 트리를 생성할 수 있다.For example, an image pair processing apparatus can generate a minimum extension tree using a prim algorithm. More specifically, the image pair processing apparatus may select one of the feature points as a root node, and then, among the sides of the feature point selected as the root node, add the least weighted side to the minimum tree. The image pair processing device can identify another feature point connected to the feature point selected as the root node through the side added to the minimum tree. The image pair processing device may select another feature point identified as a leaf node that is a child node of the root node. The image fair processing apparatus can add, to the minimum tree, the side having the smallest weight among the sides of the feature points selected as the leaf nodes (more specifically, the side having the smallest weight among the remaining sides except the side added to the minimum tree) . The image pair processing apparatus can repeatedly perform the above-described operation for the side added with the minimum tree among the sides of the leaf node, thereby generating a minimum extension tree connecting all the feature points starting from the feature point selected as the root node .

이미지 페어 처리 장치는 이미지 페어에 포함된 프레임 이미지들 각각의 타겟 영역별로 최소 트리를 생성할 수 있다. 이미지 페어 처리 장치는 제1 프레임 이미지의 타겟 영역으로부터 제1 최소 트리를 생성할 수 있고, 마찬가지로 제2 프레임 이미지의 타겟 영역으로부터 제2 최소 트리를 생성할 수 있다. 이미지 페어 처리 장치는 생성된 제1 최소 트리 또는 제2 최소 트리에 기초하여, 특징 포인트들 각각에서 측정된 비용을 누적할 수 있다.The image pair processing apparatus can generate a minimum tree for each target area of each of the frame images included in the image pair. The image pair processing device may generate the first minimum tree from the target area of the first frame image and likewise generate the second minimum tree from the target area of the second frame image. The image pair processing device can accumulate the measured costs at each of the feature points based on the generated first minimum tree or the second minimum tree.

보다 구체적으로, 이미지 페어 처리 장치는 제1 프레임 이미지의 특징 포인트와 이에 대응하는 제2 프레임 이미지의 특징 포인트의 휘도 및 시차에 기초하여, 제1 프레임 이미지의 특징 포인트 및 제2 프레임 이미지의 특징 포인트를 매칭하는 비용을 결정할 수 있다. 이미지 페어 처리 장치는 비용을 결정할 때에, 사전에 결정된 시차 범위를 이용할 수 있다. 이미지 페어 처리 장치는 최소 트리의 노드들 각각에 대응하는 특징 포인트별로 상기 비용을 결정할 수 있다.More specifically, the image-pair processing apparatus calculates the feature point of the first frame image and the feature point of the second frame image based on the luminance and parallax of the feature point of the first frame image and the corresponding feature point of the second frame image, Can be determined. The image pair processing apparatus can use the predetermined time difference range when determining the cost. The image pair processing apparatus can determine the cost for each feature point corresponding to each node of the minimum tree.

이미지 페어 처리 장치는 제1 프레임 이미지의 특징 포인트 및 제2 프레임 이미지의 특징 포인트를 매칭하는 비용을, BT(Birchfield and Tomasi, 버치 필드와 토마시)비용 또는 Census(통계)비용에 기초하여 결정할 수 있다. BT 비용을 결정할 때에, 선형 보간(linear interpolation)이 이미지 샘플링 효과에 의한 민감도(sensitivity)를 줄이기 위하여 사용될 수 있다. Census 비용은 현재 픽셀의 휘도와 현재 픽셀과 인접하는 인접 픽셀의 휘도를 비교하여, 현재 픽셀의 휘도보다 작은 휘도를 가지는 픽셀의 개수에 기초하여 결정될 수 있다. 따라서, Census 비용은 조명에 대하여 강인한 특성을 가질 수 있다. 일실시예에 따른 이미지 페어 처리 장치는 수학식 3에 기초하여 BT 비용 및 Census 비용을 결합함으로써, 제1 프레임 이미지의 특징 포인트 및 제2 프레임 이미지의 특징 포인트를 매칭하는 비용을 결정할 수 있다.The image pair processing device may determine the cost of matching the feature point of the first frame image and the feature point of the second frame image based on a BT (Birchfield and Tomasi) cost or a Census (statistical) cost . In determining the BT cost, linear interpolation may be used to reduce the sensitivity due to the image sampling effect. The Census cost can be determined based on the number of pixels having luminance lower than the luminance of the current pixel by comparing the luminance of the current pixel and the luminance of the adjacent pixel adjacent to the current pixel. Thus, the cost of the Census can be robust to illumination. An image pair processing apparatus according to an embodiment can determine the cost of matching the feature point of the first frame image and the feature point of the second frame image by combining the BT cost and the Census cost based on Equation (3).

Figure pat00003
Figure pat00003

수학식 3을 참고하면, C(p)는 제1 프레임 이미지의 픽셀 p(예를 들어, 특징 포인트)를 대응하는 제2 프레임 이미지의 픽셀과 매칭할 때의 비용을 의미한다. w는 BT 비용 및 Census 비용간의 가중치를 의미한다. CBT(p)는 픽셀 p에 대한 BT 비용을 의미하고, CCensus(p)는 픽셀 p에 대한 Census 비용을 의미한다. 도 6은 AD, census, AD+census에 대한 비교 실험 결과를 도시한 도면이다. 도 6을 참고하면, AD(absolute intensity differences, 휘도차의 절대값), Census, AD+Census에 대한 middleburry의 비교 실험 결과가 도시된다.Referring to Equation (3), C (p) denotes a cost when matching a pixel p (for example, a feature point) of the first frame image with a corresponding pixel of the second frame image. w denotes the weight between the BT cost and the Census cost. C BT (p) means the BT cost for pixel p, and C Census (p) means Census cost for pixel p. 6 is a graph showing the results of a comparative experiment for AD, census, and AD + census. Referring to FIG. 6, a comparison experiment result of a middleburry for AD (absolute intensity differences), Census, AD + Census is shown.

이미지 페어 처리 장치는 C(p)로부터 제1 프레임 이미지의 특징 포인트 및 제2 프레임 이미지의 특징 포인트를 매칭하는 비용을 벡터로 나타낸 매칭 비용 벡터를 결정할 수 있다. 매칭 비용 벡터의 개수는 시차 범위내에 포함된 시차의 개수와 동일할 수 있다. 앞서 설명한 바와 같이, 시차 범위가 휘도 차이가 최소인 시차를 포함하는 상대적으로 작은 범위로 결정되므로, 매칭 비용 벡터의 차원(dimension)이 감소됨에 따라 계산량이 감소될 수 있다.The image pair processing apparatus may determine a matching cost vector that represents the cost of matching the feature point of the first frame image and the feature point of the second frame image from C (p). The number of matching cost vectors may be equal to the number of parallaxes included in the parallax range. As described above, since the parallax range is determined to be a relatively small range including the parallax with the smallest luminance difference, the amount of calculation can be reduced as the dimension of the matching cost vector is reduced.

최소 트리의 노드들 각각에 대응하는 특징 포인트별로 특징 포인트를 매칭할 때의 비용을 결정한 다음, 이미지 페어 처리 장치는 최소 트리의 루트 노드에서 리프 노드를 따라 노드 별로 결정된 비용을 누적할 수 있다. 이미지 페어 처리 장치는 최소 트리의 노드들 각각에서, 루트 노드에서 리프 노드로 향하는 방향을 따라 각 노드의 하위 노드(즉, 서브 노드)의 비용을 누적할 수 있다. 이미지 페어 처리 장치는 최소 트리의 노드들 각각에서, 리프 노드에서 루트 노드로 향하는 방향을 따라 각 노드의 상위 노드(파더 노드)의 비용을 누적할 수 있다.After determining the cost of matching the feature points for each feature point corresponding to each node of the minimum tree, the image fair processing apparatus can accumulate the cost determined for each node along the leaf node at the root node of the minimum tree. The image fair processing apparatus can accumulate the costs of the lower nodes (i.e., subnodes) of each node along the direction from the root node to the leaf node, in each of the nodes of the minimum tree. The image fair processing apparatus can accumulate the cost of an upper node (a node of a node) of each node along a direction from the leaf node to the root node, in each of the nodes of the minimum tree.

이미지 페어 처리 장치는 각 노드의 하위 노드의 비용을 누적한 결과 및 각 노드의 상위 노드의 비용을 누적한 결과에 기초하여, 각 노드를 중심으로 최소 트리의 노드 별로 결정된 비용을 누적한 누적 매칭 비용을 결정할 수 있다. 보다 구체적으로, 이미지 페어 처리 장치는 최소 트리의 필터링 방법에 기초하여 누적 매칭 비용을 결정할 수 있다. 이미지 페어 처리 장치가 루트 노드에서 리프 노드로 향하는 방향을 따라 최소 트리의 각 노드에 대한 하위 노드(즉, 서브 노드)의 비용을 누적할 때에, 이미지 페어 처리 장치는 수학식 4에 기초하여 하위 노드의 비용을 누적할 수 있다.The image fair processing apparatus includes a cumulative matching cost calculation unit for calculating a cumulative cost based on a result of accumulating the costs of the lower nodes of each node and the costs determined by the nodes of the minimum tree centered on each node, Can be determined. More specifically, the image pair processing apparatus can determine the cumulative matching cost based on the filtering method of the minimum tree. When the image pair processing apparatus accumulates the costs of the child nodes (i.e., the sub nodes) for each node of the minimum tree along the direction from the root node to the leaf node, the image pair processing apparatus calculates, based on Equation 4, Can be accumulated.

Figure pat00004
Figure pat00004

수학식 4를 참고하면,

Figure pat00005
는 픽셀 p(즉, 최소 트리의 특정 노드에 대응하는 특징 포인트)의 변화 후의 누적 비용을 나타내고,
Figure pat00006
는 픽셀 p의 초기 비용을 의미한다. Ch(p)는 픽셀 p에 대응하는 노드의 모든 서브 노드의 집합을 의미한다. S(p, q)는 픽셀 p 및 서브 노드에 포함된 픽셀 q(즉, 최소 트리의 특정 노드의 하위 노드에 대응하는 특징 포인트)의 유사도를 의미한다. D는 매칭 비용 벡터이고, 매칭 비용 벡터의 차원의 개수와 시차 범위의 시차의 수는 서로 동일할 수 있다. 시차 범위가 휘도 차이를 최소로 하는 시차를 포함하는 상대적으로 작은 범위로 결정되므로, 매칭 비용 벡터의 차원(dimension)이 감소됨에 따라 계산량이 감소될 수 있다. 이미지 페어 처리 장치는 수학식 4에 기초하여, 최소 트리의 특정 노드의 모든 하위 노드를 탐색한 다음, 특정 노드의 누적 매칭 비용을 업데이트할 수 있다.Referring to Equation 4,
Figure pat00005
Represents the cumulative cost after the change of the pixel p (i. E., The feature point corresponding to a particular node of the minimum tree)
Figure pat00006
Is the initial cost of pixel p. Ch (p) denotes a set of all the subnodes of the node corresponding to the pixel p. S (p, q) denotes the similarity of the pixel p and the pixel q included in the sub node (that is, the feature point corresponding to the child node of the specific node of the minimum tree). D is a matching cost vector, and the number of dimensions of the matching cost vector and the number of parallaxes of the parallax range may be equal to each other. Since the parallax range is determined to be a relatively small range including the parallax that minimizes the luminance difference, the amount of calculation can be reduced as the dimension of the matching cost vector is reduced. The image fair processing apparatus can search all the lower nodes of the specific node of the minimum tree based on the equation (4), and then update the cumulative matching cost of the specific node.

이미지 페어 처리 장치가 리프 노드에서 루트 노드로 향하는 방향을 따라 최소 트리의 각 노드에 대한 상위 노드(즉, 파더 노드)의 비용을 누적할 때에, 이미지 페어 처리 장치는 수학식 5에 기초하여 상위 노드의 비용을 누적할 수 있다.When the image pair processing apparatus accumulates the cost of an upper node (i.e., a node of a node) for each node of the minimum tree along the direction from the leaf node to the root node, the image pair processing apparatus calculates, Can be accumulated.

Figure pat00007
Figure pat00007

수학식 5에서, Pr(p)는 픽셀 p(즉, 최소 트리의 특정 노드에 대응하는 특징 포인트)에 대응하는 노드의 파더 노드를 의미하고, S(Pr(p), p)는 픽셀 p에 대응하는 노드 및 그 파더 노드의 유사도를 의미하며,

Figure pat00008
는 픽셀 p에 대응하는 노드의 파더 노드를 매칭할때의 비용을 의미한다. 수학식 5를 참고하면, 최종적으로 계산되는 비용
Figure pat00009
은 픽셀 p에 대응하는 노드의 파더 노드에 의하여 결정됨을 알 수 있다.In Equation (5), Pr (p) denotes a node of a node corresponding to a pixel p (i.e., a feature point corresponding to a specific node of the minimum tree) The degree of similarity between the corresponding node and its corresponding node,
Figure pat00008
Represents the cost when matching the node of the node corresponding to the pixel p. Referring to Equation (5), the finally calculated cost
Figure pat00009
Is determined by the node of the node corresponding to pixel p.

두 개의 특징 포인트 간의 유사도인 수학식 4의 S(p, q) 및 수학식 5의 S(Pr(p), p)는 수학식 6에 기초하여 결정될 수 있다.S (p, q) in Equation 4 and S (Pr (p), p) in Equation 5, which are the similarities between two feature points, can be determined based on Equation (6).

Figure pat00010
Figure pat00010

수학식 6에서, I(p) 및 I(q)는 각각 픽셀 p, q의 휘도 값을 의미하고, xp 및 xq는 각각 픽셀 p, q의 수평 좌표(x축 좌표)를, yp 및 yq는 각각 픽셀 p, q의 수직 좌표(y축 좌표)를 의미한다. σs 및 σr은 고정 파라미터로써, 실험에 의해 조절될 수 있다.In Equation 6, I (p) and I (q) are each pixel p, meaning the intensity value of q, and x p, and x q are the horizontal coordinates of each pixel p, q (x coordinate), y p And y q denote the vertical coordinates (y-axis coordinate) of the pixels p and q, respectively. σ s and σ r are fixed parameters and can be adjusted experimentally.

이미지 페어 처리 장치는 최소 트리의 노드들 각각에 대응하는 특징 포인트의 시차, 깊이 또는 깊이 정보를, 상기 누적 매칭 비용을 최소로 하는 시차에 기초하여 결정할 수 있다. 예를 들어, 이미지 페어 처리 장치는 winner-takes-all 방법을 이용하여 특징 포인트의 시차를 결정할 수 있다. 이미지 페어 처리 장치는 수학식 7에 기초하여 특징 포인트의 시차를 결정할 수 있다.The image pair processing apparatus can determine the parallax, depth, or depth information of feature points corresponding to each of the nodes of the minimum tree based on a parallax that minimizes the cumulative matching cost. For example, the image pair processing apparatus can determine the parallax of feature points using the winner-takes-all method. The image pair processing apparatus can determine the parallax of feature points based on Equation (7).

Figure pat00011
Figure pat00011

수학식 7을 참고하면, fp는 픽셀 p(즉, 제1 프레임 이미지의 타겟 영역에 대한 최소 트리의 특정 노드에 대응하는 특징 포인트)의 시차로써, C'(p, d)는 시차가 d일 때에 제1 프레임 이미지의 픽셀 p를 매칭할 때의 비용을 의미한다. D는 시차 범위를 의미한다. 이미지 페어 처리 장치는 결정된 특징 포인트의 시차에 기초하여 피사체 및 스테레오 카메라 간의 거리를 결정할 수 있다. 피사체 및 스테레오 카메라 간의 거리를 결정한 다음, 이미지 페어 처리 장치는 알람 처리 또는 조작적 처리를 수행할 수 있다. 예를 들어, 피사체가 차량, 길표지, 행인, 장애물, 풍경 중 어느 하나인 경우, 조작적 처리는 이미지 페어 처리 장치가 제어하는 물체(예를 들어, 차량)의 제동, 방향 전환 중 적어도 하나일 수 있다.Referring to Equation (7), f p is the parallax of a pixel p (i.e., a feature point corresponding to a specific node of the minimum tree for the target area of the first frame image), C '(p, d) The pixel p of the first frame image is matched. D means the time difference range. The image pair processing device can determine the distance between the subject and the stereo camera based on the parallax of the determined feature point. After determining the distance between the subject and the stereo camera, the image pair processing device can perform alarm processing or manipulation processing. For example, when the subject is any one of a vehicle, a road sign, a passenger, an obstacle, and a landscape, the operational process may include at least one of braking and redirecting of an object (e.g., .

도 7은 일실시예에 따른 이미지 페어 처리 장치가 이미지 페어에 포함된 피사체 및 스테레오 카메라간의 거리를 결정하는 동작을 설명하기 위한 도면이다. 일실시예에 따른 이미지 페어 처리 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체가 제공될 수 있다. 상기 프로그램은 이미지 페어 처리 방법을 저장한 응용 프로그램, 디바이스 드라이버, 펌웨어, 미들웨어, 동적 링크 라이브러리(DLL) 및 애플릿 중 적어도 하나를 포함할 수 있다. 일실시예에 따르면, 이미지 페어 처리 장치는 프로세서를 포함하고, 프로세서는 이미지 페어 처리 방법이 기록된 기록 매체를 판독함으로써, 이미지 페어 처리 방법을 수행할 수 있다.FIG. 7 is a diagram for explaining an operation of determining an image pair processing apparatus according to an embodiment, the distance between a subject and a stereo camera included in an image pair. FIG. A computer-readable recording medium on which a program for executing an image pair processing method according to an embodiment is recorded can be provided. The program may include at least one of an application program storing an image pair processing method, a device driver, a firmware, a middleware, a dynamic link library (DLL), and an applet. According to one embodiment, the image pair processing apparatus includes a processor, and the processor can perform the image pair processing method by reading the recording medium on which the image pair processing method is recorded.

도 7을 참고하면, 단계(710)에서, 일실시예에 따른 이미지 페어 처리 장치는 프레임 이미지에서 타겟 영역을 생성할 수 있다. 타겟 영역은 프레임 이미지의 일부분으로써, 프레임 이미지를 생성한 스테레오 카메라가 촬영한 피사체를 포함할 수 있다.Referring to FIG. 7, in step 710, an image pair processing apparatus according to an embodiment may generate a target area in a frame image. The target area may be a part of a frame image, and may include a subject photographed by a stereo camera that has generated the frame image.

이미지 페어 처리 장치가 스테레오 카메라에 포함된 복수의 이미지 센서로부터 생성된 복수의 프레임 이미지의 페어를 수신한 경우, 이미지 페어 처리 장치는 복수의 프레임 이미지들 각각에서, 피사체가 포함된 타겟 영역을 생성할 수 있다. 스테레오 카메라가 두 개의 이미지 센서를 포함하는 경우, 이미지 페어 처리 장치는 제1 프레임 이미지 및 제2 프레임 이미지의 페어를 수신할 수 있다. 이미지 페어 처리 장치는 이미지 페어의 제1 프레임 이미지 및 제2 프레임 이미지 각각에서, 피사체가 포함된 타겟 영역을 생성할 수 있다.When the image pair processing apparatus receives a pair of a plurality of frame images generated from a plurality of image sensors included in a stereo camera, the image pair processing apparatus generates a target area including a subject in each of the plurality of frame images . When the stereo camera includes two image sensors, the image pair processing apparatus can receive the pair of the first frame image and the second frame image. The image pair processing apparatus can generate the target area including the subject in each of the first frame image and the second frame image of the image pair.

도 7을 참고하면, 단계(720)에서, 일실시예에 따른 이미지 페어 처리 장치는 타겟 영역의 시차 범위를 결정할 수 있다. 바꾸어 말하면, 이미지 페어 처리 장치는 타겟 영역에 포함된 피사체의 시차가 포함될 것으로 예상되는 범위를 결정할 수 있다. 이미지 페어 처리 장치는 복수의 프레임 이미지 중에서 어느 하나의 프레임 이미지에서 추출한 타겟 영역 및 다른 프레임 이미지에서 상기 타겟 영역과 동일한 위치, 형태 및 크기를 가진 대응 영역을 식별할 수 있다. 이미지 페어 처리 장치는 타겟 영역 및 대응 영역의 휘도 차이를 계산할 수 있다.Referring to FIG. 7, in step 720, an image pair processing apparatus according to an embodiment may determine a parallax range of a target area. In other words, the image-pair processing apparatus can determine the range in which the parallax of the subject included in the target area is expected to be included. The image pair processing apparatus can identify a corresponding region having the same position, shape and size as the target region in the target region extracted from any one of the plurality of frame images and the other frame images. The image pair processing apparatus can calculate the luminance difference of the target area and the corresponding area.

이미지 페어 처리 장치는 복수의 대응 영역에서 타겟 영역 및 대응 영역의 휘도 차이를 계산할 수 있다. 보다 구체적으로, 이미지 페어 처리 장치는 대응 영역을 타겟 영역과 동일한 높이에서 수평 방향을 따라 평행이동하면서, 타겟 영역 및 대응 영역의 휘도 차이를 계산할 수 있다. 바꾸어 말하면, 대응 영역의 y 좌표는 고정되고, x 좌표만 변경될 수 있다.The image pair processing apparatus can calculate the luminance difference of the target area and the corresponding area in the plurality of corresponding areas. More specifically, the image pair processing apparatus can calculate the luminance difference of the target area and the corresponding area while moving the corresponding area in parallel along the horizontal direction at the same height as the target area. In other words, the y coordinate of the corresponding area is fixed, and only the x coordinate can be changed.

시차 범위는 휘도 차이를 최소로 하는 대응 영역의 평행 이동량(즉, 시차)을 포함하도록 결정될 수 있다. 예를 들어, 이미지 페어 처리 장치는 휘도 차이를 최소로하는 대응 영역의 평행 이동량을 수학식 1 및 수학식 2에 적용하여, 시차 범위를 결정할 수 있다. 따라서, 시차 범위는 대응 영역이 평행 이동할 수 있는 모든 범위 중 일부분으로 결정될 수 있다.The parallax range can be determined so as to include the parallel movement amount (i.e., parallax) of the corresponding area that minimizes the luminance difference. For example, the image pair processing apparatus can apply the parallel shift amount of the corresponding region that minimizes the luminance difference to Equations (1) and (2) to determine the parallax range. Therefore, the parallax range can be determined as a part of the whole range in which the corresponding region can move in parallel.

도 7을 참고하면, 단계(730)에서, 일실시예에 따른 이미지 페어 처리 장치는 타겟 영역내의 특징 포인트를 추출할 수 있다. 이미지 페어 처리 장치는 이미지 페어의 복수의 프레임 이미지 각각의 타겟 영역에서 특징 포인트를 추출할 수 있다.Referring to FIG. 7, in step 730, an image pair processing apparatus according to an embodiment may extract feature points in a target area. The image pair processing device may extract feature points in a target area of each of a plurality of frame images of the image pair.

도 7을 참고하면, 단계(740)에서, 일실시예에 따른 이미지 페어 처리 장치는 추출된 특징 포인트를 연결하여 연결 그래프를 생성할 수 있다. 연결 그래프의 노드는 특징 포인트이고, 노드는 특징 포인트간의 수평 거리, 수직 거리 또는 유클리디언 거리에 기초하여 연결될 수 있다. 이미지 페어 처리 장치는 어느 특징 포인트를, 수평 거리가 가장 가까운 다른 특징 포인트와 연결할 수 있다. 이미지 페어 처리 장치는 어느 특징 포인트를, 수직 거리가 가장 가까운 다른 특징 포인트와 연결할 수 있다. 이미지 페어 처리 장치는 어느 특징 포인트를, 유클리디언 거리가 가장 가까운 다른 특징 포인트와 연결할 수 있다. 연결 그래프는 복수의 프레임 이미지 각각의 타겟 영역별로 생성될 수 있다.Referring to FIG. 7, in step 740, the image pair processing apparatus according to an embodiment may connect the extracted feature points to generate a connection graph. The nodes of the connection graph are feature points, and the nodes can be connected based on horizontal distance, vertical distance or Euclidean distance between feature points. The image pair processing apparatus can connect any feature point to another feature point whose horizontal distance is closest. The image pair processing apparatus can connect a certain feature point with another feature point whose vertical distance is closest. The image pair processing device can connect a certain feature point to another feature point nearest the Euclidean distance. The connection graph can be generated for each target area of each of a plurality of frame images.

도 7을 참고하면, 단계(750)에서, 일실시예에 따른 이미지 페어 처리 장치는 생성된 연결 그래프로부터 최소 트리를 생성할 수 있다. 최소 트리는 연결 그래프에 대응하여 복수의 프레임 이미지 각각의 타겟 영역별로 생성될 수 있으며, 타겟 영역에 포함된 모든 특징 포인트를 노드로 할 수 있다. 이미지 페어 처리 장치는 연결 그래프의 변 각각의 가중치를, 변을 따라 연결된 두 특징 포인트 사이의 공간 거리에 기초하여 결정할 수 있다. 이미지 페어 처리 장치는 가중치의 합을 최소로 하는 변을 선택하고, 선택된 변에 기초하여 최소 트리를 생성할 수 있다.Referring to FIG. 7, in step 750, the image pair processing apparatus according to an embodiment may generate a minimum tree from the generated connection graph. The minimum tree may be generated for each target area of each of the plurality of frame images corresponding to the connection graph, and all feature points included in the target area may be nodes. The image pair processing device can determine the weight of each of the sides of the connection graph based on the spatial distance between two feature points connected along the sides. The image pair processing apparatus can select the side that minimizes the sum of the weights and generate the minimum tree based on the selected side.

도 7을 참고하면, 단계(760)에서, 일실시예에 따른 이미지 페어 처리 장치는 최소 트리의 노드들 각각을 매칭할 때의 비용을 결정할 수 있다. 바꾸어 말하면, 노드들 각각이 특징 포인트에 대응하므로, 서로 다른 프레임 이미지에서 특징 포인트를 매칭할 때의 비용이 결정될 수 있다. 상기 비용은 타겟 영역의 휘도 및 단계(720)에서 결정된 시차 범위에 따라 결정될 수 있다. 이미지 페어 처리 장치는 수학식 3에 기초하여 최소 트리의 노드들 각각을 매칭할 때의 비용을 결정할 수 있다. 단계(720)는 단계(730) 내지 단계(750) 중 적어도 하나와 동시에 수행될 수 있다. 또한, 단계(720)는 단계(730) 내지 단계(750)의 사이에서 수행될 수 있다.Referring to FIG. 7, in step 760, the image pair processing apparatus according to an embodiment may determine the cost of matching each of the nodes of the minimum tree. In other words, since each of the nodes corresponds to a feature point, the cost of matching feature points in different frame images can be determined. The cost may be determined according to the luminance of the target area and the disparity range determined in step 720. [ The image fair processing apparatus can determine the cost of matching each of the nodes of the minimum tree based on Equation (3). Step 720 may be performed concurrently with at least one of steps 730 through 750. [ In addition, step 720 may be performed between steps 730 and 750. [

도 7을 참고하면, 단게(770)에서, 일실시예에 따른 이미지 페어 처리 장치는 최소 트리의 복수의 노드들 각각에서 결정된 비용을 최소 트리의 가지를 따라 누적할 수 있다. 이미지 페어 처리 장치는 최소 트리의 특정 노드에 대하여, 특정 노드의 상위 방향 또는 하위 방향을 따라 최소 트리를 탐색할 수 있다. 이미지 페어 처리 장치는 각 방향에서 탐색된 노드를 매칭할 때의 비용을, 특정 노드를 매칭할 때의 비용에 결합함으로써, 복수의 노드들 각각에서 결정된 비용을 누적할 수 있다. 예를 들어, 이미지 페어 처리 장치는 수학식 4 또는 수학식 5에 기초하여 복수의 노드들 각각에서 결정된 비용을 최소 트리의 가지를 따라 누적할 수 있다.Referring to FIG. 7, at step 770, an image pair processing apparatus according to an embodiment may accumulate the determined cost in each of the plurality of nodes of the minimum tree along the branches of the minimum tree. The image fair processing apparatus can search the minimum tree along the upper direction or the lower direction of the specific node for a specific node of the minimum tree. The image fair processing apparatus can accumulate the determined cost in each of the plurality of nodes by combining the cost of matching the detected node in each direction with the cost of matching the specific node. For example, the image pair processing apparatus may accumulate the determined cost in each of the plurality of nodes along the branch of the minimum tree based on (4) or (5).

도 7을 참고하면, 단계(780)에서, 일실시예에 따른 이미지 페어 처리 장치는 누적된 비용에 기초하여 특징 포인트의 시차를 결정할 수 있다. 보다 구체적으로, 이미지 페어 처리 장치는 최소 트리의 특정 노드에 대응하는 특징 포인트의 시차를, 특정 노드를 매칭할 때의 비용에 특정 노드와 최소 트리를 통해 연결된 다른 노드를 매칭할 때의 비용을 누적한 결과에 기초하여 결정할 수 있다. Referring to FIG. 7, in step 780, the image pair processing apparatus according to one embodiment can determine the parallax of the feature point based on the accumulated cost. More specifically, the image pair processing apparatus accumulates the parallax of a feature point corresponding to a specific node of a minimum tree, the cost when matching a specific node with another node connected through a minimum tree to the cost of matching a specific node, Can be determined based on a result.

도 7을 참고하면, 단게(790)에서, 일실시예에 따른 이미지 페어 처리 장치는 결정된 특징 포인트의 시차에 기초하여, 피사체 및 스테레오 카메라 간의 거리를 결정할 수 있다. 종합하면, 피사체 및 스테레오 카메라 간의 거리를 결정함에 있어서, 이미지 페어 처리 장치는 피사체가 포함된 타겟 영역의 모든 픽셀의 시차를 결정하는 대신에, 타겟 영역의 일부 픽셀(특징 포인트)의 시차만을 결정하므로, 피사체 및 스테레오 카메라 간의 거리를 결정하기 위해 필요한 계산량 또는 시간이 줄어들 수 있다. 또한, 이미지 페어 처리 장치는 가능한 모든 시차에서 특징 포인트의 시차를 측정하지 않고, 제한된 시차 범위 내에서 특징 포인트의 시차를 결정하는 동작을 수행하므로, 특징 포인트의 시차를 결정하는데 필요한 계산량 또는 시간이 줄어들 수 있다. 이미지 페어 처리 장치는 결정된 피사체 및 스테레오 카메라 간의 거리에 기초하여 알람 처리 또는 조작적 처리를 수행할 수 있다.Referring to FIG. 7, at a point 790, an image pair processing device according to an embodiment can determine the distance between the subject and the stereo camera based on the parallax of the determined feature point. Taken together, in determining the distance between the subject and the stereo camera, the image-pair processing apparatus determines only the parallax of some pixels (feature points) of the target area, instead of determining the parallax of all the pixels of the target area containing the subject , The amount of computation or time required to determine the distance between the subject and the stereo camera may be reduced. Further, the image-pair processing apparatus performs the operation of determining the parallax of the feature point within the limited parallax range without measuring the parallax of the feature point in all possible parallaxes, so that the amount of calculation or time required to determine the parallax of the feature point is reduced . The image pair processing apparatus can perform alarm processing or operational processing based on the distance between the determined subject and the stereo camera.

이하에서는 일실시예에 따른 이미지 페어 처리 장치가 복수의 이미지 페어를 포함하는 공공 데이터 집합 KITTI에 포함된 280개 피사체의 거리를 최소 트리를 따라 비용을 누적하는 방식에 따라 측정한 실험 결과를 설명한다. 피사체는 차량, 도로 표지판 및 행인을 포함한다. 표 1은 이미지 페어 처리 장치가 최소 신장 트리 또는 분할 트리를 이용하여 특징 포인트를 매칭할 때의 비용을 누적한 결과에 기초하여 피사체와의 거리를 결정하였을 때의 정확도 및 시간을 비용을 누적하지 않고 피사체와의 거리를 결정하였을 때의 정확도 및 시간과 함께 표시한다.Hereinafter, an experimental result of measuring the distance of 280 subjects included in a public data set KITTI including a plurality of image pairs according to a method of accumulating costs along a minimum tree will be described in accordance with an embodiment of the present invention . Subjects include vehicles, road signs, and passers-by. Table 1 shows the accuracy and the time when the distance to the subject is determined based on the result of accumulating the cost when the image pair processing apparatus matches the feature point using the minimum extension tree or the segmentation tree without accumulating the cost Together with the accuracy and time when the distance to the subject is determined.

데이터 집합Dataset 방법Way 정확도accuracy 시간time KITTI
(280개의 피사체를 포함함)
KITTI
(Including 280 subjects)
비용을 누적하지 않고 프레임 이미지를 매칭함Match frame images without accumulating costs 80.41%80.41% 3.7ms3.7ms
최소 신장 트리(MST)를 이용하여 프레임 이미지를 매칭함Matching frame images using minimum extension tree (MST) 90.25%90.25% 4.53ms4.53ms 분할 트리(ST)를 이용하여 프레임 이미지를 매칭함Matching frame images using segment tree (ST) 90.39%90.39% 4.65ms4.65ms

표 1을 참고하면, 일실시예에 따른 이미지 페어 처리 장치가 측정한 피사체 및 스테레오 카메라 간의 거리의 정확도는 약 90%로써, 비용을 누적하지 않고 프레임 이미지를 매칭하여 피사체 및 스테레오 카메라 간의 거리를 측정하였을 때보다 정확도가 10% 가량 향상되었음을 알 수 있다.Referring to Table 1, the accuracy of the distance between the subject and the stereo camera measured by the image pair processing apparatus according to an embodiment is about 90%, and the distance between the subject and the stereo camera is measured by matching the frame image without accumulating the cost The accuracy is improved by about 10%.

더 나아가서, 일실시예에 따른 이미지 페어 처리 장치는 시간에 따라 순차적으로 획득된 복수의 이미지 페어에 대하여, 복수의 이미지 페어에 공통적으로 포함된 피사체의 위치를 추적할 수 있다. 도 8은 일실시예에 따른 이미지 페어 처리 장치가 복수의 이미지 페어에 공통적으로 포함된 피사체의 위치를 추적하는 동작을 설명하기 위한 흐름도이다.Furthermore, the image-pair processing apparatus according to an embodiment can track the position of a subject commonly included in a plurality of image pairs, with respect to a plurality of image pairs sequentially obtained with time. Fig. 8 is a flowchart for explaining an operation of an image-pair processing apparatus according to an embodiment for tracking the position of an object commonly included in a plurality of image pairs.

도 8을 참고하면, 단계(810)에서, 일실시예에 따른 이미지 페어 처리 장치는 마지막으로 입력된 현재 프레임 이미지에서 타겟 영역을 생성할 수 있다. 이미지 페어 처리 장치가 타겟 영역을 생성하는 동작은 단계(710)에서 설명한 바와 유사할 수 있다. 타겟 영역은 이미지 페어 처리 장치에 의해 추적될 피사체를 포함할 수 있다.Referring to FIG. 8, in step 810, the image pair processing apparatus according to an embodiment may generate a target area in the last inputted current frame image. The operation of the image pair processing device to create the target area may be similar to that described in step 710. [ The target area may include an object to be tracked by the image pair processing device.

도 8을 참고하면, 단계(820)에서, 일실시예에 따른 이미지 페어 처리 장치는 생성된 타겟 영역의 특징 값을 추출할 수 있다. 단계(830)에서, 이미지 페어 처리 장치는 현재 프레임 이미지의 타겟 영역의 특징 값을 필터링할 수 있다. 단계(840)에서, 이미지 페어 처리 장치는 필터링된 특징 값을 보간(interpolate)하여 현재 프레임 이미지에 대응하는 특징값 평면을 생성할 수 있다.Referring to FIG. 8, in step 820, the image pair processing apparatus according to an embodiment can extract the feature value of the generated target area. In step 830, the image pair processing device may filter the feature values of the target area of the current frame image. In step 840, the image pair processing device may interpolate the filtered feature value to generate a feature value plane corresponding to the current frame image.

단계(850)에서, 이미지 페어 처리 장치는 생성된 특징값 평면 및 현재 프레임 이미지보다 먼저 획득된 프레임 이미지로부터 생성된 특징값 평면 모델을 비교할 수 있다. 특징값 평면 모델은 현재 프레임 이미지보다 먼저 획득된 하나 이상의 프레임 이미지에 의해 갱신되거나 트레이닝됨으로써 생성될 수 있다. 보다 구체적으로, 이미지 페어 처리 장치는 생성된 특징값 평면을 특징값 평면 모델로 피팅(fitting)할 수 있다. 이미지 페어 처리 장치는 특징값 평면을 특징값 평면 모델로 피팅(fitting)하였을 때의 응답값을 계산할 수 있다.In step 850, the image pair processing device may compare the generated feature value plane and the feature value plane model generated from the frame image obtained earlier than the current frame image. The feature value plane model may be generated by being updated or trained by one or more frame images obtained prior to the current frame image. More specifically, the image pair processing apparatus can fit the generated feature value plane to the feature value plane model. The image pair processing apparatus can calculate the response value when the feature value plane is fitted to the feature value plane model.

단계(860)에서, 이미지 페어 처리 장치는 특징 값 평면 및 특징 값 평면 모델을 비교한 결과에 기초하여, 현재 프레임 이미지 내에서 피사체의 위치를 결정할 수 있다. 보다 구체적으로, 이미지 페어 처리 장치는 응답 값을 최대로 하는 위치를 피사체의 위치로 결정할 수 있다. 단계(870)에서, 이미지 페어 처리 장치는 현재 프레임 이미지 내에서 피사체의 위치에 기초하여 특징 값 평면 모델을 업데이트할 수 있다.In step 860, the image pair processing device may determine the position of the subject within the current frame image based on the comparison of the feature value plane and the feature value plane model. More specifically, the image pair processing apparatus can determine the position at which the response value is maximized as the position of the subject. In step 870, the image pair processing device may update the feature value plane model based on the position of the subject within the current frame image.

이미지 페어 처리 장치는 서브 픽셀 수준에서 피사체의 위치를 결정할 수 있다. 이미지 페어 처리 장치는 평면 보간 피팅 방법을 이용하여 서브 픽셀 수준의 정확도를 제공할 수 있다.The image pair processing device can determine the position of the subject at the subpixel level. An image pair processing device can provide sub-pixel level accuracy using a planar interpolation fitting method.

도 9는 일실시예에 따른 이미지 페어 처리 장치가 특징값 평면을 특징값 평면 모델로 피팅하여 계산한 응답값의 분포를 도시한 그래프(900)이다. 응답값은 응답함수

Figure pat00012
에 기초하여 결정될 수 있다. 그래프(900)를 참고하면, 응답값의 최대값은 현재 프레임 이미지에서 피사체의 위치에 대응할 수 있다. 응답값을 최대로 하는 (x*, y*)는 응답함수 R(x,y)의 편미분 함수
Figure pat00013
에 기초하여 수학식 8과 같이 결정될 수 있다.9 is a graph 900 showing a distribution of response values calculated by fitting an image plane processing apparatus according to an embodiment to a feature value plane model. The response value is the response function
Figure pat00012
. ≪ / RTI > Referring to the graph 900, the maximum value of the response value may correspond to the position of the subject in the current frame image. (X *, y *) which maximizes the response value is the partial derivative of the response function R (x, y)
Figure pat00013
(8) < / RTI >

Figure pat00014
Figure pat00014

응답함수 R(x,y)의 6개 파라미터 a 내지 f는 과결정 방정식(overdetermined equation)에 기초하여 결정될 수 있다. 보다 구체적으로, 이미지 페어 처리 장치는 응답값이 최대가 되는 (x*, y*) 근처의 6개 포인트의 응답값을 이용하여 6개의 방정식을 획득할 수 있다. 이미지 페어 처리 장치는 대입법 또는 소거법에 기초하여 획득된 방정식을 연립하여 파라미터 a 내지 f를 결정할 수 있다.The six parameters a through f of the response function R (x, y) can be determined based on an overdetermined equation. More specifically, the image pair processing apparatus can obtain six equations using the response values of six points near (x *, y *) at which the response value becomes the maximum. The image pair processing apparatus can determine the parameters a to f by concatenating the obtained equations based on the substitution method or the erase method.

이하에서는 일실시예에 따른 이미지 페어 처리 장치가 공공 데이터 집합(OOTB)으로부터 선택한 9개의 비디오 이미지로부터 피사체의 위치를 결정한 실험 결과를 설명한다. 선택된 9개의 비디오 이미지는 피사체로 FaceOcc1, Coke, David, Bolt, Car4, Suv, Sylvester, Walking2 and Singer2를 포함한다. 이미지 페어 처리 장치가 상기 피사체를 추적한 정확도가 표 2에 제시된다.Hereinafter, an experimental result in which an image pair processing apparatus according to an embodiment determines the position of a subject from nine video images selected from a public data set (OOTB) will be described. The nine selected video images include FaceOcc1, Coke, David, Bolt, Car4, Suv, Sylvester, Walking2 and Singer2. The accuracy with which the image pair processing apparatus tracks the subject is shown in Table 2.

정밀한 구성Precise configuration FaceOcc1FaceOcc1 CokeCoke DavidDavid BoltBolt Car4Car4 SuvSuv Sylvester Sylvester Walking2Walking2 Singer2Singer2 KCFKCF 0.7300.730 0.8380.838 1.01.0 0.9890.989 0.9500.950 0.9790.979 0.8430.843 0.4400.440 0.9450.945 서브 픽셀 KCFSubpixel KCF 0.7540.754 0.8730.873 1.01.0 0.9970.997 0.9530.953 0.9800.980 0.8510.851 0.4380.438 0.9620.962

표 2를 참고하면, 일실시예에 따른 이미지 페어 처리 장치가 피사체 위치를 추적한 정확도(서브 픽셀 KCF)가 종래의 피사체 위치 추적 방법의 그것보다 향상되었음을 알 수 있다.Referring to Table 2, it can be seen that the accuracy (subpixel KCF) that the image pair processing apparatus according to one embodiment tracks the position of the subject is improved over that of the conventional method of tracking the subject position.

종합하면, 일실시예에 따른 이미지 페어 처리 장치는 수신한 프레임 이미지보다 작은 타겟 영역에서 특징포인트를 추출하므로, 특징 포인트를 추출하는 시간 또는 계산량이 감소할 수 있다. 또한, 이미지 페어 처리 장치는 타겟 영역의 일부인 특징 포인트에 대하여 특징 포인트의 매칭, 시차 측정등의 동작을 수행하므로, 프레임 이미지를 처리하는데 소비되는 시간 또는 계산량이 감소할 수 있다. 이미지 페어 처리 장치는 최소 트리의 노드들에 대한 최소 누적 매칭 비용을 결정할 때에, 누적의 매칭 비용을 필터링하여 제거함으로써 특징 포인트의 시차를 결정할 때의 계산량이 줄어들 수 있다.Taken together, since the image pair processing apparatus according to the embodiment extracts feature points from a target area smaller than the received frame image, the time or amount of calculation for extracting feature points can be reduced. Further, since the image pair processing apparatus performs operations such as matching of feature points, parallax measurement, and the like with respect to feature points that are part of the target area, the time or calculation amount consumed in processing the frame images can be reduced. The image fair processing apparatus can reduce the calculation amount when determining the parallax of feature points by filtering and removing the cumulative matching cost when determining the minimum cumulative matching cost for the nodes of the minimum tree.

또한, 추출된 복수의 특징 포인트는 피사체의 특징을 포함하므로, 특징 포인트에 기초하여 결정된 피사체 및 스테레오 카메라의 거리의 정확도가 향상될 수 있다. 따라서, 피사체 및 스테레오 카메라의 거리를 동일한 정확도로 측정하는 경우, 일실시예에 따른 이미지 페어 처리 장치는 이미지 페어를 처리하는 전 과정의 계산량을 감소함으로써, 이미지 페어를 처리하는 속도를 향상시킬 수 있다.In addition, since the plurality of extracted feature points include the characteristics of the subject, the accuracy of the distance of the subject and the stereo camera determined based on the feature point can be improved. Therefore, when the distance between the subject and the stereo camera is measured with the same accuracy, the image-pair processing apparatus according to one embodiment can improve the speed of processing an image pair by reducing the amount of calculation of the entire process of processing the image pair .

추가적으로, 이미지 페어 처리 장치는 타겟 영역에 대한 시차범위를 결정함으로써, 타겟 영역의 특징 포인트를 매칭할 때 사용되는 시차범위의 크기를 줄일 수 있다. 보다 구체적으로, 이미지 페어 처리 장치가 계산한 매칭 비용 벡터의 개수가 시차범위 내의 시차의 개수만큼 감소되므로, 특징 포인트를 매칭할 때의 비용을 결정하는 동작 및 결정된 비용을 누적하는 동작의 계산량이 감소될 수 있다.In addition, the image pair processing apparatus can reduce the size of the parallax range used when matching the feature points of the target area by determining the parallax range for the target area. More specifically, since the number of matching cost vectors calculated by the image pair processing apparatus is reduced by the number of parallaxes in the parallax range, the operation of determining the cost when matching the feature points and the amount of calculation of the operation of accumulating the determined cost are reduced .

추가적으로, 일실시예에 따른 이미지 페어 처리 장치는 타겟 영역내의 복수의 특징 포인트에 기초하여 복수의 특징 포인트를 노드로 하는 연결 그래프를 생성할 수 있다. 더 나아가서, 이미지 페어 처리 장치는 연결 그래프로부터 최소 트리를 생성함으로써, 모든 특징 포인트를 노드로 유지하면서 연결 그래프에 포함된 변의 개수를 줄일 수 있다.Additionally, an image pair processing apparatus according to an embodiment may generate a connection graph that nodes a plurality of feature points based on a plurality of feature points in a target area. Further, the image pair processing apparatus can reduce the number of sides included in the connection graph while maintaining all the feature points as nodes by generating a minimum tree from the connection graph.

또한, 일실시예에 따른 이미지 페어 처리 장치는 현재 프레임 이미지의 타겟 영역의 특징 값을 추출한 다음, 추출된 특징 값에 대하여 보간을 이용하여 현재 프레임 이미지에 대한 특징 값 평면을 생성할 수 있다. 이미지 페어 처리 장치는 현재 프레임 이미지 이전에 획득된 프레임 이미지로부터 생성된 특징 값 평면 모델을 생성된 특징 값 평면과 비교함으로써, 현재 프레임 이미지에서 피사체의 위치를 결정할 수 있다. 따라서, 이미지 페어 처리 장치는 보다 정확하게 현재 프레임 이미지에서 피사체의 위치를 결정할 수 있다.In addition, the image-pair processing apparatus according to an exemplary embodiment extracts a feature value of a target area of a current frame image, and then generates a feature value plane for the current frame image using interpolation for the extracted feature value. The image pair processing device can determine the position of the subject in the current frame image by comparing the feature value plane model generated from the frame image acquired before the current frame image with the generated feature value plane. Thus, the image-pair processing apparatus can more accurately determine the position of the subject in the current frame image.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the drawings, various technical modifications and variations may be applied to those skilled in the art. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

101: 스테레오 카메라
102: 타겟 영역 생성기
103: 특징 포인트 추출기
104: 매칭 비용 측정기
105: 특징 포인트 시차 계산기
106: 피사체 거리 결정기
107: 특징 포인트 연결기
108: 최소 트리 생성기
109: 시차 범위 결정기
110: 피사체 추적기
101: Stereo camera
102: target area generator
103: Feature point extractor
104: Matching cost meter
105: Features Point difference calculator
106: Subject distance determiner
107: Feature point connector
108: Minimum Tree Generator
109:
110: subject tracker

Claims (15)

피사체를 촬영한 스테레오 카메라로부터 획득된 이미지 페어의 제1 프레임 이미지 및 제2 프레임 이미지 각각에서, 상기 피사체가 포함된 타겟 영역을 생성하는 단계;
상기 타겟 영역내의 특징 포인트를 추출하는 단계;
상기 제1 프레임 이미지에서 추출된 특징 포인트 및 상기 제2 프레임 이미지에서 추출된 특징 포인트를 매칭하여, 상기 특징 포인트의 시차를 계산하는 단계; 및
상기 특징 포인트의 시차에 기초하여, 상기 피사체 및 상기 스테레오 카메라 간의 거리를 결정하는 단계
를 포함하는 이미지 페어 처리 방법.
Generating, in each of a first frame image and a second frame image of an image pair obtained from a stereo camera that has photographed a subject, a target area including the subject;
Extracting feature points in the target area;
Calculating a parallax of the feature point by matching the feature point extracted from the first frame image and the feature point extracted from the second frame image; And
Determining a distance between the subject and the stereo camera based on the parallax of the feature point
/ RTI >
제1항에 있어서,
상기 계산하는 단계는,
상기 제1 프레임 이미지의 특징 포인트들 간의 수평 거리, 수직 거리 또는 유클리디언 거리에 기초하여 상기 제1 프레임 이미지의 특징 포인트들을 연결하여, 상기 제1 프레임 이미지의 특징 포인트들을 노드로 하는 제1 트리를 생성하는 단계;
상기 제2 프레임 이미지의 특징 포인트들 간의 수평 거리, 수직 거리 또는 유클리디언 거리에 기초하여 상기 제2 프레임 이미지의 특징 포인트들을 연결하여, 상기 제2 프레임 이미지의 특징 포인트들을 노드로 하는 제2 트리를 생성하는 단계; 및
상기 제1 프레임 이미지의 특징 포인트 및 상기 제2 프레임 이미지의 특징 포인트의 시차를 계산하기 위하여, 상기 제1 트리의 노드들 및 상기 제2 트리의 노드들을 매칭하는 단계
를 포함하는 이미지 페어 처리 방법.
The method according to claim 1,
Wherein the calculating step comprises:
Connecting a feature point of the first frame image based on a horizontal distance, a vertical distance or an Euclidean distance between the feature points of the first frame image, ≪ / RTI >
A second tree that connects feature points of the second frame image based on a horizontal distance, a vertical distance, or an Euclidean distance between the feature points of the second frame image, ≪ / RTI > And
Matching the nodes of the first tree and the nodes of the second tree to calculate the parallax of the feature point of the first frame image and the feature point of the second frame image
/ RTI >
제2항에 있어서,
상기 매칭하는 단계는,
상기 제1 트리의 노드들 및 상기 제2 트리의 노드들을 매칭할 때의 비용을 상기 제1 트리의 노드들의 가지를 따라 누적하는 단계; 및
상기 누적된 비용에 기초하여 상기 제1 프레임 이미지의 특징 포인트 및 상기 제2 프레임 이미지의 특징 포인트의 시차를 결정하는 단계
를 포함하고,
상기 비용은,
매칭의 대상이 되는 상기 제1 트리의 노드 및 상기 제2 트리의 노드의 휘도 및 시차에 기초하여 결정되는 이미지 페어 처리 방법.
3. The method of claim 2,
The matching step comprises:
Accumulating the costs of matching the nodes of the first tree and the nodes of the second tree along the branches of the nodes of the first tree; And
Determining a parallax of a feature point of the first frame image and a feature point of the second frame image based on the accumulated cost
Lt; / RTI >
The above-
And the luminance and parallax of the nodes of the first tree and the nodes of the second tree that are the objects of matching.
제1항에 있어서,
상기 제1 프레임 이미지의 타겟 영역 및 상기 타겟 영역의 위치에 따라 결정되는 제2 프레임 이미지의 대응 영역간의 휘도 차이에 기초하여, 상기 피사체와 관련된 시차 범위를 결정하는 단계
를 더 포함하는 이미지 페어 처리 방법.
The method according to claim 1,
Determining a parallax range associated with the subject based on a luminance difference between a corresponding region of a second frame image determined according to a target region of the first frame image and a position of the target region
Further comprising the steps of:
제4항에 있어서,
상기 특징 포인트의 시차를 계산하는 단계는,
상기 결정된 시차 범위내에서 상기 제1 프레임 이미지에서 추출된 특징 포인트 및 상기 제2 프레임 이미지에서 추출된 특징 포인트를 매칭하는 이미지 페어 처리 방법.
5. The method of claim 4,
Wherein the step of calculating the parallax of the feature point comprises:
Wherein the feature points extracted from the first frame image and the feature points extracted from the second frame image are matched within the determined parallax range.
제4항에 있어서,
상기 시차 범위를 결정하는 단계는,
상기 제2 프레임 이미지의 대응 영역을 평행 이동하는 단계; 및
상기 평행 이동된 상기 대응 영역 및 상기 제1 프레임 이미지의 타겟 영역의 휘도를 비교하는 단계
를 포함하는 이미지 페어 처리 방법.
5. The method of claim 4,
Wherein the step of determining the parallax ranges comprises:
Moving a corresponding region of the second frame image in parallel; And
Comparing the luminance of the corresponding region of the parallel moved and the target region of the first frame image
/ RTI >
제1항에 있어서,
상기 타겟 영역의 특징 값을 추출하는 단계;
상기 추출된 특징 값에 기초하여, 상기 이미지 페어의 특징값 평면을 생성하는 단계;
상기 이미지 페어 이전에 획득된 이미지 페어의 특징값 평면으로부터 생성된 특징값 평면 모델과 상기 특징값 평면을 비교하는 단계; 및
상기 특징값 평면 모델과 상기 특징값 평면을 비교한 결과에 기초하여, 상기 이미지 페어에서 상기 피사체의 위치를 결정하는 단계
를 더 포함하는 이미지 페어 처리 방법.
The method according to claim 1,
Extracting a feature value of the target area;
Generating a feature value plane of the image pair based on the extracted feature value;
Comparing a feature value plane model generated from a feature value plane of an image pair obtained before the image pair with the feature value plane; And
Determining a position of the subject in the image pair based on a result of comparing the feature value plane model and the feature value plane
Further comprising the steps of:
제7항에 있어서,
상기 결정된 피사체의 위치에 기초하여 상기 특징값 평면 모델을 변경하는 단계
를 더 포함하는 이미지 페어 처리 방법.
8. The method of claim 7,
Changing the feature value plane model based on the determined position of the subject
Further comprising the steps of:
피사체를 촬영한 이미지 페어가 저장되는 메모리; 및
상기 이미지 페어를 처리하는 프로세서
를 포함하고,
상기 프로세서는,
상기 이미지 페어의 제1 프레임 이미지 및 제2 프레임 이미지 각각에서, 상기 피사체가 포함된 타겟 영역을 생성하고,
상기 타겟 영역내의 특징 포인트를 추출하고,
상기 제1 프레임 이미지에서 추출된 특징 포인트 및 상기 제2 프레임 이미지에서 추출된 특징 포인트를 매칭하여, 상기 특징 포인트의 시차를 계산하고,
상기 특징 포인트의 시차에 기초하여, 상기 피사체 및 상기 피사체를 촬영한 스테레오 카메라 간의 거리를 결정하는 이미지 페어 처리 장치.
A memory for storing an image pair photographed by a subject; And
The processor for processing the image pair
Lt; / RTI >
The processor comprising:
In each of a first frame image and a second frame image of the image pair, a target area including the subject is generated,
Extracting feature points in the target area,
Calculating a parallax of the feature point by matching the feature point extracted from the first frame image and the feature point extracted from the second frame image,
And determines a distance between the subject and the stereo camera that has photographed the subject based on the parallax of the feature point.
제9항에 있어서,
상기 프로세서는,
상기 제1 프레임 이미지의 특징 포인트들을 노드로 하는 제1 트리 및 상기 제2 프레임 이미지의 특징 포인트들을 노드로 하는 제2 트리를 매칭할 때의 비용에 기초하여, 상기 제1 프레임 이미지의 특징 포인트 및 상기 제2 프레임 이미지의 특징 포인트의 시차를 계산하는 이미지 페어 처리 장치.
10. The method of claim 9,
The processor comprising:
Based on a cost of matching a first tree having characteristic points of the first frame image as nodes and a second tree having characteristic points of the second frame image as nodes, And calculates the parallax of the feature point of the second frame image.
제10항에 있어서,
상기 프로세서는,
상기 제1 트리의 노드에 대응하는 특징 포인트 및 상기 제2 트리의 노드에 대응하는 특징 포인트의 휘도 및 시차에 기초하여 결정된 유사도를 이용하여 상기 비용을 결정하는 이미지 페어 처리 장치.
11. The method of claim 10,
The processor comprising:
And determines the cost using the similarity determined based on the luminance and the parallax of the feature point corresponding to the node of the first tree and the feature point corresponding to the node of the second tree.
제10항에 있어서,
상기 제1 트리 및 상기 제2 트리 각각은,
공간 거리가 가장 작은 상기 제1 프레임 이미지의 특징 포인트들 및 공간 거리가 가장 작은 상기 제2 프레임 이미지의 특징 포인트들을 연결하여 생성되는 이미지 페어 처리 장치.
11. The method of claim 10,
Wherein each of the first tree and the second tree comprises:
Wherein the feature points of the first frame image having the smallest spatial distance and the feature points of the second frame image having the smallest spatial distance are connected.
제9항에 있어서,
상기 프로세서는,
상기 제1 프레임 이미지의 타겟 영역 및 상기 타겟 영역의 위치에 따라 결정되는 제2 프레임 이미지의 대응 영역간의 휘도 차이에 기초하여, 상기 피사체와 관련된 시차 범위를 결정하는 이미지 페어 처리 장치.
10. The method of claim 9,
The processor comprising:
And determines a parallax range associated with the subject based on a luminance difference between a corresponding region of the second frame image determined according to the target region of the first frame image and the position of the target region.
제13항에 있어서,
상기 프로세서는,
상기 결정된 시차 범위내에서 상기 제1 프레임 이미지에서 추출된 특징 포인트 및 상기 제2 프레임 이미지에서 추출된 특징 포인트를 매칭하는 이미지 페어 처리 장치.
14. The method of claim 13,
The processor comprising:
And compares feature points extracted from the first frame image and feature points extracted from the second frame image within the determined parallax range.
제9항에 있어서,
상기 프로세서는,
상기 타겟 영역의 특징 값을 추출하고,
상기 추출된 특징 값에 기초하여, 상기 이미지 페어의 특징 값 평면을 생성하고,
상기 이미지 페어 이전에 획득된 이미지 페어의 특징 값 평면으로부터 생성된 특징 값 평면 모델과 상기 특징 값 평면을 비교하고,
상기 특징 값 평면 모델과 상기 특징 값 평면을 비교한 결과에 기초하여, 상기 이미지 페어에서 상기 피사체의 위치를 결정하는 이미지 페어 처리 장치.
10. The method of claim 9,
The processor comprising:
Extracting a feature value of the target area,
Generating a feature value plane of the image pair based on the extracted feature value,
Comparing the feature value plane model generated from the feature value plane of the image pair obtained before the image pair with the feature value plane,
And determines the position of the subject in the image pair based on a result of comparing the feature value plane model and the feature value plane.
KR1020170078174A 2016-08-03 2017-06-20 Apparatus and method for processing image pair obtained from a stereo camera KR102458242B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/668,261 US20180041747A1 (en) 2016-08-03 2017-08-03 Apparatus and method for processing image pair obtained from stereo camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610630643.3A CN107689060A (en) 2016-08-03 2016-08-03 Visual processing method, device and the equipment of view-based access control model processing of destination object
CN201610630643.3 2016-08-03

Publications (2)

Publication Number Publication Date
KR20180015570A true KR20180015570A (en) 2018-02-13
KR102458242B1 KR102458242B1 (en) 2022-10-24

Family

ID=61151472

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170078174A KR102458242B1 (en) 2016-08-03 2017-06-20 Apparatus and method for processing image pair obtained from a stereo camera

Country Status (2)

Country Link
KR (1) KR102458242B1 (en)
CN (1) CN107689060A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190114708A (en) * 2018-03-30 2019-10-10 삼성전자주식회사 Hardware disparity evaluation for stereo matching
KR20190117213A (en) * 2018-04-06 2019-10-16 주식회사 와이즈오토모티브 Apparatus and method for generating bird eye view image

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020019111A1 (en) * 2018-07-23 2020-01-30 深圳市大疆创新科技有限公司 Method for acquiring depth information of target object, and movable platform
CN110374045B (en) * 2019-07-29 2021-09-28 哈尔滨工业大学 Intelligent deicing method
CN110738731B (en) * 2019-10-16 2023-09-22 光沦科技(深圳)有限公司 3D reconstruction method and system for binocular vision
CN112348859B (en) * 2020-10-26 2024-09-06 浙江理工大学 Binocular parallax acquisition method and system for asymptotic global matching
WO2022252036A1 (en) * 2021-05-31 2022-12-08 深圳市大疆创新科技有限公司 Method and apparatus for acquiring obstacle information, movable platform and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120041464A (en) * 2010-10-21 2012-05-02 삼성전자주식회사 Disparity estimation system and method for estimating consistent disparity from multi-viewpoint video
JP2014206893A (en) * 2013-04-15 2014-10-30 ソニー株式会社 Image processing apparatus, image processing method, and program
KR20150130078A (en) * 2014-05-13 2015-11-23 삼성전자주식회사 Method and apparatus for generating spanning tree, method and apparatus for stereo matching, method and apparatus for up-sampling, and method and apparatus for generating reference pixel

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120041464A (en) * 2010-10-21 2012-05-02 삼성전자주식회사 Disparity estimation system and method for estimating consistent disparity from multi-viewpoint video
JP2014206893A (en) * 2013-04-15 2014-10-30 ソニー株式会社 Image processing apparatus, image processing method, and program
KR20150130078A (en) * 2014-05-13 2015-11-23 삼성전자주식회사 Method and apparatus for generating spanning tree, method and apparatus for stereo matching, method and apparatus for up-sampling, and method and apparatus for generating reference pixel

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Qingxiong Yang ET AL:"A non-local cost aggregation method for stereo matching", 2012 IEEE Conference on Computer Vision and Pattern Recognition, (2012.6.16.) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190114708A (en) * 2018-03-30 2019-10-10 삼성전자주식회사 Hardware disparity evaluation for stereo matching
KR20190117213A (en) * 2018-04-06 2019-10-16 주식회사 와이즈오토모티브 Apparatus and method for generating bird eye view image

Also Published As

Publication number Publication date
CN107689060A (en) 2018-02-13
KR102458242B1 (en) 2022-10-24

Similar Documents

Publication Publication Date Title
CN108961327B (en) Monocular depth estimation method and device, equipment and storage medium thereof
KR20180015570A (en) Apparatus and method for processing image pair obtained from a stereo camera
US10789719B2 (en) Method and apparatus for detection of false alarm obstacle
KR102459853B1 (en) Method and device to estimate disparity
US9412034B1 (en) Occlusion handling for computer vision
US20190122378A1 (en) Apparatuses and methods for machine vision systems including creation of a point cloud model and/or three dimensional model based on multiple images from different perspectives and combination of depth cues from camera motion and defocus with various applications including navigation systems, and pattern matching systems as well as estimating relative blur between images for use in depth from defocus or autofocusing applications
CN107735797B (en) Method for determining a movement between a first coordinate system and a second coordinate system
JP2015181042A (en) detection and tracking of moving objects
KR20120084635A (en) Apparatus and method for estimating camera motion using depth information, augmented reality system
US20180041747A1 (en) Apparatus and method for processing image pair obtained from stereo camera
KR20150144728A (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
KR20200075727A (en) Method and apparatus for calculating depth map
US9934585B2 (en) Apparatus and method for registering images
US10055674B2 (en) Confidence estimation for optical flow
CN112101195B (en) Crowd density estimation method, crowd density estimation device, computer equipment and storage medium
CN109191513B (en) Power equipment stereo matching method based on global optimization
CN113711276A (en) Scale-aware monocular positioning and mapping
KR20190030456A (en) Mehtod and apparatus for stereo matching
AliAkbarpour et al. Fast structure from motion for sequential and wide area motion imagery
KR20140054710A (en) Apparatus and method for generating 3d map
JP6240706B2 (en) Line tracking using automatic model initialization with graph matching and cycle detection
WO2015198592A1 (en) Information processing device, information processing method, and information processing program
CN114757984A (en) Scene depth estimation method and device of light field camera
US9811917B2 (en) Confidence estimation for optical flow under low light conditions
US11475233B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant