KR100943635B1 - Method and apparatus for generating disparity map using digital camera image - Google Patents
Method and apparatus for generating disparity map using digital camera image Download PDFInfo
- Publication number
- KR100943635B1 KR100943635B1 KR1020080110050A KR20080110050A KR100943635B1 KR 100943635 B1 KR100943635 B1 KR 100943635B1 KR 1020080110050 A KR1020080110050 A KR 1020080110050A KR 20080110050 A KR20080110050 A KR 20080110050A KR 100943635 B1 KR100943635 B1 KR 100943635B1
- Authority
- KR
- South Korea
- Prior art keywords
- edge
- image
- disparity map
- digital camera
- extracted
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 스테레오 이미지(stereo image)로부터 3차원 이미지를 얻는 기술에 관한 것으로, 특히 디지털 카메라로 촬영한 2차원의 스테레오 이미지를 이용하여 3차원 이미지 생성을 위한 디스패리티 맵(disparity map)을 생성할 수 있도록 한 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 장치 및 방법에 관한 것이다. The present invention relates to a technique for obtaining a three-dimensional image from a stereo image, and in particular, to generate a disparity map for generating a three-dimensional image using a two-dimensional stereo image taken with a digital camera. The present invention relates to an apparatus and method for generating a disparity map using an image of a digital camera.
스테레오 매칭 기술은 스테레오 이미지로부터 3차원 이미지를 얻기 위해 이용되는 기술로서, 동일 피사체에 대하여 동일선상의 서로 다른 촬영 위치에서 촬영된 다수의 2차원 이미지로부터 3차원 이미지를 얻기 위해 이용된다. 스테레오 이미지는 이처럼 피사체에 대하여 서로 다른 촬영 위치에서 촬영된 다수의 2차원 이미지 즉, 서로 짝(pair) 관계에 있는 다수의 2차원 이미지를 의미한다.Stereo matching is a technique used to obtain a three-dimensional image from a stereo image, and is used to obtain a three-dimensional image from a plurality of two-dimensional images photographed at different photographing positions on the same line with respect to the same subject. The stereo image refers to a plurality of two-dimensional images captured at different photographing positions with respect to a subject, that is, a plurality of two-dimensional images paired with each other.
일반적으로, 2차원 이미지로부터 3차원 이미지를 생성하기 위해서는 2차원 이미지의 수직, 수평의 위치 정보인 x,y 좌표에 더하여 깊이 정보인 z 좌표를 필요로 한다. z 좌표를 구하기 위해서는 스테레오 이미지의 시차 정보를 필요로 하는데, 스테레오 매칭은 이러한 시차를 얻기 위해 사용되는 기술이다. 예를 들어, 스테레 오 이미지가 두 대의 좌,우 카메라에 의해 촬영된 좌,우 이미지라면, 좌,우 이미지 중에 하나를 기준 이미지로, 다른 하나를 탐색 이미지로 정한다. 이러한 경우에 공간상의 동일한 점에 대한 기준 이미지와 탐색 이미지 간의 거리, 즉 좌표의 차이를 시차라고 하는데, 스테레오 매칭 기술을 이용하여 시차를 얻는다.In general, in order to generate a 3D image from a 2D image, z coordinates of depth information are required in addition to x and y coordinates of vertical and horizontal position information of the 2D image. To obtain z coordinates, parallax information of a stereo image is required, and stereo matching is a technique used to obtain such parallax. For example, if the stereo image is a left and right image captured by two left and right cameras, one of the left and right images is used as a reference image and the other is a search image. In this case, the distance between the reference image and the search image, or coordinates, for the same point in space is called parallax. The parallax is obtained by using stereo matching technique.
이미지의 전체 화소들에 대하여 위와 같이 얻어지는 기준 이미지와 탐색 이미지 간의 시차들을 이용하여 각 화소들에 대한 깊이 정보를 얻어 3차원 좌표들로 표현되는 디스패리티 맵을 생성한다.By using the parallaxes between the reference image and the search image obtained as described above with respect to all the pixels of the image, depth information about each pixel is obtained to generate a disparity map represented by three-dimensional coordinates.
도 1은 종래 기술에 의한 디스패리티 맵 생성 장치의 블록도로서 이에 도시한 바와 같이, 제1,2에지 추출기(11A),(11B)와, 에지 스테레오 매칭기(12)와, 에지 디스패리티 맵 생성기(113) 및 디스패리티 맵 보완기(14)로 구성된다.1 is a block diagram of a disparity map generating apparatus according to the prior art, and as shown therein, the first and
제1,2에지 추출기(11A),(11B)는 입력된 좌,우 이미지에서 에지를 추출하여 윤곽선을 이루는 에지 화소들만으로 이루어진 이미지를 생성한 후 이를 에지 스테레오 매칭기(12)에 출력한다.The first and
에지 스테레오 매칭기(12)는 상기 제1,2에지 추출기(11A),(11B)로부터 에지 화소들만으로 이루어진 좌,우 에지 이미지를 입력받아 이들에 대한 스테레오 매칭을 수행한다. 여기서, 좌,우 에지 이미지 중 하나를 기준 에지 이미지라 하면, 다른 하나가 탐색 에지 이미지가 된다.The
에지 디스패리티 맵 생성기(13)는 상기 에지 스테레오 매칭기(12)에 의해 얻어진 기준 에지 이미지의 에지 화소들과 이들 각각에 대응하는 탐색 에지 이미지의 대응 에지 화소들을 이용하여 에지 이미지 디스패리티 맵을 생성한다.An edge
디스패리티 맵 보완기(14)는 통상적인 화소간 보간법을 이용하여 에지 이미지 디스패리티 맵에서 인접한 에지 화소들 간의 정보, 즉 z 좌표의 보간에 의해 에지가 아닌 이미지 영역에 대한 디스패리티 맵을 보완한다. The disparity map complementer 14 complements the disparity map for the non-edge image region by interpolation of information between adjacent edge pixels in the edge image disparity map, i.e. z coordinates, using conventional inter-pixel interpolation. .
이와 같은 과정을 통해 생성된 디스패리티 맵은 스테레오 이미지 생성을 위해 직접적으로 사용된다.The disparity map generated through this process is directly used for generating stereo images.
이와 같은 종래의 디스패리티 맵 생성 장치에 있어서는 입체 이미지(3차원 이미지)를 얻기 위해 스테레오 카메라와 같은 특수 촬영기기를 필요로 하므로 일반인이 널리 보급되어 있는 디지털 카메라나 휴대폰 등의 일반 카메라를 이용할 수 없게 되는 문제점이 있었다. In the conventional disparity map generating apparatus, a special photographing device such as a stereo camera is required to obtain a stereoscopic image (three-dimensional image), so that a general camera such as a digital camera or a mobile phone, which are widely used by the general public, cannot be used. There was a problem.
그리고, 스테레오 이미지를 얻기 위해 반드시 스테레오 이미지를 생성하는 기기(예: 스테레오 Depth 카메라 또는 2대의 좌,우 카메라)를 필요로 하였으므로 일반 사용자의 사용 접근성이 떨어지는 문제점이 있었다.In addition, since a device (eg, a stereo depth camera or two left and right cameras) for generating a stereo image is required to obtain a stereo image, accessibility of a general user is inferior.
따라서, 본 발명의 목적은 스테레오 이미지를 발생하는 기기를 사용하지 않고 통상의 디지털 카메라로 촬영한 2장의 이미지를 이용하여 스테레오 이미지를 빠르게 생성하는데 있다.Accordingly, an object of the present invention is to quickly generate a stereo image using two images captured by a conventional digital camera without using a device for generating a stereo image.
본 발명의 또 다른 목적은 사진 촬영시 초점 거리를 이용하여 사진에서 찾고자 하는 에지를 빠르게 추출하는데 있다.Still another object of the present invention is to quickly extract an edge to be found in a picture by using a focal length when taking a picture.
본 발명의 또 다른 목적은 에피폴라 기반으로 카메라 움직임을 추적하여 스테레오 매칭될 가능성이 적은 것들을 후보에서 제외시켜 스테레오 매칭 속도를 향상시키는데 있다. Still another object of the present invention is to improve stereo matching speed by eliminating candidates that are less likely to be stereo matched by tracking camera movement on an epipolar basis.
상기와 같은 목적을 달성하기 위한 본 발명은, 휴대폰을 포함하는 일반 디지털 카메라로 조금씩 다른 각도에서 촬영된 이미지파일에서 초점 거리를 추출하는 초점거리 추출기와; 상기 추출된 여러장의 이미지 중에서 추출하고자 하는 에지와 비슷한 모양을 가진 부분의 윤곽선을 에지군으로 빠르게 추출하는 에지 추출기와; 상기 추출된 각 에지군들을 서로 비교하여 그 비교 결과를 근거로 카메라 움직임을 추적하고, 그 추적 결과를 근거로 에지 매칭의 후보군이 될 가능성이 적은 이미지 후보들을 제거한 다음 두 이미지 간의 일치여부를 확인하여 에지 기반의 이미지 매칭을 수행하는 에지 스테레오 매칭기와; 상기 매칭된 에지 이미지의 화소들 간의 거리를 근거로 보간처리하여 에지 디스패리티 맵을 생성하는 에지 디스패리티 맵 생성기를 포함하여 구성함을 특징으로 한다.The present invention for achieving the above object is a general digital camera including a mobile phone and a focal length extractor for extracting the focal length from the image file taken from a slightly different angle; An edge extractor for quickly extracting an outline of a portion having a shape similar to an edge to be extracted from the extracted multiple images into an edge group; Compare the extracted edge groups with each other and track camera movements based on the comparison result, remove image candidates that are less likely to be candidates for edge matching based on the tracking result, and then check whether the two images match. An edge stereo matcher for performing edge based image matching; And an edge disparity map generator for generating an edge disparity map by interpolating based on the distance between pixels of the matched edge image.
상기와 같은 목적을 달성하기 위한 또 다른 본 발명은, 일반 디지털 카메라로 3차원 이미지 생성을 원하는 피사체를 조금씩 다른 각도에서 여러차례 촬영한 이미지파일들을 취득하는 제1과정과; 상기 이미지 파일들에서 초점 거리를 추출하는 제2과정과; 상기 각 이미지 파일들을 대상으로 초점거리를 이용하여 추출하고자 하는 에지의 크기를 적절히 변환하여 추출하고자 하는 영역들을 찾고, 이들 중에서 추출하고자 하는 에지와 비슷한 모양을 가진 부분의 윤곽선을 에지군으로 빠르게 추출하는 제3과정과; 상기 추출된 각 에지군들을 서로 비교하여 그 비교 결과를 근거로 카메라 움직임을 추적하고, 그 추적 결과를 근거로 에지 매칭의 후보군이 될 가능성이 적은 이미지 후보들을 제거한 다음 두 이미지 간의 일치여부를 확인하여 에지 기반의 이미지 매칭을 수행하는 제4과정과; 상기 매칭된 에지 이미지의 화소들 간의 거리를 근거로 보간처리하여 에지 디스패리티 맵을 생성하는 제5과정을 포함하여 이루어짐을 특징으로 한다.Another object of the present invention for achieving the above object is a first step of acquiring an image file photographed several times at slightly different angles of the subject to create a three-dimensional image with a general digital camera; Extracting a focal length from the image files; Finding the areas to be extracted by appropriately converting the size of the edge to be extracted using the focal length for each of the image files, and quickly extracting the contour of the portion having the shape similar to the edge to be extracted into the edge group. The third process; Compare the extracted edge groups with each other and track camera movements based on the comparison result, remove image candidates that are less likely to be candidates for edge matching based on the tracking result, and then check whether the two images match. A fourth process of performing edge-based image matching; And a fifth process of generating an edge disparity map by interpolating based on the distance between pixels of the matched edge image.
본 발명은 사용자가 일반 디지털 카메라로 촬영한 2 장의 이미지를 이용하여 스테레오 이미지를 생성하고, 초점 거리를 이용하여 에지를 빠르게 찾은 후 스테레오 매칭될 가능성이 적은 것들을 후보에서 제외시킴으로써, 3차원 이미지 생성을 위한 디스패리티 맵을 신속하게 생성할 수 있는 효과가 있다. The present invention generates a stereo image using two images taken by a user with a general digital camera, quickly finds an edge using a focal length, and excludes those less likely to be stereo matched from the candidate, thereby generating three-dimensional image generation. There is an effect that can quickly generate a disparity map for.
또한, 사용자 입장에서 볼 때 일반 디지털 카메라를 이용하여 언제 어디서나 3차원 입체 이미지를 획득하여 직거래 쇼핑몰이나 손해보험사 또는 경찰서 등에 제 공할 수 있는 효과가 있다. In addition, from a user's point of view, it is possible to obtain a three-dimensional stereoscopic image anytime and anywhere using a general digital camera and provide it to a direct shopping mall, a non-life insurance company or a police station.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하면 다음과 같다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 2는 본 발명에 의한 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 장치의 구현예를 보인 블록도로서, 초점거리 추출기(21), 제1,2 에지 추출기(22A),(22B), 에지 스테레오 매칭기(23), 에지 디스패리티 맵 생성기(24) 및 디스패리티 맵 보완기(25)를 포함하여 구성한다.FIG. 2 is a block diagram showing an embodiment of a disparity map generation apparatus using an image of a digital camera according to the present invention, and includes a
초점거리 추출기(21)는 촬영된 사진에서 헤더를 분석하여 초점 거리를 추출한다. 만약, 휴대폰과 같이 초점거리가 없는 사진에 대해서는 초점거리를 기 설정된 값(디폴트 값)으로 설정한다.The
에지 추출기(22)는 추출을 원하는 에지 이미지를 레퍼런스 에지 이미지로 하여, 상기 초점거리 추출기(21)로부터 초점 거리를 이용하여 레퍼런스 에지 이미지의 크기를 변경한 후, 입력받은 여러장의 이미지들로부터 비슷한 영역을 찾아낸다. 그리고, 상기 에지 추출기(22)는 사용자가 추출하기를 원하는 에지와 비슷한 모양을 가진 부분의 윤곽선을 에지 후보군으로 추출한다.The edge extractor 22 changes the size of the reference edge image by using the focal length from the
에지 스테레오 매칭기(23)는 상기 선출된 각 에지군들 중 인접된 에지군 끼리 서로 비교하여 그 비교 결과를 근거로 카메라 움직임을 추적하고, 그 추적 결과를 근거로 에지 매칭의 후보군이 될 가능성이 적은 이미지 후보들을 제거한 다음 나머지의 이미지 후보들을 대상으로 두 이미지 간의 일치여부를 확인하여 에지 기반의 이미지 매칭을 수행한다.The edge stereo matcher 23 compares adjacent edge groups among the selected edge groups, tracks camera movements based on the comparison result, and is likely to be a candidate group of edge matching based on the tracking result. After eliminating a small number of image candidates, edge-based image matching is performed by checking whether two images match each other.
에지 디스패리티 맵 생성기(24)는 상기 매칭된 에지 이미지의 화소들 간의 거리를 근거로 보간처리하여 에지 만의 디스패리티 맵을 생성한다. The edge
디스패리티 맵 보완기(25)는 통상적인 화소간 보간법을 이용하여 에지 이미지 디스패리티 맵에서 인접한 에지 화소들 간의 정보, 즉 z 좌표의 보간에 의해 에지가 아닌 이미지 영역에 대한 디스패리티 맵을 보완한다. The disparity map complementer 25 complements a disparity map for an image region other than an edge by interpolation of information between adjacent edge pixels in the edge image disparity map, that is, z coordinates, using a conventional inter-pixel interpolation method. .
도 3은 본 발명에 의한 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 방법의 처리과정을 나타낸 제어 흐름도로서 이를 참조하여 디스패리티 맵 생성과정을 상세히 설명하면 다음과 같다.3 is a control flowchart illustrating a process of a method for generating a disparity map using an image of a digital camera according to the present invention. Referring to this, a process for generating a disparity map is described in detail as follows.
도 4에서와 같이, 사용자는 디지털 카메라(41)를 이용하여 3차원 이미지 생성을 원하는 피사체를 촬영하고, 조금 다른 각도에서 다시 이미지 한 장을 촬영하는 동작을 반복 수행하여 n 장의 이미지파일(사진: JPEG)(IMAGE1~IMAGEn)을 취득하여 이들을 저장한다(S1). As shown in FIG. 4, the user photographs a subject for which a 3D image is to be generated by using the
이때, 사용자가 원하는 어느 각도로도 촬영 가능하며, 이미지의 수평,수직 및 깊이 정보인 X-Y-Z 좌표의 변위가 가능하다.At this time, the user can shoot at any desired angle, and the displacement of the X-Y-Z coordinate, which is horizontal, vertical, and depth information of the image, is possible.
상기 디지털 카메라(41)는 일반 디지털 카메라, 휴대폰이나 스마트폰, 개인휴대정보단말기(PDA) 등에 탑재된 카메라를 포함한다.The
초점거리 추출기(21)는 상기와 같은 과정을 통해 취득한 각각의 이미지파일(IMAGE1~IMAGEn)에서 헤더 정보를 추출한다(S2). The
그리고, 상기 초점거리 추출기(21)는 상기 추출된 각 헤더정보에 초점거 리(Focal Length) 값이 존재하는지 확인하여 존재하면 그 값을 추출하고, 존재하지 않으면 초점거리 값을 기 설정된 디폴트 값으로 설정한다.(S3-S5) The
이와 같이 초점거리 값이 존재하지 않는 이미지파일에 대하여 기 설정된 값의 초점거리 값을 부여하는 이유는 카메라폰과 같이 초점거리가 없는 카메라로 촬영된 이미지 파일에 대해서도 본 발명을 적용할 수 있도록 하기 위함이다.The reason for assigning a focal length value of a preset value to an image file having no focal length value is to apply the present invention to an image file photographed by a camera without a focal length, such as a camera phone. to be.
이어서, 레퍼런스 에지 이미지의 크기를 적절히 변환하는데, 이때 초점거리 값을 이용한다. 예를 들어 초점거리 값이 크면 피사체가 작게 촬영되었을 확률이 높으므로 레퍼런스 에지 이미지의 사이즈를 줄이고(예: 8×8 사이즈 →4×4로), 반대로 초점거리 값이 작으면 피사체가 크게 촬영되었을 확률이 높으므로 그 레퍼런스 에지 이미지의 사이즈를 늘린다(예: 8×8 →16×16 사이즈로). 이렇게 함으로써, 초점거리의 상이함으로 인하여 검출 정확도가 떨어지는 것을 방지할 수 있다.(S6) Then, the size of the reference edge image is appropriately transformed, using the focal length value. For example, if the focal length value is large, it is more likely that the subject was shot smaller, so reduce the size of the reference edge image (e.g. from 8x8 size to 4x4). Since the probability is high, increase the size of the reference edge image (for example, from 8x8 to 16x16). By doing so, it is possible to prevent the detection accuracy from dropping due to the difference in the focal length. (S6)
이후, 상기 레퍼런스 에지 이미지에 대한 카메라 왜곡을 보정하는데, 이때 통상의 이미지 왜곡 보정기법을 이용하여 카메라 왜곡을 보정한다.(S7) Thereafter, camera distortion of the reference edge image is corrected. At this time, camera distortion is corrected using a conventional image distortion correction technique.
에지 추출기(22)는 상기 처리과정에서 생성된 레퍼런스 에지 이미지를 기준으로, 현재 이미지(예: 이미지 1) 상에서 사용자가 추출하기를 원하는 부분에 대한 에지군(원하는 부분의 좌표값들)을 추출한다.(S8)The edge extractor 22 extracts an edge group (coordinate values of a desired portion) for a portion that the user wants to extract on the current image (eg, image 1) based on the reference edge image generated in the process. (S8)
이후, 상기 과정을 n번 반복 수행하여 n 장의 이미지에 대한 각각의 에지 후보군들이 추출된다. Thereafter, the process is repeated n times to extract respective edge candidate groups for n images.
에지 스테레오 매칭기(23)는 상기 n 장의 이미지로부터 추출된 에지군들 중 인접된 에지군끼리 서로 매치시키면서 소정의 알고리즘법 예를 들어, 8-포인트 알고 리즘법(8-point Algorithm Method)을 이용하여 카메라 움직임을 추적한다(S18).The edge stereo matcher 23 uses a predetermined algorithm, for example, an 8-point algorithm, while matching adjacent edge groups among the edge groups extracted from the n images. By tracking the camera movement (S18).
상기 8-포인트 알고리즘법(8-point Algorithm Method)은 도 5에 도시된 바와 같이 좌우 두 개의 이미지에서 8점 이상의 일치점을 확보하고 영상처리를 통해 이미지에 나타나는 에지(edge)나 코너(corner) 같은 특징점을 조절점으로 이용하여 에피폴라 지오메트리(epipolar geometry)를 구성하고, 이를 영상복원을 통해 공간좌표를 유도하는 방법으로서,다음과 같은 순서에 따라 행해진다.As shown in FIG. 5, the 8-point algorithm method secures a coincidence point of 8 points or more in the left and right two images, and the edges or corners appearing in the image through image processing. A method of constructing epipolar geometry using feature points as control points and inducing spatial coordinates through image restoration is performed in the following order.
(1) 최소 8점 이상의 일치점이 좌우 두 이미지에 나타나도록 사진 촬영(1) Take a picture so that at least 8 matching points appear in the left and right images
(2) 에피폴라 지오메트리(epipolar geometry) 구성(2) Epipolar geometry
(3) 에센셜 매트릭스(Essential matrix) 구성(3) Essential matrix composition
(4) 펀더멘탈 매트릭스(Fundamental matrix) 구성(4) Fundamental matrix composition
(5) 3차원 복원(reconstruction)(5) 3D reconstruction
(6) 중심투영방정식 구성(6) Composition of central projection equation
(7) 공간좌표계산(7) Spatial coordinate calculation
(8) 공간좌표에 의한 물체의 길이 및 형태 결정(8) Determination of the length and shape of the object by spatial coordinates
상기 8-포인트 알고리즘법은 사진기의 변화나 요소에 관한 어떠한 초기정보도 필요하지 않고 자동화가 가능하다는 장점이 있다. 단, 인공적인 구조물과 같이 영상에 선과 강도의 차이가 대조적인 경우에만 적용할 수 있다.The 8-point algorithm has the advantage that automation is possible without the need for any initial information about changes or elements of the camera. However, it can be applied only when the difference between lines and intensities is contrasted in the image such as an artificial structure.
상기 에지 스테레오 매칭기(23)에 의한 상기의 이미지 매칭은 단순한 이미지 매칭이 아니라 2장의 이미지로 디스패리티 맵을 생성하고, 이에 의해 3차원 이미지가 생성되도록 하는 것이므로, 보다 정확한 에피폴라 지오메트리 생성을 위해 이미지 내의 사용자 카메라 움직임 값이 필요하다.Since the image matching by the edge stereo matcher 23 is not a simple image matching, but generates a disparity map with two images, thereby generating a three-dimensional image, for more accurate epipolar geometry generation. The user camera movement value in the image is needed.
이후, 상기 에지 스테레오 매칭기(23)는 상기와 같은 과정을 통해 획득된 카메라 움직임 매트릭스를 이용하여, 카메라의 움직임 상태로 보아 에지 매칭의 후보군이 될 가능성이 적은 이미지 후보들을 제거한다(S19). Thereafter, the edge stereo matcher 23 removes image candidates that are less likely to be candidates for edge matching using the camera motion matrix obtained through the above process (S19).
예를 들어, M:N에서 M-R1: N-R2로 비교 횟수를 줄여 그만큼 에지 매칭 속도가 빠르게 된다. 여기서, M: 기준이미지의 에지 후보군, N: 비교이미지의 에지 후보군, R1 : 제거 대상 기준 이미지의 후보군, R2 : 제거 대상 비교이미지의 후보군이다. For example, the number of comparisons is reduced from M: N to M-R1: N-R2, so that the edge matching speed is increased accordingly. Here, M: an edge candidate group of the reference image, N: an edge candidate group of the comparison image, R1: a candidate group of the removal target reference image, and R2: a candidate group of the removal target comparison image.
이어서, 상기 에지 스테레오 매칭기(23)는 개체수가 줄어든 에지 후보군을 대상으로 두 이미지가 일치하는지의 여부를 확인하여 에지 기반의 이미지 매칭을 수행한다(S20,S21). Subsequently, the edge stereo matcher 23 performs edge-based image matching by checking whether two images coincide with an edge candidate group having a reduced number of objects (S20 and S21).
이후, 에지 디스패리티 맵 생성기(24)는 카메라 움직임을 기반해 매칭된 에지 이미지의 화소들 간의 거리를 근거로 보간처리하여 에지 디스패리티 맵을 생성한다(S22). Thereafter, the edge
이 때의 디스패리티 맵 생성 방식은 통상의 디스패리티 맵 생성 방식과 동일하다. 이렇게 하여 깊이값(Z값)만 가지고 있는 도 4와 같은 이미지(IMAGE)가 생성된다. 참고로, 상기 도 4의 이미지(IMAGE)에서 밝기 값이 클수록 앞에 있는 이미지 즉, 카메라에 가까운 이미지이다.The disparity map generation method at this time is the same as a normal disparity map generation method. In this way, an image IMAGE as shown in FIG. 4 having only a depth value (Z value) is generated. For reference, the larger the brightness value in the image IMAGE of FIG. 4 is the front image, that is, the closer to the camera.
상기에서는 에지 디스패티리 맵을 생성하는 과정까지 설명하였으나, 구해진 디스패리티 맵을 Z값을 가진 뎁스맵(Depth Map)으로 변환하여 3차원 입체 이미지를 생성할 수 있다. 따라서, 스테레오 이미지를 보기 위한 특별한 장비가 필요치 않아 그 유용성이 뛰어나며 속도면에서 가볍고 빠른 알고리즘을 가지고 있기 때문에 임베디드 시스템에 적용 가능하다.In the above, the process of generating the edge disparity map has been described. However, the 3D stereoscopic image may be generated by converting the obtained disparity map into a depth map having a Z value. Therefore, it does not need any special equipment for viewing stereo images, which is excellent in its usefulness and has a lightweight and fast algorithm in terms of speed, and thus is applicable to embedded systems.
또한, 설명을 위해 2장의 이미지를 기본 이미지와 비교이미지로 두었지만, 촬영된 사진이 여러 장일 경우 그에 대응하여 비교이미지가 여러 개가 되므로 적용이 가능하다. In addition, the two images are set as the comparison image and the base image for explanation, but when the number of photographs are taken, it is applicable because there are several comparison images corresponding to them.
이상에서 본 발명의 바람직한 실시예에 대하여 상세히 설명하였지만, 본 발명의 권리범위가 이에 한정되는 것이 아니라 다음의 청구범위에서 정의하는 본 발명의 기본 개념을 바탕으로 보다 다양한 실시예로 구현될 수 있으며, 이러한 실시예들 또한 본 발명의 권리범위에 속하는 것이다. Although the preferred embodiment of the present invention has been described in detail above, the scope of the present invention is not limited thereto, and may be implemented in various embodiments based on the basic concept of the present invention defined in the following claims. Such embodiments are also within the scope of the present invention.
도 1은 종래 기술에 의한 디스패리티 맵 생성 장치의 블록도.1 is a block diagram of a disparity map generation apparatus according to the prior art.
도 2는 본 발명에 의한 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 장치의 블록도.2 is a block diagram of an apparatus for generating a disparity map using an image of a digital camera according to the present invention.
도 3은 본 발명에 의한 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 방법에 제어 흐름도.3 is a control flowchart of a method for generating a disparity map using an image of a digital camera according to the present invention;
도 4는 깊이 값만 가지고 있는 이미지의 생성과정을 나타낸 예시도. 4 is an exemplary diagram illustrating a process of generating an image having only a depth value.
도 5는 디스패리티 맵 생성 원리에 대한 설명도. 5 is an explanatory diagram for explaining a disparity map generation principle;
***도면의 주요 부분에 대한 부호의 설명*** *** Description of the symbols for the main parts of the drawings ***
21 : 초점거리 추출기 22A : 제1에지 추출기21:
22B : 제2에지 추출기 23 : 에지 스테레오 매칭기 22B: Second Edge Extractor 23: Edge Stereo Matcher
24 : 에지 디스패리티 맵 생성기 25 : 디스패리티 맵 보완기24: Edge Disparity Map Generator 25: Disparity Map Compensator
41 : 디지털 카메라41: digital camera
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080110050A KR100943635B1 (en) | 2008-11-06 | 2008-11-06 | Method and apparatus for generating disparity map using digital camera image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080110050A KR100943635B1 (en) | 2008-11-06 | 2008-11-06 | Method and apparatus for generating disparity map using digital camera image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100943635B1 true KR100943635B1 (en) | 2010-02-24 |
Family
ID=42083678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080110050A KR100943635B1 (en) | 2008-11-06 | 2008-11-06 | Method and apparatus for generating disparity map using digital camera image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100943635B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011159499A3 (en) * | 2010-06-18 | 2012-02-23 | Microsoft Corporation | Mobile and server-side computational photography |
KR101178015B1 (en) | 2011-08-31 | 2012-08-30 | 성균관대학교산학협력단 | Generating method for disparity map |
KR101220003B1 (en) | 2011-08-31 | 2013-01-09 | 성균관대학교산학협력단 | Generating method for disparity map |
KR101265020B1 (en) | 2012-02-29 | 2013-05-24 | 성균관대학교산학협력단 | Creation method and apparatus for high resolution disparity map by the histogram analysis of duplicated territory from the stereo image |
KR101265021B1 (en) | 2012-02-29 | 2013-05-24 | 성균관대학교산학협력단 | Creation method and apparatus for high resolution disparity map from fixed or variable frame rate |
KR101920159B1 (en) * | 2017-07-07 | 2018-11-19 | 전자부품연구원 | Stereo Matching Method and Device using Support point interpolation |
US10341634B2 (en) | 2016-01-29 | 2019-07-02 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring image disparity |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11150741A (en) * | 1997-11-18 | 1999-06-02 | Asahi Optical Co Ltd | Three-dimensional picture displaying method and its device by stereo photographing |
JPH11352612A (en) | 1998-06-11 | 1999-12-24 | Asahi Optical Co Ltd | Method and device for displaying three-dimensional picture by stereo photography |
KR20070061094A (en) * | 2005-12-08 | 2007-06-13 | 한국전자통신연구원 | Edge-adaptive stereo/multi-view image matching apparatus and its method |
KR100762670B1 (en) * | 2006-06-07 | 2007-10-01 | 삼성전자주식회사 | Method and device for generating disparity map from stereo image and stereo matching method and device therefor |
-
2008
- 2008-11-06 KR KR1020080110050A patent/KR100943635B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11150741A (en) * | 1997-11-18 | 1999-06-02 | Asahi Optical Co Ltd | Three-dimensional picture displaying method and its device by stereo photographing |
JPH11352612A (en) | 1998-06-11 | 1999-12-24 | Asahi Optical Co Ltd | Method and device for displaying three-dimensional picture by stereo photography |
KR20070061094A (en) * | 2005-12-08 | 2007-06-13 | 한국전자통신연구원 | Edge-adaptive stereo/multi-view image matching apparatus and its method |
KR100762670B1 (en) * | 2006-06-07 | 2007-10-01 | 삼성전자주식회사 | Method and device for generating disparity map from stereo image and stereo matching method and device therefor |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011159499A3 (en) * | 2010-06-18 | 2012-02-23 | Microsoft Corporation | Mobile and server-side computational photography |
CN102948140A (en) * | 2010-06-18 | 2013-02-27 | 微软公司 | Mobile and server-side computational photography |
US8488040B2 (en) | 2010-06-18 | 2013-07-16 | Microsoft Corporation | Mobile and server-side computational photography |
KR101178015B1 (en) | 2011-08-31 | 2012-08-30 | 성균관대학교산학협력단 | Generating method for disparity map |
KR101220003B1 (en) | 2011-08-31 | 2013-01-09 | 성균관대학교산학협력단 | Generating method for disparity map |
KR101265020B1 (en) | 2012-02-29 | 2013-05-24 | 성균관대학교산학협력단 | Creation method and apparatus for high resolution disparity map by the histogram analysis of duplicated territory from the stereo image |
KR101265021B1 (en) | 2012-02-29 | 2013-05-24 | 성균관대학교산학협력단 | Creation method and apparatus for high resolution disparity map from fixed or variable frame rate |
US10341634B2 (en) | 2016-01-29 | 2019-07-02 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring image disparity |
KR101920159B1 (en) * | 2017-07-07 | 2018-11-19 | 전자부품연구원 | Stereo Matching Method and Device using Support point interpolation |
WO2019009579A1 (en) * | 2017-07-07 | 2019-01-10 | 전자부품연구원 | Stereo matching method and apparatus using support point interpolation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10540806B2 (en) | Systems and methods for depth-assisted perspective distortion correction | |
KR100762670B1 (en) | Method and device for generating disparity map from stereo image and stereo matching method and device therefor | |
US10462447B1 (en) | Electronic system including image processing unit for reconstructing 3D surfaces and iterative triangulation method | |
KR100943635B1 (en) | Method and apparatus for generating disparity map using digital camera image | |
KR101706216B1 (en) | Apparatus and method for reconstructing dense three dimension image | |
CN112116639B (en) | Image registration method and device, electronic equipment and storage medium | |
JPWO2011096251A1 (en) | Stereo camera | |
US10726612B2 (en) | Method and apparatus for reconstructing three-dimensional model of object | |
KR20120068470A (en) | Apparatus for matching stereo image and method thereof | |
CN103345736A (en) | Virtual viewpoint rendering method | |
JP2014515197A (en) | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching | |
CN108109148A (en) | Image solid distribution method, mobile terminal | |
CN110443228B (en) | Pedestrian matching method and device, electronic equipment and storage medium | |
US9208549B2 (en) | Method and apparatus for color transfer between images | |
KR101178015B1 (en) | Generating method for disparity map | |
CN104637043B (en) | Pixel selecting method, device, parallax value is supported to determine method | |
KR20170001448A (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
CN104463958A (en) | Three-dimensional super-resolution method based on disparity map fusing | |
KR101220003B1 (en) | Generating method for disparity map | |
TW201426634A (en) | Target image generation utilizing a functional based on functions of information from other images | |
US10430971B2 (en) | Parallax calculating apparatus | |
EP3391330B1 (en) | Method and device for refocusing at least one plenoptic video | |
EP2786344B1 (en) | Hybrid recursive analysis of spatio-temporal objects | |
JP5887974B2 (en) | Similar image region search device, similar image region search method, and similar image region search program | |
Shin et al. | Understanding the Limitations of SfM-Based Camera Calibration on Multi-View Stereo Reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130108 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140103 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20141231 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20151228 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20170102 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20171213 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20190102 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20200121 Year of fee payment: 11 |