Nothing Special   »   [go: up one dir, main page]

KR101901495B1 - Depth Image Estimation Method based on Multi-View Camera - Google Patents

Depth Image Estimation Method based on Multi-View Camera Download PDF

Info

Publication number
KR101901495B1
KR101901495B1 KR1020160177574A KR20160177574A KR101901495B1 KR 101901495 B1 KR101901495 B1 KR 101901495B1 KR 1020160177574 A KR1020160177574 A KR 1020160177574A KR 20160177574 A KR20160177574 A KR 20160177574A KR 101901495 B1 KR101901495 B1 KR 101901495B1
Authority
KR
South Korea
Prior art keywords
image
images
depth
view
depth image
Prior art date
Application number
KR1020160177574A
Other languages
Korean (ko)
Other versions
KR20180073976A (en
Inventor
박민규
황영배
최병호
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020160177574A priority Critical patent/KR101901495B1/en
Publication of KR20180073976A publication Critical patent/KR20180073976A/en
Application granted granted Critical
Publication of KR101901495B1 publication Critical patent/KR101901495B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

다중 시점 카메라 기반 깊이 영상 추정 방법이 제공된다. 본 깊이 영상 추정 방법은 다시점 영상들을 가상 시점으로 변환하는 단계; 변환된 다시점 영상들을 이용하여, 깊이 영상을 추정하는 단계; 추정된 깊이 영상을 이용하여, 다시점 깊이 영상들을 생성하는 단계;를 포함한다.
이에 의해, 다중시점 영상기반 깊이 추정 기술은 복잡도가 매우 높은 기술이나, 본 발명의 실시예들에 따르면, 약 20여 장의 고 해상도 영상을 이용한 고품질 깊이 영상을 실시간으로 획득하는 것이 가능해진다.
A multi-view camera based depth image estimation method is provided. The depth image estimating method includes: converting multi-view images to a virtual viewpoint; Estimating a depth image using the transformed multi-view images; And generating multi-view depth images using the estimated depth images.
Accordingly, the multi-view image-based depth estimation technique is a highly complex technique, but according to embodiments of the present invention, high-quality depth images using about 20 high resolution images can be acquired in real time.

Description

다중 시점 카메라 기반 깊이 영상 추정 방법{Depth Image Estimation Method based on Multi-View Camera}[0001] The present invention relates to a multi-view camera based depth image estimation method,

본 발명은 깊이 영상 추정 방법에 관한 것으로, 더욱 상세하게는 3대 이상의 다중 시점 카메라에서 획득한 영상을 이용하여 다중 시점 깊이 영상을 추정하는 방법에 관한 것이다.The present invention relates to a depth image estimating method, and more particularly, to a multi-view depth image estimating method using an image acquired from three or more multi view cameras.

다중 카메라를 이용한 깊이 추정 방법은 크게 능동형 센서를 이용하는 방법, 수동형 센서를 이용하는 방법, 두 가지 센서를 모두 이용하는 방법으로 구분 될 수 있는데, 수동형 센서인 카메라 정보만을 이용해서 정확한 깊이를 추정하는 것이 가장 경제적이지만 난이도가 높은 기술이라 할 수 있다.The depth estimation method using multiple cameras can be roughly classified into the method using active sensor, the method using passive sensor, and the method using both sensors. It is most economical to estimate the accurate depth using only the camera information, which is a passive sensor But it is a technique with a high degree of difficulty.

일반적인 다중 영상 기반 깊이 추정 방식은 두 장의 영상을 비교하여 깊이 영상을 추정하고, 추정된 깊이 영상을 융합하는 방식인데 품질이 비슷한 깊이 영상을 융합한다고 해서 깊이 영상의 품질이 크게 향상되지 않는다.The conventional multi-image depth estimation method is a method of estimating a depth image by comparing two images and fusing an estimated depth image. If a depth image having similar quality is fused, the quality of the depth image is not greatly improved.

이외 일반적으로 스테레오 정합이 갖는 문제점인 폐색 영역(occlusion), 텍스처가 부족한 영역, 경사면, 조명 변화 발생 시 추정되는 깊이 영상의 품질이 크게 떨어질 수 있다는 문제점이 있다.In addition, there is a problem that the quality of the depth image estimated when occlusion, lack of texture, slope, and illumination change, which is a problem of stereo matching, generally can be greatly reduced.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 3장 이상의 다시점 영상을 이용하여 각 카메라 시점에 맞는 깊이 영상을 추정하는데 있으며, 이를 위해 다시점 영상을 이용하여 정합 비용을 융합하는 방법, 그리고 일관성 있게 깊이 영상을 추정하는 방법을 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to estimate a depth image corresponding to each camera view using three or more multi-view images, A method of converging the matching cost, and a method of consistently estimating the depth image.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 깊이 영상 추정 방법은 다시점 영상들을 가상 시점으로 변환하는 단계; 변환된 다시점 영상들을 이용하여, 깊이 영상을 추정하는 단계; 추정된 깊이 영상을 이용하여, 다시점 깊이 영상들을 생성하는 단계;를 포함한다. According to an aspect of the present invention, there is provided a depth image estimating method comprising: converting multi-view images into virtual view points; Estimating a depth image using the transformed multi-view images; And generating multi-view depth images using the estimated depth images.

변환 단계는, 다시점 영상들을 일직선 상에서 균등한 기준 간격을 갖는 카메라들에서 획득한 영상들처럼 변환할 수 있다. In the conversion step, the multi-view images can be transformed as images obtained from cameras having equal reference intervals on a straight line.

깊이 영상 추정단계는, 정합 비용을 계산하는 단계; 비용을 집적하는 단계;변이 값을 선택하는 단계; 및 후처리 단계;를 포함할 수 있다. The depth image estimating step includes: calculating a matching cost; Integrating costs; selecting a variation value; And a post-processing step.

계산단계는, 중간 시점 영상을 기준으로 모든 영상과의 정합 비용을 계산하고 융합하는 것일 수 있다. The calculation step may be to calculate and fuse the matching cost with all images based on the mid-view image.

계산단계는, AD-CENSUS (Absolute Difference-Census transform) 유사 척도를 이용하는 것일 수 있다. The calculation step may be using an Absolute Difference-Census transform (AD-CENSUS) similarity measure.

후처리 단계는, 잡음 제거 필터링을 통해 깊이 영상의 잡음을 제거하는 것일 수 있다. The post-processing step may be to remove noise in the depth image through noise cancellation filtering.

생성 단계는, 추정된 깊이 영상을 투영하는 단계; 중앙값 필터를 이용하여 투영된 다시점 깊이 영상들에 발생된 빈 공간을 채우는 단계;를 포함할 수 있다. The generating includes: projecting the estimated depth image; And filling the empty space generated in the projected multi-view depth images using the median filter.

한편, 본 발명의 다른 실시예에 따른, 깊이 영상 시스템은 다시점 영상들을 생성하는 생성부: 다시점 영상들을 가상 시점으로 변환하고, 변환된 다시점 영상들을 이용하여 깊이 영상을 추정하며, 추정된 깊이 영상을 이용하여 다시점 깊이 영상들을 생성하는 영상 프로세서;를 포함한다. Meanwhile, according to another embodiment of the present invention, a depth image system includes a generator for generating multi-view images: a multi-view image is converted into a virtual view, a depth image is estimated using the converted multi-view images, And an image processor for generating multi-depth images using the depth image.

이상 설명한 바와 같이, 다중시점 영상기반 깊이 추정 기술은 복잡도가 매우 높은 기술이나, 본 발명의 실시예들에 따르면, 약 20여 장의 고 해상도 영상을 이용한 고품질 깊이 영상을 실시간으로 획득하는 것이 가능해진다.As described above, the multi-view image-based depth estimation technique is a highly complex technique, but according to embodiments of the present invention, high-quality depth images using about 20 high resolution images can be acquired in real time.

도 1은 본 발명의 일 실시예에 따른 다시점 깊이 영상 추정 흐름도,
도 2는 가상 시점 영상 변환 개요,
도 3은 깊이 영상 추정 과정,
도 4는 깊이 영상 추정 과정,
도 5는 다중 시점 3차원 복원 결과,
도 6은 본 발명의 다른 실시예에 따른 영상 시스템의 블럭도이다.
1 is a flowchart of a multi-viewpoint depth image estimation according to an exemplary embodiment of the present invention,
2 shows an overview of a virtual view image transformation,
3 illustrates a depth image estimation process,
4 illustrates a depth image estimation process,
FIG. 5 shows a result of multi-view three-
6 is a block diagram of an image system according to another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 다시점 깊이 영상 추정 흐름도이다.1 is a flowchart of a multi-view depth image estimation according to an exemplary embodiment of the present invention.

영상 기반 깊이 추정은 두 장 이상의 영상에서 대응점을 탐색하고 획득한 대응점을 이용해 3차원 정보를 추정하는 과정으로, 상대적으로 가격이 저렴한 영상 센서만을 이용하여 깊이 정보를 획득할 수 있다는 점 때문에 의료, 자율주행 자동차, 로봇, 게임 등과 같은 산업에서 우선적으로 고려되고 있는 기술이다.The image-based depth estimation is a process of searching for corresponding points on two or more images and estimating the three-dimensional information using the acquired corresponding points. In order to acquire depth information using only relatively inexpensive image sensors, It is a technology that is considered as a priority in industries such as driving cars, robots, and games.

이와 같은 맥락에서, 본 발명의 실시예에서는, 다시점 영상으로부터 고품질의 깊이 영상을 획득하는 방법을 제시하며, 크게 입력 영상을 가상 시점으로 변환하는 단계, 이를 이용하여 깊이 영상을 추정하는 단계, 마지막으로 다시점에서의 깊이 영상을 생성하는 단계로 이루어진다.In this regard, in the embodiment of the present invention, a method of acquiring a high-quality depth image from a multi-view image is proposed. The method includes a step of converting an input image into a virtual viewpoint, a step of estimating a depth image using the input image, And generating a depth image at a further point.

1. 다중 시점 깊이 추정을 위한 가상 시점 영상 변환 1. Virtual view image transformation for multi-view depth estimation

깊이 영상을 효과적으로 추정하기 위해, 본 발명의 실시예에서는 입력 영상을 가상 시점으로 이동하는 과정을 갖는다. 물체의 거리(Z)는 영상에서의 변화량(d, disparity)를 통해 추정 될 수 있으며, 다음의 식으로 표현 가능하다.In order to estimate the depth image efficiently, the embodiment of the present invention has a process of moving the input image to a virtual viewpoint. The distance Z of the object can be estimated through the amount of change (d, disparity) in the image and can be expressed by the following equation.

Figure 112016126616755-pat00001
Figure 112016126616755-pat00001

여기서 F는 카메라의 초점 거리, B는 카메라 사이의 거리(baseline)이 된다. 따라서 인접한 카메라 사이의 거리(B)를 동일하게 유지해 준다는 의미는 곧 인접한 카메라(예를 들어 1,2번 카메라, 10,11번 카메라)에서 획득한 물체의 변이 값이 늘 같다는 의미이며, 여기서 모든 카메라는 동일한 초점 거리를 갖는다는 가정을 한다.Where F is the focal length of the camera and B is the distance between the cameras. This means that the distance between adjacent cameras (B) is kept the same, meaning that the values of the objects obtained from the adjacent cameras (for example, cameras 1 and 2, cameras 10 and 11) are always the same, It is assumed that the cameras have the same focal length.

이 과정이 도 2에 제시되어 있는데, 입력 영상은 좌측과 같이 획득하였지만, 우측과 같이 가상의 시점으로 입력 영상을 투영하여 균등한 기준 간격을 갖는 카메라에서 획득한 영상처럼 변환하는 것이 가능하다. 도 2는 가상 시점 영상 변환의 개요이다.This process is shown in FIG. 2. The input image is obtained as shown in the left, but it is possible to project the input image to a virtual viewpoint as shown on the right side and convert it as an image acquired by a camera having an equal reference interval. Figure 2 is an overview of virtual view image transformation.

변환 후의 영상은 다음과 같은 조건식을 만족한다.The transformed image satisfies the following conditional expression.

Figure 112016126616755-pat00002
Figure 112016126616755-pat00002

변환 전의 영상은 다음과 같이 아핀 변환(affine transformation)에 의해 정의 될 수 있다.The image before conversion can be defined by an affine transformation as follows.

Figure 112016126616755-pat00003
Figure 112016126616755-pat00003

결국 a, b 두 개의 파라미터를 추정하는 문제로 귀결 될 수 있다. 여기서 x_k는 k번째 카메라에서 바라본 특정 대응점의 (x-축) 위치를 나타내며, d는 대응점의 변이 값에 해당한다. 따라서 변환 파라미터는 다음과 같이 정리될 수 있다.This leads to the problem of estimating two parameters a and b. Where x_k represents the (x-axis) position of the specific corresponding point viewed from the kth camera, and d corresponds to the mutation value of the corresponding point. Therefore, the transformation parameters can be summarized as follows.

Figure 112016126616755-pat00004
Figure 112016126616755-pat00004

2개 이상의 대응점을 이용하여 최소자승법(least square)이나 특이값 분해(singular value decomposition)을 이용해 추정될 수 있다. 추정 후에는 역방향 영상 변환(backward image transformation)을 이용하여 기준 간격이 일정한 영상을 획득할 수 있다. Can be estimated using least squares or singular value decomposition using two or more corresponding points. After the estimation, it is possible to acquire an image having a constant reference interval by using a backward image transformation.

2. 다중 시점 영상 융합을 통한 깊이 추정 방법 2. Depth estimation method by multi-view image fusion

본 발명의 실시예에 따른 영상 깊이 추정 방법은, 도 3에 나타난 바와 같이, 정합 비용 계산, 비용 집적, 변이 값 선택, 후처리의 과정을 거친다. 도 3은 깊이 영상 추정 과정을 나타낸 도면이다.As shown in FIG. 3, the image depth estimation method according to an exemplary embodiment of the present invention performs matching cost calculation, cost accumulation, variation value selection, and post-processing. 3 is a diagram illustrating a depth image estimating process.

첫 번째 단계인 초기 정합 비용 과정에선, 중간 시점 영상을 기준으로 모든 영상과의 정합 비용을 계산하고 융합하는 접근 방법을 가지는데 이를 위해 AD-CENSUS (Absolute Difference-Census transform) 유사 척도를 이용한다. AD-CENSUS 깊이 추정을 하는데 가장 효과적인 척도 중 하나로 알려져 있으며 구현이 용이해서 널리 사용되고 있다. C_k를 중간 시점과 k번째 시점과의 영상에서 추정한 정합 비용이라고 하면, 중간 시점 기준으로 좌측에 있는 영상에 대한 정합 비용과 우측에 대한 정합 비용을 다음과 같이 구할 수 있다. The first step, the initial matching cost process, uses an AD-CENSUS (Absolute Difference-Census transform) similarity measure to calculate and fuse the matching cost with all images based on the mid-view image. It is known as one of the most effective measures for AD-CENSUS depth estimation and is widely used because it is easy to implement. Assuming that C_k is the matching cost estimated from the image of the middle point and the kth point, the matching cost for the left image and the matching cost for the right side can be obtained as follows.

Figure 112016126616755-pat00005
Figure 112016126616755-pat00005

여기서 p는 픽셀, d는 변이 값으로 중간 시점에서의 픽셀 p를 k번째 영상에 있는 픽셀(p를 d만큼 x축으로 이동한)과 비교한 유사도를 의미한다. 전체 정합 비용을 한 번에 결합 또는 융합하지 않고 2개로 나눈 후 다음과 같이 낮은 값을 취한다.Here, p is a pixel, and d is a variation value, which is a degree of similarity in which a pixel p at an intermediate point is compared with a pixel in the kth image (p is shifted by d by d). Divide the total cost by two without combining or fusing at once, then take the lower value as follows.

Figure 112016126616755-pat00006
Figure 112016126616755-pat00006

이를 통해 가려짐 현상에 강건한 정합 비용을 획득할 수 있다. 정합 비용 융합 후에는 다음과 같은 목적 함수를 최소화하여 비용을 집적(aggregation)한다. This makes it possible to obtain a robust matching cost for the masking phenomenon. Matching Cost After convergence, the following objective function is minimized to aggregate the cost.

Figure 112016126616755-pat00007
Figure 112016126616755-pat00007

여기서 C는 융합된 정합 비용, P1, P2는 페널티 상수, N_p는 p의 이웃하는 픽셀, T는 1 또는 0 값을 주는 함수이다. 두 번째 항에서 만약 p, q 에서의 변이 값의 차이가 1일 경우 T는 1을 주고 그렇지 않을 경우 0을 준다.Where C is the fused matched cost, P1 and P2 are penalty constants, N_p is a neighboring pixel of p, and T is a function that gives a value of 1 or 0. In the second term, T is given as 1 if the difference between p and q is 1, and 0 otherwise.

에너지 최소화를 통해 깊이 영상을 획득한 후에는 잡음 제거 필터링을 통해 깊이 영상의 잡음을 제거하는 과정을 가진다. 이를 위해 가중치 기반 중앙값 필터(weighted median filter)와 가중치 기반 평균 필터(joint bilateral filter)를 사용하는데, 잡음 제거 과정은 다른 어떤 종류의 필터를 사용하더라도 무방하다.After obtaining the depth image through energy minimization, it has a process of removing the noise of depth image through noise cancellation filtering. For this, a weighted median filter and a joint bilateral filter are used. The noise removal process may be performed using any other type of filter.

최종적으로 다중 시점에서 추정된 깊이 영상을 다시 각각의 카메라 시점으로 투영하여 다중 시점 깊이 영상을 얻는 과정을 거치는데, 투영 후 발생되는 빈 공간(hole)은 중앙값 필터를 이용하여 채워주었다. Finally, the depth image estimated at multiple viewpoints is projected again to each camera viewpoint to obtain the multi viewpoint depth image. The hole generated after the projection is filled with the median filter.

도 4에는 깊이 영상 추정 과정을, 도 5에는 다중 시점 3차원 복원 결과를 각각 나타내었다.FIG. 4 shows a depth image estimation process, and FIG. 5 shows a multi-view 3D reconstruction result.

도 6은 본 발명의 다른 실시예에 따른 영상 시스템의 블럭도이다. 본 발명의 실시예에 따른 영상 시스템은, 도 6에 도시된 바와 같이, 다시점 영상 생성부(110), 영상 프로세서(120), 영상 출력부(130) 및 저장부(140)를 포함한다.6 is a block diagram of an image system according to another embodiment of the present invention. As shown in FIG. 6, the image system according to the embodiment of the present invention includes a multi-view image generation unit 110, an image processor 120, an image output unit 130, and a storage unit 140.

다시점 영상 생성부(110)는 다수의 카메라로 다시점 영상들을 생성하고, 영상 프로세서(120)는 다시점 영상들로부터 깊이 영상을 추정하고, 이를 이용하여 중간시점 영상들을 더 생성할 수 있다.The multi-view image generation unit 110 generates multi-view images using a plurality of cameras, and the image processor 120 estimates depth images from multi-view images, and further generates intermediate view images using the depth images.

영상 출력부(130)는 생성된 영상들을 디스플레이, 외부기기, 네트워크 등으로 출력한다. 저장부(140)는 생성된 영상들을 저장하는 한편, 영상 프로세서(120)가 깊이 영상을 추정함에 있어 필요한 저장공간을 제공한다.The image output unit 130 outputs the generated images to a display, an external device, a network, or the like. The storage unit 140 stores the generated images and provides a storage space necessary for the image processor 120 to estimate a depth image.

지금까지, 다중 시점 카메라 기반 깊이 영상 추정 방법에 대해 바람직한 실시예를 들어 상세히 설명하였다.Up to now, a multi-view camera based depth image estimation method has been described in detail with a preferred embodiment.

본 발명의 일 실시예에 따른 다중 시점 카메라 기반 깊이 영상 추정 방법에서는, 3대 이상의 다중 시점 카메라에서 획득한 영상을 이용하여 다중 시점 깊이 영상을 추정한다.In the multi-view camera-based depth image estimation method according to an embodiment of the present invention, multi-view depth images are estimated using images acquired from three or more multi-view cameras.

구체적으로, 본 발명의 일 실시예에서는, 독립적으로 추정한 깊이 영상을 융합하는 접근 방법이 아닌 모든 영상을 동시에 이용하여 정교한 깊이 영상을 추정하고, 정교하게 추정된 깊이 영상을 이용하여 일관성 있는 다시점 깊이 영상을 생성한다.Specifically, in an embodiment of the present invention, a sophisticated depth image is estimated using all images simultaneously, not an approach of fusing independently estimated depth images, and a coherent depth image Thereby generating a depth image.

한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.It goes without saying that the technical idea of the present invention can also be applied to a computer-readable recording medium having a computer program for performing the functions of the apparatus and method according to the present embodiment. In addition, the technical idea according to various embodiments of the present invention may be embodied in computer-readable code form recorded on a computer-readable recording medium. The computer-readable recording medium is any data storage device that can be read by a computer and can store data. For example, the computer-readable recording medium may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical disk, a hard disk drive, or the like. In addition, the computer readable code or program stored in the computer readable recording medium may be transmitted through a network connected between the computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

110 : 다시점 영상 생성부
120 : 영상 프로세서
130 : 영상 출력부
140 : 저장부
110: Multi-view image generating unit
120: image processor
130: Video output unit
140:

Claims (8)

다시점 영상들을 가상 시점으로 변환하는 단계;
변환된 다시점 영상들을 이용하여, 깊이 영상을 추정하는 단계;
추정된 깊이 영상을 이용하여, 다시점 깊이 영상들을 생성하는 단계;를 포함하고,
깊이 영상 추정단계는,
중간 시점 영상을 기준으로 좌측에 있는 영상에 대한 정합 비용과 우측에 있는 영상에 대한 정합 비용을 계산하는 단계;
계산된 정합 비용들 중 낮은 정합 비용을 선택하는 단계;
선택된 정합 비용을 집적하는 단계;
집적된 정합 비용으로부터 깊이 영상을 추정하는 단계;를 포함하는 것을 특징으로 하는 깊이 영상 추정 방법.
Converting the multi-view images into a virtual viewpoint;
Estimating a depth image using the transformed multi-view images;
And generating multi-viewpoint depth images using the estimated depth images,
In the depth image estimating step,
Calculating a matching cost for an image on the left side and a matching cost for an image on the right side based on an intermediate view image;
Selecting a lower matching cost out of the calculated matching costs;
Integrating the selected matching cost;
And estimating a depth image from the integrated matching cost.
청구항 1에 있어서,
변환 단계는,
다시점 영상들을 일직선 상에서 균등한 기준 간격을 갖는 카메라들에서 획득한 영상들처럼 변환하는 것을 특징으로 하는 깊이 영상 추정 방법.
The method according to claim 1,
In the conversion step,
Wherein the multi-view images are transformed as images obtained from cameras having equal reference intervals on a straight line.
청구항 1에 있어서,
깊이 영상 추정단계는,
추정된 깊이 영상을 후처리하는 단계;를 더 포함하는 것을 특징으로 하는 깊이 영상 추정 방법.
The method according to claim 1,
In the depth image estimating step,
And a step of post-processing the estimated depth image.
삭제delete 청구항 3에 있어서,
계산단계는,
AD-CENSUS (Absolute Difference-Census transform) 유사 척도를 이용하는 것을 특징으로 하는 깊이 영상 추정 방법.
The method of claim 3,
In the calculating step,
And an AD-CENSUS (Absolute Difference-Census transform) similarity measure.
청구항 3에 있어서,
후처리 단계는,
잡음 제거 필터링을 통해 깊이 영상의 잡음을 제거하는 것을 특징으로 하는 깊이 영상 추정 방법.
The method of claim 3,
The post-
Wherein noise is removed from the depth image through noise cancellation filtering.
청구항 1에 있어서,
생성 단계는,
추정된 깊이 영상을 투영하는 단계;
중앙값 필터를 이용하여 투영된 다시점 깊이 영상들에 발생된 빈 공간을 채우는 단계;를 포함하는 것을 특징으로 하는 깊이 영상 추정 방법.
The method according to claim 1,
In the generating step,
Projecting an estimated depth image;
And filling the empty space generated in the projected multi-view depth images using a median filter.
다시점 영상들을 생성하는 생성부:
다시점 영상들을 가상 시점으로 변환하고, 변환된 다시점 영상들을 이용하여 깊이 영상을 추정하며, 추정된 깊이 영상을 이용하여 다시점 깊이 영상들을 생성하는 영상 프로세서;를 포함하고,
영상 프로세서는,
중간 시점 영상을 기준으로 좌측에 있는 영상에 대한 정합 비용과 우측에 있는 영상에 대한 정합 비용을 계산하고, 계산된 정합 비용들 중 낮은 정합 비용을 선택하여 선택된 정합 비용을 집적하며, 집적된 정합 비용으로부터 깊이 영상을 추정하는 것을 특징으로 하는 깊이 영상 시스템.
Generating unit for generating multi-view images:
An image processor for converting multi-viewpoint images into virtual viewpoints, estimating depth images using the transformed multi-view images, and generating multi-viewpoint depth images using the estimated depth images,
In the image processor,
The matching cost for the image on the left side and the matching cost for the image on the right side are calculated based on the mid-view image, the selected matching cost is selected by selecting the lower matching cost among the calculated matching costs, And the depth image is estimated from the depth image.
KR1020160177574A 2016-12-23 2016-12-23 Depth Image Estimation Method based on Multi-View Camera KR101901495B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160177574A KR101901495B1 (en) 2016-12-23 2016-12-23 Depth Image Estimation Method based on Multi-View Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160177574A KR101901495B1 (en) 2016-12-23 2016-12-23 Depth Image Estimation Method based on Multi-View Camera

Publications (2)

Publication Number Publication Date
KR20180073976A KR20180073976A (en) 2018-07-03
KR101901495B1 true KR101901495B1 (en) 2018-09-28

Family

ID=62918621

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160177574A KR101901495B1 (en) 2016-12-23 2016-12-23 Depth Image Estimation Method based on Multi-View Camera

Country Status (1)

Country Link
KR (1) KR101901495B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102110690B1 (en) 2018-11-26 2020-05-13 연세대학교 산학협력단 Depth estimation apparatus and method of multi-view image
KR20210041694A (en) 2019-10-07 2021-04-16 한국항공대학교산학협력단 Method and apparatus for upscaling image
KR20240084401A (en) 2022-12-06 2024-06-13 숭실대학교산학협력단 Method and apparatus for generating enhanced depth image using sequentially scanned rgb-d frameset

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116437205B (en) * 2023-06-02 2023-08-11 华中科技大学 Depth of field expansion method and system for multi-view multi-focal length imaging

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5954668B2 (en) * 2011-10-11 2016-07-20 パナソニックIpマネジメント株式会社 Image processing apparatus, imaging apparatus, and image processing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5954668B2 (en) * 2011-10-11 2016-07-20 パナソニックIpマネジメント株式会社 Image processing apparatus, imaging apparatus, and image processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102110690B1 (en) 2018-11-26 2020-05-13 연세대학교 산학협력단 Depth estimation apparatus and method of multi-view image
KR20210041694A (en) 2019-10-07 2021-04-16 한국항공대학교산학협력단 Method and apparatus for upscaling image
KR20210098398A (en) 2019-10-07 2021-08-10 한국항공대학교산학협력단 Method and apparatus for upscaling image
KR20240084401A (en) 2022-12-06 2024-06-13 숭실대학교산학협력단 Method and apparatus for generating enhanced depth image using sequentially scanned rgb-d frameset

Also Published As

Publication number Publication date
KR20180073976A (en) 2018-07-03

Similar Documents

Publication Publication Date Title
JP5153940B2 (en) System and method for image depth extraction using motion compensation
EP2291825B1 (en) System and method for depth extraction of images with forward and backward depth prediction
US20130286017A1 (en) Method for generating depth maps for converting moving 2d images to 3d
KR101518531B1 (en) System and method for measuring potential eyestrain of stereoscopic motion pictures
KR101901495B1 (en) Depth Image Estimation Method based on Multi-View Camera
KR100776649B1 (en) A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method
JP5156837B2 (en) System and method for depth map extraction using region-based filtering
US8433157B2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
US20100309292A1 (en) Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image
WO2007130122A2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
EP2061005A2 (en) Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
JP2013176052A (en) Device and method for estimating parallax by using visibility energy model
Lee et al. Automatic 2d-to-3d conversion using multi-scale deep neural network
KR102438853B1 (en) Method and system for depth image estimation using flat information
Jin et al. Construction of intermediate pictures for a multiview 3D system
EP2966867A1 (en) Methods and devices for encoding and decoding a sequence of frames representing a 3D scene, and corresponding computer program products and computer-readable medium
KR20190072987A (en) Stereo Depth Map Post-processing Method with Scene Layout
Wang et al. 2D-to-3D conversion based on depth-from-motion
Mordohai On the evaluation of scene flow estimation
Kowdle et al. Recovering depth of a dynamic scene using real world motion prior
Aung Computing the Three Dimensional Depth Measurement by the Multi Stereo Images
KR20240115631A (en) System and method for generating high-density point cloud
KR100890224B1 (en) Method of reconstructing a 3d scene and apparatus for performing the same
Lee et al. Depth map boundary enhancement using random walk
Seki et al. Simultaneous optimization of structure and motion in dynamic scenes using unsynchronized stereo cameras

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant