KR20240115631A - System and method for generating high-density point cloud - Google Patents
System and method for generating high-density point cloud Download PDFInfo
- Publication number
- KR20240115631A KR20240115631A KR1020230008234A KR20230008234A KR20240115631A KR 20240115631 A KR20240115631 A KR 20240115631A KR 1020230008234 A KR1020230008234 A KR 1020230008234A KR 20230008234 A KR20230008234 A KR 20230008234A KR 20240115631 A KR20240115631 A KR 20240115631A
- Authority
- KR
- South Korea
- Prior art keywords
- depth
- point cloud
- information
- depth map
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000000605 extraction Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
본 발명은 고밀도 점군 정보 생성 방법 및 시스템에 관한 것으로, 더욱 상세하게는 360도 카메라 이미지로부터 멀티뷰 이미지를 생성하고, SFM을 통해 카메라 위치를 역추적하여 융합된 깊이 이미지를 재구성함으로써 고밀도의 360도 점군 정보를 생성하는 시스템 및 방법에 관한 것이다.
본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 시스템은, 3차원 공간에 대한 360도 이미지를 획득하고, 상기 360도 이미지로부터 상기 3차원 공간에 대한 멀티뷰 이미지를 생성하는 멀티뷰 이미지 생성부; 상기 멀티뷰 이미지로부터 카메라의 위치정보를 역추적하고, 상기 멀티뷰 이미지에 포함된 복수의 특징점들의 깊이정보를 생성하는 깊이 추정부; 및 상기 깊이정보를 패치기반 스테레오 기법에 적용하여 생성한 제1 깊이 맵과 상기 카메라의 위치정보를 비전기반 변환기에 적용하여 생성한 제2 깊이 맵을 이용하여 상기 3차원 공간에 대한 점군 정보를 생성하는 점군 생성부;를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 360도 카메라 이미지로부터 멀티뷰 이미지를 구성하고 각 픽셀 집합별로 깊이를 추정하여 융합함으로써 고밀도의 점군 정보를 생성 할 수 있다.The present invention relates to a method and system for generating high-density point cloud information. More specifically, the present invention relates to a method and system for generating high-density point cloud information. More specifically, the present invention relates to a method and system for generating high-density point cloud information, and more specifically, to generate a multi-view image from a 360-degree camera image and to reconstruct a fused depth image by backtracking the camera position through SFM. It relates to a system and method for generating point cloud information.
A high-density point cloud information generation system according to an embodiment of the present invention includes a multi-view image generator that acquires a 360-degree image of a three-dimensional space and generates a multi-view image of the three-dimensional space from the 360-degree image; a depth estimation unit that traces camera position information from the multi-view image and generates depth information of a plurality of feature points included in the multi-view image; And generating point cloud information for the three-dimensional space using a first depth map generated by applying the depth information to a patch-based stereo technique and a second depth map generated by applying the position information of the camera to a vision-based converter. It may include a point cloud generating unit.
According to an embodiment of the present invention, high-density point cloud information can be generated by constructing a multi-view image from a 360-degree camera image, estimating the depth for each pixel set, and fusing it.
Description
본 발명은 고밀도 점군 정보 생성 방법 및 시스템에 관한 것으로, 더욱 상세하게는 360도 카메라 이미지로부터 멀티뷰 이미지를 생성하고, SFM을 통해 카메라 위치를 역추적하여 융합된 깊이 이미지를 재구성함으로써 고밀도의 360도 점군 정보를 생성하는 시스템 및 방법에 관한 것이다.The present invention relates to a method and system for generating high-density point cloud information. More specifically, the present invention relates to a method and system for generating high-density point cloud information. More specifically, the present invention relates to a method and system for generating high-density point cloud information, and more specifically, to generate a multi-view image from a 360-degree camera image and to reconstruct a fused depth image by backtracking the camera position through SFM. It relates to a system and method for generating point cloud information.
3차원 물체 인식에서 사용되는 3차원 포인트 클라우드(point cloud)의 표현은 자율주행, 머신 비전(machine vision), 가상현실과 같은 분야에서 강력한 도구로 사용되며, 이를 위한 다양한 방법들이 제시되고 있다.The 3D point cloud representation used in 3D object recognition is used as a powerful tool in fields such as autonomous driving, machine vision, and virtual reality, and various methods for this are being proposed.
일반적으로, 정밀한 3차원 복원을 하기 위한 방법으로 SFM(Structure from motion) 알고리즘이 이용된다. SFM 알고리즘은 이미지들의 특징점을 추출하는 과정, 이미지들 간의 특징점을 매칭하는 과정, 매칭된 특징점들을 삼각측량으로 계산하여 3차원 점(point)을 복원하는 과정으로 구성된다. 이때, 각 과정에서의 세부적인 차이에 따라 다양한 방식의 SFM 알고리즘이 존재한다. 그러나, 360도 이미지는 이미지에 포함된 정보에 비해 해상도가 떨어져 밀도 높은 3차원 점군(Point Cloud)을 생성하기 어렵다.Generally, the SFM (Structure from motion) algorithm is used as a method for precise 3D reconstruction. The SFM algorithm consists of the process of extracting feature points of images, matching feature points between images, and calculating the matched feature points through triangulation to restore 3D points. At this time, various types of SFM algorithms exist depending on the detailed differences in each process. However, 360-degree images have lower resolution than the information contained in the image, making it difficult to create a dense 3D point cloud.
이에 따라, 고밀도의 3차원 점군을 생성하기 위한 방법으로 패치기반 깊이 추정 기술이 고안되고 있다. 그러나, 패치기반 깊이 추정의 이미지 매칭 파이프라인은 일반적으로 연산량을 줄이기 위해 카메라의 내/외부 파라메터를 역추적하여 멀티뷰 간의 관계를 파악한 뒤, 인접한 시점에 대해서만 깊이를 추정하므로, 객체가 일반적으로 질감이 없는 표면이나 복잡한 형상에서 폐색 영역이 발생되어 정보의 유실이 발생한다는 문제점이 있다.Accordingly, patch-based depth estimation technology is being developed as a method for generating high-density 3D point clouds. However, the image matching pipeline of patch-based depth estimation generally backtracks the internal and external parameters of the camera to reduce the amount of calculation, determines the relationship between multi-views, and then estimates depth only for adjacent viewpoints, so objects are generally textured. There is a problem that information is lost due to occluded areas occurring on surfaces without teeth or complex shapes.
상기 전술한 문제점을 해결하기 위하여 본 발명은 360도 카메라 이미지를 입력으로 패치기반의 깊이 추정 결과와 비전기반 변환기를 융합하여 패치기반의 깊이 추정 결과를 개선하는 것으로, 360도 카메라 이미지로부터 멀티뷰 이미지를 생성하고, 특징점을 기반으로 카메라 위치 정보를 역추적(SFM)하며, 패치기반 깊이 추정과 비전기반 변환기를 통해 깊이를 추정하는 하이브리드 깊이 추정을 통해 고밀도 점군 정보 생성 시스템 및 방법을 제공하는 것을 목적으로 한다.In order to solve the above-mentioned problems, the present invention improves the patch-based depth estimation result by fusing the patch-based depth estimation result and a vision-based converter with a 360-degree camera image as input, and multi-view images from the 360-degree camera image. The purpose is to provide a system and method for generating high-density point cloud information through hybrid depth estimation that generates, backtracks (SFM) camera position information based on feature points, and estimates depth through patch-based depth estimation and vision-based converter. Do it as
본 발명의 일 실시 예로써, 고밀도 점군 정보 생성 시스템이 제공된다.As an embodiment of the present invention, a high-density point cloud information generation system is provided.
본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 시스템은, 3차원 공간에 대한 360도 이미지를 획득하고, 상기 360도 이미지로부터 상기 3차원 공간에 대한 멀티뷰 이미지를 생성하는 멀티뷰 이미지 생성부; 상기 멀티뷰 이미지로부터 카메라의 위치정보를 역추적하고, 상기 멀티뷰 이미지에 포함된 복수의 특징점들의 깊이정보를 생성하는 깊이 추정부; 및 상기 깊이정보를 패치기반 스테레오 기법에 적용하여 생성한 제1 깊이 맵과 상기 카메라의 위치정보를 비전기반 변환기에 적용하여 생성한 제2 깊이 맵을 이용하여 상기 3차원 공간에 대한 점군 정보를 생성하는 점군 생성부;를 포함할 수 있다.A high-density point cloud information generation system according to an embodiment of the present invention includes a multi-view image generator that acquires a 360-degree image of a three-dimensional space and generates a multi-view image of the three-dimensional space from the 360-degree image; a depth estimation unit that traces camera position information from the multi-view image and generates depth information of a plurality of feature points included in the multi-view image; And generating point cloud information for the three-dimensional space using a first depth map generated by applying the depth information to a patch-based stereo technique and a second depth map generated by applying the position information of the camera to a vision-based converter. It may include a point cloud generating unit.
본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 시스템에서, 상기 멀티뷰 이미지 생성부는, 상기 360도 이미지를 복수의 시점 각각에 대하여 슬라이스 하여 복수의 멀티뷰 이미지를 생성하되, 상기 복수의 멀티뷰 이미지는 각 시점 간에 중첩 영역을 갖도록 생성될 수 있다.In the high-density point cloud information generation system according to an embodiment of the present invention, the multi-view image generator generates a plurality of multi-view images by slicing the 360-degree image for each of a plurality of viewpoints, and the plurality of multi-view images can be created to have an overlapping area between each viewpoint.
본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 시스템에서, 깊이 추정부는, 복수의 멀티뷰 이미지에 중복하여 나타나는 특징을 특징점으로 추출하는 특징점 추출부; 상기 멀티뷰 이미지에 포함된 특징점을 매칭하여, 매칭 쌍을 형성하고, 상기 매칭 쌍 사이의 기하학적 관계를 이용하여, 상기 멀티뷰 이미지 간의 대응관계를 산출하는 매칭쌍 형성부; 및 상기 매칭 쌍 사이의 기하학적 관계 및 상기 멀티뷰 이미지 간의 대응관계를 이용하여 카메라의 위치정보 및 상기 특징점의 깊이정보를 생성하는 깊이정보 생성부;를 더 포함할 수 있다.In the high-density point cloud information generation system according to an embodiment of the present invention, the depth estimation unit includes: a feature point extraction unit that extracts features that appear overlapping in a plurality of multi-view images as feature points; a matching pair forming unit that matches feature points included in the multi-view image to form a matching pair, and calculates a correspondence relationship between the multi-view images using a geometric relationship between the matching pairs; and a depth information generator that generates location information of the camera and depth information of the feature point using the geometric relationship between the matching pairs and the correspondence relationship between the multi-view images.
본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 시스템에서, 상기 점군 생성부는, 상기 제1 깊이 맵과 상기 제2 깊이 맵을 각각 복수의 픽셀 집합으로 나누는 분할부; 및 상기 제1 깊이맵에 포함된 픽셀이, 상기 제2 깊이맵에서는 제1 깊이맵에서 구분된 픽셀 집합과 상이한 픽셀 집합으로 구분되는 경우, 해당 픽셀의 깊이값을 상기 제1 깊이맵의 추정값과 상기 제2 깊이맵의 추정값을 이용하여 보정하는 보정부를 더 포함할 수 있다.In the high-density point cloud information generating system according to an embodiment of the present invention, the point cloud generating unit includes a dividing unit that divides the first depth map and the second depth map into a plurality of pixel sets; And when the pixels included in the first depth map are divided into a pixel set in the second depth map that is different from the pixel set divided in the first depth map, the depth value of the corresponding pixel is divided into the estimated value of the first depth map and the It may further include a correction unit that corrects using the estimated value of the second depth map.
본 발명의 일 실시 예로써, 고밀도 점군 정보 생성 방법이 제공된다.As an embodiment of the present invention, a method for generating high-density point cloud information is provided.
본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 방법은, 멀티뷰 이미지 생성부에 의해 3차원 공간에 대한 360도 이미지를 획득하고, 상기 360도 이미지로부터 상기 3차원 공간에 대한 멀티뷰 이미지가 생성되는 멀티뷰 이미지 생성단계; 깊이 추정부에 의해 상기 멀티뷰 이미지로부터 카메라의 위치정보가 역추적되고, 상기 멀티뷰 이미지에 포함된 복수의 특징점들의 깊이정보가 생성되는 깊이 추정단계; 및 점군 생성부에 의해 상기 깊이정보를 패치기반 스테레오 기법에 적용하여 생성된 제1 깊이 맵과 상기 카메라의 위치정보를 비전기반 변환기에 적용하여 생성된 제2 깊이 맵을 이용하여, 상기 3차원 공간에 대한 점군 정보가 생성되는 점군 생성단계를 포함할 수 있다.The method for generating high-density point cloud information according to an embodiment of the present invention includes acquiring a 360-degree image of a three-dimensional space by a multi-view image generator, and generating a multi-view image of the three-dimensional space from the 360-degree image. A multi-view image generation step; A depth estimation step in which camera position information is traced back from the multi-view image by a depth estimation unit and depth information of a plurality of feature points included in the multi-view image is generated; And using a first depth map generated by applying the depth information to a patch-based stereo technique by a point cloud generator and a second depth map generated by applying the position information of the camera to a vision-based converter, the three-dimensional space It may include a point cloud generation step in which point cloud information is generated.
본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 방법에서, 상기 멀티뷰 이미지 생성단계에서, 상기 복수의 멀티뷰 이미지는, 상기 360도 이미지를 복수의 시점 각각에 대하여 슬라이스하되, 각 시점 간에 중첩 영역을 갖도록 생성될 수 있다.In the method for generating high-density point cloud information according to an embodiment of the present invention, in the multi-view image generation step, the plurality of multi-view images are sliced for each of a plurality of viewpoints, and an overlap area between each viewpoint is formed. It can be created to have .
본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 방법에서, 깊이 추정단계는, 특징점 추출부에 의해 상기 복수의 멀티뷰 이미지에 중복하여 나타나는 특징이 특징점으로 추출되는 특징점 추출단계; 매칭쌍 형성부에 의해 상기 멀티뷰 이미지에 포함된 특징점을 매칭하여, 매칭 쌍이 형성되고, 상기 매칭 쌍 사이의 기하학적 관계를 이용하여, 상기 멀티뷰 이미지 간의 대응관계가 산출되는 매칭쌍 형성단계; 및 깊이정보 생성부에 의해 상기 매칭 쌍 사이의 기하학적 관계 및 상기 멀티뷰 이미지 간의 대응관계를 이용하여 카메라의 위치정보 및 상기 특징점의 깊이정보가 생성되는 깊이정보 생성단계를 더 포함할 수 있다.In the method for generating high-density point cloud information according to an embodiment of the present invention, the depth estimation step includes a feature point extraction step in which features that appear overlapping in the plurality of multi-view images are extracted as feature points by a feature point extractor; A matching pair forming step in which a matching pair is formed by matching feature points included in the multi-view image by a matching pair forming unit, and a correspondence relationship between the multi-view images is calculated using a geometric relationship between the matching pairs; And it may further include a depth information generation step in which position information of the camera and depth information of the feature point are generated by a depth information generator using a geometric relationship between the matching pairs and a correspondence relationship between the multi-view images.
본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 방법에서, 상기 점군 생성단계는, 분할부에 의해 상기 제1 깊이 맵과 상기 제2 깊이 맵이 각각 복수의 픽셀 집합으로 나뉘는 분할단계; 및 보정부에 의해 상기 제1 깊이맵에 포함된 픽셀이, 상기 제2 깊이맵에서는 제1 깊이맵에서 구분된 픽셀 집합과 상이한 픽셀 집합으로 구분되는 경우, 해당 픽셀의 깊이 값이 상기 제1 깊이맵의 추정값과 상기 제2 깊이맵의 추정값을 통해 보정되는 보정단계를 더 포함할 수 있다.In the method for generating high-density point cloud information according to an embodiment of the present invention, the point cloud generating step includes: dividing the first depth map and the second depth map into a plurality of pixel sets by a dividing unit; And when the pixel included in the first depth map is divided into a pixel set in the second depth map by the correction unit that is different from the pixel set divided in the first depth map, the depth value of the pixel is determined by the first depth map. It may further include a correction step of correcting through the estimated value of and the estimated value of the second depth map.
본 발명의 일 실시 예로써, 전술한 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체가 제공된다.As an embodiment of the present invention, a computer-readable recording medium on which a program for implementing the above-described method is recorded is provided.
본 발명의 일 실시예에 따르면, 360도 카메라 이미지로부터 멀티뷰 이미지를 구성하고 각 픽셀 집합별로 깊이를 추정하여 융합함으로써 고밀도의 점군 정보를 생성 할 수 있다.According to an embodiment of the present invention, high-density point cloud information can be generated by constructing a multi-view image from a 360-degree camera image, estimating the depth for each pixel set, and fusing them.
또한, 본 발명의 일 실시예에 따르면, 폐색 영역에 강건한 깊이 맵을 생성할 수 있다.Additionally, according to an embodiment of the present invention, a robust depth map can be generated in an occluded area.
본 개시에서 얻을 수 있는 효과는 이상에서 언급된 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.
도 1은 본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 멀티뷰 이미지 생성부를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 깊이 추정부의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 깊이 추정부를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 점군 생성부의 블록도이다.
도 6은 본 발명의 일 실시예에 따른 분할부를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 보정부를 설명하기 위한 도면이다.
도 8은 본 발명에 따른 고밀도 점군 정보 생성 시스템의 효과를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 고밀도 점군 정보 생성 방법의 순서도이다.Figure 1 is a block diagram of a high-density point cloud information generation system according to an embodiment of the present invention.
Figure 2 is a diagram for explaining a multi-view image generator according to an embodiment of the present invention.
Figure 3 is a block diagram of a depth estimation unit according to an embodiment of the present invention.
Figure 4 is a diagram for explaining a depth estimation unit according to an embodiment of the present invention.
Figure 5 is a block diagram of a point cloud generator according to an embodiment of the present invention.
Figure 6 is a diagram for explaining a division unit according to an embodiment of the present invention.
Figure 7 is a diagram for explaining a correction unit according to an embodiment of the present invention.
Figure 8 is a diagram for explaining the effect of the high-density point cloud information generation system according to the present invention.
Figure 9 is a flowchart of a method for generating high-density point cloud information according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly explained, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention are general terms that are currently widely used as much as possible while considering the functions in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "~부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, "그 중간에 다른 소자를 사이에 두고"연결되어 있는 경우도 포함한다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. Additionally, terms such as “unit” and “module” used in the specification refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. In addition, when a part is said to be "connected" to another part throughout the specification, this includes not only the case where it is "directly connected," but also the case where it is connected "with another element in between."
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the attached drawings.
도 1은 본 발명의 일 실시 예에 따른 고밀도 점군 정보 생성 시스템(10)의 블록도이다.Figure 1 is a block diagram of a high-density point cloud information generation system 10 according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 고밀도 점군 정보 생성 시스템(10)은 멀티뷰 이미지 생성부(100), 깊이 추정부(200) 및 점군 생성부(300)를 포함하여 구성될 수 있다.Referring to FIG. 1, the high-density point cloud information generation system 10 according to an embodiment of the present invention will include a multi-view image generator 100, a depth estimation unit 200, and a point cloud generator 300. You can.
도 2는 본 발명의 일 실시예에 따른 멀티뷰 이미지 생성부(100)를 설명하기 위한 도면이다.Figure 2 is a diagram for explaining the multi-view image generator 100 according to an embodiment of the present invention.
도 2를 참조하면, 멀티뷰 이미지 생성부(100)는 3차원 공간에 대한 360도 이미지를 획득하고, 360도 이미지로부터 3차원 공간에 대한 멀티뷰 이미지를 생성한다.Referring to FIG. 2, the multi-view image generator 100 acquires a 360-degree image of a three-dimensional space and generates a multi-view image of a three-dimensional space from the 360-degree image.
이때, 3차원 공간은 하나 이상의 3차원 객체로 이루어진 공간일 수 있다. 예를 들어, 3차원 공간은 길가, 공원 등과 같은 실외 공간분만 아니라, 아파트 내부, 빌딩 내부 등과 같은 실내 공간 등을 포함할 수 있다.At this time, the 3-dimensional space may be a space composed of one or more 3-dimensional objects. For example, the three-dimensional space may include not only outdoor spaces such as roadsides and parks, but also indoor spaces such as inside apartments and buildings.
360도 이미지는 수평 방향을 기준으로 3차원 공간을 360도 전 방향으로 촬영한 이미지일 수 있다. 예를 들어, 360도 이미지는 도 2(a)에 도시된 바와 같이 파노라마 형태의 이미지일 수 있다. 이때, 360도 이미지는 구형 파노라마 이미지 또는 원통형 파노라마 이미지일 수 있으나, 반드시 이에 한정되는 것은 아니다.A 360-degree image may be an image taken in all directions of 360 degrees in a three-dimensional space based on the horizontal direction. For example, a 360-degree image may be a panoramic image as shown in FIG. 2(a). At this time, the 360-degree image may be a spherical panoramic image or a cylindrical panoramic image, but is not necessarily limited thereto.
한편, 360도 이미지는 360도 카메라에 의해 촬영된 이미지이거나, 하나 이상의 카메라에 의해 촬영된 3차원 공간에 대한 복수의 이미지가 결합된 것일 수 있다. 다만, 상술한 360도 이미지 생성 방식은 일 예시에 불과하며, 360도 이미지는 다양한 방식을 통해 생성된 것일 수 있다.Meanwhile, a 360-degree image may be an image captured by a 360-degree camera, or may be a combination of multiple images of a three-dimensional space captured by one or more cameras. However, the above-described 360-degree image generation method is only an example, and 360-degree images may be generated through various methods.
실시예에 따라, 복수의 멀티뷰 이미지는 도 2(b)에 도시된 바와 같이 360도 이미지를 복수의 시점 각각에 대하여 슬라이스 하여 생성된 것일 수 있다. 이때, 복수의 멀티뷰 이미지는 각 시점 간에 중첩 영역을 갖도록 생성될 수 있다.Depending on the embodiment, a plurality of multi-view images may be generated by slicing a 360-degree image for each of a plurality of viewpoints, as shown in FIG. 2(b). At this time, a plurality of multi-view images may be generated to have overlapping areas between each viewpoint.
바람직하게는, 복수의 멀티뷰 이미지 간의 중첩 영역은 전체 멀티뷰 이미지의 35% 비율일 수 있다.Preferably, the overlap area between the plurality of multi-view images may be 35% of the total multi-view image.
도 3은 본 발명의 일 실시예에 따른 깊이 추정부(200)의 블록도이다.Figure 3 is a block diagram of the depth estimation unit 200 according to an embodiment of the present invention.
깊이 추정부(200)는 멀티뷰 이미지로부터 카메라의 위치정보를 역추적하고, 멀티뷰 이미지에 포함된 복수의 특징점들의 깊이정보를 생성한다.The depth estimation unit 200 backtracks the position information of the camera from the multi-view image and generates depth information of a plurality of feature points included in the multi-view image.
실시예에 따라, 깊이 추정부(200)는 SFM 알고리즘을 이용하여 멀티뷰 이미지로부터 카메라의 위치정보를 역추적할 수 있다. 이때, SFM(Structure From Motion) 알고리즘은 2차원 이미지의 모션 정보를 이용해 카메라의 위치와 방향을 역추적한 후 이미지와 카메라의 관계를 구조화 하는 알고리즘이다.Depending on the embodiment, the depth estimator 200 may backtrack the location information of the camera from the multi-view image using the SFM algorithm. At this time, the SFM (Structure From Motion) algorithm is an algorithm that uses the motion information of a two-dimensional image to trace the position and direction of the camera and then structures the relationship between the image and the camera.
이때, SFM 알고리즘의 pipeline은 크게 특징점 기반 대응관계를 찾는 Correspondence Search, 카메라 위치를 추정하고 보정하여 깊이를 재구성하는 Incremental Reconstruction 단계를 가질 수 있다.At this time, the pipeline of the SFM algorithm can largely have a Correspondence Search step to find feature-based correspondences, and an Incremental Reconstruction step to reconstruct the depth by estimating and correcting the camera position.
도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 깊이 추정부(200)는 특징점 추출부(210), 매칭쌍 형성부(220) 및 깊이정보 생성부(230)를 포함하여 구성될 수 있다.As shown in FIG. 3, the depth estimation unit 200 according to an embodiment of the present invention will include a feature point extraction unit 210, a matching pair forming unit 220, and a depth information generating unit 230. You can.
특징점 추출부(210)는 복수의 멀티뷰 이미지에 중복하여 나타나는 특징을 특징점으로 추출한다.The feature point extraction unit 210 extracts features that appear overlapping in a plurality of multi-view images as feature points.
도 4에 도시된 바와 같이, 복수의 멀티뷰 이미지는 각 시점 간에 중첩영역을 갖도록 생성되므로, 특정 객체의 모습이 다수의 멀티뷰 이미지에 중복하여 나타날 수 있다.As shown in FIG. 4, a plurality of multi-view images are created with overlapping areas between each viewpoint, so the appearance of a specific object may appear overlapping in multiple multi-view images.
즉, 특징점 추출부(210)는 각각의 멀티뷰 이미지에 중복하여 나타나는 특정 객체에 대한 특징(예를 들어, 침대 헤드 등)을 특징점(도 4의 a 내지 e)으로 추출할 수 있다.That is, the feature point extractor 210 may extract features (e.g., bed head, etc.) for a specific object that appear overlappingly in each multi-view image as feature points (a to e in FIG. 4).
이때, 각 이미지에서 추출되는 특징점은 특히 영상의 크기, 회전에 강인하고 불변의 특징을 갖는 SIFT가 사용될 수도 있다.At this time, SIFT, which is particularly robust to the size and rotation of the image and has immutable features, may be used for the feature points extracted from each image.
매칭쌍 형성부(220)는 멀티뷰 이미지에 포함된 특징점을 매칭하여, 매칭쌍을 형성하고, 매칭쌍 사이의 기하학적 관계를 이용하여, 멀티뷰 이미지 간의 대응관계를 산출한다.The matching pair forming unit 220 matches feature points included in the multi-view image to form a matching pair, and calculates a correspondence relationship between the multi-view images using the geometric relationship between the matching pairs.
도 4에 도시된 바와 같이, 특징점 추출부(210)를 통해 추출된 특징점들을 동일한 객체에 대한 것들끼리 매칭함으로써 매칭쌍을 형성할 수 있다. 예를 들어, 도 4에서는 특징점 a, c가 침대 헤드 왼쪽 모서리에 해당하는 것으로, 하나의 매칭쌍으로 형성되고, 특징점 b, d, e가 침대 헤드 오른쪽 모서리에 해당하는 것으로, 하나의 매칭쌍으로 형성될 수 있다. 실시예에 따라, 매칭쌍 형성부(220)는 RANSAC을 통해 매칭의 정합률을 높힐 수 있다.As shown in FIG. 4, a matching pair can be formed by matching feature points extracted through the feature point extractor 210 for the same object. For example, in Figure 4, feature points a and c correspond to the left edge of the bed head, forming one matching pair, and feature points b, d, and e correspond to the right edge of the bed head, forming one matching pair. can be formed. Depending on the embodiment, the matching pair forming unit 220 may increase the matching rate through RANSAC.
이때, 매칭쌍 사이의 기하학적 관계(Epipolar Geometry)는 동일한 물체를 서로 다른 시점에서 획득 했을 때 형성되는 매칭쌍의 관계를 나타낸 것이다.At this time, the geometric relationship between matching pairs (Epipolar Geometry) represents the relationship between matching pairs formed when the same object is acquired from different viewpoints.
깊이정보 생성부(230)는 매칭쌍 사이의 기하학적 관계 및 멀티뷰 이미지 간의 대응관계를 이용하여 카메라의 위치정보 및 상기 특징점의 깊이정보를 생성한다.The depth information generator 230 generates camera position information and depth information of the feature point using the geometric relationship between matching pairs and the correspondence relationship between multi-view images.
실시예에 따라, 깊이정보 생성부(230)는 매칭쌍 사이의 기하학적 관계(Epipolar Geometry)와 삼각 측량법을 활용하여 매칭쌍의 깊이 정보를 생성 할 수 있다. 이때, 두 멀티뷰 이미지에 매칭 쌍이 9개 이상이면, RANSAC을 통해 보정된 translation, rotation, depth를 얻을 수 있을 것이다.Depending on the embodiment, the depth information generator 230 may generate depth information of the matching pair by utilizing the geometric relationship (Epipolar Geometry) and triangulation between the matching pairs. At this time, if there are more than 9 matching pairs in the two multi-view images, the corrected translation, rotation, and depth can be obtained through RANSAC.
즉, 본 발명의 일 실시예에 따른 깊이 추정부(200)는 각 멀티뷰 이미지에서 특정점을 추출하고, 특징점의 관계를 매칭함으로써 멀티뷰 이미지간의 대응관계를 산출하고, 멀티뷰 이미지간의 대응관계를 이용하여 카메라의 위치를 파악한다.That is, the depth estimation unit 200 according to an embodiment of the present invention extracts a specific point from each multi-view image, calculates the correspondence between the multi-view images by matching the relationship between the feature points, and calculates the correspondence between the multi-view images. Use to determine the location of the camera.
도 5는 본 발명의 일 실시예에 따른 점군 생성부(300)의 블록도이다.Figure 5 is a block diagram of the point cloud generator 300 according to an embodiment of the present invention.
점군 생성부(300)는 깊이정보를 패치기반 스테레오 기법에 적용하여 생성한 제1 깊이 맵과 상기 카메라의 위치정보를 비전기반 변환기에 적용하여 생성한 제2 깊이 맵을 이용하여 상기 3차원 공간에 대한 점군 정보를 생성한다.The point cloud generator 300 uses a first depth map generated by applying depth information to a patch-based stereo technique and a second depth map generated by applying the position information of the camera to a vision-based converter in the three-dimensional space. Generate point cloud information for
실시예에 따라, 점군 생성부(300)는 두 쌍의 깊이 맵에 대한 세그맨테이션(Class)를 생성하여, 각 Class 별로 깊이 맵을 보정한 뒤, 각 Class를 융합함으로써 최종 깊이 맵을 생성하도록 구현될 수 있다.According to the embodiment, the point cloud generator 300 generates a segmentation (class) for two pairs of depth maps, corrects the depth map for each class, and then fuses each class to generate the final depth map. It can be implemented.
패치기반의 스테레오(MULTI-VIEW STEREO WHICH SEMANTIC PRIORS) 기법은 고밀도의 3D 이미지를 재구성하기 위해 사용되는 기술로서, SFM 알고리즘을 통해 얻은 조밀하지 않는 특징점들의 매칭쌍들의 조합으로부터 무작위 초기화된 위치에서 시작하여 반복적으로 공간전파를 통해 깊이를 계산하는 기술이다.The patch-based stereo (MULTI-VIEW STEREO WHICH SEMANTIC PRIORS) technique is a technique used to reconstruct high-density 3D images, starting from a randomly initialized position from a combination of matching pairs of sparse feature points obtained through the SFM algorithm. This is a technology that repeatedly calculates depth through spatial propagation.
비전기반 변환기(Vision Transformer; ViT)는 인공지능을 통한 깊이 추정 기술로, 인코더와 디코더를 포함한다.Vision Transformer (ViT) is a depth estimation technology using artificial intelligence and includes an encoder and decoder.
이때, 비전기반 변환기는 입력된 이미지를 패치 단위로 분할하여 하나의 시계열 데이터로 변환하고, 분할된 패치들을 linear embedding에 전달하며, 이렇게 만들어진 것을 트랜스포머(transformer)의 입력값으로 사용한다. 즉, 각각의 패치를 NLP의 토큰(token)으로 간주한다.At this time, the vision-based converter divides the input image into patches, converts them into one time series data, transfers the divided patches to linear embedding, and uses the resulting image as the input value of the transformer. In other words, each patch is considered a token of NLP.
즉, 본 발명에 따른 점군 생성부(300)는 패치기반 스테레오 기법에 의해 생성한 이미지에 생성된 폐색 영역을 비전기반 변환기를 통해 생성한 이미지를 이용하여 보정함으로써, 멀티뷰 이미지 간의 시점 불일치로 인해 발생되는 폐색영역 또는 홀영역을 보간 할 수 있다.In other words, the point cloud generator 300 according to the present invention corrects the occluded area created in the image generated by the patch-based stereo technique using the image generated through the vision-based converter, thereby causing the viewpoint mismatch between the multi-view images. Occurring occluded areas or hole areas can be interpolated.
도 5를 참조하면, 본 발명의 일 실시예에 따른 점군 생성부(300)는 분할부(310) 및 보정부(320)를 더 포함하여 구성될 수 있다.Referring to FIG. 5, the point cloud generator 300 according to an embodiment of the present invention may be configured to further include a division unit 310 and a correction unit 320.
분할부(310)는 제1 깊이 맵과 제2 깊이 맵을 각각 복수의 픽셀 집합으로 나눈다. 예를 들어, 분할부(310)는 도 6에 도시된 바와 같이, 제1 깊이 맵과 제2 깊이 맵 내에 있는 객체들을 의미 있는 복수의 단위(도 6의 (a), (b), (c), (d))들로 분할 수 있다.The division unit 310 divides the first depth map and the second depth map into a plurality of pixel sets. For example, as shown in FIG. 6, the division unit 310 divides objects in the first depth map and the second depth map into a plurality of meaningful units ((a), (b), and (c) in FIG. 6. ), (d)).
보정부(320)는 제1 깊이맵에 포함된 픽셀이, 제2 깊이맵에서 구분된 픽셀 집합과 상이한 픽셀 집합으로 구분되는 경우, 해당 픽셀의 깊이값을 상기 제1 깊이맵의 추정값과 제2 깊이맵의 추정값을 이용하여 보정한다.When a pixel included in the first depth map is divided into a pixel set different from the pixel set classified in the second depth map, the correction unit 320 calculates the depth value of the pixel into the estimated value of the first depth map and the second depth. Calibrate using the estimated value of the map.
예를 들어, 보정부(320)는 도 7에 도시된 바와 같이, 제1 깊이맵(도 7(a))의 픽셀 집합과 제2 깊이맵(도 7(b))의 픽셀 집합을 비교하여 차이가 있는 경우, 해당 픽셀 집합에 대하여 보정을 수행하는 것일 수 있다. 이때, 보정부(320)는 픽셀 집합 전체 또는 픽셀 집합 중 차이에 해당하는 부분(즉, 특정 픽셀)에 대하여 보정을 수행할 수 있다.For example, as shown in FIG. 7, the correction unit 320 compares the pixel set of the first depth map (FIG. 7(a)) and the pixel set of the second depth map (FIG. 7(b)) to determine the difference. If there is, correction may be performed on the corresponding pixel set. At this time, the correction unit 320 may perform correction on the entire pixel set or on the portion corresponding to the difference (i.e., a specific pixel) among the pixel set.
실시예에 따라, 보정부(320)는 특정 픽셀 집합에 대하여, 픽셀 집합에 속한 제1 깊이맵(도 7(a))의 픽셀값과 제2 깊이맵(도 7(b)) 의 픽셀값의 잔차의 합을 최소화하는 모델로 구현될 수 있다.Depending on the embodiment, the correction unit 320 may, for a specific pixel set, calculate the pixel value of the first depth map (FIG. 7(a)) and the pixel value of the second depth map (FIG. 7(b)) belonging to the pixel set. It can be implemented as a model that minimizes the sum of the residuals.
이때, 보정부(320)는 제1 및 제2 깊이맵(도 7(a) 및 (b))을 융합하기 위해 제1 깊이맵(도 7(a))의 픽셀값과 제2 깊이맵(도 7(b)) 의 픽셀값을 최소화 하는 모델()을 추정한다. 즉 각 픽셀 집합 별 제1 깊이맵 및 제2 깊이맵의 픽셀값들 간의 잔차()의 합을 최소화하는 파라메터(a,b)를 추정한다.At this time, the correction unit 320 uses pixel values of the first depth map (FIG. 7(a)) and the second depth map (FIG. 7(a) and (b)) to fuse the first and second depth maps (FIG. 7(a) and (b)). Model that minimizes the pixel value of Figure 7(b)) ( ) is estimated. That is, the residual between the pixel values of the first depth map and the second depth map for each pixel set ( ) Estimate the parameters (a,b) that minimize the sum of ).
이때, 픽셀값의 잔차의 합을 최소화하는 모델은 하기의 [수학식 1]과 같이 구현될 수 있다.At this time, a model that minimizes the sum of residual pixel values can be implemented as shown in [Equation 1] below.
(여기서, r은, d는 제1 깊이맵의 추정값, d' 제2 깊이맵의 추정값이다.)(Here, r is , d is the estimated value of the first depth map, d' is the estimated value of the second depth map.)
픽셀 집합에 속한 픽셀의 개수가 n개 일 때 두 깊이맵(d, d')의 차이를 최소화 하는 파라메터 a, b는 하기의 [수학식 2]와 같이 표현된다.When the number of pixels in the pixel set is n, the parameters a and b that minimize the difference between the two depth maps (d, d') are expressed as [Equation 2] below.
상기 [수학식 2]를 행렬식으로 표현하면 하기의 [수학식 3]과 같다.If the above [Equation 2] is expressed as a determinant, it becomes the following [Equation 3].
[수학식 3]의 X는 하기의 [수학식 4]와 같이 구해진다.X in [Equation 3] is obtained as in [Equation 4] below.
즉, 본 발명에 따른 점군 생성부(300)는 각 픽셀 집합 별로 파라메터를 산출하여 픽셀 집합 별 차이를 근사화하고, 이를 제1 깊이맵에 융합함으로써, 최종적인 깊이맵(도 7(c))을 생성할 수 있다.That is, the point cloud generator 300 according to the present invention calculates parameters for each pixel set, approximates the difference for each pixel set, and fuses them with the first depth map to create the final depth map (FIG. 7(c)). can be created.
도 8은 본 발명에 따른 고밀도 점군 정보 생성 시스템(10)의 효과를 설명하기 위한 도면이다.Figure 8 is a diagram for explaining the effect of the high-density point cloud information generation system 10 according to the present invention.
도 8(a)는 패치기반의 스테레오 기법만을 이용하여 획득한 점군 정보를 통해 생성한 3D 이미지이고, 도 8(b)는 비전기반 변환기만을 이용하여 획득한 점군 정보를 통해 생성한 3D 이미지이며, 도 8(c)는 본 발명에 따른 고밀도 점군 정보 생성 시스템(10)을 이용하여 획득한 점군 정보를 통해 생성한 3D 이미지이다.Figure 8(a) is a 3D image generated through point cloud information obtained using only a patch-based stereo technique, and Figure 8(b) is a 3D image generated through point cloud information obtained using only a vision-based converter. Figure 8(c) is a 3D image generated through point cloud information obtained using the high-density point cloud information generation system 10 according to the present invention.
도 8(a)를 참조하면, 패치기반 스테레오 기법만을 이용하여 점군 정보를 획득할 경우, 3D 이미지 내에 다수의 폐색영역이 발생하는 것을 확인할 수 있다. 도 8(b)를 참조하면, 비전기반 변환기만을 이용하여 점군 정보를 획득할 경우, 3D 이미지의 정확성이 떨어지는 것을 확인할 수 있다.Referring to FIG. 8(a), it can be seen that when point cloud information is acquired using only the patch-based stereo technique, a number of occluded areas occur in the 3D image. Referring to FIG. 8(b), it can be seen that when point cloud information is acquired using only a vision-based converter, the accuracy of the 3D image deteriorates.
반면, 도 8(c)을 참조하면, 패치기반 스테레오 기법과 비전기반 변환기를 통해 획득된 깊이값을 융합하여 점군 정보를 생성할 경우, 폐색영역에 강건한 고밀도의 3D 이미지 생성이 가능한 것을 확인할 수 있다.On the other hand, referring to Figure 8(c), it can be seen that when point cloud information is generated by fusing depth values obtained through a patch-based stereo technique and a vision-based converter, it is possible to generate a high-density 3D image that is robust to occluded areas. .
즉, 본 발명에 따른 점군 정보 생성 시스템(10)을 통해 점군 정보를 획득할 경우, 패치기반 스테레오 기법만을 이용하여 점군 정보를 획득한 경우에 비해 고밀도의 3D 이미지를 생성할 수 있다.That is, when point cloud information is acquired through the point cloud information generation system 10 according to the present invention, a 3D image with higher density can be generated compared to when point cloud information is acquired using only a patch-based stereo technique.
본 발명의 일 실시 예에 따른 방법과 관련하여서는 전술한 시스템에 대한 내용이 적용될 수 있다. 따라서, 방법과 관련하여 전술한 시스템에 대한 내용과 동일한 내용에 대하여는 설명을 생략한다.Regarding the method according to an embodiment of the present invention, the contents of the above-described system may be applied. Therefore, description of the same contents as the above-described system in relation to the method will be omitted.
도 9는 본 발명의 일 실시예에 따른 고밀도 점군 정보 생성 방법의 순서도이다.Figure 9 is a flowchart of a method for generating high-density point cloud information according to an embodiment of the present invention.
도 9를 참조하면, 본 발명의 일 실시예에 따른 고밀도 점군 정보 생성 방법은 멀티뷰 이미지 생성단계(S100), 깊이 추정단계(S200) 및 점군 생성단계(S300)를 포함하여 구성될 수 있다.Referring to FIG. 9, the method for generating high-density point cloud information according to an embodiment of the present invention may include a multi-view image generation step (S100), a depth estimation step (S200), and a point cloud generation step (S300).
멀티뷰 이미지 생성단계(S100)에서는 멀티뷰 이미지 생성부(100)에 의해 3차원 공간에 대한 360도 이미지를 획득하고, 상기 360도 이미지로부터 상기 3차원 공간에 대한 멀티뷰 이미지가 생성된다.In the multi-view image generation step (S100), a 360-degree image of a three-dimensional space is acquired by the multi-view image generator 100, and a multi-view image of the three-dimensional space is generated from the 360-degree image.
실시예에 따라, 멀티뷰 이미지 생성단계(S100)에서 복수의 멀티뷰 이미지는 360도 이미지를 복수의 시점 각각에 대하여 슬라이스하되, 각 시점 간에 중첩 영역을 갖도록 생성될 수 있다.Depending on the embodiment, in the multi-view image generation step (S100), a plurality of multi-view images may be generated by slicing a 360-degree image for each of a plurality of viewpoints and having an overlapping area between each viewpoint.
깊이 추정단계(S200)에서는 깊이 추정부(200)에 의해 상기 멀티뷰 이미지로부터 카메라의 위치정보가 역추적되고, 상기 멀티뷰 이미지에 포함된 복수의 특징점들의 깊이정보가 생성된다.In the depth estimation step (S200), the position information of the camera is traced back from the multi-view image by the depth estimation unit 200, and depth information of a plurality of feature points included in the multi-view image is generated.
실시예에 따라, 깊이 추정단계(S200)는 특징점 추출단계, 매칭쌍 형성단계 및 깊이정보 생성단계를 더 포함하여 구성될 수 있다.Depending on the embodiment, the depth estimation step (S200) may further include a feature point extraction step, a matching pair forming step, and a depth information generating step.
특징점 추출단계에서는 특징점 추출부(210)에 의해 상기 복수의 멀티뷰 이미지에 중복하여 나타나는 특징이 특징점으로 추출된다.In the feature point extraction step, features that appear overlapping in the plurality of multi-view images are extracted as feature points by the feature point extraction unit 210.
매칭쌍 형성단계에서는 매칭쌍 형성부(220)에 의해 상기 멀티뷰 이미지에 포함된 특징점을 매칭하여, 매칭 쌍이 형성되고, 상기 매칭 쌍 사이의 기하학적 관계를 이용하여, 상기 멀티뷰 이미지 간의 대응관계가 산출된다.In the matching pair forming step, a matching pair is formed by matching feature points included in the multi-view image by the matching pair forming unit 220, and a correspondence relationship between the multi-view images is established using the geometric relationship between the matching pairs. It is calculated.
깊이정보 생성단계에서는 깊이정보 생성부(230)에 의해 상기 매칭 쌍 사이의 기하학적 관계 및 상기 멀티뷰 이미지 간의 대응관계를 이용하여 카메라의 위치정보 및 상기 특징점의 깊이정보가 생성된다.In the depth information generation step, the depth information generator 230 generates camera position information and depth information of the feature points using the geometric relationship between the matching pairs and the correspondence relationship between the multi-view images.
점군 생성단계(S300)에서는 점군 생성부(300)에 의해 상기 깊이정보를 패치기반 스테레오 기법에 적용하여 생성된 제1 깊이 맵과 상기 카메라의 위치정보를 비전기반 변환기에 적용하여 생성된 제2 깊이 맵을 이용하여, 상기 3차원 공간에 대한 점군 정보가 생성된다.In the point cloud generation step (S300), a first depth map generated by applying the depth information to a patch-based stereo technique by the point cloud generator 300 and a second depth generated by applying the position information of the camera to a vision-based converter Using the map, point cloud information for the three-dimensional space is generated.
실시예에 따라, 점군 생성단계(S300)는 분할단계 및 보정단계를 더 포함하여 구성될 수 있다.Depending on the embodiment, the point cloud generation step (S300) may further include a division step and a correction step.
분할단계에서는 분할부(310)에 의해 상기 제1 깊이 맵과 상기 제2 깊이 맵이 각각 복수의 픽셀 집합으로 나뉜다.In the division step, the first depth map and the second depth map are divided into a plurality of pixel sets by the division unit 310.
보정단계에서는 보정부(320)에 의해 상기 제1 깊이맵에 포함된 픽셀이, 상기 제2 깊이맵에서는 제1 깊이맵에서 구분된 픽셀 집합과 상이한 픽셀 집합으로 구분되는 경우, 해당 픽셀의 깊이값이 상기 제1 깊이맵의 추정값과 상기 제2 깊이맵의 추정값을 통해 보정된다.In the correction step, when the pixels included in the first depth map are classified by the correction unit 320 into a pixel set in the second depth map that is different from the pixel set classified in the first depth map, the depth value of the corresponding pixel is It is corrected using the estimated value of the first depth map and the estimated value of the second depth map.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브 이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. Additionally, the data structure used in the above-described method can be recorded on a computer-readable recording medium through various means. The computer-readable recording media includes storage media such as magnetic storage media (e.g., ROM, RAM, USB, floppy disk, hard disk, etc.) and optical read media (e.g., CD-ROM, DVD, etc.). Includes.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as single may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.
10: 점군 정보 생성 시스템
100: 멀티뷰 이미지 생성부
200: 깊이 추정부
210: 특징점 추출부
220: 매칭쌍 형성부
230: 깊이정보 생성부
300: 점군 생성부
310: 분할부
320: 보정부10: Point cloud information generation system
100: Multi-view image generation unit
200: depth estimation unit
210: Feature point extraction unit
220: Matching pair forming unit
230: Depth information generation unit
300: Point cloud generation unit
310: division part
320: Correction unit
Claims (9)
상기 멀티뷰 이미지로부터 카메라의 위치정보를 역추적하고, 상기 멀티뷰 이미지에 포함된 복수의 특징점들의 깊이정보를 생성하는 깊이 추정부;
상기 깊이정보를 패치기반 스테레오 기법에 적용하여 생성한 제1 깊이 맵과 상기 카메라의 위치정보를 비전기반 변환기에 적용하여 생성한 제2 깊이 맵을 이용하여 상기 3차원 공간에 대한 점군 정보를 생성하는 점군 생성부;를 포함하는,
고밀도 점군 정보 생성 시스템.a multi-view image generator that acquires a 360-degree image of a three-dimensional space and generates a multi-view image of the three-dimensional space from the 360-degree image;
a depth estimation unit that traces camera position information from the multi-view image and generates depth information of a plurality of feature points included in the multi-view image;
Generating point cloud information for the three-dimensional space using a first depth map generated by applying the depth information to a patch-based stereo technique and a second depth map generated by applying the position information of the camera to a vision-based converter. Including a point cloud generation unit,
High-density point cloud information generation system.
상기 멀티뷰 이미지 생성부는,
상기 360도 이미지를 복수의 시점 각각에 대하여 슬라이스 하여 복수의 멀티뷰 이미지를 생성하되,
상기 복수의 멀티뷰 이미지는 각 시점 간에 중첩 영역을 갖도록 생성되는 것인,
고밀도 점군 정보 생성 시스템.According to claim 1,
The multi-view image generator,
The 360-degree image is sliced for each of a plurality of viewpoints to generate a plurality of multi-view images,
The plurality of multi-view images are generated to have overlapping areas between each viewpoint,
High-density point cloud information generation system.
깊이 추정부는,
복수의 멀티뷰 이미지에 중복하여 나타나는 특징을 특징점으로 추출하는 특징점 추출부;
상기 멀티뷰 이미지에 포함된 특징점을 매칭하여, 매칭 쌍을 형성하고, 상기 매칭 쌍 사이의 기하학적 관계를 이용하여, 상기 멀티뷰 이미지 간의 대응관계를 산출하는 매칭쌍 형성부;
상기 매칭 쌍 사이의 기하학적 관계 및 상기 멀티뷰 이미지 간의 대응관계를 이용하여 카메라의 위치정보 및 상기 특징점의 깊이정보를 생성하는 깊이정보 생성부;를 더 포함하는,
고밀도 점군 정보 생성 시스템.According to claim 1,
The depth estimation unit,
a feature point extraction unit that extracts features that appear overlapping in a plurality of multi-view images as feature points;
a matching pair forming unit that matches feature points included in the multi-view image to form a matching pair, and calculates a correspondence relationship between the multi-view images using a geometric relationship between the matching pairs;
It further includes a depth information generator that generates location information of the camera and depth information of the feature point using the geometric relationship between the matching pairs and the correspondence relationship between the multi-view images.
High-density point cloud information generation system.
상기 점군 생성부는,
상기 제1 깊이 맵과 상기 제2 깊이 맵을 각각 복수의 픽셀 집합으로 나누는 분할부;
상기 제1 깊이맵에 포함된 픽셀이, 상기 제2 깊이맵에서는 제1 깊이맵에서 구분된 픽셀 집합과 상이한 픽셀 집합으로 구분되는 경우, 해당 픽셀의 깊이값을 상기 제1 깊이맵의 추정값과 상기 제2 깊이맵의 추정값을 이용하여 보정하는 보정부를 더 포함하는,
고밀도 점군 정보 생성 시스템.According to claim 1,
The point cloud generator,
a dividing unit that divides the first depth map and the second depth map into a plurality of pixel sets;
When pixels included in the first depth map are divided into a pixel set in the second depth map that is different from the pixel set divided in the first depth map, the depth value of the corresponding pixel is divided into the estimated value of the first depth map and the second depth map. 2 Further comprising a correction unit that corrects using the estimated value of the depth map,
High-density point cloud information generation system.
깊이 추정부에 의해 상기 멀티뷰 이미지로부터 카메라의 위치정보가 역추적되고, 상기 멀티뷰 이미지에 포함된 복수의 특징점들의 깊이정보가 생성되는 깊이 추정단계;
점군 생성부에 의해 상기 깊이정보를 패치기반 스테레오 기법에 적용하여 생성된 제1 깊이 맵과 상기 카메라의 위치정보를 비전기반 변환기에 적용하여 생성된 제2 깊이 맵을 이용하여, 상기 3차원 공간에 대한 점군 정보가 생성되는 점군 생성단계를 포함하는,
고밀도 점군 정보 생성 방법.A multi-view image generation step of acquiring a 360-degree image of a three-dimensional space by a multi-view image generator and generating a multi-view image of the three-dimensional space from the 360-degree image;
A depth estimation step in which camera position information is traced back from the multi-view image by a depth estimation unit and depth information of a plurality of feature points included in the multi-view image is generated;
Using a first depth map generated by applying the depth information to a patch-based stereo technique by a point cloud generator and a second depth map generated by applying the position information of the camera to a vision-based converter, in the three-dimensional space Including a point cloud generation step in which point cloud information is generated,
Method for generating high-density point cloud information.
상기 멀티뷰 이미지 생성단계에서,
상기 복수의 멀티뷰 이미지는,
상기 360도 이미지를 복수의 시점 각각에 대하여 슬라이스하되, 각 시점 간에 중첩 영역을 갖도록 생성되는 것인,
고밀도 점군 정보 생성 방법.According to claim 5,
In the multi-view image generation step,
The plurality of multi-view images are,
The 360-degree image is sliced for each of a plurality of viewpoints, and is generated to have an overlapping area between each viewpoint,
Method for generating high-density point cloud information.
깊이 추정단계는,
특징점 추출부에 의해 상기 복수의 멀티뷰 이미지에 중복하여 나타나는 특징이 특징점으로 추출되는 특징점 추출단계;
매칭쌍 형성부에 의해 상기 멀티뷰 이미지에 포함된 특징점을 매칭하여, 매칭 쌍이 형성되고, 상기 매칭 쌍 사이의 기하학적 관계를 이용하여, 상기 멀티뷰 이미지 간의 대응관계가 산출되는 매칭쌍 형성단계; 및
깊이정보 생성부에 의해 상기 매칭 쌍 사이의 기하학적 관계 및 상기 멀티뷰 이미지 간의 대응관계를 이용하여 카메라의 위치정보 및 상기 특징점의 깊이정보가 생성되는 깊이정보 생성단계를 더 포함하는,
고밀도 점군 정보 생성 방법.According to claim 5,
The depth estimation step is,
A feature point extraction step in which features that appear overlapping in the plurality of multi-view images are extracted as feature points by a feature point extraction unit;
A matching pair forming step in which a matching pair is formed by matching feature points included in the multi-view image by a matching pair forming unit, and a correspondence relationship between the multi-view images is calculated using a geometric relationship between the matching pairs; and
Further comprising a depth information generation step in which position information of the camera and depth information of the feature point are generated by a depth information generator using the geometric relationship between the matching pairs and the correspondence relationship between the multi-view images,
Method for generating high-density point cloud information.
상기 점군 생성단계는,
분할부에 의해 상기 제1 깊이 맵과 상기 제2 깊이 맵이 각각 복수의 픽셀 집합으로 나뉘는 분할단계; 및
보정부에 의해 상기 제1 깊이맵에 포함된 픽셀이, 상기 제2 깊이맵에서는 제1 깊이맵에서 구분된 픽셀 집합과 상이한 픽셀 집합으로 구분되는 경우, 해당 픽셀의 깊이값이 상기 제1 깊이맵의 추정값과 상기 제2 깊이맵의 추정값을 통해 보정되는 보정단계를 더 포함하는,
고밀도 점군 정보 생성 방법.According to claim 5,
The point cloud generation step is,
A division step of dividing the first depth map and the second depth map into a plurality of pixel sets by a division unit; and
If the pixel included in the first depth map is divided into a pixel set in the second depth map by the correction unit that is different from the pixel set divided in the first depth map, the depth value of the corresponding pixel is that of the first depth map. Further comprising a correction step of correcting through the estimated value and the estimated value of the second depth map,
Method for generating high-density point cloud information.
A computer-readable recording medium on which a program for implementing the method of any one of claims 5 to 8 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230008234A KR20240115631A (en) | 2023-01-19 | 2023-01-19 | System and method for generating high-density point cloud |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230008234A KR20240115631A (en) | 2023-01-19 | 2023-01-19 | System and method for generating high-density point cloud |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240115631A true KR20240115631A (en) | 2024-07-26 |
Family
ID=92148205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230008234A KR20240115631A (en) | 2023-01-19 | 2023-01-19 | System and method for generating high-density point cloud |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240115631A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102399955B1 (en) | 2019-12-27 | 2022-05-20 | 주식회사 맥스트 | Apparatus and method for generating point cloud |
-
2023
- 2023-01-19 KR KR1020230008234A patent/KR20240115631A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102399955B1 (en) | 2019-12-27 | 2022-05-20 | 주식회사 맥스트 | Apparatus and method for generating point cloud |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8217931B2 (en) | System and method for processing video images | |
CN105701857B (en) | Texturing of 3D modeled objects | |
JP7403528B2 (en) | Method and system for reconstructing color and depth information of a scene | |
Franco et al. | Exact polyhedral visual hulls | |
US20080259073A1 (en) | System and method for processing video images | |
US20120032948A1 (en) | System and method for processing video images for camera recreation | |
US20150178988A1 (en) | Method and a system for generating a realistic 3d reconstruction model for an object or being | |
KR101560508B1 (en) | Method and arrangement for 3-dimensional image model adaptation | |
EP2595116A1 (en) | Method for generating depth maps for converting moving 2d images to 3d | |
JP2008186456A (en) | Methodology for 3d scene reconstruction from 2d image sequences | |
KR20070009899A (en) | Apparatus and method for 3-dimensional modeling using multiple stereo cameras | |
CN104661010A (en) | Method and device for establishing three-dimensional model | |
KR102152432B1 (en) | A real contents producing system using the dynamic 3D model and the method thereof | |
da Silveira et al. | Dense 3d scene reconstruction from multiple spherical images for 3-dof+ vr applications | |
Lhuillier et al. | Manifold surface reconstruction of an environment from sparse structure-from-motion data | |
Poullis et al. | 3d reconstruction of urban areas | |
Pacheco et al. | Reconstruction of high resolution 3D objects from incomplete images and 3D information | |
Wang et al. | Disparity manipulation for stereo images and video | |
CN110148206B (en) | Multi-space fusion method | |
KR20240115631A (en) | System and method for generating high-density point cloud | |
Agrawal et al. | Image based and Point Cloud based Methods for 3D View Reconstruction in Real-time Environment | |
Patel et al. | 3D visualization of products for online shopping | |
Mordohai | On the evaluation of scene flow estimation | |
JP2009294956A (en) | Three-dimensional shape restoration method, its device, program, and recording medium | |
CN118644609A (en) | AI generation method, medium and system for XR penetration scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |