JP7392101B2 - 点群データ処理装置、点群データ処理方法及びプログラム - Google Patents
点群データ処理装置、点群データ処理方法及びプログラム Download PDFInfo
- Publication number
- JP7392101B2 JP7392101B2 JP2022501647A JP2022501647A JP7392101B2 JP 7392101 B2 JP7392101 B2 JP 7392101B2 JP 2022501647 A JP2022501647 A JP 2022501647A JP 2022501647 A JP2022501647 A JP 2022501647A JP 7392101 B2 JP7392101 B2 JP 7392101B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- cloud data
- point
- image data
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 42
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000000034 method Methods 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 8
- 238000012986 modification Methods 0.000 claims description 6
- 230000004048 modification Effects 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 5
- 239000002131 composite material Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 20
- 238000003860 storage Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Architecture (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
本発明は、点群データ処理装置、点群データ処理方法及びプログラムに関し、特に点群データを構成する各点に属性情報を付与する技術に関する。
レーザースキャナー等により、物体の表面での反射を利用し、物体の表面の三次元情報を表す多数の点(点群)で構成される点群データを取得する技術が知られている。近年、この点群データを様々な形で応用することが考えられている。
一方で、計測された点群データは、そのままでは容量が大きく、点群データを利用する場合にハンドリングの観点で問題となる。そこで、点群データをモデル化(例えばソリッドモデル、サーフェスモデル等)することで、点群データの容量を小さくすることが行われている。
ここで、点群データをモデル化する場合には、計測された物体毎に点群データを構成する各点群に属性情報を付与(グルーピング)する必要がある。例えば複数の物体を計測した場合には、その物体毎に点群に属性情報を付与する必要がある。
このように点群に属性情報を付与する場合には、例えばユーザが手動により各点を選択し、物体に対応する点群を特定し、特定した点群に対して同じ属性情報を付与することが行われている。
また、特許文献1に記載された技術では、画像データ上で対象物の領域内に含まれる1点を指定し、指定された1点に基づいて対象物の領域を決定し、決定された対象物の領域に対応する点群をグルーピングしている。
ここで、レーザースキャナーで計測する計測対象は、単純な形状の物体だけでなく、複雑に複数の物体で構成されていたり、物体同士が重なって複雑に配置されていたりする。例えば配管を計測する場合では、複数のパイプが重なるように配置されることがあり、このような場合であっても、パイプ毎に点群に属性情報を付与する必要がある。
このような計測対象の場合には、ユーザが手動により各点を選択し属性情報を付与すると、非常に時間を要する。また、ユーザが点を選択する際に、誤選択などが発生する場合もある。したがって、計測対象が複雑に複数の物体で構成されていたり、物体同士が重なって複雑に配置されていたりする場合には、ユーザが手動により各点を選択する手法では、効率的な作業を行うことができない。
また、特許文献1に記載されるように、2次元で表示された画像データにおいて対象物を指定して属性情報を付与する点群を特定する技術では、2次元的な表示の画像データにおいては重畳された対象物が他の対象物の裏に隠れていたりする場合があり、選択が正確に行われない。したがって、特許文献1に記載されたような技術では、正確に点群に属性情報の付与が行えない場合がある。
本発明はこのような事情に鑑みてなされたもので、その目的は、効率的で正確に点群に属性情報を付与するができる点群データ処理装置、点群データ処理方法及びプログラムを提供することである。
上記目的を達成するための本発明の一の態様である点群データ処理装置は、物体の表面上の多数の点の三次元情報を表す点群データと、物体を撮影した複数枚の画像データであって、少なくとも複数枚の画像データのうちいずれか1枚の画像データの画素の位置と点群データを構成する点とを関連付けて記憶するメモリ、及びプロセッサを備える点群データ処理装置であって、プロセッサは、点群データを三次元的な回転、三次元的な移動、及び拡大縮小が可能に表示部に表示させ、表示部に表示された点群データにおいて指定点の指定を受け付け、画像データにおいて、指定点に対応する領域を含む対象物体の領域を選択し、点群データにおいて、対象物体の領域に対応する点に同じ属性情報を付与する。
本態様によれば、点群データを三次元的な回転、三次元的な移動、及び拡大縮小が可能に表示部に表示し、その点群データにおいて指定点の指定を受け付ける。そして、本態様は、指定点に対応する領域を含む対象物体の領域は画像データにおいて選択され、その領域に対応する点に同じ属性情報を付与する。したがって、本態様は、効率的で正確に点群データに属性情報を付与することができる。
好ましくは、プロセッサは、画像データにおいて、対象物体の領域を機械学習が行われた認識器により選択する。
好ましくは、プロセッサは、指定点の指定を受け付けた後に、指定点に対応する領域の画像データを表示部に表示させる。
好ましくは、プロセッサは、複数枚の画像データを合成して表示部に表示する。
好ましくは、プロセッサは、表示部に表示された画像データにおいて、対象物体の領域の選択を受け付ける。
好ましくは、プロセッサは、属性情報が付与された点群データに対して、機械学習が行われた認識器により、属性情報の付与の修正を加える。
好ましくは、プロセッサは、属性情報が付与された点群データを表示部に表示し、属性情報の付与に関しての修正を受け付けて、付与された属性情報の修正を加える。
好ましくは、プロセッサは、同一の光軸を有する装置で取得された画像データ及び点群データを取得する。
本発明の他の態様である点群データ処理方法は、物体の表面上の多数の点の三次元情報を表す点群データと、物体を撮影した複数枚の画像データであって、少なくとも複数枚の画像データのうちいずれか1枚の画像データの画素の位置と点群データを構成する点とを関連付けて記憶するメモリ、及びプロセッサを備える点群データ処理装置の点群データ処理方法であって、プロセッサは、点群データを三次元的な回転、三次元的な移動、及び拡大縮小が可能に表示部に表示させるステップと、表示部に表示された点群データにおいて指定点の指定を受け付けるステップと、画像データにおいて、指定点に対応する領域を含む対象物体の領域を選択するステップと、点群データにおいて、対象物体の領域に対応する点に同じ属性情報を付与するステップと、を行う。
本発明の他の態様であるプログラムは、物体の表面上の多数の点の三次元情報を表す点群データと、物体を撮影した複数枚の画像データであって、少なくとも複数枚の画像データのうちいずれか1枚の画像データの画素の位置と点群データを構成する点とを関連付けて記憶するメモリ、及びプロセッサを備える点群データ処理装置に点群データ処理方法を実行させるプログラムであって、プロセッサに、点群データを三次元的な回転、三次元的な移動、及び拡大縮小が可能に表示部に表示させるステップと、表示部に表示された点群データにおいて指定点の指定を受け付けるステップと、画像データにおいて、指定点に対応する領域を含む対象物体の領域を選択するステップと、点群データにおいて、対象物体の領域に対応する点に同じ属性情報を付与するステップと、を行わせる。
本発明によれば、点群データを三次元的な回転、三次元的な移動、及び拡大縮小が可能に表示部に表示し、その点群データにおいて指定点の指定を受け付け、指定点に対応する領域を含む対象物体の領域は画像データにおいて選択され、その領域に対応する点に同じ属性情報を付与するので、効率的で正確に点群に属性情報を付与することができる。
以下、添付図面にしたがって本発明に係る点群データ処理装置、点群データ処理方法、及びプログラムの好ましい実施の形態について説明する。
図1は、点群データ処理装置11(図4を参照)に入力される画像データ5及び点群データ7を三次元計測器1で取得する場合の一態様を示す概念図である。
三次元計測器1は、図1に示すように計測対象である物体Aの点群データ及び物体Aを被写体とした画像データ5を取得する。なお、物体Aは物体D及び物体Eにより構成されている。
三次元計測器1に搭載されるレーザースキャナー101(図2を参照)は、レーザーパルスを出射し、レーザーパルスが計測対象である物体Aの表面で反射して戻ってくるまでの時間により距離を計測するタイムオブフライト方式のレーザースキャナーである。また、レーザースキャナー101は、レーザースキャナー101の回転中心を基準にしたレーザーパルスの出射方向の角度情報(図1では水平方向α、垂直方向βを記載している)を取得する。そして、計測した距離とレーザーパルスの出射方向の角度情報によりレーザーパルスの反射点の三次元情報を取得する。レーザースキャナー101は、レーザーパルスの出射方向の水平方向α及び垂直方向βを所定のピッチで変更することにより、多数の点の三次元情報を取得する。ここで点群データは、計測対象である物体の表面上の多数の点の三次元情報を表すデータであり、そして点群データを構成する各点はそれぞれに三次元情報(三次元座標)を有する。レーザースキャナー101は、タイムオブフライト方式によるものに限らず、位相差方式、三角法方式により点群データを取得するものでもよい。
三次元計測器1は、搭載される光軸Lを有する撮影装置102(図2を参照)により、画像データ5を取得する。撮影装置102は、CCD(Charge Coupled Device)等(図示せず)の撮像素子を含む。撮像素子は、x方向(水平方向)及びy方向(垂直方向)に二次元的に配列された光電交換素子で構成された複数の画素を有し、複数の画素の上面には、例えば、R(赤)、G(緑)及びB(青)のフィルタが二次元的にベイヤー配列されたカラーフィルタ(図示せず)が備えられている。そして撮影装置102によりカラー画像の画像データ5が取得される。なお、撮影装置102で取得される画像データは、カラー画像に限定されるものではなく、モノクロ画像でもよい。
図2は、三次元計測器1に搭載されるレーザースキャナー101及び撮影装置(カメラ)102を説明する概念図である。
図2に示す例では、ハーフミラー103を利用して、光軸Lを同一としてレーザースキャナー101及び撮影装置102が配置されている。なお、レーザースキャナー101と撮影装置102との位置関係は、既知であれば良く、特に限定されるものではない。例えば、光軸を同一とせずにレーザースキャナー101の上に撮影装置102を設置してもよい。また、三次元計測器1は、点群データ7及び画像データ5を同時に又は逐次的に取得することができる。
なお、三次元計測器1では、点群データをレーザースキャナー101で取得しているが、点群データを取得する手段はレーザースキャナー101に限定されるものではない。例えば点群データは、ToF(Time-of-Flight)カメラ又はステレオカメラを使用して取得してもよい。
図3は、画像データ5と点群データ7とが対応する位置関係を有することを説明する概念図である。図3に示した例では、複数枚の画像データ5(画像データ5A~5D)が取得される。例えば、三次元計測器1がパン方向に回転することにより、それぞれ異なる撮影方向の複数の画像データ5A~5Dが取得される。なお、以下の説明では画像データ5Aに関して説明する。
画像データ5Aは、二次元に画素Pが配列した画像データである。画素PはR、G、Bのそれぞれについての値を有する。図3では、画像データ5Aにおける座標(Px、Py)の画素Pが示されており、画素Pに対応する位置関係を有する点Qが示されている。点Qは、点群データ7を構成し、位置情報である三次元座標(x、y、z)、対応する画素PのR、G、Bの値及び反射強度(I)の情報を有する。なお、画素Pと点Qとの対応関係は、画像データ5Aと点群データ7とが対応する位置関係を有することから、取得することができる。なお、画像データ5B~5Dに関しても上述で説明したように、画素と点との対応する位置関係を有する。
次に、上述のように取得された画像データ(画像データ5A~5D)5及び点群データ7が入力される点群データ処理装置11に関して説明する。
図4は、点群データ処理装置11の機能構成例を示すブロック図である。点群データ処理装置11は、例えばコンピュータにより構成される。点群データ処理装置11は、三次元計測器1に搭載されてもよいし、三次元計測器1とは別体のコンピュータにより構成されてもよい。
点群データ処理装置11は、画像データ取得部13、点群データ取得部15、制御部17、表示制御部19及び記憶部(メモリ)21を備える。
画像データ取得部13は、物体Aを撮影して得られた複数の画像データ5A~5Dを画像データとして取得する。画像データ取得部13は、複数の画像データ5A~5Dをそれぞれ取得してもよいし、画像データ5A~5Dが合成された合成画像データを取得してもよい。
点群データ取得部15は点群データ7を取得する。画像データ5A~5Dにそれぞれ対応する点群データ7が取得される。なお、画像データ5A~5Dと同様に、画像データ5A~5Dにそれぞれ対応する点群データ7を合成して取得してもよい。
画像データ取得部13及び点群データ取得部15は、有線又は無線により取得する。なお画像データ取得部13及び点群データ取得部15で得られる画像データ5A~5Dと点群データ7とは上述した三次元計測器1で取得されており、対応する位置関係を有する。
制御部17は、コンピュータに搭載されるCPU(Central Processing Unit)(プロセッサ)(図示せず)で、記憶部21に記憶されるプログラムが実行されることにより実現される。制御部17は、指定受付部23、領域選択部25、及び属性付与部27を備える。また、表示制御部19もCPUで記憶部21に記憶されるプログラムが実行されることによりその機能が実現される。
記憶部21は、点群データ7と画像データ5A~5Dとを、画素の位置と点とを関連付けて記憶する。
図5は、点群データ処理装置11を使用して行われる点群データ処理方法を示すフローチャートである。なお、点群データ処理方法は、記憶部21に記憶されるプログラムを実行することにより行われる。
先ず、表示制御部19は、記憶部21に記憶されている点群データ7をモニタ(表示部)9に表示する(ステップS10:点群データ表示ステップ)。その後、指定受付部23は、モニタ9に表示された点群データ7における指定点の指定を受け付ける(ステップS11:指定ステップ)。次に、領域選択部25は、画像データにおいて、指定点に対応する領域を含む対象物体の領域を選択する(ステップS12:選択ステップ)。そして、属性付与部27は、画像データにおいて選択された対象物体の領域に対応する点群データ7に同じ属性情報を付与する(ステップS13:属性付与ステップ)。
以下に、各ステップに関して詳細な説明を行う。
<点群データ表示ステップ及び指定ステップ>
点群データ表示ステップ(ステップS10)は、表示制御部19により行われる。また、指定ステップ(ステップS11)は、指定受付部23により行われる。表示制御部19は、記憶部21に記憶されている点群データ7をモニタ9に表示する。
点群データ表示ステップ(ステップS10)は、表示制御部19により行われる。また、指定ステップ(ステップS11)は、指定受付部23により行われる。表示制御部19は、記憶部21に記憶されている点群データ7をモニタ9に表示する。
図6は、モニタ9に表示された点群データ7を模式的に示す図である。なお、図示された点は点群データ7の各点を模式的に示しており、物体Aの輪郭を点線(想像線)で示している。
表示制御部19は、点群データ7をモニタ9に表示させる。点群データ7を構成する各点は三次元座標を有しているので、その三次元座標に基づいて各点を図示されるXYZ座標上に表示する。モニタ9に表示された点群データ7は、三次元的な回転、三次元的な移動、及び拡大縮小が可能に表示されている。ユーザは、ポインティングデバイスを使用して、点群データ7を三次元的に回転及び移動させ、拡大縮小させることができる。このように、点群データ7が三次元的に回転、三次元的に移動、及び拡大縮小が行われることによって、ユーザは正確に指定点Fの指定を行うことができる。計測対象が複雑に複数の物体で構成されていたり、物体同士が重なって複雑に配置されたりする場合には、ユーザは、点群データ7を三次元的に回転及び移動させ、拡大縮小させることにより正確に指定点を指定することができる。ユーザは、点Fをポインティングデバイスにより指定する。指定受付部23は、点Fの座標値を受け付けて指定を受け付ける。
<選択ステップ>
選択ステップ(ステップS12)は、領域選択部25により行われる。領域選択部25は、指定点Fに対応する領域を含む対象物体の領域を画像データ5において選択する。
選択ステップ(ステップS12)は、領域選択部25により行われる。領域選択部25は、指定点Fに対応する領域を含む対象物体の領域を画像データ5において選択する。
図7は、画像データ5Aを模式的に示す図である。画像データ5Aは、点群データ7における指定点Fに対応する領域Gを有する。領域Gは、画像データ5Aの単数又は複数の画素で構成されている。上述したように、点群データ7を構成する各点と画像データ5Aの各画素とは対応する位置関係を有する。したがって、画像データ5Aにおいて、領域Gが含まれる対象物の領域を選択することにより、指定点Fを反射した物体Dの表面で反射して得られた点群を特定することができる。以下に領域Gが含まれる対象物の領域の選択に関して説明する。
先ず、手動により画像データ5Aが対象物の領域を選択する場合について説明する。図8は、モニタ9に表示された画像データ5Aを示す図である。図8では、画像データ5Aが表示される場合について説明するが、画像データ5A~5Dの合成画像が表示されてもよい。
表示制御部19は、モニタ9に画像データ5Aを表示する。表示制御部19は、画像データ5Aにおける領域Gをユーザが確認できるように表示する。例えば、表示制御部19は、領域Gの色を周辺の色とは異なる色にしたり、領域Gのみ点滅させたりして、ユーザに領域Gの位置を報知するように表示する。ユーザは、モニタ9に表示された画像データ5Aを見て、対象物の領域Rをポインティングデバイスで選択する。領域選択部25は、ユーザの領域Rの選択を受け付け、領域Rの選択を行う。なお、領域Rは物体Dの領域であり、ユーザは画像データ5Aにおいて、物体Dを確認することができるので容易に領域Rの選択を行うことができる。
なお、図8ではユーザが手動により領域Rを選択することについて説明をしたが本発明はこれに限定されるものではない。例えば、領域選択部25は、機械学習が施された認識器で構成され、この認識器で画像データ5Aをセグメンテーションすることにより、領域Rの選択を行うことができる。
認識器は、画像データ5Aに基づいて物体Dを認識し、物体Dの領域Rを選択する。認識器は、機械学習又は深層学習が施された認識器で構成され、画像データ5Aについてセグメンテーションを行うことにより、物体の領域を特定する。なお、セグメンテーションには、FCN(Full Convolutional Network)、SegNet、Pix2Pix等の既存のモデルを用いてもよいし、認識器で行われる物体Dの認識態様に合わせたモデルを個別に作成してもよい。また、認識器の学習は、深層学習を用いてもよいし、広義の意味で機械学習を用いてもよい。
<属性付与ステップ>
属性付与ステップ(ステップS13)は、属性付与部27で行われる。属性付与部27は、点群データ7において領域Rに対応する点に同じ属性情報を付与する。ここで属性情報とは、各点がどの物体の表面で反射した点であるかを示す情報であり、言い換えると各点がどの物体に対応する点であるかを示す情報である。画像データ5Aの各画素と点群データ7の各点とは対応関係にあるので、属性付与部27は画像データ5Aの領域Rに対応する点群を特定し、属性情報(D)を付与することができる。ここで、領域Rは画像データ5Aにおける物体Dに対応する領域であるので、属性情報(D)が付与された点群は物体Dの表面で反射された点群となる。
属性付与ステップ(ステップS13)は、属性付与部27で行われる。属性付与部27は、点群データ7において領域Rに対応する点に同じ属性情報を付与する。ここで属性情報とは、各点がどの物体の表面で反射した点であるかを示す情報であり、言い換えると各点がどの物体に対応する点であるかを示す情報である。画像データ5Aの各画素と点群データ7の各点とは対応関係にあるので、属性付与部27は画像データ5Aの領域Rに対応する点群を特定し、属性情報(D)を付与することができる。ここで、領域Rは画像データ5Aにおける物体Dに対応する領域であるので、属性情報(D)が付与された点群は物体Dの表面で反射された点群となる。
図9は、属性情報(D)を付与した点群データ7を説明する図である。
図9に示される点群データ7では、領域Rに対応する点群Uに同じ属性情報(D)が付与されている。属性情報(D)が付与された点は黒丸印で表示している。点群Uは、属性情報(D)が付与された点群で構成されている。
このように、物体Dに対応する点群Uに属性情報(D)を付与することにより、物体Dに対応するソリッドモデルやサーフェスモデル等を作成する際に、点群Uを簡便に使用することができる。具体的には、属性情報(D)を使用して、点群データ7から点群Uのみを抽出してソリッドモデルやサーフェスモデルを生成することができる。
以上で説明したように、本実施形態においては、点群データ7において指定点を指定し、指定点に対応する領域Gを含む領域Rが画像データ上で選択される。そして、画像データ上で選択された領域Rに対応する点群Uが点群データ7において特定され、点群Uに属性情報(D)が付与される。この属性情報(D)が付与された点群Uは、物体Dの表面で反射した点群である。これにより、本態様は、効率的で正確に点群データ7を構成する点のうち物体Dに対応する属性情報(D)を付与することができる。
<その他>
上述の説明では、点群データ7の一部の点群Uをグルーピングすることに関して説明した。しかしながら、必ずしも常に点群Uのグルーピングが上手く行われるとは限らない。例えば、上述の説明における画像データ5Aにおける領域Rの選択で、境界部分の選択が多少ずれてしまった場合などは、属性情報の付与が正確に行えない場合がある。本実施形態では、このような場合において属性情報の修正を加える。本実施形態は、制御部17に修正部(不図示)を備え、付与された属性情報に修正を加える。
上述の説明では、点群データ7の一部の点群Uをグルーピングすることに関して説明した。しかしながら、必ずしも常に点群Uのグルーピングが上手く行われるとは限らない。例えば、上述の説明における画像データ5Aにおける領域Rの選択で、境界部分の選択が多少ずれてしまった場合などは、属性情報の付与が正確に行えない場合がある。本実施形態では、このような場合において属性情報の修正を加える。本実施形態は、制御部17に修正部(不図示)を備え、付与された属性情報に修正を加える。
図10は、モニタ9に示された属性情報Wが付与された点群を示す図である。図10に示す場合では、物体Dに対応する点群Uに属性情報Wを付与する場合であるが、物体Dに対応する点群以外(点群UE)にも、属性情報Wが付与されている。
表示制御部19は、属性情報Wが付与された点群(点群U及び点群UE)をモニタ9に表示する。ユーザは表示された点群を確認し、点群UEは物体Dに対応しないと判断し、ポインティングデバイスで点群UEを選択し、点群UEに付与されている属性情報Wを修正する。修正部は、ユーザの修正を受け付けて、点群UEに付与されている属性情報Wを修正する。
図11は、モニタ9に示された属性情報Wが付与された点群を示す図である。図11に示す場合では、物体Dに対応する点群Uに属性情報Wを付与する場合であるが、属性情報Wが付与された点群に漏れの領域(領域UH)がある。
表示制御部19は、属性情報Wが付与された点群Uをモニタ9に表示させる。ユーザは、表示された領域UHを確認し、ポインティングデバイスで領域UHを埋めるように点群を追加する。これにより、修正部は、属性情報Wを有する点群を領域UHに追加する。
なお、上述した例ではユーザが手動により、付与された属性情報を修正する例について説明したが、本発明はこの例に限定されるものではない。例えば、一旦付与された属性情報に対して、機械学習が行われた認識器を使用して修正を行ってもよい。
このように、本実施形態においては、一旦付与された属性情報において修正を加えるので、より正確に点群に属性情報を付与することができる。
上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1 :三次元計測器
5 :画像データ
7 :点群データ
9 :モニタ
11 :点群データ処理装置
13 :画像データ取得部
15 :点群データ取得部
17 :制御部
19 :表示制御部
21 :記憶部
23 :指定受付部
25 :領域選択部
27 :属性付与部
101 :レーザースキャナー
102 :撮影装置
103 :ハーフミラー
5 :画像データ
7 :点群データ
9 :モニタ
11 :点群データ処理装置
13 :画像データ取得部
15 :点群データ取得部
17 :制御部
19 :表示制御部
21 :記憶部
23 :指定受付部
25 :領域選択部
27 :属性付与部
101 :レーザースキャナー
102 :撮影装置
103 :ハーフミラー
Claims (10)
- 物体の表面上の多数の点の三次元情報を表す点群データと、前記物体を撮影した複数枚の画像データであって、少なくとも前記複数枚の画像データのうちいずれか1枚の画像データの画素の位置と前記点群データを構成する点とを関連付けて記憶するメモリ、及びプロセッサを備える点群データ処理装置であって、
前記プロセッサは、
前記点群データを三次元的な回転、三次元的な移動、及び拡大縮小が可能に表示部に表示させ、
前記表示部に表示された前記点群データにおいて指定点の指定を受け付け、
前記画像データにおいて、前記指定点に対応する領域を含む対象物体の領域を選択し、 前記点群データにおいて、前記対象物体の領域に対応する前記点に同じ属性情報を付与する、
点群データ処理装置。 - 前記プロセッサは、前記画像データにおいて、前記対象物体の領域を機械学習が行われた認識器により選択する請求項1に記載の点群データ処理装置。
- 前記プロセッサは、前記指定点の指定を受け付けた後に、前記指定点に対応する領域の前記画像データを前記表示部に表示させる請求項1又は2に記載の点群データ処理装置。
- 前記プロセッサは、前記複数枚の画像データを合成して前記表示部に表示する請求項3に記載の点群データ処理装置。
- 前記プロセッサは、前記表示部に表示された前記画像データにおいて、前記対象物体の領域の選択を受け付ける請求項3又は4に記載の点群データ処理装置。
- 前記プロセッサは、前記属性情報が付与された前記点群データに対して、機械学習が行われた認識器により、前記属性情報の付与の修正を加える請求項1から5のいずれか1項に記載の点群データ処理装置。
- 前記プロセッサは、
前記属性情報が付与された前記点群データを表示部に表示し、
前記属性情報の付与に関しての修正を受け付けて、付与された前記属性情報の修正を加える請求項1から5のいずれか1項に記載の点群データ処理装置。 - 前記プロセッサは、同一の光軸を有する装置で取得された前記画像データ及び前記点群データを取得する請求項1から7のいずれか1項に記載の点群データ処理装置。
- 物体の表面上の多数の点の三次元情報を表す点群データと、前記物体を撮影した複数枚の画像データであって、少なくとも前記複数枚の画像データのうちいずれか1枚の画像データの画素の位置と前記点群データを構成する点とを関連付けて記憶するメモリ、及びプロセッサを備える点群データ処理装置の点群データ処理方法であって、
前記プロセッサは、
前記点群データを三次元的な回転、三次元的な移動、及び拡大縮小が可能に表示部に表示させるステップと、
前記表示部に表示された前記点群データにおいて指定点の指定を受け付けるステップと、
前記画像データにおいて、前記指定点に対応する領域を含む対象物体の領域を選択するステップと、
前記点群データにおいて、前記対象物体の領域に対応する前記点に同じ属性情報を付与するステップと、
を行う点群データ処理方法。 - 物体の表面上の多数の点の三次元情報を表す点群データと、前記物体を撮影した複数枚の画像データであって、少なくとも前記複数枚の画像データのうちいずれか1枚の画像データの画素の位置と前記点群データを構成する点とを関連付けて記憶するメモリ、及びプロセッサを備える点群データ処理装置に点群データ処理方法を実行させるプログラムであって、
前記プロセッサに、
前記点群データを三次元的な回転、三次元的な移動、及び拡大縮小が可能に表示部に表示させるステップと、
前記表示部に表示された前記点群データにおいて指定点の指定を受け付けるステップと、
前記画像データにおいて、前記指定点に対応する領域を含む対象物体の領域を選択するステップと、
前記点群データにおいて、前記対象物体の領域に対応する前記点に同じ属性情報を付与するステップと、
を行わせるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020025448 | 2020-02-18 | ||
JP2020025448 | 2020-02-18 | ||
PCT/JP2020/045365 WO2021166381A1 (ja) | 2020-02-18 | 2020-12-07 | 点群データ処理装置、点群データ処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021166381A1 JPWO2021166381A1 (ja) | 2021-08-26 |
JP7392101B2 true JP7392101B2 (ja) | 2023-12-05 |
Family
ID=77390649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022501647A Active JP7392101B2 (ja) | 2020-02-18 | 2020-12-07 | 点群データ処理装置、点群データ処理方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220366673A1 (ja) |
EP (1) | EP4109413B1 (ja) |
JP (1) | JP7392101B2 (ja) |
CN (1) | CN115088020A (ja) |
WO (1) | WO2021166381A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6874197B1 (ja) * | 2020-08-27 | 2021-05-19 | パシフィックコンサルタンツ株式会社 | 設備管理プログラム、設備管理方法、および設備管理システム |
JPWO2024047782A1 (ja) * | 2022-08-31 | 2024-03-07 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008099915A1 (ja) | 2007-02-16 | 2008-08-21 | Mitsubishi Electric Corporation | 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ |
JP2017130146A (ja) | 2016-01-22 | 2017-07-27 | キヤノン株式会社 | 画像管理装置、画像管理方法及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5535025B2 (ja) * | 2010-10-08 | 2014-07-02 | 三菱電機株式会社 | 屋外地物検知システム、屋外地物検知システム用プログラム、および屋外地物検知システム用プログラムの記録媒体 |
JP6906916B2 (ja) * | 2016-09-06 | 2021-07-21 | 株式会社トプコン | 画像処理装置、画像処理方法、画像処理用プログラム |
EP3716210B1 (en) * | 2017-11-20 | 2023-09-06 | Panasonic Intellectual Property Corporation of America | Three-dimensional point group data generation method, position estimation method, three-dimensional point group data generation device, and position estimation device |
CN109472852B (zh) * | 2018-10-29 | 2021-08-10 | 百度在线网络技术(北京)有限公司 | 点云图像的显示方法及装置、设备及存储介质 |
-
2020
- 2020-12-07 JP JP2022501647A patent/JP7392101B2/ja active Active
- 2020-12-07 WO PCT/JP2020/045365 patent/WO2021166381A1/ja unknown
- 2020-12-07 EP EP20919406.7A patent/EP4109413B1/en active Active
- 2020-12-07 CN CN202080096126.7A patent/CN115088020A/zh active Pending
-
2022
- 2022-07-29 US US17/816,235 patent/US20220366673A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008099915A1 (ja) | 2007-02-16 | 2008-08-21 | Mitsubishi Electric Corporation | 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ |
JP2017130146A (ja) | 2016-01-22 | 2017-07-27 | キヤノン株式会社 | 画像管理装置、画像管理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP4109413A1 (en) | 2022-12-28 |
CN115088020A (zh) | 2022-09-20 |
JPWO2021166381A1 (ja) | 2021-08-26 |
EP4109413B1 (en) | 2024-05-15 |
US20220366673A1 (en) | 2022-11-17 |
EP4109413A4 (en) | 2023-07-19 |
WO2021166381A1 (ja) | 2021-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6236118B2 (ja) | 三次元データ処理装置、三次元データ処理システム、三次元データ処理方法およびプログラム | |
JP7344289B2 (ja) | 点群データ処理装置、点群データ処理方法及びプログラム | |
JP7265639B2 (ja) | 優先点を識別して保持する点群の併合方法 | |
JP5620200B2 (ja) | 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム | |
AU2011312140C1 (en) | Rapid 3D modeling | |
US7403268B2 (en) | Method and apparatus for determining the geometric correspondence between multiple 3D rangefinder data sets | |
JP5465128B2 (ja) | 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム | |
US11290704B2 (en) | Three dimensional scanning system and framework | |
WO2021140886A1 (ja) | 三次元モデル生成方法、情報処理装置およびプログラム | |
JP2012088114A (ja) | 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム | |
Guarnieri et al. | Digital photogrammetry and laser scanning in cultural heritage survey | |
JP6541920B1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
JP2020053008A (ja) | 位置決め方法、ロボット及びコンピューター記憶媒体 | |
JP7392101B2 (ja) | 点群データ処理装置、点群データ処理方法及びプログラム | |
CN113160328A (zh) | 一种外参标定方法、系统、机器人和存储介质 | |
KR20070092006A (ko) | 3차원 영상 처리 방법 및 이를 구현할 수 있는 프로그램이수록된 기록매체 | |
WO2022078439A1 (zh) | 一种空间与物体三维信息采集匹配设备及方法 | |
US8818124B1 (en) | Methods, apparatus, and systems for super resolution of LIDAR data sets | |
JP2019045299A (ja) | 3次元情報取得装置 | |
JP6228239B2 (ja) | プリミティブの組を用いてデータをレジストレーションする方法 | |
JP2008204318A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
US20230011921A1 (en) | Point cloud data processing apparatus, point cloud data processing method, and program | |
WO2023276567A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7242431B2 (ja) | 三次元計測装置、三次元計測方法および三次元計測用プログラム | |
WO2022133569A1 (en) | Methods and system for reconstructing textured meshes from point cloud data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7392101 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |