JP2021021672A - Distance measuring device, system, method, and program - Google Patents
Distance measuring device, system, method, and program Download PDFInfo
- Publication number
- JP2021021672A JP2021021672A JP2019139433A JP2019139433A JP2021021672A JP 2021021672 A JP2021021672 A JP 2021021672A JP 2019139433 A JP2019139433 A JP 2019139433A JP 2019139433 A JP2019139433 A JP 2019139433A JP 2021021672 A JP2021021672 A JP 2021021672A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- data
- distance
- prediction model
- distance measuring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 77
- 238000012545 processing Methods 0.000 claims abstract description 36
- 238000005259 measurement Methods 0.000 claims description 178
- 230000008569 process Effects 0.000 claims description 66
- 238000010801 machine learning Methods 0.000 claims description 19
- 238000000691 measurement method Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 abstract description 67
- 238000006243 chemical reaction Methods 0.000 description 33
- 238000007781 pre-processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000000926 separation method Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000000546 chi-square test Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、距離計測装置、システム、方法、及びプログラムに関する。 The present invention relates to distance measuring devices, systems, methods, and programs.
電力会社では、架空線(電線、通信線など)を施設するときには、感電災害の防止のため、架空線と他の構造物との間の離隔距離の規定を守る必要があるので、作業員が計測現場まで出向いて、計測機器を用いて、離隔距離の計測を行っている。人手による離隔距離の計測では時間がかかり、場所(高所、足場の不安定な場所など)によっては作業に危険を伴う場合がある。また、計測精度が作業員の技量に依存するという問題もある。そこで、誰でも簡単・安全に計測できる計測方法として、ステレオ画像を用いて距離を計測する距離計測方法がある(例えば、特許文献1、2参照)。
When installing overhead lines (electric wires, communication lines, etc.) in electric power companies, it is necessary for workers to comply with the regulation of the separation distance between overhead lines and other structures in order to prevent electric shock accidents. I go to the measurement site and measure the separation distance using a measuring device. It takes time to measure the separation distance manually, and the work may be dangerous depending on the location (high place, unstable scaffolding, etc.). There is also a problem that the measurement accuracy depends on the skill of the worker. Therefore, as a measurement method that anyone can easily and safely measure, there is a distance measurement method that measures a distance using a stereo image (see, for example,
以下の分析は、本願発明者により与えられる。 The following analysis is provided by the inventor of the present application.
しかしながら、特許文献1、2のようにステレオ画像を用いた距離計測方法では、ステレオ画像の精度は、撮影環境や撮影機器の性能に依存する。特に、精度が良くないステレオ画像から計測対象物を検知して計測するには作業員の技量に依存することから、作業の容易化が難しい。
However, in the distance measurement method using a stereo image as in
計測対象物を検知(認識)する方法として、計測点群の対象物体について形状の分類を行った上で、計測点群と、分類された形状と同一形状のモデル点群とのマッチング処理を行うことによって計測点群から対象物体に相当する点群を自動で抽出する方法があるが(例えば、特許文献3参照)、計測点群の中に地面や壁面のように同じ形状の対象物体が複数種類存在すると分類する際に誤分類が生じやすいので、誤検知が起こりやすくなる可能性がある。 As a method of detecting (recognizing) an object to be measured, after classifying the shape of the target object of the measurement point group, matching processing is performed between the measurement point group and the model point group having the same shape as the classified shape. There is a method of automatically extracting the point cloud corresponding to the target object from the measurement point group (see, for example, Patent Document 3), but there are a plurality of target objects having the same shape such as the ground and the wall surface in the measurement point group. If there is a type, misclassification is likely to occur when classifying, so there is a possibility that false detection is likely to occur.
本発明の主な課題は、作業員の技量に依存することなく、誤検知を抑えつつ、作業を容易化することに貢献することができる距離計測装置、システム、方法、及びプログラムを提供することである。 A main object of the present invention is to provide a distance measuring device, a system, a method, and a program that can contribute to facilitating work while suppressing false positives without depending on the skill of the worker. Is.
第1の視点に係る距離計測装置は、点群で描画された撮影データの中から平面部分を除去する処理と、平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、を行う。 The distance measuring device according to the first viewpoint is clustered with a process of removing a flat portion from the captured data drawn by the point cloud and a process of clustering the captured data from which the flat portion has been removed. The process of detecting the measurement target is performed by matching with the prediction model created in advance by using the photographed data.
第2の視点に係る距離計測システムは、計測対象物を撮影し、点群で描画された撮影データを生成するセンサ装置と、前記第1の始点に係る距離計測装置と、を備える。 The distance measuring system according to the second viewpoint includes a sensor device that photographs an object to be measured and generates imaging data drawn by a point cloud, and a distance measuring device related to the first starting point.
第3の視点に係る距離計測方法は、点群で描画された撮影データの中から平面部分を除去するステップと、平面部分が除去された前記撮影データに対してクラスタリングを行うステップと、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知するステップと、を含む。 The distance measurement method according to the third viewpoint is clustered with a step of removing a flat portion from the shooting data drawn by the point cloud and a step of clustering the shooting data from which the flat portion has been removed. This includes a step of detecting an object to be measured by matching with a prediction model created in advance using the photographed data.
第4の視点に係るプログラムは、点群で描画された撮影データの中から平面部分を除去する処理と、平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、をハードウェア資源に実行させる。 The program related to the fourth viewpoint includes a process of removing a plane portion from the photographed data drawn by a point cloud, a process of clustering the photographed data from which the plane portion has been removed, and the clustered state. By matching with the prediction model created in advance using the shooting data, the hardware resource is made to execute the process of detecting the measurement target.
なお、プログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。また、本開示では、コンピュータプログラム製品として具現することも可能である。プログラムは、コンピュータ装置に入力装置又は外部から通信インタフェイスを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させ、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インタフェイスを介して、外部と交信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備える。 The program can be recorded on a computer-readable storage medium. The storage medium may be a non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, or an optical recording medium. Further, in the present disclosure, it is also possible to embody it as a computer program product. The program is input to a computer device via an input device or an external communication interface, stored in a storage device, drives a processor according to a predetermined step or process, and steps the processing result including an intermediate state as necessary. Each can be displayed via a display device, or can communicate with the outside via a communication interface. Computer devices for this purpose, for example, typically include a processor, a storage device, an input device, a communication interface, and, if necessary, a display device that can be connected to each other by a bus.
前記第1〜4の視点によれば、作業員の技量に依存することなく、誤検知を抑えつつ、作業を容易化することに貢献することができる。 According to the first to fourth viewpoints, it is possible to contribute to facilitating the work while suppressing erroneous detection without depending on the skill of the worker.
以下に説明する本開示では、モード1に係る距離計測装置及びその変形モードを適宜選択して組み合わせることができる。
In the present disclosure described below, the distance measuring device according to the
前記モード1に係る距離計測装置として、点群で描画された撮影データの中から平面部分を除去する処理と、平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、を行う、距離計測装置が可能である。
As the distance measuring device according to the
前記モード1に係る距離計測装置の変形モードとして、前記予測モデルの基礎となる3D画像データを小データ化する処理と、小データ化された前記3D画像データに基づいて機械学習を行う処理と、機械学習した内容に基づいて前記予測モデルを作成する処理と、
を行い、前記計測対象物を検知する処理では、クラスタリングされた前記撮影データにおける各クラスタを小データ化し、小データ化された前記各クラスタに対して、前記予測モデルを作成する処理で作成された前記予測モデルとマッチングすることによって、前記計測対象物を検知することができる。
As the deformation mode of the distance measuring device according to the
In the process of detecting the measurement object, each cluster in the clustered shooting data is reduced to small data, and the prediction model is created for each of the small data clusters. By matching with the prediction model, the measurement target can be detected.
前記モード1に係る距離計測装置の変形モードとして、前記3D画像データを小データ化する処理の前に、前記3D画像データのフォーマットを、前記距離計測装置で使用できる共通フォーマットに変換する処理を行い、前記平面部分を除去する処理の前に、前記撮影データのフォーマットを、前記共通フォーマットに変換する処理を行うことができる。
As a modification mode of the distance measuring device according to the
前記モード1に係る距離計測装置の変形モードとして、前記撮影データのフォーマットを前記共通フォーマットに変換する処理の後であって前記平面部分を除去する処理の前に、前記撮影データにおける点群の中からノイズを除去する処理を行うことができる。
As a modification mode of the distance measuring device according to the
前記モード1に係る距離計測装置の変形モードとして、前記計測対象物を検知する処理の後に、前記撮影データにおける前記計測対象物上の位置に指定された始点と、前記撮影データにおける前記計測対象物上の前記始点と異なる位置に指定された終点と、の間の線分の距離を算出する処理を行うことができる。
As a modification mode of the distance measuring device according to the
前記モード1に係る距離計測装置の変形モードとして、前記距離を算出する処理では、前記線分の距離の算出を複数回行い、それらの平均値を最終的な距離とすることができる。
As a modification mode of the distance measuring device according to the
前記モード1に係る距離計測装置の変形モードとして、前記予測モデルは、前記計測対象物の反射強度を含むことができる。
As a deformation mode of the distance measuring device according to the
本開示では、モード2に係る距離計測システムとして、計測対象物を撮影し、点群で描画された撮影データを生成するセンサ装置と、前記モード1に係る距離計測装置と、を備える、距離計測システムが可能である。
In the present disclosure, as the distance measurement system according to the
本開示では、モード3に係る距離計測方法として、点群で描画された撮影データの中から平面部分を除去するステップと、平面部分が除去された前記撮影データに対してクラスタリングを行うステップと、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知するステップと、を含む、距離計測方法が可能である。 In the present disclosure, as the distance measurement method according to the mode 3, a step of removing a flat portion from the shooting data drawn by the point cloud, a step of clustering the shooting data from which the flat portion has been removed, and a step of performing clustering. A distance measurement method including a step of detecting an object to be measured by matching with a prediction model created in advance by using the clustered shooting data is possible.
本開示では、モード4に係るプログラムとして、点群で描画された撮影データの中から平面部分を除去する処理と、平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、をハードウェア資源に実行させる、プログラムが可能である。 In the present disclosure, as a program related to mode 4, a process of removing a flat portion from the shooting data drawn by a point cloud and a process of clustering the shooting data from which the flat portion has been removed are clustered. By matching with a prediction model created in advance by using the above-mentioned photographed data, it is possible to make a program that causes a hardware resource to execute a process of detecting an object to be measured.
以下、実施形態について図面を参照しつつ説明する。なお、本出願において図面参照符号を付している場合は、それらは、専ら理解を助けるためのものであり、図示の態様に限定することを意図するものではない。また、下記の実施形態は、あくまで例示であり、本発明を限定するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インタフェイスも同様である。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備え、コンピュータ装置は、通信インタフェイスを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、交信可能に構成される。 Hereinafter, embodiments will be described with reference to the drawings. In addition, when the drawing reference reference numerals are attached in this application, they are for the purpose of assisting understanding only, and are not intended to be limited to the illustrated embodiment. Further, the following embodiments are merely examples, and do not limit the present invention. Further, the connecting line between blocks such as drawings referred to in the following description includes both bidirectional and unidirectional. The one-way arrow schematically shows the flow of the main signal (data), and does not exclude interactivity. Further, in the circuit diagram, block diagram, internal configuration diagram, connection diagram, etc. shown in the disclosure of the present application, although not explicitly stated, an input port and an output port exist at the input end and the output end of each connection line, respectively. The same applies to the input / output interface. The program is executed via a computer device, which comprises, for example, a processor, a storage device, an input device, a communication interface, and a display device as required, and the computer device is in the device or through the communication interface. It is configured to be able to communicate with external devices (including computers) regardless of whether it is wired or wireless.
[実施形態1]
実施形態1に係る距離計測システムについて図面を用いて説明する。図1は、実施形態1に係る距離計測システムの構成を模式的に示したブロック図である。図2は、実施形態1に係る距離計測システムの使用態様の一例を模式的に示したイメージ図である。図3は、実施形態1に係る距離計測システムにおける距離計測装置の予測モデル作成部の構成を模式的に示したブロック図である。図4は、実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の構成を模式的に示したブロック図である。
[Embodiment 1]
The distance measurement system according to the first embodiment will be described with reference to the drawings. FIG. 1 is a block diagram schematically showing the configuration of the distance measurement system according to the first embodiment. FIG. 2 is an image diagram schematically showing an example of the usage mode of the distance measurement system according to the first embodiment. FIG. 3 is a block diagram schematically showing the configuration of the prediction model creation unit of the distance measuring device in the distance measuring system according to the first embodiment. FIG. 4 is a block diagram schematically showing the configuration of the distance measuring unit of the distance measuring device in the distance measuring system according to the first embodiment.
距離計測システム1は、撮影されたデータにおいて指定された2点間の距離を計測するシステムである(図1、図2参照)。距離計測システム1は、距離計測装置100の3D(three dimensions)画像作成部200を用いて、ユーザが3D画像データを作成することが可能な機能を有する。また、距離計測システム1は、距離計測装置100の予測モデル作成部300を用いて、3D画像作成部200で作成された3D画像データに基づいて予測モデル40を作成することが可能な機能を有する。また、距離計測システム1は、距離計測装置100の距離計測部400を用いて、予測モデル作成部300で作成された予測モデル40に基づいて、センサ装置500で撮影されたデータにおける計測対象物10を自動的に検知することが可能な機能を有する。距離計測システム1は、距離計測装置100の距離計測部400を用いて、センサ装置500で撮影された撮影データにおける、ユーザによって指定された計測対象物10に係る2点間の距離を計測することが可能な機能を有する。距離計測システム1は、センサ装置500と、距離計測装置100と、を有する。
The
センサ装置500は、計測対象物10の表面をセンシングして撮影する装置である(図1、図2参照)。センサ装置500は、計測対象物10を撮影することによって所定のフォーマットの撮影データ(図4の50)を生成し、生成された撮影データ50を距離計測装置100に向けて出力する。センサ装置500は、例えば、ToF(Time of Flight)カメラ、ステレオカメラ、3D−LIDAR(Laser Imaging Detection And Ranging)、デプスセンサ、測距センサ、距離カメラなどの3次元センサを用いることができる。センサ装置500は、作業員によって操作することができる。ここで、撮影データ50は、センサ装置500によって所定のフォーマットで生成されたデータであり、点群(多数の点の3次元座標)で描画された点群データである。センサ装置500は、顧客の要望に応じて様々な出力形式のセンサ装置に変更することが可能である。
The
距離計測装置100は、撮影データ(図4の50)において指定された2点間(例えば、図8の始点Aと終点Bとの間)の距離を計測する装置である(図1、図2参照)。距離計測装置100には、コンピュータを構成する機能部(例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び表示装置)を有する装置(コンピュータ装置)を用いることができ、例えば、ノート型パーソナルコンピュータ、タブレット端末などを用いることができる。距離計測装置100は、所定のプログラムを実行することによって、3D画像作成部200と、予測モデル作成部300と、距離計測部400と、を実現する。
The
3D画像作成部200は、予測モデル40の基礎となる3D画像データ(図3の20)を作成する機能部である(図1参照)。3D画像データ20は、3D画像作成部200を用いて、ユーザによって作成された3D画像(計測対象物10の3D画像)に係るデータである。3D画像データ20として、例えば、ポリゴン(多角形)のような立体的なデータとすることができる。3D画像作成部200は、3D画像データ20を所定のフォーマットで作成する。3D画像作成部200は、作成された3D画像データ20を予測モデル作成部300に向けて出力する。
The 3D
予測モデル作成部300は、計測対象物10のパターンを予測するための予測モデル40を自動的に作成する機能部である(図1、図3参照)。予測モデル作成部300は、前処理部310と、機械学習エンジン部320と、を有する(図3参照)。
The prediction
前処理部310は、予測モデル作成部300からの3D画像データ20に対して所定の前処理(フォーマット変換、小データ化)を行う機能部である(図3参照)。前処理部310は、フォーマット変換部311と、小データ化部312と、を有する。
The
フォーマット変換部311は、3D画像データ20のフォーマットを、距離計測装置100において共通に使える共通フォーマットに変換する機能部である(図3参照)。フォーマット変換部311は、変換された共通フォーマットの3D画像データ20を、小データ化部312に向けて出力する。なお、予測モデル作成部300からの3D画像データ20のフォーマットが共通フォーマットの場合は、フォーマット変換部311を省略することができる。
The
小データ化部312は、フォーマット変換部311からの共通フォーマットの3D画像データ20のデータサイズを縮小させる(小データ化する)機能である(図3参照)。小データ化の方法(データの縮小方法)として、例えば、選択された形状を小さな立方体で構成される「ボクセル」に加工するボクセル化、デジタル化することが挙げられる。3D画像データ20を小データ化することにより、3D画像データ20をそのまま機械学習するよりもデータサイズを抑えることができ、予測モデル40の作成を容易化することができる。小データ化部312は、共通フォーマットの3D画像データ20を小データ化した小データ30を生成し、生成された小データ30を機械学習エンジン部320に向けて出力する。
The small
機械学習エンジン部320は、前処理部310の小データ化部312からの小データ30に基づいて予測モデル40を作成する機能部である(図3参照)。機械学習エンジン部320は、教師ラベル付与部321と、学習部322と、を有する。
The machine
教師ラベル付与部321は、前処理部310の小データ化部312からの小データ30に対して、学習部322で機械学習させるデータであることを判断できるようにするための教師ラベルを付与する機能部である(図3参照)。教師ラベル付与部321は、教師ラベルが付与された小データ30を学習部322に向けて出力する。
The teacher
学習部322は、教師ラベルが付与された小データ30に基づいて、計測対象物10のパターンの機械学習を行い、機械学習した内容に基づいて計測対象物10のパターン(少なくとも外形)を予測するための予測モデル40を作成(生成)する機能部である(図3参照)。計測対象物10のパターンとして3D画像データ20の外形を機械学習した予測モデル40を用いて特定の外形の計測対象物10を検知することができるだけでなく、計測対象物10のパターンとして3D画像データ20の反射強度を機械学習した予測モデル40を用いて特定の材質の計測対象物10を検知できるようにすることもできる。また、計測対象物10として特定の電力会社の電柱のみを機械学習することにより特定の電力会社の電柱のみを検知できるようにしてもよい。学習部322は、作成された予測モデル40を距離計測部400に向けて出力する。
The
距離計測部400は、撮影データ50において指定された2点間(例えば、図8の始点Aと終点Bとの間)の距離を計測する装置である(図1、図4参照)。距離計測部400は、AI(Artificial Intelligence)機能によって撮影データ50の中から計測対象物10を自動的に検知する機能を有する。距離計測部400は、前処理部410と、モデル検知部420と、検知結果出力部430と、ユーザインタフェイス部440と、距離計測部450と、計測結果出力部460と、を有する(図4参照)。
The
前処理部410は、センサ装置(図1の500)からの撮影データ50に対して所定の前処理(フォーマット変換、ノイズ除去、平面除去、クラスタリング、小データ化)を行う機能部である(図4参照)。前処理部410は、フォーマット変換部411と、ノイズ除去部412と、平面除去部413と、クラスタリング部414と、小データ化部415と、を有する。
The
フォーマット変換部411は、様々な出力形式のフォーマットの撮影データ50を、距離計測装置100において共通に使える共通フォーマットの撮影データ50に変換する機能部である(図4参照)。フォーマット変換部411は、共通フォーマットの撮影データ50を、ノイズ除去部412に向けて出力する。
The
ノイズ除去部412は、フォーマット変換部411からの撮影データ50における点群の中からノイズ(距離計測に不要な点群)を除去する機能部である(図4参照)。ノイズ除去部412は、ノイズが除去された撮影データ50を表示部441に向けて出力する。ノイズ除去方法として、例えば、平滑化処理、フィルタリング(例えば、移動平均フィルタ処理、メディアンフィルタ処理など)、外れ値除去処理(例えば、カイの二乗検定による外れ値除去処理)などが挙げられる。
The
平面除去部413は、ノイズ除去部412からの撮影データ50の中から平面部分(例えば、平坦な壁面、路面など)を除去(平面除去)する機能部である(図4参照)。平面部分を除去することで、地面や壁面のように平坦な同じ形状の物体が除去されて、正しくクラスタリングを行えるようになり、誤分類を抑えることができる。平面除去部413は、平面除去された撮影データ50をクラスタリング部414に向けて出力する。
The flat
クラスタリング部414は、平面除去部413からの撮影データ50に対してクラスタリング(複数のクラスタに分割ないし分類;例えば、k平均法など)を行う機能部である(図4参照)。撮影データ50のクラスタリングは、検知処理部421での予測モデル40とのマッチングのために行われる。クラスタリング部414は、クラスタリングされた撮影データ50を小データ化部415に向けて出力する。
The clustering unit 414 is a functional unit that performs clustering (division or classification into a plurality of clusters; for example, the k-means method) on the captured data 50 from the plane removing unit 413 (see FIG. 4). Clustering of the shooting data 50 is performed for matching with the
小データ化部415は、クラスタリング部414からの撮影データ50の各クラスタ(点群データ)のデータサイズを縮小させる(小データ化する)機能である(図4参照)。小データ化の方法(データの縮小方法)として、例えば、クラスタリングされた撮影データ50の各クラスタに対して、選択された形状を小さな立方体で構成される「ボクセル」に加工するボクセル化、デジタル化することが挙げられる。小データ化部415での撮影データ50の小データ化は、小データ化された予測モデル40に合わせるために行っている。小データ化部415は、クラスタリングされた撮影データ50における各クラスタの点群データを小データ化した小データ60を生成し、生成された小データ60をモデル検知部420の検知処理部421に向けて出力する。
The
モデル検知部420は、予測モデル40を用いて、前処理部410の小データ化部415からの小データ60の中から計測対象物10を検知する機能部である(図4参照)。モデル検知部420は、検知処理部421と、予測モデル記憶部422と、を有する。
The
検知処理部421は、予測モデル記憶部422に記憶された予測モデル40を用いて、前処理部410の小データ化部415からの小データ60における各クラスタに対して、予測モデル40とマッチングすることによって、計測対象物10を検知する機能部である(図4参照)。検知処理部421は、計測対象物10を検知することによって検知データを生成し、生成された検知データを検知結果出力部430の検知結果生成部431に向けて出力する。検知データは、検知結果生成部431で検知結果を生成するのに必要な基礎データであり、例えば、マッチングした予測モデル40、その位置データなどを含む。なお、検知処理部421は、小データ60における各クラスタに対して、予測モデル40とマッチングする際、計測対象物10を検知している間は正常と判断し、計測対象物10を検知できなくなった時に異常と判断するようにしてもよい。
The detection processing unit 421 uses the
予測モデル記憶部422は、学習部322からの予測モデル40を記憶する機能部である(図4参照)。予測モデル記憶部422は、記憶された予測モデル40を検知処理部421に向けて出力することができる。
The prediction
検知結果出力部430は、モデル検知部420の検知処理部421の検知結果を出力する機能部である(図4参照)。検知結果出力部430は、検知結果生成部431を有する。
The detection
検知結果生成部431は、モデル検知部420の検知処理部421からの検知データに基づいて検知結果を生成する機能部である(図4参照)。検知結果は、例えば、撮影データ50における計測対象物10の検知箇所を色付きの枠で示す等によりユーザにわかりやすいものにすることができる。検知結果生成部431は、生成された検知結果を、ユーザインタフェイス部440に向けて出力する。
The detection
ユーザインタフェイス部440は、ユーザと距離計測装置100の距離計測部400との間の情報のやりとりを行う機能部である(図4参照)。ユーザインタフェイス部440は、表示部441と、操作部442と、を有する。
The
表示部441は、情報(データ、画像などを含む)を表示する機能部である(図4参照)。表示部441は、センサ装置500で撮影データ50を表示する。表示部441は、検知結果生成部431からの検知結果(例えば、色付きの枠)を表示する。表示部441は、計測結果生成部461からの計測結果を表示する。表示部441は、表示されている情報を操作部442に向けて出力することができる。
The
操作部442は、ユーザの操作を受ける機能部である(図4参照)。ユーザは、操作部442を操作(例えば、マウスのクリック操作、タッチパネルのタップ操作など)することにより、表示部441に表示されている撮影データ50に対して計測対象物(例えば、図8の10)の始点(例えば、図8の始点A)、及び、終点(例えば、図8の終点B)を指定する。この場合、操作部442は、ユーザによって指定された始点Aの座標に係るデータを始点記憶部451に向けて出力し、ユーザによって指定された終点Bの座標に係るデータを終点記憶部452に向けて出力する。なお、先に始点Aを指定して後に終点Bを指定するだけでなく、先に終点Bを指定して後に始点Aを指定するようにしてもよい。
The
距離計測部450は、指定された始点A及び終点Bに基づいて2点間(線分AB間)の距離を計測する機能部である(図4参照)。距離計測部450は、始点記憶部451と、終点記憶部452と、距離算出部453と、を有する。
The
始点記憶部451は、ユーザの操作部442の操作により撮影データ50の点群の中からユーザが指定した始点Aの座標に係るデータを記憶する機能部である(図4参照)。始点記憶部451は、記憶された始点Aの座標に係るデータを距離算出部453に向けて出力することができる。
The start
終点記憶部452は、ユーザの操作部442の操作により撮影データ50の点群の中からユーザが指定した終点Bの座標に係るデータを記憶する機能部である(図4参照)。終点記憶部452は、記憶された終点Bの座標に係るデータを距離算出部453に向けて出力することができる。
The end
距離算出部453は、指定された始点A及び終点Bに基づいて2点間(線分AB間)の距離を算出する機能部である(図4参照)。距離算出部453は、始点記憶部451及び終点記憶部452に記憶された始点A及び終点Bの各座標に係るデータに基づいて、始点Aと終点Bとの間(2点間)の距離を算出する。距離算出部453は、算出された距離に係るデータ、及び、始点A及び終点Bの各座標に係るデータ、を計測結果生成部461に向けて出力する。距離算出部453は、距離の算出を1回だけでなく、複数回行い、それらの平均値を最終的な距離に係るデータとして出力するようにしてもよい。これにより、計測精度を向上させることができる。
The
計測結果出力部460は、距離算出部453で算出された距離を含む計測結果を出力する機能部である(図4参照)。計測結果出力部460は、計測結果生成部461と、計測結果記憶部462と、を有する。
The measurement
計測結果生成部461は、距離算出部453で算出された距離を含む計測結果70を生成する機能部である(図4参照)。計測結果70には、距離算出部453で算出された距離の他、始点A及び終点Bの各座標に係るデータを含めることができる。計測結果生成部461は、生成された計測結果70を表示部441及び計測結果記憶部462に向けて出力する。
The measurement result generation unit 461 is a functional unit that generates the measurement result 70 including the distance calculated by the distance calculation unit 453 (see FIG. 4). In addition to the distance calculated by the
計測結果記憶部462は、計測結果70を記憶する機能部である(図4参照)。計測結果記憶部462は、計測結果生成部461で生成された計測結果70を記憶する。計測結果記憶部462は、計測結果生成部461で生成された計測結果の他、例えば、表示部441で表示された計測結果の画面をユーザの操作部442の操作によってキャプチャした画像データを、計測結果として記憶してもよい。計測結果記憶部462は、記憶された計測結果70を外部に向けて出力することができる。
The measurement
実施形態1に係る距離計測システムにおける距離計測装置の動作について図面を用いて説明する。図5は、実施形態1に係る距離計測システムにおける距離計測装置の予測モデル作成部の動作を模式的に示したフローチャート図である。図6は、実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の計測対象物の検知動作を模式的に示したフローチャート図である。図7は、実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の計測対象物の距離計測動作を模式的に示したフローチャート図である。図8は、実施形態1に係る距離計測システムにおける距離計測装置の計測対象物の検知及び距離計測を模式的に示したイメージ図である。なお、距離計測システムの構成部については、図1〜図4を参照されたい。 The operation of the distance measuring device in the distance measuring system according to the first embodiment will be described with reference to the drawings. FIG. 5 is a flowchart illustrating the operation of the prediction model creation unit of the distance measuring device in the distance measuring system according to the first embodiment. FIG. 6 is a flowchart schematically showing a detection operation of a measurement object of the distance measurement unit of the distance measurement device in the distance measurement system according to the first embodiment. FIG. 7 is a flowchart schematically showing a distance measurement operation of a measurement object of the distance measurement unit of the distance measurement device in the distance measurement system according to the first embodiment. FIG. 8 is an image diagram schematically showing the detection and distance measurement of the measurement object of the distance measurement device in the distance measurement system according to the first embodiment. Please refer to FIGS. 1 to 4 for the components of the distance measurement system.
最初に、実施形態1に係る距離計測システムにおける距離計測装置の予測モデル作成部の動作について説明する。 First, the operation of the prediction model creation unit of the distance measuring device in the distance measuring system according to the first embodiment will be described.
図5を参照すると、まず、距離計測装置100の予測モデル作成部300の前処理部310のフォーマット変換部311は、3D画像作成部200で作成された予測モデル用の3D画像データ20を取得する(ステップA1)。
Referring to FIG. 5, first, the
次に、フォーマット変換部311は、3D画像作成部200から取得した3D画像データ20のフォーマットを共通フォーマットに変換する(ステップA2)。
Next, the
次に、前処理部310の小データ化部312は、フォーマット変換部311でフォーマット変換された共通フォーマットの3D画像データ20を小データ化する(ステップA3)。
Next, the
次に、予測モデル作成部300の機械学習エンジン部320の教師ラベル付与部321は、小データ化部312で小データ化された3D画像データ20に対して教師ラベルを付与する(ステップA4)。
Next, the teacher
次に、機械学習エンジン部320の学習部322は、機械学習エンジン部320で教師ラベルが付与された小データ30に基づいて、計測対象物10のパターンの機械学習を行う(ステップA5)。
Next, the
最後に、学習部322は、機械学習した内容に基づいて予測モデル40を作成(生成)し、作成された予測モデル40を距離計測装置100の距離計測部400のモデル検知部420の予測モデル記憶部422に記憶させ(ステップA6)、その後、終了する。
Finally, the
実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の計測対象物の検知動作について説明する。 The detection operation of the measurement object of the distance measurement unit of the distance measurement device in the distance measurement system according to the first embodiment will be described.
図6を参照すると、まず、ユーザが距離計測装置100の距離計測部400のユーザインタフェイス部440の操作部442を操作(例えば、図8のスタートボタン90の押下)することにより、距離計測部400の検知動作を開始させ、その後、距離計測装置100の距離計測部400の前処理部410のフォーマット変換部411は、センサ装置500で撮影された撮影データ50を取得する(ステップB1)。
Referring to FIG. 6, first, the user operates the
次に、フォーマット変換部411は、センサ装置500から取得した撮影データ50のフォーマットを、共通フォーマットに変換する(ステップB2)。
Next, the
次に、前処理部410のノイズ除去部412は、フォーマット変換部411でフォーマット変換された共通フォーマットの撮影データ50における点群の中からノイズを除去する(ステップB3)。
Next, the
次に、前処理部410の平面除去部413は、ノイズ除去部412でノイズ除去された撮影データ50の中から平面部分を除去する(ステップB4)。
Next, the flat
次に、前処理部410のクラスタリング部414は、平面除去部413で平面除去された撮影データ50に対してクラスタリングを行う(ステップB5)。
Next, the clustering unit 414 of the
次に、前処理部410の小データ化部415は、クラスタリング部414でクラスタリングされた撮影データ50を小データ化した小データ60を生成する(ステップB6)。
Next, the
次に、距離計測部400のモデル検知部420の検知処理部421は、予測モデル記憶部422に記憶された予測モデル40を用いて、小データ化部415で生成された小データ60における各クラスタに対して、予測モデル40とマッチングすることによって、計測対象物10を検知し、検知データを生成する(ステップB7)。
Next, the detection processing unit 421 of the
次に、距離計測部400の検知結果出力部430の検知結果生成部431は、検知処理部421で生成された検知データに基づいて検知結果(例えば、図8の検知箇所を色付きの枠で表した検知結果80)を生成する(ステップB8)。
Next, the detection
最後に、距離計測部400のユーザインタフェイス部440の表示部441は、検知結果生成部431で生成された検知結果を表示し(ステップB9)、その後、終了する。
Finally, the
実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の計測対象物の距離計測動作について説明する。 The distance measurement operation of the object to be measured by the distance measurement unit of the distance measurement device in the distance measurement system according to the first embodiment will be described.
図7を参照すると、まず、距離計測装置100の距離計測部400のユーザインタフェイス部440は、表示部441に表示されている撮影データ50に対して、ユーザの操作部442の操作により指定された、計測対象物(例えば、図8の10)の始点(例えば、図8の始点A)の座標に係るデータを取得し、取得した始点Aの座標に係るデータを始点記憶部451に記憶させる(ステップC1)。
Referring to FIG. 7, first, the
次に、ユーザインタフェイス部440は、表示部441に表示されている撮影データ50に対して、ユーザの操作部442の操作により指定された、計測対象物(例えば、図8の10)の終点(例えば、図8の終点B)の座標に係るデータを取得し、取得した終点Bの座標に係るデータを終点記憶部452に記憶させる(ステップC2)。
Next, the
次に、距離計測部400の距離計測部450の距離算出部453は、始点記憶部451及び終点記憶部452に記憶された始点A及び終点Bの各座標に係るデータに基づいて、始点Aと終点Bとの間(2点間:例えば、図8の線分AB)の距離を算出する(ステップC3)。
Next, the
ここで、ステップC3の距離の算出では、例えば、図8のように、始点Aの座標を(Ax、Ay、Az)、終点Bの座標を(Bx、By、Bz)としたとき、線分ABの長さRは以下の数式1で算出することができる。
Here, in the calculation of distance in step C3, for example, as shown in FIG. 8, the coordinates of the starting point A (A x, A y, A z), the coordinates of the end point B (B x, B y, B z) Then, the length R of the line segment AB can be calculated by the following
[数式1]
[Formula 1]
次に、距離計測部400の計測結果出力部460の計測結果生成部461は、距離算出部453で算出された距離を含む計測結果70を生成し、生成された計測結果70を計測結果記憶部462に記憶させる(ステップC4)。
Next, the measurement result generation unit 461 of the measurement
最後に、距離計測部400のユーザインタフェイス部440の表示部441は、計測結果生成部461で生成された計測結果70を表示し(ステップC5)、その後、終了する。
Finally, the
以上のような実施形態1に係る距離計測システム1は、電力業界における離隔距離の計測、建設業界における建設現場や資材の計測、林業分野における樹木の距離計測、物流業界における配送物の寸法の計測、スマートファクトリ分野における工場内の空き空間の距離計測等に利用することができる。
The
実施形態1によれば、平面除去部413により撮影データ50の中から平面部分を除去しているので、撮影データ50における地面や壁面のように平坦な同じ形状の物体が除去されて、正しくクラスタリングを行えるようになり、誤分類が抑えられ、検知精度を向上させることができる。
According to the first embodiment, since the flat surface portion is removed from the captured data 50 by the flat
また、実施形態1によれば、撮影データ50(点群データ)の中から計測対象物10を自動的に検知することができる。これにより、点群データに馴染みのない作業員でも容易に計測対象物10を特定することができる。
Further, according to the first embodiment, the
実施形態1によれば、検知された計測対象物10に対して始点及び終点を指定するだけで始点と終点との間の距離を容易に測定することができる。これにより、点群データに馴染みのない作業員でも容易に距離の計測を行うことができる。
According to the first embodiment, the distance between the start point and the end point can be easily measured only by designating the start point and the end point for the detected
また、実施形態1によれば、目的に応じて計測対象物10を機械学習して検知することができる。これにより、1つのソリューションに特化することなく、汎用的にソリューションを適用することができる。
Further, according to the first embodiment, the
また、実施形態1によれば、予測モデル作成部300によって3D画像データ20の予測モデル40を自動的に作成することができるので、様々な離隔距離の計測対象物及びその形状の予測モデル40を容易に準備することができる。これにより、ユーザの準備作業を軽減することができる。
Further, according to the first embodiment, since the
さらに、実施形態1によれば、機械学習にあたり、小データ化部312によって3D画像データ20を小データ化して機械学習しているので、3D画像データ20をそのまま機械学習するよりもデータサイズを抑えることができ、予測モデル40の作成を容易化することができる。
Further, according to the first embodiment, in machine learning, the
[実施形態2]
実施形態2に係る距離計測システムについて図面を用いて説明する。図9は、実施形態2に係る距離計測システムの構成を模式的に示したブロック図である。
[Embodiment 2]
The distance measurement system according to the second embodiment will be described with reference to the drawings. FIG. 9 is a block diagram schematically showing the configuration of the distance measurement system according to the second embodiment.
距離計測システム1は、センサ装置500と、距離計測装置100と、を有する。
The
センサ装置500は、計測対象物を撮影し、点群で描画された撮影データを生成する。
The
距離計測装置100は、点群で描画された撮影データの中から平面部分を除去する処理を行う。距離計測装置100は、平面部分が除去された前記撮影データに対してクラスタリングを行う処理を行う。距離計測装置100は、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理を行う。
The
実施形態2によれば、撮影データの中から平面部分を除去してクラスタリングすることで誤検知を抑えることができるので、作業員の技量に依存することなく、誤検知を抑えつつ、作業を容易化することに貢献することができる。 According to the second embodiment, since the false detection can be suppressed by removing the flat portion from the shooting data and clustering, the work can be easily performed while suppressing the false detection without depending on the skill of the worker. It can contribute to the transformation.
なお、実施形態1、2に係る距離計測装置は、いわゆるハードウェア資源(情報処理装置、コンピュータ)により構成することができ、図10に例示する構成を備えたものを用いることができる。例えば、ハードウェア資源1000は、内部バス1004により相互に接続される、プロセッサ1001、メモリ1002、ネットワークインタフェイス1003等を備える。
The distance measuring device according to the first and second embodiments can be configured by so-called hardware resources (information processing device, computer), and one having the configuration illustrated in FIG. 10 can be used. For example, the
なお、図10に示す構成は、ハードウェア資源1000のハードウェア構成を限定する趣旨ではない。ハードウェア資源1000は、図示しないハードウェア(例えば、入出力インタフェイス)を含んでもよい。あるいは、装置に含まれるプロセッサ1001等のユニットの数も図10の例示に限定する趣旨ではなく、例えば、複数のプロセッサ1001がハードウェア資源1000に含まれていてもよい。プロセッサ1001には、例えば、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、GPU(Graphics Processing Unit)等を用いることができる。
The configuration shown in FIG. 10 is not intended to limit the hardware configuration of the
メモリ1002には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等を用いることができる。
For the
ネットワークインタフェイス1003には、例えば、LAN(Local Area Network)カード、ネットワークアダプタ、ネットワークインタフェイスカード等を用いることができる。 For the network interface 1003, for example, a LAN (Local Area Network) card, a network adapter, a network interface card, or the like can be used.
ハードウェア資源1000の機能は、上述の処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ1002に格納されたプログラムをプロセッサ1001が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能は、何らかのハードウェアにおいてソフトウェアが実行されることによって実現できればよい。
The function of the
上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。 Some or all of the above embodiments may also be described, but not limited to:
[付記1]
点群で描画された撮影データの中から平面部分を除去する処理と、
平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、
を行う、
距離計測装置。
[付記2]
前記予測モデルの基礎となる3D画像データを小データ化する処理と、
小データ化された前記3D画像データに基づいて機械学習を行う処理と、
機械学習した内容に基づいて前記予測モデルを作成する処理と、
を行い、
前記計測対象物を検知する処理では、クラスタリングされた前記撮影データにおける各クラスタを小データ化し、小データ化された前記各クラスタに対して、前記予測モデルを作成する処理で作成された前記予測モデルとマッチングすることによって、計測対象物を検知する、
付記1記載の距離計測装置。
[付記3]
前記3D画像データを小データ化する処理の前に、前記3D画像データのフォーマットを、前記距離計測装置で使用できる共通フォーマットに変換する処理を行い、
前記平面部分を除去する処理の前に、前記撮影データのフォーマットを、前記共通フォーマットに変換する処理を行う、
付記2記載の距離計測装置。
[付記4]
前記撮影データのフォーマットを前記共通フォーマットに変換する処理の後であって前記平面部分を除去する処理の前に、前記撮影データにおける点群の中からノイズを除去する処理を行う、
付記3記載の距離計測装置。
[付記5]
前記計測対象物を検知する処理の後に、前記撮影データにおける前記計測対象物上の位置に指定された始点と、前記撮影データにおける前記計測対象物上の前記始点と異なる位置に指定された終点と、の間の線分の距離を算出する処理を行う、
付記1乃至4のいずれか一に記載の距離計測装置。
[付記6]
前記距離を算出する処理では、前記線分の距離の算出を複数回行い、それらの平均値を最終的な距離とする、
付記5記載の距離計測装置。
[付記7]
前記予測モデルは、前記計測対象物の反射強度を含む、
付記1乃至6のいずれか一に記載の距離計測装置。
[付記8]
計測対象物を撮影し、点群で描画された撮影データを生成するセンサ装置と、
付記1乃至7のいずれか一に記載の距離計測装置と、
を備える、
距離計測システム。
[付記9]
点群で描画された撮影データの中から平面部分を除去するステップと、
平面部分が除去された前記撮影データに対してクラスタリングを行うステップと、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知するステップと、
を含む、
距離計測方法。
[付記10]
点群で描画された撮影データの中から平面部分を除去する処理と、
平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、
をハードウェア資源に実行させる、
プログラム。
[Appendix 1]
The process of removing the flat part from the shooting data drawn in the point cloud,
A process of clustering the photographed data from which the plane portion has been removed, and
A process of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
I do,
Distance measuring device.
[Appendix 2]
Processing to reduce the 3D image data that is the basis of the prediction model and
Processing to perform machine learning based on the 3D image data converted into small data,
The process of creating the prediction model based on the machine-learned content,
And
In the process of detecting the measurement object, each cluster in the clustered shooting data is reduced to small data, and the prediction model created by the process of creating the prediction model for each of the small data clusters. Detects the object to be measured by matching with,
The distance measuring device according to
[Appendix 3]
Prior to the process of converting the 3D image data into smaller data, a process of converting the format of the 3D image data into a common format that can be used by the distance measuring device is performed.
Prior to the process of removing the flat surface portion, a process of converting the format of the shooting data into the common format is performed.
The distance measuring device according to
[Appendix 4]
After the process of converting the format of the shooting data to the common format and before the processing of removing the flat portion, a process of removing noise from the point cloud in the shooting data is performed.
The distance measuring device according to Appendix 3.
[Appendix 5]
After the process of detecting the measurement object, the start point designated at the position on the measurement object in the shooting data and the end point designated at a position different from the start point on the measurement target in the shooting data. Performs the process of calculating the distance of the line segment between,
The distance measuring device according to any one of
[Appendix 6]
In the process of calculating the distance, the distance of the line segment is calculated a plurality of times, and the average value thereof is used as the final distance.
The distance measuring device according to Appendix 5.
[Appendix 7]
The prediction model includes the reflection intensity of the measurement object.
The distance measuring device according to any one of
[Appendix 8]
A sensor device that photographs the object to be measured and generates imaging data drawn as a point cloud,
The distance measuring device according to any one of
To prepare
Distance measurement system.
[Appendix 9]
The step of removing the plane part from the shooting data drawn in the point cloud,
A step of clustering the photographed data from which the plane portion has been removed, and
A step of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
including,
Distance measurement method.
[Appendix 10]
The process of removing the flat part from the shooting data drawn in the point cloud,
A process of clustering the photographed data from which the flat surface has been removed, and
A process of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
To run hardware resources,
program.
なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本発明の基礎ないし一部として用いることが出来るものとする。本発明の全開示(特許請求の範囲及び図面を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせないし選択(必要により不選択)が可能である。すなわち、本発明は、請求の範囲及び図面を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、本願に記載の数値及び数値範囲については、明記がなくともその任意の中間値、下位数値、及び、小範囲が記載されているものとみなされる。さらに、上記引用した文献の各開示事項は、必要に応じ、本願発明の趣旨に則り、本願発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれる(属する)ものと、みなされる。 It should be noted that each disclosure of the above-mentioned patent documents shall be renormalized and described in this document by reference, and may be used as a basis or a part of the present invention as necessary. Within the framework of the entire disclosure of the present invention (including the scope of claims and drawings), the embodiments or examples can be changed or adjusted based on the basic technical idea thereof. Further, various combinations or selections (necessary) of various disclosure elements (including each element of each claim, each element of each embodiment or embodiment, each element of each drawing, etc.) within the framework of all disclosure of the present invention. (Not selected) is possible. That is, it goes without saying that the present invention includes all disclosures including claims and drawings, and various modifications and modifications that can be made by those skilled in the art in accordance with technical ideas. In addition, regarding the numerical values and numerical ranges described in the present application, it is considered that arbitrary intermediate values, lower numerical values, and small ranges are described even if not specified. Furthermore, each of the disclosed matters of the above-cited documents may be used in combination with the matters described in this document as a part of the disclosure of the present invention, if necessary, in accordance with the purpose of the present invention. It is considered to be included in (belonging to) the matters disclosed in the present application.
1 距離計測システム
10 計測対象物
20 3D画像データ
30 小データ
40 予測モデル
50 撮影データ
60 小データ
70 計測結果
80 検知結果
90 スタートボタン
100 距離計測装置
200 3D画像作成部
300 予測モデル作成部
310 前処理部
311 フォーマット変換部
312 小データ化部
320 機械学習エンジン部
321 教師ラベル付与部
322 学習部
400 距離計測部
410 前処理部
411 フォーマット変換部
412 ノイズ除去部
413 平面除去部
414 クラスタリング部
415 小データ化部
420 モデル検知部
421 検知処理部
422 予測モデル記憶部
430 検知結果出力部
431 検知結果生成部
440 ユーザインタフェイス部
441 表示部
442 操作部
450 距離計測部
451 始点記憶部
452 終点記憶部
453 距離算出部
460 計測結果出力部
461 計測結果生成部
462 計測結果記憶部
500 センサ装置
1000 ハードウェア資源
1001 プロセッサ
1002 メモリ
1003 ネットワークインタフェイス
1004 内部バス
1
Claims (10)
平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、
を行う、
距離計測装置。 The process of removing the flat part from the shooting data drawn in the point cloud,
A process of clustering the captured data from which the flat surface has been removed, and
A process of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
I do,
Distance measuring device.
小データ化された前記3D画像データに基づいて機械学習を行う処理と、
機械学習した内容に基づいて前記予測モデルを作成する処理と、
を行い、
前記計測対象物を検知する処理では、クラスタリングされた前記撮影データにおける各クラスタを小データ化し、小データ化された前記各クラスタに対して、前記予測モデルを作成する処理で作成された前記予測モデルとマッチングすることによって、前記計測対象物を検知する、
請求項1記載の距離計測装置。 Processing to reduce the 3D image data that is the basis of the prediction model and
Processing to perform machine learning based on the 3D image data converted into small data,
The process of creating the prediction model based on the machine-learned content,
And
In the process of detecting the measurement object, each cluster in the clustered shooting data is reduced to small data, and the prediction model created by the process of creating the prediction model for each of the small data clusters. By matching with, the measurement target is detected.
The distance measuring device according to claim 1.
前記平面部分を除去する処理の前に、前記撮影データのフォーマットを、前記共通フォーマットに変換する処理を行う、
請求項2記載の距離計測装置。 Prior to the process of converting the 3D image data into smaller data, a process of converting the format of the 3D image data into a common format that can be used by the distance measuring device is performed.
Prior to the process of removing the flat surface portion, a process of converting the format of the shooting data into the common format is performed.
The distance measuring device according to claim 2.
請求項3記載の距離計測装置。 After the process of converting the format of the shooting data to the common format and before the processing of removing the flat portion, a process of removing noise from the point cloud in the shooting data is performed.
The distance measuring device according to claim 3.
請求項1乃至4のいずれか一に記載の距離計測装置。 After the process of detecting the measurement object, the start point designated at the position on the measurement object in the shooting data and the end point designated at a position different from the start point on the measurement target in the shooting data. Performs the process of calculating the distance of the line segment between,
The distance measuring device according to any one of claims 1 to 4.
請求項5記載の距離計測装置。 In the process of calculating the distance, the distance of the line segment is calculated a plurality of times, and the average value thereof is used as the final distance.
The distance measuring device according to claim 5.
請求項1乃至6のいずれか一に記載の距離計測装置。 The prediction model includes the reflection intensity of the measurement object.
The distance measuring device according to any one of claims 1 to 6.
請求項1乃至7のいずれか一に記載の距離計測装置と、
を備える、
距離計測システム。 A sensor device that photographs the object to be measured and generates imaging data drawn as a point cloud,
The distance measuring device according to any one of claims 1 to 7.
To prepare
Distance measurement system.
平面部分が除去された前記撮影データに対してクラスタリングを行うステップと、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知するステップと、
を含む、
距離計測方法。 The step of removing the plane part from the shooting data drawn in the point cloud,
A step of clustering the photographed data from which the plane portion has been removed, and
A step of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
including,
Distance measurement method.
平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、
をハードウェア資源に実行させる、
プログラム。 The process of removing the flat part from the shooting data drawn in the point cloud,
A process of clustering the photographed data from which the plane portion has been removed, and
A process of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
To run hardware resources,
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019139433A JP2021021672A (en) | 2019-07-30 | 2019-07-30 | Distance measuring device, system, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019139433A JP2021021672A (en) | 2019-07-30 | 2019-07-30 | Distance measuring device, system, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021021672A true JP2021021672A (en) | 2021-02-18 |
Family
ID=74574781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019139433A Pending JP2021021672A (en) | 2019-07-30 | 2019-07-30 | Distance measuring device, system, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021021672A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0458943A (en) * | 1990-06-28 | 1992-02-25 | Konica Corp | Image recognizing device for digital radiation image |
WO2004003850A1 (en) * | 2002-06-28 | 2004-01-08 | Fujitsu Limited | Three-dimensional image comparing program, three-dimensionalimage comparing method, and three-dimensional image comparing device |
JP2013196355A (en) * | 2012-03-19 | 2013-09-30 | Toshiba Corp | Object measuring device and object measuring method |
JP2016028229A (en) * | 2014-07-08 | 2016-02-25 | キヤノン株式会社 | Data processing apparatus, data display system having the same, sample information acquisition system, data processing method, program, and storage medium |
JP2016103263A (en) * | 2015-08-31 | 2016-06-02 | 株式会社大林組 | Structure state grasping support device, structure state grasping support method, and program |
-
2019
- 2019-07-30 JP JP2019139433A patent/JP2021021672A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0458943A (en) * | 1990-06-28 | 1992-02-25 | Konica Corp | Image recognizing device for digital radiation image |
WO2004003850A1 (en) * | 2002-06-28 | 2004-01-08 | Fujitsu Limited | Three-dimensional image comparing program, three-dimensionalimage comparing method, and three-dimensional image comparing device |
JP2013196355A (en) * | 2012-03-19 | 2013-09-30 | Toshiba Corp | Object measuring device and object measuring method |
JP2016028229A (en) * | 2014-07-08 | 2016-02-25 | キヤノン株式会社 | Data processing apparatus, data display system having the same, sample information acquisition system, data processing method, program, and storage medium |
JP2016103263A (en) * | 2015-08-31 | 2016-06-02 | 株式会社大林組 | Structure state grasping support device, structure state grasping support method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019149150A (en) | Method and apparatus for processing point cloud data | |
KR20160048901A (en) | System and method for determining the extent of a plane in an augmented reality environment | |
US8229928B2 (en) | 3D object descriptors | |
TW201616451A (en) | System and method for selecting point clouds using a free selection tool | |
JP2016179534A (en) | Information processor, information processing method, program | |
CN115578433B (en) | Image processing method, device, electronic equipment and storage medium | |
CN116168351B (en) | Inspection method and device for power equipment | |
CN111104879B (en) | Method and device for identifying house functions, readable storage medium and electronic equipment | |
CN113167569A (en) | Volume measurement device, system, method, and program | |
CN113378958A (en) | Automatic labeling method, device, equipment, storage medium and computer program product | |
CN113378712A (en) | Training method of object detection model, image detection method and device thereof | |
CN115719436A (en) | Model training method, target detection method, device, equipment and storage medium | |
CN112863187B (en) | Detection method of perception model, electronic equipment, road side equipment and cloud control platform | |
JP5704909B2 (en) | Attention area detection method, attention area detection apparatus, and program | |
CN113129249B (en) | Depth video-based space plane detection method and system and electronic equipment | |
CN115861400A (en) | Target object detection method, training method and device and electronic equipment | |
JP7003617B2 (en) | Estimator, estimation method, and estimation program | |
CN113763458A (en) | Method and device for determining target object placing surface | |
JP2021021672A (en) | Distance measuring device, system, method, and program | |
JP2022186029A (en) | Distance measuring apparatus, method, and program | |
JP7405395B2 (en) | Object detection device, system, method, and program | |
JP2022018517A (en) | Cable detection apparatus, method, and program | |
JP7251869B2 (en) | DISTANCE MEASURING DEVICE, SYSTEM, METHOD AND PROGRAM | |
US11922659B2 (en) | Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium | |
JP2021056765A (en) | Load capacity rate measurement device, system, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230620 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230929 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231011 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20231102 |