Nothing Special   »   [go: up one dir, main page]

JP2021021672A - Distance measuring device, system, method, and program - Google Patents

Distance measuring device, system, method, and program Download PDF

Info

Publication number
JP2021021672A
JP2021021672A JP2019139433A JP2019139433A JP2021021672A JP 2021021672 A JP2021021672 A JP 2021021672A JP 2019139433 A JP2019139433 A JP 2019139433A JP 2019139433 A JP2019139433 A JP 2019139433A JP 2021021672 A JP2021021672 A JP 2021021672A
Authority
JP
Japan
Prior art keywords
unit
data
distance
prediction model
distance measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019139433A
Other languages
Japanese (ja)
Inventor
研二 河野
Kenji Kono
研二 河野
青木 教之
Noriyuki Aoki
教之 青木
真則 高岡
Masanori Takaoka
真則 高岡
悟己 上野
Satoki Ueno
悟己 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2019139433A priority Critical patent/JP2021021672A/en
Publication of JP2021021672A publication Critical patent/JP2021021672A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To facilitate an operation while suppressing erroneous detection without depending on the skill of an operator.SOLUTION: A distance measuring device performs: processing B4 for removing a plane portion from photographed data drawn by a point group; processing B5 for performing clustering the photographed data from which the plane portion is removed; and processing B7 for detecting an object to be measured by matching with a previously created prediction model using the clustered photographed data.SELECTED DRAWING: Figure 6

Description

本発明は、距離計測装置、システム、方法、及びプログラムに関する。 The present invention relates to distance measuring devices, systems, methods, and programs.

電力会社では、架空線(電線、通信線など)を施設するときには、感電災害の防止のため、架空線と他の構造物との間の離隔距離の規定を守る必要があるので、作業員が計測現場まで出向いて、計測機器を用いて、離隔距離の計測を行っている。人手による離隔距離の計測では時間がかかり、場所(高所、足場の不安定な場所など)によっては作業に危険を伴う場合がある。また、計測精度が作業員の技量に依存するという問題もある。そこで、誰でも簡単・安全に計測できる計測方法として、ステレオ画像を用いて距離を計測する距離計測方法がある(例えば、特許文献1、2参照)。 When installing overhead lines (electric wires, communication lines, etc.) in electric power companies, it is necessary for workers to comply with the regulation of the separation distance between overhead lines and other structures in order to prevent electric shock accidents. I go to the measurement site and measure the separation distance using a measuring device. It takes time to measure the separation distance manually, and the work may be dangerous depending on the location (high place, unstable scaffolding, etc.). There is also a problem that the measurement accuracy depends on the skill of the worker. Therefore, as a measurement method that anyone can easily and safely measure, there is a distance measurement method that measures a distance using a stereo image (see, for example, Patent Documents 1 and 2).

特開2018−146457号公報JP-A-2018-146457 特開2003−269958号公報Japanese Unexamined Patent Publication No. 2003-269598 国際公開第2014/155715号International Publication No. 2014/155715

以下の分析は、本願発明者により与えられる。 The following analysis is provided by the inventor of the present application.

しかしながら、特許文献1、2のようにステレオ画像を用いた距離計測方法では、ステレオ画像の精度は、撮影環境や撮影機器の性能に依存する。特に、精度が良くないステレオ画像から計測対象物を検知して計測するには作業員の技量に依存することから、作業の容易化が難しい。 However, in the distance measurement method using a stereo image as in Patent Documents 1 and 2, the accuracy of the stereo image depends on the shooting environment and the performance of the shooting device. In particular, it is difficult to facilitate the work because it depends on the skill of the worker to detect and measure the object to be measured from the stereo image having poor accuracy.

計測対象物を検知(認識)する方法として、計測点群の対象物体について形状の分類を行った上で、計測点群と、分類された形状と同一形状のモデル点群とのマッチング処理を行うことによって計測点群から対象物体に相当する点群を自動で抽出する方法があるが(例えば、特許文献3参照)、計測点群の中に地面や壁面のように同じ形状の対象物体が複数種類存在すると分類する際に誤分類が生じやすいので、誤検知が起こりやすくなる可能性がある。 As a method of detecting (recognizing) an object to be measured, after classifying the shape of the target object of the measurement point group, matching processing is performed between the measurement point group and the model point group having the same shape as the classified shape. There is a method of automatically extracting the point cloud corresponding to the target object from the measurement point group (see, for example, Patent Document 3), but there are a plurality of target objects having the same shape such as the ground and the wall surface in the measurement point group. If there is a type, misclassification is likely to occur when classifying, so there is a possibility that false detection is likely to occur.

本発明の主な課題は、作業員の技量に依存することなく、誤検知を抑えつつ、作業を容易化することに貢献することができる距離計測装置、システム、方法、及びプログラムを提供することである。 A main object of the present invention is to provide a distance measuring device, a system, a method, and a program that can contribute to facilitating work while suppressing false positives without depending on the skill of the worker. Is.

第1の視点に係る距離計測装置は、点群で描画された撮影データの中から平面部分を除去する処理と、平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、を行う。 The distance measuring device according to the first viewpoint is clustered with a process of removing a flat portion from the captured data drawn by the point cloud and a process of clustering the captured data from which the flat portion has been removed. The process of detecting the measurement target is performed by matching with the prediction model created in advance by using the photographed data.

第2の視点に係る距離計測システムは、計測対象物を撮影し、点群で描画された撮影データを生成するセンサ装置と、前記第1の始点に係る距離計測装置と、を備える。 The distance measuring system according to the second viewpoint includes a sensor device that photographs an object to be measured and generates imaging data drawn by a point cloud, and a distance measuring device related to the first starting point.

第3の視点に係る距離計測方法は、点群で描画された撮影データの中から平面部分を除去するステップと、平面部分が除去された前記撮影データに対してクラスタリングを行うステップと、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知するステップと、を含む。 The distance measurement method according to the third viewpoint is clustered with a step of removing a flat portion from the shooting data drawn by the point cloud and a step of clustering the shooting data from which the flat portion has been removed. This includes a step of detecting an object to be measured by matching with a prediction model created in advance using the photographed data.

第4の視点に係るプログラムは、点群で描画された撮影データの中から平面部分を除去する処理と、平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、をハードウェア資源に実行させる。 The program related to the fourth viewpoint includes a process of removing a plane portion from the photographed data drawn by a point cloud, a process of clustering the photographed data from which the plane portion has been removed, and the clustered state. By matching with the prediction model created in advance using the shooting data, the hardware resource is made to execute the process of detecting the measurement target.

なお、プログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。また、本開示では、コンピュータプログラム製品として具現することも可能である。プログラムは、コンピュータ装置に入力装置又は外部から通信インタフェイスを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させ、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インタフェイスを介して、外部と交信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備える。 The program can be recorded on a computer-readable storage medium. The storage medium may be a non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, or an optical recording medium. Further, in the present disclosure, it is also possible to embody it as a computer program product. The program is input to a computer device via an input device or an external communication interface, stored in a storage device, drives a processor according to a predetermined step or process, and steps the processing result including an intermediate state as necessary. Each can be displayed via a display device, or can communicate with the outside via a communication interface. Computer devices for this purpose, for example, typically include a processor, a storage device, an input device, a communication interface, and, if necessary, a display device that can be connected to each other by a bus.

前記第1〜4の視点によれば、作業員の技量に依存することなく、誤検知を抑えつつ、作業を容易化することに貢献することができる。 According to the first to fourth viewpoints, it is possible to contribute to facilitating the work while suppressing erroneous detection without depending on the skill of the worker.

実施形態1に係る距離計測システムの構成を模式的に示したブロック図である。It is a block diagram which shows typically the structure of the distance measurement system which concerns on Embodiment 1. 実施形態1に係る距離計測システムの使用態様の一例を模式的に示したイメージ図である。It is an image figure which shows typically an example of the usage mode of the distance measurement system which concerns on Embodiment 1. FIG. 実施形態1に係る距離計測システムにおける距離計測装置の予測モデル作成部の構成を模式的に示したブロック図である。It is a block diagram which shows typically the structure of the prediction model creation part of the distance measurement apparatus in the distance measurement system which concerns on Embodiment 1. 実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の構成を模式的に示したブロック図である。It is a block diagram which shows typically the structure of the distance measuring part of the distance measuring apparatus in the distance measuring system which concerns on Embodiment 1. FIG. 実施形態1に係る距離計測システムにおける距離計測装置の予測モデル作成部の動作を模式的に示したフローチャート図である。It is a flowchart which shows typically the operation of the prediction model creation part of the distance measuring apparatus in the distance measuring system which concerns on Embodiment 1. 実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の計測対象物の検知動作を模式的に示したフローチャート図である。It is a flowchart which shows typically the detection operation of the measurement object of the distance measurement part of the distance measurement apparatus in the distance measurement system which concerns on Embodiment 1. 実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の計測対象物の距離計測動作を模式的に示したフローチャート図である。It is a flowchart which schematically shows the distance measurement operation of the measurement object of the distance measurement part of the distance measurement apparatus in the distance measurement system which concerns on Embodiment 1. FIG. 実施形態1に係る距離計測システムにおける距離計測装置の計測対象物の検知及び距離計測を模式的に示したイメージ図である。It is an image diagram which shows typically the detection and the distance measurement of the measurement object of the distance measurement apparatus in the distance measurement system which concerns on Embodiment 1. FIG. 実施形態2に係る距離計測システムの構成を模式的に示したブロック図である。It is a block diagram which shows typically the structure of the distance measurement system which concerns on Embodiment 2. ハードウェア資源の構成を模式的に示したブロック図である。It is a block diagram which shows the structure of a hardware resource schematically.

以下に説明する本開示では、モード1に係る距離計測装置及びその変形モードを適宜選択して組み合わせることができる。 In the present disclosure described below, the distance measuring device according to the mode 1 and the modification mode thereof can be appropriately selected and combined.

前記モード1に係る距離計測装置として、点群で描画された撮影データの中から平面部分を除去する処理と、平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、を行う、距離計測装置が可能である。 As the distance measuring device according to the mode 1, a process of removing a flat portion from the captured data drawn by the point cloud and a process of clustering the captured data from which the flat portion has been removed are clustered. A distance measuring device capable of performing a process of detecting a measurement target by matching with a prediction model created in advance using the photographed data is possible.

前記モード1に係る距離計測装置の変形モードとして、前記予測モデルの基礎となる3D画像データを小データ化する処理と、小データ化された前記3D画像データに基づいて機械学習を行う処理と、機械学習した内容に基づいて前記予測モデルを作成する処理と、
を行い、前記計測対象物を検知する処理では、クラスタリングされた前記撮影データにおける各クラスタを小データ化し、小データ化された前記各クラスタに対して、前記予測モデルを作成する処理で作成された前記予測モデルとマッチングすることによって、前記計測対象物を検知することができる。
As the deformation mode of the distance measuring device according to the mode 1, a process of converting the 3D image data which is the basis of the prediction model into small data, a process of performing machine learning based on the small data of the 3D image data, and a process of performing machine learning. The process of creating the prediction model based on the machine-learned content,
In the process of detecting the measurement object, each cluster in the clustered shooting data is reduced to small data, and the prediction model is created for each of the small data clusters. By matching with the prediction model, the measurement target can be detected.

前記モード1に係る距離計測装置の変形モードとして、前記3D画像データを小データ化する処理の前に、前記3D画像データのフォーマットを、前記距離計測装置で使用できる共通フォーマットに変換する処理を行い、前記平面部分を除去する処理の前に、前記撮影データのフォーマットを、前記共通フォーマットに変換する処理を行うことができる。 As a modification mode of the distance measuring device according to the mode 1, a process of converting the format of the 3D image data into a common format that can be used by the distance measuring device is performed before the process of converting the 3D image data into small data. Before the process of removing the flat portion, the process of converting the format of the shooting data into the common format can be performed.

前記モード1に係る距離計測装置の変形モードとして、前記撮影データのフォーマットを前記共通フォーマットに変換する処理の後であって前記平面部分を除去する処理の前に、前記撮影データにおける点群の中からノイズを除去する処理を行うことができる。 As a modification mode of the distance measuring device according to the mode 1, in the point cloud in the shooting data after the processing of converting the format of the shooting data to the common format and before the processing of removing the flat portion. It is possible to perform a process of removing noise from the data.

前記モード1に係る距離計測装置の変形モードとして、前記計測対象物を検知する処理の後に、前記撮影データにおける前記計測対象物上の位置に指定された始点と、前記撮影データにおける前記計測対象物上の前記始点と異なる位置に指定された終点と、の間の線分の距離を算出する処理を行うことができる。 As a modification mode of the distance measuring device according to the mode 1, after the process of detecting the measurement object, a start point designated as a position on the measurement object in the shooting data and the measurement target in the shooting data. It is possible to perform a process of calculating the distance of the line segment between the end point designated at a position different from the above start point.

前記モード1に係る距離計測装置の変形モードとして、前記距離を算出する処理では、前記線分の距離の算出を複数回行い、それらの平均値を最終的な距離とすることができる。 As a modification mode of the distance measuring device according to the mode 1, in the process of calculating the distance, the distance of the line segment can be calculated a plurality of times, and the average value thereof can be used as the final distance.

前記モード1に係る距離計測装置の変形モードとして、前記予測モデルは、前記計測対象物の反射強度を含むことができる。 As a deformation mode of the distance measuring device according to the mode 1, the prediction model can include the reflection intensity of the measurement object.

本開示では、モード2に係る距離計測システムとして、計測対象物を撮影し、点群で描画された撮影データを生成するセンサ装置と、前記モード1に係る距離計測装置と、を備える、距離計測システムが可能である。 In the present disclosure, as the distance measurement system according to the mode 2, the distance measurement includes a sensor device that photographs an object to be measured and generates imaging data drawn by a point cloud, and a distance measurement device according to the mode 1. The system is possible.

本開示では、モード3に係る距離計測方法として、点群で描画された撮影データの中から平面部分を除去するステップと、平面部分が除去された前記撮影データに対してクラスタリングを行うステップと、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知するステップと、を含む、距離計測方法が可能である。 In the present disclosure, as the distance measurement method according to the mode 3, a step of removing a flat portion from the shooting data drawn by the point cloud, a step of clustering the shooting data from which the flat portion has been removed, and a step of performing clustering. A distance measurement method including a step of detecting an object to be measured by matching with a prediction model created in advance by using the clustered shooting data is possible.

本開示では、モード4に係るプログラムとして、点群で描画された撮影データの中から平面部分を除去する処理と、平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、をハードウェア資源に実行させる、プログラムが可能である。 In the present disclosure, as a program related to mode 4, a process of removing a flat portion from the shooting data drawn by a point cloud and a process of clustering the shooting data from which the flat portion has been removed are clustered. By matching with a prediction model created in advance by using the above-mentioned photographed data, it is possible to make a program that causes a hardware resource to execute a process of detecting an object to be measured.

以下、実施形態について図面を参照しつつ説明する。なお、本出願において図面参照符号を付している場合は、それらは、専ら理解を助けるためのものであり、図示の態様に限定することを意図するものではない。また、下記の実施形態は、あくまで例示であり、本発明を限定するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インタフェイスも同様である。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備え、コンピュータ装置は、通信インタフェイスを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、交信可能に構成される。 Hereinafter, embodiments will be described with reference to the drawings. In addition, when the drawing reference reference numerals are attached in this application, they are for the purpose of assisting understanding only, and are not intended to be limited to the illustrated embodiment. Further, the following embodiments are merely examples, and do not limit the present invention. Further, the connecting line between blocks such as drawings referred to in the following description includes both bidirectional and unidirectional. The one-way arrow schematically shows the flow of the main signal (data), and does not exclude interactivity. Further, in the circuit diagram, block diagram, internal configuration diagram, connection diagram, etc. shown in the disclosure of the present application, although not explicitly stated, an input port and an output port exist at the input end and the output end of each connection line, respectively. The same applies to the input / output interface. The program is executed via a computer device, which comprises, for example, a processor, a storage device, an input device, a communication interface, and a display device as required, and the computer device is in the device or through the communication interface. It is configured to be able to communicate with external devices (including computers) regardless of whether it is wired or wireless.

[実施形態1]
実施形態1に係る距離計測システムについて図面を用いて説明する。図1は、実施形態1に係る距離計測システムの構成を模式的に示したブロック図である。図2は、実施形態1に係る距離計測システムの使用態様の一例を模式的に示したイメージ図である。図3は、実施形態1に係る距離計測システムにおける距離計測装置の予測モデル作成部の構成を模式的に示したブロック図である。図4は、実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の構成を模式的に示したブロック図である。
[Embodiment 1]
The distance measurement system according to the first embodiment will be described with reference to the drawings. FIG. 1 is a block diagram schematically showing the configuration of the distance measurement system according to the first embodiment. FIG. 2 is an image diagram schematically showing an example of the usage mode of the distance measurement system according to the first embodiment. FIG. 3 is a block diagram schematically showing the configuration of the prediction model creation unit of the distance measuring device in the distance measuring system according to the first embodiment. FIG. 4 is a block diagram schematically showing the configuration of the distance measuring unit of the distance measuring device in the distance measuring system according to the first embodiment.

距離計測システム1は、撮影されたデータにおいて指定された2点間の距離を計測するシステムである(図1、図2参照)。距離計測システム1は、距離計測装置100の3D(three dimensions)画像作成部200を用いて、ユーザが3D画像データを作成することが可能な機能を有する。また、距離計測システム1は、距離計測装置100の予測モデル作成部300を用いて、3D画像作成部200で作成された3D画像データに基づいて予測モデル40を作成することが可能な機能を有する。また、距離計測システム1は、距離計測装置100の距離計測部400を用いて、予測モデル作成部300で作成された予測モデル40に基づいて、センサ装置500で撮影されたデータにおける計測対象物10を自動的に検知することが可能な機能を有する。距離計測システム1は、距離計測装置100の距離計測部400を用いて、センサ装置500で撮影された撮影データにおける、ユーザによって指定された計測対象物10に係る2点間の距離を計測することが可能な機能を有する。距離計測システム1は、センサ装置500と、距離計測装置100と、を有する。 The distance measurement system 1 is a system that measures the distance between two points specified in the captured data (see FIGS. 1 and 2). The distance measurement system 1 has a function that allows a user to create 3D image data by using a 3D (three dimensions) image creation unit 200 of the distance measurement device 100. Further, the distance measurement system 1 has a function capable of creating a prediction model 40 based on the 3D image data created by the 3D image creation unit 200 by using the prediction model creation unit 300 of the distance measurement device 100. .. Further, the distance measurement system 1 uses the distance measurement unit 400 of the distance measurement device 100 to measure the object 10 in the data captured by the sensor device 500 based on the prediction model 40 created by the prediction model creation unit 300. Has a function that can automatically detect. The distance measurement system 1 uses the distance measurement unit 400 of the distance measurement device 100 to measure the distance between two points related to the measurement object 10 specified by the user in the shooting data captured by the sensor device 500. Has a possible function. The distance measuring system 1 includes a sensor device 500 and a distance measuring device 100.

センサ装置500は、計測対象物10の表面をセンシングして撮影する装置である(図1、図2参照)。センサ装置500は、計測対象物10を撮影することによって所定のフォーマットの撮影データ(図4の50)を生成し、生成された撮影データ50を距離計測装置100に向けて出力する。センサ装置500は、例えば、ToF(Time of Flight)カメラ、ステレオカメラ、3D−LIDAR(Laser Imaging Detection And Ranging)、デプスセンサ、測距センサ、距離カメラなどの3次元センサを用いることができる。センサ装置500は、作業員によって操作することができる。ここで、撮影データ50は、センサ装置500によって所定のフォーマットで生成されたデータであり、点群(多数の点の3次元座標)で描画された点群データである。センサ装置500は、顧客の要望に応じて様々な出力形式のセンサ装置に変更することが可能である。 The sensor device 500 is a device that senses and photographs the surface of the measurement object 10 (see FIGS. 1 and 2). The sensor device 500 generates shooting data (50 in FIG. 4) in a predetermined format by shooting the measurement object 10, and outputs the generated shooting data 50 toward the distance measuring device 100. As the sensor device 500, for example, a three-dimensional sensor such as a ToF (Time of Flight) camera, a stereo camera, a 3D-LIDAR (Laser Imaging Detection And Ranging), a depth sensor, a range finder, and a range camera can be used. The sensor device 500 can be operated by an operator. Here, the photographing data 50 is data generated in a predetermined format by the sensor device 500, and is point cloud data drawn in a point cloud (three-dimensional coordinates of a large number of points). The sensor device 500 can be changed to a sensor device having various output formats according to the customer's request.

距離計測装置100は、撮影データ(図4の50)において指定された2点間(例えば、図8の始点Aと終点Bとの間)の距離を計測する装置である(図1、図2参照)。距離計測装置100には、コンピュータを構成する機能部(例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び表示装置)を有する装置(コンピュータ装置)を用いることができ、例えば、ノート型パーソナルコンピュータ、タブレット端末などを用いることができる。距離計測装置100は、所定のプログラムを実行することによって、3D画像作成部200と、予測モデル作成部300と、距離計測部400と、を実現する。 The distance measuring device 100 is a device that measures the distance between two points (for example, between the start point A and the end point B in FIG. 8) specified in the shooting data (50 in FIG. 4) (FIGS. 1 and 2). reference). As the distance measuring device 100, a device (computer device) having functional units (for example, a processor, a storage device, an input device, a communication interface, and a display device) constituting the computer can be used, and for example, a notebook personal computer can be used. Computers, tablet terminals, etc. can be used. The distance measuring device 100 realizes the 3D image creating unit 200, the prediction model creating unit 300, and the distance measuring unit 400 by executing a predetermined program.

3D画像作成部200は、予測モデル40の基礎となる3D画像データ(図3の20)を作成する機能部である(図1参照)。3D画像データ20は、3D画像作成部200を用いて、ユーザによって作成された3D画像(計測対象物10の3D画像)に係るデータである。3D画像データ20として、例えば、ポリゴン(多角形)のような立体的なデータとすることができる。3D画像作成部200は、3D画像データ20を所定のフォーマットで作成する。3D画像作成部200は、作成された3D画像データ20を予測モデル作成部300に向けて出力する。 The 3D image creation unit 200 is a functional unit that creates 3D image data (20 in FIG. 3) that is the basis of the prediction model 40 (see FIG. 1). The 3D image data 20 is data related to a 3D image (3D image of the measurement object 10) created by the user using the 3D image creation unit 200. The 3D image data 20 can be, for example, three-dimensional data such as a polygon (polygon). The 3D image creation unit 200 creates the 3D image data 20 in a predetermined format. The 3D image creation unit 200 outputs the created 3D image data 20 to the prediction model creation unit 300.

予測モデル作成部300は、計測対象物10のパターンを予測するための予測モデル40を自動的に作成する機能部である(図1、図3参照)。予測モデル作成部300は、前処理部310と、機械学習エンジン部320と、を有する(図3参照)。 The prediction model creation unit 300 is a functional unit that automatically creates a prediction model 40 for predicting the pattern of the measurement object 10 (see FIGS. 1 and 3). The prediction model creation unit 300 includes a preprocessing unit 310 and a machine learning engine unit 320 (see FIG. 3).

前処理部310は、予測モデル作成部300からの3D画像データ20に対して所定の前処理(フォーマット変換、小データ化)を行う機能部である(図3参照)。前処理部310は、フォーマット変換部311と、小データ化部312と、を有する。 The preprocessing unit 310 is a functional unit that performs predetermined preprocessing (format conversion, miniaturization) on the 3D image data 20 from the prediction model creation unit 300 (see FIG. 3). The preprocessing unit 310 includes a format conversion unit 311 and a small data conversion unit 312.

フォーマット変換部311は、3D画像データ20のフォーマットを、距離計測装置100において共通に使える共通フォーマットに変換する機能部である(図3参照)。フォーマット変換部311は、変換された共通フォーマットの3D画像データ20を、小データ化部312に向けて出力する。なお、予測モデル作成部300からの3D画像データ20のフォーマットが共通フォーマットの場合は、フォーマット変換部311を省略することができる。 The format conversion unit 311 is a functional unit that converts the format of the 3D image data 20 into a common format that can be commonly used in the distance measuring device 100 (see FIG. 3). The format conversion unit 311 outputs the converted 3D image data 20 in the common format to the small data conversion unit 312. If the format of the 3D image data 20 from the prediction model creation unit 300 is a common format, the format conversion unit 311 can be omitted.

小データ化部312は、フォーマット変換部311からの共通フォーマットの3D画像データ20のデータサイズを縮小させる(小データ化する)機能である(図3参照)。小データ化の方法(データの縮小方法)として、例えば、選択された形状を小さな立方体で構成される「ボクセル」に加工するボクセル化、デジタル化することが挙げられる。3D画像データ20を小データ化することにより、3D画像データ20をそのまま機械学習するよりもデータサイズを抑えることができ、予測モデル40の作成を容易化することができる。小データ化部312は、共通フォーマットの3D画像データ20を小データ化した小データ30を生成し、生成された小データ30を機械学習エンジン部320に向けて出力する。 The small data conversion unit 312 is a function of reducing (reducing the data size) the data size of the 3D image data 20 in the common format from the format conversion unit 311 (see FIG. 3). Examples of the method of reducing data (method of reducing data) include voxelization and digitization in which the selected shape is processed into a "voxel" composed of small cubes. By reducing the 3D image data 20 to smaller data, the data size can be suppressed as compared with the machine learning of the 3D image data 20 as it is, and the creation of the prediction model 40 can be facilitated. The small data conversion unit 312 generates small data 30 obtained by converting the 3D image data 20 in the common format into small data, and outputs the generated small data 30 to the machine learning engine unit 320.

機械学習エンジン部320は、前処理部310の小データ化部312からの小データ30に基づいて予測モデル40を作成する機能部である(図3参照)。機械学習エンジン部320は、教師ラベル付与部321と、学習部322と、を有する。 The machine learning engine unit 320 is a functional unit that creates a prediction model 40 based on the small data 30 from the small data conversion unit 312 of the preprocessing unit 310 (see FIG. 3). The machine learning engine unit 320 has a teacher labeling unit 321 and a learning unit 322.

教師ラベル付与部321は、前処理部310の小データ化部312からの小データ30に対して、学習部322で機械学習させるデータであることを判断できるようにするための教師ラベルを付与する機能部である(図3参照)。教師ラベル付与部321は、教師ラベルが付与された小データ30を学習部322に向けて出力する。 The teacher label assigning unit 321 assigns a teacher label to the small data 30 from the small data conversion unit 312 of the preprocessing unit 310 so that the learning unit 322 can determine that the data is machine-learned. It is a functional part (see FIG. 3). The teacher label assigning unit 321 outputs the small data 30 to which the teacher label is attached toward the learning unit 322.

学習部322は、教師ラベルが付与された小データ30に基づいて、計測対象物10のパターンの機械学習を行い、機械学習した内容に基づいて計測対象物10のパターン(少なくとも外形)を予測するための予測モデル40を作成(生成)する機能部である(図3参照)。計測対象物10のパターンとして3D画像データ20の外形を機械学習した予測モデル40を用いて特定の外形の計測対象物10を検知することができるだけでなく、計測対象物10のパターンとして3D画像データ20の反射強度を機械学習した予測モデル40を用いて特定の材質の計測対象物10を検知できるようにすることもできる。また、計測対象物10として特定の電力会社の電柱のみを機械学習することにより特定の電力会社の電柱のみを検知できるようにしてもよい。学習部322は、作成された予測モデル40を距離計測部400に向けて出力する。 The learning unit 322 performs machine learning of the pattern of the measurement object 10 based on the small data 30 to which the teacher label is attached, and predicts the pattern (at least the outer shape) of the measurement object 10 based on the machine-learned content. This is a functional unit that creates (generates) a prediction model 40 for the purpose (see FIG. 3). Not only can the measurement target 10 having a specific outer shape be detected by using the prediction model 40 that machine-learns the outer shape of the 3D image data 20 as the pattern of the measurement target 10, but also the 3D image data as the pattern of the measurement target 10. It is also possible to detect the measurement object 10 of a specific material by using the prediction model 40 in which the reflection intensity of 20 is machine-learned. Further, it may be possible to detect only the utility pole of a specific electric power company by machine learning only the utility pole of a specific electric power company as the measurement object 10. The learning unit 322 outputs the created prediction model 40 toward the distance measuring unit 400.

距離計測部400は、撮影データ50において指定された2点間(例えば、図8の始点Aと終点Bとの間)の距離を計測する装置である(図1、図4参照)。距離計測部400は、AI(Artificial Intelligence)機能によって撮影データ50の中から計測対象物10を自動的に検知する機能を有する。距離計測部400は、前処理部410と、モデル検知部420と、検知結果出力部430と、ユーザインタフェイス部440と、距離計測部450と、計測結果出力部460と、を有する(図4参照)。 The distance measuring unit 400 is a device that measures the distance between two points specified in the shooting data 50 (for example, between the start point A and the end point B in FIG. 8) (see FIGS. 1 and 4). The distance measuring unit 400 has a function of automatically detecting the measurement target 10 from the photographed data 50 by the AI (Artificial Intelligence) function. The distance measurement unit 400 includes a preprocessing unit 410, a model detection unit 420, a detection result output unit 430, a user interface unit 440, a distance measurement unit 450, and a measurement result output unit 460 (FIG. 4). reference).

前処理部410は、センサ装置(図1の500)からの撮影データ50に対して所定の前処理(フォーマット変換、ノイズ除去、平面除去、クラスタリング、小データ化)を行う機能部である(図4参照)。前処理部410は、フォーマット変換部411と、ノイズ除去部412と、平面除去部413と、クラスタリング部414と、小データ化部415と、を有する。 The preprocessing unit 410 is a functional unit that performs predetermined preprocessing (format conversion, noise removal, plane removal, clustering, data reduction) on the captured data 50 from the sensor device (500 in FIG. 1) (FIG. 1). 4). The preprocessing unit 410 includes a format conversion unit 411, a noise removing unit 412, a plane removing unit 413, a clustering unit 414, and a data reduction unit 415.

フォーマット変換部411は、様々な出力形式のフォーマットの撮影データ50を、距離計測装置100において共通に使える共通フォーマットの撮影データ50に変換する機能部である(図4参照)。フォーマット変換部411は、共通フォーマットの撮影データ50を、ノイズ除去部412に向けて出力する。 The format conversion unit 411 is a functional unit that converts the shooting data 50 in various output formats into the shooting data 50 in a common format that can be commonly used in the distance measuring device 100 (see FIG. 4). The format conversion unit 411 outputs the shooting data 50 in the common format to the noise removal unit 412.

ノイズ除去部412は、フォーマット変換部411からの撮影データ50における点群の中からノイズ(距離計測に不要な点群)を除去する機能部である(図4参照)。ノイズ除去部412は、ノイズが除去された撮影データ50を表示部441に向けて出力する。ノイズ除去方法として、例えば、平滑化処理、フィルタリング(例えば、移動平均フィルタ処理、メディアンフィルタ処理など)、外れ値除去処理(例えば、カイの二乗検定による外れ値除去処理)などが挙げられる。 The noise removing unit 412 is a functional unit that removes noise (point cloud unnecessary for distance measurement) from the point cloud in the shooting data 50 from the format conversion unit 411 (see FIG. 4). The noise removing unit 412 outputs the noise-removed shooting data 50 toward the display unit 441. Examples of the noise removing method include smoothing processing, filtering (for example, moving average filtering processing, median filtering processing, etc.), outlier removing processing (for example, outlier removing processing by chi-square test), and the like.

平面除去部413は、ノイズ除去部412からの撮影データ50の中から平面部分(例えば、平坦な壁面、路面など)を除去(平面除去)する機能部である(図4参照)。平面部分を除去することで、地面や壁面のように平坦な同じ形状の物体が除去されて、正しくクラスタリングを行えるようになり、誤分類を抑えることができる。平面除去部413は、平面除去された撮影データ50をクラスタリング部414に向けて出力する。 The flat surface removing unit 413 is a functional unit that removes (flat surface removing) a flat surface portion (for example, a flat wall surface, a road surface, etc.) from the captured data 50 from the noise removing unit 412 (see FIG. 4). By removing the flat surface portion, flat objects having the same shape such as the ground and the wall surface are removed, clustering can be performed correctly, and misclassification can be suppressed. The plane removing unit 413 outputs the plane-removed shooting data 50 toward the clustering unit 414.

クラスタリング部414は、平面除去部413からの撮影データ50に対してクラスタリング(複数のクラスタに分割ないし分類;例えば、k平均法など)を行う機能部である(図4参照)。撮影データ50のクラスタリングは、検知処理部421での予測モデル40とのマッチングのために行われる。クラスタリング部414は、クラスタリングされた撮影データ50を小データ化部415に向けて出力する。 The clustering unit 414 is a functional unit that performs clustering (division or classification into a plurality of clusters; for example, the k-means method) on the captured data 50 from the plane removing unit 413 (see FIG. 4). Clustering of the shooting data 50 is performed for matching with the prediction model 40 in the detection processing unit 421. The clustering unit 414 outputs the clustered shooting data 50 toward the small data unit 415.

小データ化部415は、クラスタリング部414からの撮影データ50の各クラスタ(点群データ)のデータサイズを縮小させる(小データ化する)機能である(図4参照)。小データ化の方法(データの縮小方法)として、例えば、クラスタリングされた撮影データ50の各クラスタに対して、選択された形状を小さな立方体で構成される「ボクセル」に加工するボクセル化、デジタル化することが挙げられる。小データ化部415での撮影データ50の小データ化は、小データ化された予測モデル40に合わせるために行っている。小データ化部415は、クラスタリングされた撮影データ50における各クラスタの点群データを小データ化した小データ60を生成し、生成された小データ60をモデル検知部420の検知処理部421に向けて出力する。 The data reduction unit 415 is a function of reducing (reducing) the data size of each cluster (point cloud data) of the shooting data 50 from the clustering unit 414 (see FIG. 4). As a method of reducing data (data reduction method), for example, for each cluster of clustered shooting data 50, voxels and digitization that process the selected shape into "voxels" composed of small cubes are performed. To do. The miniaturization of the shooting data 50 by the miniaturization unit 415 is performed in order to match with the small data prediction model 40. The small data conversion unit 415 generates small data 60, which is a small data of the point cloud data of each cluster in the clustered shooting data 50, and directs the generated small data 60 to the detection processing unit 421 of the model detection unit 420. And output.

モデル検知部420は、予測モデル40を用いて、前処理部410の小データ化部415からの小データ60の中から計測対象物10を検知する機能部である(図4参照)。モデル検知部420は、検知処理部421と、予測モデル記憶部422と、を有する。 The model detection unit 420 is a functional unit that detects the measurement target 10 from the small data 60 from the small data conversion unit 415 of the preprocessing unit 410 using the prediction model 40 (see FIG. 4). The model detection unit 420 includes a detection processing unit 421 and a prediction model storage unit 422.

検知処理部421は、予測モデル記憶部422に記憶された予測モデル40を用いて、前処理部410の小データ化部415からの小データ60における各クラスタに対して、予測モデル40とマッチングすることによって、計測対象物10を検知する機能部である(図4参照)。検知処理部421は、計測対象物10を検知することによって検知データを生成し、生成された検知データを検知結果出力部430の検知結果生成部431に向けて出力する。検知データは、検知結果生成部431で検知結果を生成するのに必要な基礎データであり、例えば、マッチングした予測モデル40、その位置データなどを含む。なお、検知処理部421は、小データ60における各クラスタに対して、予測モデル40とマッチングする際、計測対象物10を検知している間は正常と判断し、計測対象物10を検知できなくなった時に異常と判断するようにしてもよい。 The detection processing unit 421 uses the prediction model 40 stored in the prediction model storage unit 422 to match each cluster in the small data 60 from the small data conversion unit 415 of the preprocessing unit 410 with the prediction model 40. This is a functional unit that detects the measurement object 10 (see FIG. 4). The detection processing unit 421 generates detection data by detecting the measurement object 10, and outputs the generated detection data to the detection result generation unit 431 of the detection result output unit 430. The detection data is basic data necessary for the detection result generation unit 431 to generate a detection result, and includes, for example, a matched prediction model 40, its position data, and the like. When matching the prediction model 40 with each cluster in the small data 60, the detection processing unit 421 determines that the measurement target 10 is normal while detecting the measurement target 10, and cannot detect the measurement target 10. You may decide that it is abnormal at that time.

予測モデル記憶部422は、学習部322からの予測モデル40を記憶する機能部である(図4参照)。予測モデル記憶部422は、記憶された予測モデル40を検知処理部421に向けて出力することができる。 The prediction model storage unit 422 is a functional unit that stores the prediction model 40 from the learning unit 322 (see FIG. 4). The prediction model storage unit 422 can output the stored prediction model 40 to the detection processing unit 421.

検知結果出力部430は、モデル検知部420の検知処理部421の検知結果を出力する機能部である(図4参照)。検知結果出力部430は、検知結果生成部431を有する。 The detection result output unit 430 is a functional unit that outputs the detection result of the detection processing unit 421 of the model detection unit 420 (see FIG. 4). The detection result output unit 430 has a detection result generation unit 431.

検知結果生成部431は、モデル検知部420の検知処理部421からの検知データに基づいて検知結果を生成する機能部である(図4参照)。検知結果は、例えば、撮影データ50における計測対象物10の検知箇所を色付きの枠で示す等によりユーザにわかりやすいものにすることができる。検知結果生成部431は、生成された検知結果を、ユーザインタフェイス部440に向けて出力する。 The detection result generation unit 431 is a functional unit that generates a detection result based on the detection data from the detection processing unit 421 of the model detection unit 420 (see FIG. 4). The detection result can be made easy for the user to understand, for example, by indicating the detection location of the measurement object 10 in the shooting data 50 with a colored frame. The detection result generation unit 431 outputs the generated detection result to the user interface unit 440.

ユーザインタフェイス部440は、ユーザと距離計測装置100の距離計測部400との間の情報のやりとりを行う機能部である(図4参照)。ユーザインタフェイス部440は、表示部441と、操作部442と、を有する。 The user interface unit 440 is a functional unit that exchanges information between the user and the distance measuring unit 400 of the distance measuring device 100 (see FIG. 4). The user interface unit 440 has a display unit 441 and an operation unit 442.

表示部441は、情報(データ、画像などを含む)を表示する機能部である(図4参照)。表示部441は、センサ装置500で撮影データ50を表示する。表示部441は、検知結果生成部431からの検知結果(例えば、色付きの枠)を表示する。表示部441は、計測結果生成部461からの計測結果を表示する。表示部441は、表示されている情報を操作部442に向けて出力することができる。 The display unit 441 is a functional unit that displays information (including data, images, etc.) (see FIG. 4). The display unit 441 displays the shooting data 50 on the sensor device 500. The display unit 441 displays the detection result (for example, a colored frame) from the detection result generation unit 431. The display unit 441 displays the measurement result from the measurement result generation unit 461. The display unit 441 can output the displayed information to the operation unit 442.

操作部442は、ユーザの操作を受ける機能部である(図4参照)。ユーザは、操作部442を操作(例えば、マウスのクリック操作、タッチパネルのタップ操作など)することにより、表示部441に表示されている撮影データ50に対して計測対象物(例えば、図8の10)の始点(例えば、図8の始点A)、及び、終点(例えば、図8の終点B)を指定する。この場合、操作部442は、ユーザによって指定された始点Aの座標に係るデータを始点記憶部451に向けて出力し、ユーザによって指定された終点Bの座標に係るデータを終点記憶部452に向けて出力する。なお、先に始点Aを指定して後に終点Bを指定するだけでなく、先に終点Bを指定して後に始点Aを指定するようにしてもよい。 The operation unit 442 is a functional unit that receives an operation from the user (see FIG. 4). By operating the operation unit 442 (for example, clicking the mouse, tapping the touch panel, etc.), the user can measure the shooting data 50 displayed on the display unit 441 (for example, 10 in FIG. 8). ) (For example, the start point A in FIG. 8) and the end point (for example, the end point B in FIG. 8) are specified. In this case, the operation unit 442 outputs the data related to the coordinates of the start point A specified by the user to the start point storage unit 451 and directs the data related to the coordinates of the end point B specified by the user to the end point storage unit 452. And output. Not only the start point A may be specified first and the end point B may be specified later, but the end point B may be specified first and the start point A may be specified later.

距離計測部450は、指定された始点A及び終点Bに基づいて2点間(線分AB間)の距離を計測する機能部である(図4参照)。距離計測部450は、始点記憶部451と、終点記憶部452と、距離算出部453と、を有する。 The distance measuring unit 450 is a functional unit that measures the distance between two points (between line segments AB) based on the designated start point A and end point B (see FIG. 4). The distance measuring unit 450 includes a start point storage unit 451, an end point storage unit 452, and a distance calculation unit 453.

始点記憶部451は、ユーザの操作部442の操作により撮影データ50の点群の中からユーザが指定した始点Aの座標に係るデータを記憶する機能部である(図4参照)。始点記憶部451は、記憶された始点Aの座標に係るデータを距離算出部453に向けて出力することができる。 The start point storage unit 451 is a functional unit that stores data related to the coordinates of the start point A specified by the user from the point cloud of the shooting data 50 by the operation of the operation unit 442 of the user (see FIG. 4). The start point storage unit 451 can output the stored data related to the coordinates of the start point A toward the distance calculation unit 453.

終点記憶部452は、ユーザの操作部442の操作により撮影データ50の点群の中からユーザが指定した終点Bの座標に係るデータを記憶する機能部である(図4参照)。終点記憶部452は、記憶された終点Bの座標に係るデータを距離算出部453に向けて出力することができる。 The end point storage unit 452 is a functional unit that stores data related to the coordinates of the end point B specified by the user from the point cloud of the shooting data 50 by the operation of the operation unit 442 of the user (see FIG. 4). The end point storage unit 452 can output the data related to the stored coordinates of the end point B toward the distance calculation unit 453.

距離算出部453は、指定された始点A及び終点Bに基づいて2点間(線分AB間)の距離を算出する機能部である(図4参照)。距離算出部453は、始点記憶部451及び終点記憶部452に記憶された始点A及び終点Bの各座標に係るデータに基づいて、始点Aと終点Bとの間(2点間)の距離を算出する。距離算出部453は、算出された距離に係るデータ、及び、始点A及び終点Bの各座標に係るデータ、を計測結果生成部461に向けて出力する。距離算出部453は、距離の算出を1回だけでなく、複数回行い、それらの平均値を最終的な距離に係るデータとして出力するようにしてもよい。これにより、計測精度を向上させることができる。 The distance calculation unit 453 is a functional unit that calculates the distance between two points (between line segments AB) based on the designated start point A and end point B (see FIG. 4). The distance calculation unit 453 determines the distance between the start point A and the end point B (between two points) based on the data related to the coordinates of the start point A and the end point B stored in the start point storage unit 451 and the end point storage unit 452. calculate. The distance calculation unit 453 outputs the data related to the calculated distance and the data related to the coordinates of the start point A and the end point B toward the measurement result generation unit 461. The distance calculation unit 453 may calculate the distance not only once but also a plurality of times and output the average value thereof as data related to the final distance. Thereby, the measurement accuracy can be improved.

計測結果出力部460は、距離算出部453で算出された距離を含む計測結果を出力する機能部である(図4参照)。計測結果出力部460は、計測結果生成部461と、計測結果記憶部462と、を有する。 The measurement result output unit 460 is a functional unit that outputs a measurement result including the distance calculated by the distance calculation unit 453 (see FIG. 4). The measurement result output unit 460 has a measurement result generation unit 461 and a measurement result storage unit 462.

計測結果生成部461は、距離算出部453で算出された距離を含む計測結果70を生成する機能部である(図4参照)。計測結果70には、距離算出部453で算出された距離の他、始点A及び終点Bの各座標に係るデータを含めることができる。計測結果生成部461は、生成された計測結果70を表示部441及び計測結果記憶部462に向けて出力する。 The measurement result generation unit 461 is a functional unit that generates the measurement result 70 including the distance calculated by the distance calculation unit 453 (see FIG. 4). In addition to the distance calculated by the distance calculation unit 453, the measurement result 70 can include data related to the coordinates of the start point A and the end point B. The measurement result generation unit 461 outputs the generated measurement result 70 to the display unit 441 and the measurement result storage unit 462.

計測結果記憶部462は、計測結果70を記憶する機能部である(図4参照)。計測結果記憶部462は、計測結果生成部461で生成された計測結果70を記憶する。計測結果記憶部462は、計測結果生成部461で生成された計測結果の他、例えば、表示部441で表示された計測結果の画面をユーザの操作部442の操作によってキャプチャした画像データを、計測結果として記憶してもよい。計測結果記憶部462は、記憶された計測結果70を外部に向けて出力することができる。 The measurement result storage unit 462 is a functional unit that stores the measurement result 70 (see FIG. 4). The measurement result storage unit 462 stores the measurement result 70 generated by the measurement result generation unit 461. In addition to the measurement results generated by the measurement result generation unit 461, the measurement result storage unit 462 measures, for example, image data obtained by capturing the measurement result screen displayed by the display unit 441 by the operation of the user's operation unit 442. As a result, it may be memorized. The measurement result storage unit 462 can output the stored measurement result 70 to the outside.

実施形態1に係る距離計測システムにおける距離計測装置の動作について図面を用いて説明する。図5は、実施形態1に係る距離計測システムにおける距離計測装置の予測モデル作成部の動作を模式的に示したフローチャート図である。図6は、実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の計測対象物の検知動作を模式的に示したフローチャート図である。図7は、実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の計測対象物の距離計測動作を模式的に示したフローチャート図である。図8は、実施形態1に係る距離計測システムにおける距離計測装置の計測対象物の検知及び距離計測を模式的に示したイメージ図である。なお、距離計測システムの構成部については、図1〜図4を参照されたい。 The operation of the distance measuring device in the distance measuring system according to the first embodiment will be described with reference to the drawings. FIG. 5 is a flowchart illustrating the operation of the prediction model creation unit of the distance measuring device in the distance measuring system according to the first embodiment. FIG. 6 is a flowchart schematically showing a detection operation of a measurement object of the distance measurement unit of the distance measurement device in the distance measurement system according to the first embodiment. FIG. 7 is a flowchart schematically showing a distance measurement operation of a measurement object of the distance measurement unit of the distance measurement device in the distance measurement system according to the first embodiment. FIG. 8 is an image diagram schematically showing the detection and distance measurement of the measurement object of the distance measurement device in the distance measurement system according to the first embodiment. Please refer to FIGS. 1 to 4 for the components of the distance measurement system.

最初に、実施形態1に係る距離計測システムにおける距離計測装置の予測モデル作成部の動作について説明する。 First, the operation of the prediction model creation unit of the distance measuring device in the distance measuring system according to the first embodiment will be described.

図5を参照すると、まず、距離計測装置100の予測モデル作成部300の前処理部310のフォーマット変換部311は、3D画像作成部200で作成された予測モデル用の3D画像データ20を取得する(ステップA1)。 Referring to FIG. 5, first, the format conversion unit 311 of the preprocessing unit 310 of the prediction model creation unit 300 of the distance measuring device 100 acquires the 3D image data 20 for the prediction model created by the 3D image creation unit 200. (Step A1).

次に、フォーマット変換部311は、3D画像作成部200から取得した3D画像データ20のフォーマットを共通フォーマットに変換する(ステップA2)。 Next, the format conversion unit 311 converts the format of the 3D image data 20 acquired from the 3D image creation unit 200 into a common format (step A2).

次に、前処理部310の小データ化部312は、フォーマット変換部311でフォーマット変換された共通フォーマットの3D画像データ20を小データ化する(ステップA3)。 Next, the small data unit 312 of the preprocessing unit 310 converts the 3D image data 20 of the common format that has been format-converted by the format conversion unit 311 into small data (step A3).

次に、予測モデル作成部300の機械学習エンジン部320の教師ラベル付与部321は、小データ化部312で小データ化された3D画像データ20に対して教師ラベルを付与する(ステップA4)。 Next, the teacher label assigning unit 321 of the machine learning engine unit 320 of the prediction model creation unit 300 assigns a teacher label to the 3D image data 20 converted into small data by the small data conversion unit 312 (step A4).

次に、機械学習エンジン部320の学習部322は、機械学習エンジン部320で教師ラベルが付与された小データ30に基づいて、計測対象物10のパターンの機械学習を行う(ステップA5)。 Next, the learning unit 322 of the machine learning engine unit 320 performs machine learning of the pattern of the measurement object 10 based on the small data 30 to which the teacher label is attached by the machine learning engine unit 320 (step A5).

最後に、学習部322は、機械学習した内容に基づいて予測モデル40を作成(生成)し、作成された予測モデル40を距離計測装置100の距離計測部400のモデル検知部420の予測モデル記憶部422に記憶させ(ステップA6)、その後、終了する。 Finally, the learning unit 322 creates (generates) a prediction model 40 based on the machine-learned content, and stores the created prediction model 40 in the prediction model storage of the model detection unit 420 of the distance measurement unit 400 of the distance measurement device 100. It is stored in the unit 422 (step A6), and then ends.

実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の計測対象物の検知動作について説明する。 The detection operation of the measurement object of the distance measurement unit of the distance measurement device in the distance measurement system according to the first embodiment will be described.

図6を参照すると、まず、ユーザが距離計測装置100の距離計測部400のユーザインタフェイス部440の操作部442を操作(例えば、図8のスタートボタン90の押下)することにより、距離計測部400の検知動作を開始させ、その後、距離計測装置100の距離計測部400の前処理部410のフォーマット変換部411は、センサ装置500で撮影された撮影データ50を取得する(ステップB1)。 Referring to FIG. 6, first, the user operates the operation unit 442 of the user interface unit 440 of the distance measurement unit 400 of the distance measurement device 100 (for example, pressing the start button 90 in FIG. 8), thereby causing the distance measurement unit. The detection operation of 400 is started, and then the format conversion unit 411 of the preprocessing unit 410 of the distance measuring unit 400 of the distance measuring device 100 acquires the photographing data 50 photographed by the sensor device 500 (step B1).

次に、フォーマット変換部411は、センサ装置500から取得した撮影データ50のフォーマットを、共通フォーマットに変換する(ステップB2)。 Next, the format conversion unit 411 converts the format of the photographing data 50 acquired from the sensor device 500 into a common format (step B2).

次に、前処理部410のノイズ除去部412は、フォーマット変換部411でフォーマット変換された共通フォーマットの撮影データ50における点群の中からノイズを除去する(ステップB3)。 Next, the noise removing unit 412 of the preprocessing unit 410 removes noise from the point cloud in the shooting data 50 of the common format converted by the format conversion unit 411 (step B3).

次に、前処理部410の平面除去部413は、ノイズ除去部412でノイズ除去された撮影データ50の中から平面部分を除去する(ステップB4)。 Next, the flat surface removing unit 413 of the preprocessing unit 410 removes the flat surface portion from the shooting data 50 whose noise has been removed by the noise removing unit 412 (step B4).

次に、前処理部410のクラスタリング部414は、平面除去部413で平面除去された撮影データ50に対してクラスタリングを行う(ステップB5)。 Next, the clustering unit 414 of the preprocessing unit 410 clusters the captured data 50 whose plane has been removed by the plane removing unit 413 (step B5).

次に、前処理部410の小データ化部415は、クラスタリング部414でクラスタリングされた撮影データ50を小データ化した小データ60を生成する(ステップB6)。 Next, the small data unit 415 of the preprocessing unit 410 generates small data 60, which is a small data of the shooting data 50 clustered by the clustering unit 414 (step B6).

次に、距離計測部400のモデル検知部420の検知処理部421は、予測モデル記憶部422に記憶された予測モデル40を用いて、小データ化部415で生成された小データ60における各クラスタに対して、予測モデル40とマッチングすることによって、計測対象物10を検知し、検知データを生成する(ステップB7)。 Next, the detection processing unit 421 of the model detection unit 420 of the distance measurement unit 400 uses the prediction model 40 stored in the prediction model storage unit 422, and each cluster in the small data 60 generated by the small data conversion unit 415. On the other hand, by matching with the prediction model 40, the measurement target 10 is detected and the detection data is generated (step B7).

次に、距離計測部400の検知結果出力部430の検知結果生成部431は、検知処理部421で生成された検知データに基づいて検知結果(例えば、図8の検知箇所を色付きの枠で表した検知結果80)を生成する(ステップB8)。 Next, the detection result generation unit 431 of the detection result output unit 430 of the distance measurement unit 400 displays the detection result (for example, the detection location of FIG. 8 in a colored frame) based on the detection data generated by the detection processing unit 421. The detected detection result 80) is generated (step B8).

最後に、距離計測部400のユーザインタフェイス部440の表示部441は、検知結果生成部431で生成された検知結果を表示し(ステップB9)、その後、終了する。 Finally, the display unit 441 of the user interface unit 440 of the distance measurement unit 400 displays the detection result generated by the detection result generation unit 431 (step B9), and then ends.

実施形態1に係る距離計測システムにおける距離計測装置の距離計測部の計測対象物の距離計測動作について説明する。 The distance measurement operation of the object to be measured by the distance measurement unit of the distance measurement device in the distance measurement system according to the first embodiment will be described.

図7を参照すると、まず、距離計測装置100の距離計測部400のユーザインタフェイス部440は、表示部441に表示されている撮影データ50に対して、ユーザの操作部442の操作により指定された、計測対象物(例えば、図8の10)の始点(例えば、図8の始点A)の座標に係るデータを取得し、取得した始点Aの座標に係るデータを始点記憶部451に記憶させる(ステップC1)。 Referring to FIG. 7, first, the user interface unit 440 of the distance measuring unit 400 of the distance measuring device 100 is designated by the operation of the user's operation unit 442 with respect to the shooting data 50 displayed on the display unit 441. Further, the data related to the coordinates of the start point (for example, the start point A of FIG. 8) of the measurement target object (for example, 10 in FIG. 8) is acquired, and the data related to the acquired coordinates of the start point A is stored in the start point storage unit 451. (Step C1).

次に、ユーザインタフェイス部440は、表示部441に表示されている撮影データ50に対して、ユーザの操作部442の操作により指定された、計測対象物(例えば、図8の10)の終点(例えば、図8の終点B)の座標に係るデータを取得し、取得した終点Bの座標に係るデータを終点記憶部452に記憶させる(ステップC2)。 Next, the user interface unit 440 is the end point of the measurement object (for example, 10 in FIG. 8) designated by the operation of the user's operation unit 442 with respect to the shooting data 50 displayed on the display unit 441. (For example, the data related to the coordinates of the end point B in FIG. 8) is acquired, and the data related to the acquired coordinates of the end point B is stored in the end point storage unit 452 (step C2).

次に、距離計測部400の距離計測部450の距離算出部453は、始点記憶部451及び終点記憶部452に記憶された始点A及び終点Bの各座標に係るデータに基づいて、始点Aと終点Bとの間(2点間:例えば、図8の線分AB)の距離を算出する(ステップC3)。 Next, the distance calculation unit 453 of the distance measurement unit 450 of the distance measurement unit 400 sets the start point A and the start point A based on the data related to the coordinates of the start point A and the end point B stored in the start point storage unit 451 and the end point storage unit 452. The distance between the end point B (between two points: for example, the line segment AB in FIG. 8) is calculated (step C3).

ここで、ステップC3の距離の算出では、例えば、図8のように、始点Aの座標を(A、A、A)、終点Bの座標を(B、B、B)としたとき、線分ABの長さRは以下の数式1で算出することができる。 Here, in the calculation of distance in step C3, for example, as shown in FIG. 8, the coordinates of the starting point A (A x, A y, A z), the coordinates of the end point B (B x, B y, B z) Then, the length R of the line segment AB can be calculated by the following mathematical formula 1.

[数式1]

Figure 2021021672
[Formula 1]
Figure 2021021672

次に、距離計測部400の計測結果出力部460の計測結果生成部461は、距離算出部453で算出された距離を含む計測結果70を生成し、生成された計測結果70を計測結果記憶部462に記憶させる(ステップC4)。 Next, the measurement result generation unit 461 of the measurement result output unit 460 of the distance measurement unit 400 generates the measurement result 70 including the distance calculated by the distance calculation unit 453, and stores the generated measurement result 70 in the measurement result storage unit. It is stored in 462 (step C4).

最後に、距離計測部400のユーザインタフェイス部440の表示部441は、計測結果生成部461で生成された計測結果70を表示し(ステップC5)、その後、終了する。 Finally, the display unit 441 of the user interface unit 440 of the distance measurement unit 400 displays the measurement result 70 generated by the measurement result generation unit 461 (step C5), and then ends.

以上のような実施形態1に係る距離計測システム1は、電力業界における離隔距離の計測、建設業界における建設現場や資材の計測、林業分野における樹木の距離計測、物流業界における配送物の寸法の計測、スマートファクトリ分野における工場内の空き空間の距離計測等に利用することができる。 The distance measurement system 1 according to the first embodiment as described above measures the separation distance in the electric power industry, the construction site and materials in the construction industry, the distance measurement of trees in the forestry field, and the measurement of the dimensions of the delivered goods in the logistics industry. , Can be used for distance measurement of empty space in a factory in the smart factory field.

実施形態1によれば、平面除去部413により撮影データ50の中から平面部分を除去しているので、撮影データ50における地面や壁面のように平坦な同じ形状の物体が除去されて、正しくクラスタリングを行えるようになり、誤分類が抑えられ、検知精度を向上させることができる。 According to the first embodiment, since the flat surface portion is removed from the captured data 50 by the flat surface removing unit 413, flat objects having the same shape such as the ground and the wall surface in the captured data 50 are removed and clustered correctly. Can be performed, misclassification can be suppressed, and detection accuracy can be improved.

また、実施形態1によれば、撮影データ50(点群データ)の中から計測対象物10を自動的に検知することができる。これにより、点群データに馴染みのない作業員でも容易に計測対象物10を特定することができる。 Further, according to the first embodiment, the measurement target 10 can be automatically detected from the shooting data 50 (point cloud data). As a result, even a worker who is unfamiliar with the point cloud data can easily identify the measurement target 10.

実施形態1によれば、検知された計測対象物10に対して始点及び終点を指定するだけで始点と終点との間の距離を容易に測定することができる。これにより、点群データに馴染みのない作業員でも容易に距離の計測を行うことができる。 According to the first embodiment, the distance between the start point and the end point can be easily measured only by designating the start point and the end point for the detected measurement object 10. As a result, even a worker who is not familiar with the point cloud data can easily measure the distance.

また、実施形態1によれば、目的に応じて計測対象物10を機械学習して検知することができる。これにより、1つのソリューションに特化することなく、汎用的にソリューションを適用することができる。 Further, according to the first embodiment, the measurement object 10 can be machine-learned and detected according to the purpose. As a result, the solution can be applied universally without specializing in one solution.

また、実施形態1によれば、予測モデル作成部300によって3D画像データ20の予測モデル40を自動的に作成することができるので、様々な離隔距離の計測対象物及びその形状の予測モデル40を容易に準備することができる。これにより、ユーザの準備作業を軽減することができる。 Further, according to the first embodiment, since the prediction model 40 of the 3D image data 20 can be automatically created by the prediction model creation unit 300, the prediction model 40 of the measurement target of various separation distances and the shape thereof can be created. It can be easily prepared. As a result, the user's preparatory work can be reduced.

さらに、実施形態1によれば、機械学習にあたり、小データ化部312によって3D画像データ20を小データ化して機械学習しているので、3D画像データ20をそのまま機械学習するよりもデータサイズを抑えることができ、予測モデル40の作成を容易化することができる。 Further, according to the first embodiment, in machine learning, the 3D image data 20 is converted into small data by the small data conversion unit 312 for machine learning, so that the data size is suppressed as compared with the machine learning of the 3D image data 20 as it is. This makes it possible to facilitate the creation of the prediction model 40.

[実施形態2]
実施形態2に係る距離計測システムについて図面を用いて説明する。図9は、実施形態2に係る距離計測システムの構成を模式的に示したブロック図である。
[Embodiment 2]
The distance measurement system according to the second embodiment will be described with reference to the drawings. FIG. 9 is a block diagram schematically showing the configuration of the distance measurement system according to the second embodiment.

距離計測システム1は、センサ装置500と、距離計測装置100と、を有する。 The distance measuring system 1 includes a sensor device 500 and a distance measuring device 100.

センサ装置500は、計測対象物を撮影し、点群で描画された撮影データを生成する。 The sensor device 500 photographs an object to be measured and generates imaging data drawn as a point cloud.

距離計測装置100は、点群で描画された撮影データの中から平面部分を除去する処理を行う。距離計測装置100は、平面部分が除去された前記撮影データに対してクラスタリングを行う処理を行う。距離計測装置100は、クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理を行う。 The distance measuring device 100 performs a process of removing a flat portion from the photographed data drawn by the point cloud. The distance measuring device 100 performs a process of clustering the photographed data from which the flat surface portion has been removed. The distance measuring device 100 performs a process of detecting an object to be measured by matching with a prediction model created in advance by using the clustered shooting data.

実施形態2によれば、撮影データの中から平面部分を除去してクラスタリングすることで誤検知を抑えることができるので、作業員の技量に依存することなく、誤検知を抑えつつ、作業を容易化することに貢献することができる。 According to the second embodiment, since the false detection can be suppressed by removing the flat portion from the shooting data and clustering, the work can be easily performed while suppressing the false detection without depending on the skill of the worker. It can contribute to the transformation.

なお、実施形態1、2に係る距離計測装置は、いわゆるハードウェア資源(情報処理装置、コンピュータ)により構成することができ、図10に例示する構成を備えたものを用いることができる。例えば、ハードウェア資源1000は、内部バス1004により相互に接続される、プロセッサ1001、メモリ1002、ネットワークインタフェイス1003等を備える。 The distance measuring device according to the first and second embodiments can be configured by so-called hardware resources (information processing device, computer), and one having the configuration illustrated in FIG. 10 can be used. For example, the hardware resource 1000 includes a processor 1001, a memory 1002, a network interface 1003, and the like, which are interconnected by an internal bus 1004.

なお、図10に示す構成は、ハードウェア資源1000のハードウェア構成を限定する趣旨ではない。ハードウェア資源1000は、図示しないハードウェア(例えば、入出力インタフェイス)を含んでもよい。あるいは、装置に含まれるプロセッサ1001等のユニットの数も図10の例示に限定する趣旨ではなく、例えば、複数のプロセッサ1001がハードウェア資源1000に含まれていてもよい。プロセッサ1001には、例えば、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、GPU(Graphics Processing Unit)等を用いることができる。 The configuration shown in FIG. 10 is not intended to limit the hardware configuration of the hardware resource 1000. The hardware resource 1000 may include hardware (eg, an input / output interface) (not shown). Alternatively, the number of units such as the processor 1001 included in the device is not limited to the example of FIG. 10, and for example, a plurality of processors 1001 may be included in the hardware resource 1000. For the processor 1001, for example, a CPU (Central Processing Unit), an MPU (Micro Processor Unit), a GPU (Graphics Processing Unit), or the like can be used.

メモリ1002には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等を用いることができる。 For the memory 1002, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like can be used.

ネットワークインタフェイス1003には、例えば、LAN(Local Area Network)カード、ネットワークアダプタ、ネットワークインタフェイスカード等を用いることができる。 For the network interface 1003, for example, a LAN (Local Area Network) card, a network adapter, a network interface card, or the like can be used.

ハードウェア資源1000の機能は、上述の処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ1002に格納されたプログラムをプロセッサ1001が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能は、何らかのハードウェアにおいてソフトウェアが実行されることによって実現できればよい。 The function of the hardware resource 1000 is realized by the above-mentioned processing module. The processing module is realized, for example, by the processor 1001 executing a program stored in the memory 1002. In addition, the program can be downloaded via a network or updated using a storage medium in which the program is stored. Further, the processing module may be realized by a semiconductor chip. That is, the function performed by the processing module may be realized by executing software on some hardware.

上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。 Some or all of the above embodiments may also be described, but not limited to:

[付記1]
点群で描画された撮影データの中から平面部分を除去する処理と、
平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、
を行う、
距離計測装置。
[付記2]
前記予測モデルの基礎となる3D画像データを小データ化する処理と、
小データ化された前記3D画像データに基づいて機械学習を行う処理と、
機械学習した内容に基づいて前記予測モデルを作成する処理と、
を行い、
前記計測対象物を検知する処理では、クラスタリングされた前記撮影データにおける各クラスタを小データ化し、小データ化された前記各クラスタに対して、前記予測モデルを作成する処理で作成された前記予測モデルとマッチングすることによって、計測対象物を検知する、
付記1記載の距離計測装置。
[付記3]
前記3D画像データを小データ化する処理の前に、前記3D画像データのフォーマットを、前記距離計測装置で使用できる共通フォーマットに変換する処理を行い、
前記平面部分を除去する処理の前に、前記撮影データのフォーマットを、前記共通フォーマットに変換する処理を行う、
付記2記載の距離計測装置。
[付記4]
前記撮影データのフォーマットを前記共通フォーマットに変換する処理の後であって前記平面部分を除去する処理の前に、前記撮影データにおける点群の中からノイズを除去する処理を行う、
付記3記載の距離計測装置。
[付記5]
前記計測対象物を検知する処理の後に、前記撮影データにおける前記計測対象物上の位置に指定された始点と、前記撮影データにおける前記計測対象物上の前記始点と異なる位置に指定された終点と、の間の線分の距離を算出する処理を行う、
付記1乃至4のいずれか一に記載の距離計測装置。
[付記6]
前記距離を算出する処理では、前記線分の距離の算出を複数回行い、それらの平均値を最終的な距離とする、
付記5記載の距離計測装置。
[付記7]
前記予測モデルは、前記計測対象物の反射強度を含む、
付記1乃至6のいずれか一に記載の距離計測装置。
[付記8]
計測対象物を撮影し、点群で描画された撮影データを生成するセンサ装置と、
付記1乃至7のいずれか一に記載の距離計測装置と、
を備える、
距離計測システム。
[付記9]
点群で描画された撮影データの中から平面部分を除去するステップと、
平面部分が除去された前記撮影データに対してクラスタリングを行うステップと、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知するステップと、
を含む、
距離計測方法。
[付記10]
点群で描画された撮影データの中から平面部分を除去する処理と、
平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、
をハードウェア資源に実行させる、
プログラム。
[Appendix 1]
The process of removing the flat part from the shooting data drawn in the point cloud,
A process of clustering the photographed data from which the plane portion has been removed, and
A process of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
I do,
Distance measuring device.
[Appendix 2]
Processing to reduce the 3D image data that is the basis of the prediction model and
Processing to perform machine learning based on the 3D image data converted into small data,
The process of creating the prediction model based on the machine-learned content,
And
In the process of detecting the measurement object, each cluster in the clustered shooting data is reduced to small data, and the prediction model created by the process of creating the prediction model for each of the small data clusters. Detects the object to be measured by matching with,
The distance measuring device according to Appendix 1.
[Appendix 3]
Prior to the process of converting the 3D image data into smaller data, a process of converting the format of the 3D image data into a common format that can be used by the distance measuring device is performed.
Prior to the process of removing the flat surface portion, a process of converting the format of the shooting data into the common format is performed.
The distance measuring device according to Appendix 2.
[Appendix 4]
After the process of converting the format of the shooting data to the common format and before the processing of removing the flat portion, a process of removing noise from the point cloud in the shooting data is performed.
The distance measuring device according to Appendix 3.
[Appendix 5]
After the process of detecting the measurement object, the start point designated at the position on the measurement object in the shooting data and the end point designated at a position different from the start point on the measurement target in the shooting data. Performs the process of calculating the distance of the line segment between,
The distance measuring device according to any one of Appendix 1 to 4.
[Appendix 6]
In the process of calculating the distance, the distance of the line segment is calculated a plurality of times, and the average value thereof is used as the final distance.
The distance measuring device according to Appendix 5.
[Appendix 7]
The prediction model includes the reflection intensity of the measurement object.
The distance measuring device according to any one of Appendix 1 to 6.
[Appendix 8]
A sensor device that photographs the object to be measured and generates imaging data drawn as a point cloud,
The distance measuring device according to any one of Appendix 1 to 7 and
To prepare
Distance measurement system.
[Appendix 9]
The step of removing the plane part from the shooting data drawn in the point cloud,
A step of clustering the photographed data from which the plane portion has been removed, and
A step of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
including,
Distance measurement method.
[Appendix 10]
The process of removing the flat part from the shooting data drawn in the point cloud,
A process of clustering the photographed data from which the flat surface has been removed, and
A process of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
To run hardware resources,
program.

なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本発明の基礎ないし一部として用いることが出来るものとする。本発明の全開示(特許請求の範囲及び図面を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせないし選択(必要により不選択)が可能である。すなわち、本発明は、請求の範囲及び図面を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、本願に記載の数値及び数値範囲については、明記がなくともその任意の中間値、下位数値、及び、小範囲が記載されているものとみなされる。さらに、上記引用した文献の各開示事項は、必要に応じ、本願発明の趣旨に則り、本願発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれる(属する)ものと、みなされる。 It should be noted that each disclosure of the above-mentioned patent documents shall be renormalized and described in this document by reference, and may be used as a basis or a part of the present invention as necessary. Within the framework of the entire disclosure of the present invention (including the scope of claims and drawings), the embodiments or examples can be changed or adjusted based on the basic technical idea thereof. Further, various combinations or selections (necessary) of various disclosure elements (including each element of each claim, each element of each embodiment or embodiment, each element of each drawing, etc.) within the framework of all disclosure of the present invention. (Not selected) is possible. That is, it goes without saying that the present invention includes all disclosures including claims and drawings, and various modifications and modifications that can be made by those skilled in the art in accordance with technical ideas. In addition, regarding the numerical values and numerical ranges described in the present application, it is considered that arbitrary intermediate values, lower numerical values, and small ranges are described even if not specified. Furthermore, each of the disclosed matters of the above-cited documents may be used in combination with the matters described in this document as a part of the disclosure of the present invention, if necessary, in accordance with the purpose of the present invention. It is considered to be included in (belonging to) the matters disclosed in the present application.

1 距離計測システム
10 計測対象物
20 3D画像データ
30 小データ
40 予測モデル
50 撮影データ
60 小データ
70 計測結果
80 検知結果
90 スタートボタン
100 距離計測装置
200 3D画像作成部
300 予測モデル作成部
310 前処理部
311 フォーマット変換部
312 小データ化部
320 機械学習エンジン部
321 教師ラベル付与部
322 学習部
400 距離計測部
410 前処理部
411 フォーマット変換部
412 ノイズ除去部
413 平面除去部
414 クラスタリング部
415 小データ化部
420 モデル検知部
421 検知処理部
422 予測モデル記憶部
430 検知結果出力部
431 検知結果生成部
440 ユーザインタフェイス部
441 表示部
442 操作部
450 距離計測部
451 始点記憶部
452 終点記憶部
453 距離算出部
460 計測結果出力部
461 計測結果生成部
462 計測結果記憶部
500 センサ装置
1000 ハードウェア資源
1001 プロセッサ
1002 メモリ
1003 ネットワークインタフェイス
1004 内部バス
1 Distance measurement system 10 Measurement target 20 3D image data 30 Small data 40 Prediction model 50 Shooting data 60 Small data 70 Measurement result 80 Detection result 90 Start button 100 Distance measurement device 200 3D image creation unit 300 Prediction model creation unit 310 Preprocessing Unit 311 Format conversion unit 312 Small data conversion unit 320 Machine learning engine unit 321 Teacher label assignment unit 322 Learning unit 400 Distance measurement unit 410 Preprocessing unit 411 Format conversion unit 412 Noise removal unit 413 Flat surface removal unit 414 Clustering unit 415 Small data conversion unit Unit 420 Model detection unit 421 Detection processing unit 422 Prediction model storage unit 430 Detection result output unit 431 Detection result generation unit 440 User interface unit 441 Display unit 442 Operation unit 450 Distance measurement unit 451 Start point storage unit 452 End point storage unit 453 Distance calculation Unit 460 Measurement result output unit 461 Measurement result generation unit 462 Measurement result storage unit 500 Sensor device 1000 Hardware resources 1001 Processor 1002 Memory 1003 Network interface 1004 Internal bus

Claims (10)

点群で描画された撮影データの中から平面部分を除去する処理と、
平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、
を行う、
距離計測装置。
The process of removing the flat part from the shooting data drawn in the point cloud,
A process of clustering the captured data from which the flat surface has been removed, and
A process of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
I do,
Distance measuring device.
前記予測モデルの基礎となる3D画像データを小データ化する処理と、
小データ化された前記3D画像データに基づいて機械学習を行う処理と、
機械学習した内容に基づいて前記予測モデルを作成する処理と、
を行い、
前記計測対象物を検知する処理では、クラスタリングされた前記撮影データにおける各クラスタを小データ化し、小データ化された前記各クラスタに対して、前記予測モデルを作成する処理で作成された前記予測モデルとマッチングすることによって、前記計測対象物を検知する、
請求項1記載の距離計測装置。
Processing to reduce the 3D image data that is the basis of the prediction model and
Processing to perform machine learning based on the 3D image data converted into small data,
The process of creating the prediction model based on the machine-learned content,
And
In the process of detecting the measurement object, each cluster in the clustered shooting data is reduced to small data, and the prediction model created by the process of creating the prediction model for each of the small data clusters. By matching with, the measurement target is detected.
The distance measuring device according to claim 1.
前記3D画像データを小データ化する処理の前に、前記3D画像データのフォーマットを、前記距離計測装置で使用できる共通フォーマットに変換する処理を行い、
前記平面部分を除去する処理の前に、前記撮影データのフォーマットを、前記共通フォーマットに変換する処理を行う、
請求項2記載の距離計測装置。
Prior to the process of converting the 3D image data into smaller data, a process of converting the format of the 3D image data into a common format that can be used by the distance measuring device is performed.
Prior to the process of removing the flat surface portion, a process of converting the format of the shooting data into the common format is performed.
The distance measuring device according to claim 2.
前記撮影データのフォーマットを前記共通フォーマットに変換する処理の後であって前記平面部分を除去する処理の前に、前記撮影データにおける点群の中からノイズを除去する処理を行う、
請求項3記載の距離計測装置。
After the process of converting the format of the shooting data to the common format and before the processing of removing the flat portion, a process of removing noise from the point cloud in the shooting data is performed.
The distance measuring device according to claim 3.
前記計測対象物を検知する処理の後に、前記撮影データにおける前記計測対象物上の位置に指定された始点と、前記撮影データにおける前記計測対象物上の前記始点と異なる位置に指定された終点と、の間の線分の距離を算出する処理を行う、
請求項1乃至4のいずれか一に記載の距離計測装置。
After the process of detecting the measurement object, the start point designated at the position on the measurement object in the shooting data and the end point designated at a position different from the start point on the measurement target in the shooting data. Performs the process of calculating the distance of the line segment between,
The distance measuring device according to any one of claims 1 to 4.
前記距離を算出する処理では、前記線分の距離の算出を複数回行い、それらの平均値を最終的な距離とする、
請求項5記載の距離計測装置。
In the process of calculating the distance, the distance of the line segment is calculated a plurality of times, and the average value thereof is used as the final distance.
The distance measuring device according to claim 5.
前記予測モデルは、前記計測対象物の反射強度を含む、
請求項1乃至6のいずれか一に記載の距離計測装置。
The prediction model includes the reflection intensity of the measurement object.
The distance measuring device according to any one of claims 1 to 6.
計測対象物を撮影し、点群で描画された撮影データを生成するセンサ装置と、
請求項1乃至7のいずれか一に記載の距離計測装置と、
を備える、
距離計測システム。
A sensor device that photographs the object to be measured and generates imaging data drawn as a point cloud,
The distance measuring device according to any one of claims 1 to 7.
To prepare
Distance measurement system.
点群で描画された撮影データの中から平面部分を除去するステップと、
平面部分が除去された前記撮影データに対してクラスタリングを行うステップと、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知するステップと、
を含む、
距離計測方法。
The step of removing the plane part from the shooting data drawn in the point cloud,
A step of clustering the photographed data from which the plane portion has been removed, and
A step of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
including,
Distance measurement method.
点群で描画された撮影データの中から平面部分を除去する処理と、
平面部分が除去された前記撮影データに対してクラスタリングを行う処理と、
クラスタリングされた前記撮影データを用いて、予め作成された予測モデルとマッチングすることによって、計測対象物を検知する処理と、
をハードウェア資源に実行させる、
プログラム。
The process of removing the flat part from the shooting data drawn in the point cloud,
A process of clustering the photographed data from which the plane portion has been removed, and
A process of detecting an object to be measured by matching with a prediction model created in advance using the clustered shooting data.
To run hardware resources,
program.
JP2019139433A 2019-07-30 2019-07-30 Distance measuring device, system, method, and program Pending JP2021021672A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019139433A JP2021021672A (en) 2019-07-30 2019-07-30 Distance measuring device, system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019139433A JP2021021672A (en) 2019-07-30 2019-07-30 Distance measuring device, system, method, and program

Publications (1)

Publication Number Publication Date
JP2021021672A true JP2021021672A (en) 2021-02-18

Family

ID=74574781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019139433A Pending JP2021021672A (en) 2019-07-30 2019-07-30 Distance measuring device, system, method, and program

Country Status (1)

Country Link
JP (1) JP2021021672A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0458943A (en) * 1990-06-28 1992-02-25 Konica Corp Image recognizing device for digital radiation image
WO2004003850A1 (en) * 2002-06-28 2004-01-08 Fujitsu Limited Three-dimensional image comparing program, three-dimensionalimage comparing method, and three-dimensional image comparing device
JP2013196355A (en) * 2012-03-19 2013-09-30 Toshiba Corp Object measuring device and object measuring method
JP2016028229A (en) * 2014-07-08 2016-02-25 キヤノン株式会社 Data processing apparatus, data display system having the same, sample information acquisition system, data processing method, program, and storage medium
JP2016103263A (en) * 2015-08-31 2016-06-02 株式会社大林組 Structure state grasping support device, structure state grasping support method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0458943A (en) * 1990-06-28 1992-02-25 Konica Corp Image recognizing device for digital radiation image
WO2004003850A1 (en) * 2002-06-28 2004-01-08 Fujitsu Limited Three-dimensional image comparing program, three-dimensionalimage comparing method, and three-dimensional image comparing device
JP2013196355A (en) * 2012-03-19 2013-09-30 Toshiba Corp Object measuring device and object measuring method
JP2016028229A (en) * 2014-07-08 2016-02-25 キヤノン株式会社 Data processing apparatus, data display system having the same, sample information acquisition system, data processing method, program, and storage medium
JP2016103263A (en) * 2015-08-31 2016-06-02 株式会社大林組 Structure state grasping support device, structure state grasping support method, and program

Similar Documents

Publication Publication Date Title
JP2019149150A (en) Method and apparatus for processing point cloud data
KR20160048901A (en) System and method for determining the extent of a plane in an augmented reality environment
US8229928B2 (en) 3D object descriptors
TW201616451A (en) System and method for selecting point clouds using a free selection tool
JP2016179534A (en) Information processor, information processing method, program
CN115578433B (en) Image processing method, device, electronic equipment and storage medium
CN116168351B (en) Inspection method and device for power equipment
CN111104879B (en) Method and device for identifying house functions, readable storage medium and electronic equipment
CN113167569A (en) Volume measurement device, system, method, and program
CN113378958A (en) Automatic labeling method, device, equipment, storage medium and computer program product
CN113378712A (en) Training method of object detection model, image detection method and device thereof
CN115719436A (en) Model training method, target detection method, device, equipment and storage medium
CN112863187B (en) Detection method of perception model, electronic equipment, road side equipment and cloud control platform
JP5704909B2 (en) Attention area detection method, attention area detection apparatus, and program
CN113129249B (en) Depth video-based space plane detection method and system and electronic equipment
CN115861400A (en) Target object detection method, training method and device and electronic equipment
JP7003617B2 (en) Estimator, estimation method, and estimation program
CN113763458A (en) Method and device for determining target object placing surface
JP2021021672A (en) Distance measuring device, system, method, and program
JP2022186029A (en) Distance measuring apparatus, method, and program
JP7405395B2 (en) Object detection device, system, method, and program
JP2022018517A (en) Cable detection apparatus, method, and program
JP7251869B2 (en) DISTANCE MEASURING DEVICE, SYSTEM, METHOD AND PROGRAM
US11922659B2 (en) Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium
JP2021056765A (en) Load capacity rate measurement device, system, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230929

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231011

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20231102