JP6997057B2 - Devices, programs and methods for estimating terminal position from non-animal body information - Google Patents
Devices, programs and methods for estimating terminal position from non-animal body information Download PDFInfo
- Publication number
- JP6997057B2 JP6997057B2 JP2018168255A JP2018168255A JP6997057B2 JP 6997057 B2 JP6997057 B2 JP 6997057B2 JP 2018168255 A JP2018168255 A JP 2018168255A JP 2018168255 A JP2018168255 A JP 2018168255A JP 6997057 B2 JP6997057 B2 JP 6997057B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- terminal
- peripheral
- animal body
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Description
本発明は、端末の位置を自律的に推定する技術に関する。 The present invention relates to a technique for autonomously estimating the position of a terminal.
現在、自動運転車や自律移動ロボット等の自律移動体に見られるように、機外・外部からの操作・制御に依らず、自律的に移動を行う技術の開発が盛んに進められている。この技術では、例えばカメラで撮影された画像や、LiDARによるポイントクラウド(point cloud,点群)等を取得して周囲の状況を把握するのであるが、その際、自らの位置を推定することも重要な課題となっている。 Currently, as seen in autonomous mobile bodies such as self-driving cars and autonomous mobile robots, the development of technology for autonomous movement is being actively promoted regardless of operations and controls from outside or outside the aircraft. In this technology, for example, an image taken by a camera or a point cloud (point cloud) by LiDAR is acquired to grasp the surrounding situation, but at that time, it is also possible to estimate its own position. It has become an important issue.
また、通信端末を所持したユーザの現在位置や移動経路を、GPS(Global Positioning System)等に依らず、当該端末によって取得される情報を用いて推定する歩行者デッドレコニング(PDR)技術も大きな進展を見せている。 In addition, pedestrian dead reckoning (PDR) technology that estimates the current position and movement route of a user who owns a communication terminal using information acquired by the terminal, regardless of GPS (Global Positioning System), has also made great progress. Is showing.
このような自律的な位置推定技術として、例えば特許文献1には、3次元のLiDARマップに対して1つのカメラから取得された情報を適用し、視覚的な位置特定を行う技術が開示されている。この技術では、最初にGPSによって大まかな位置を決定し、次にカメラによる画像データと比較するための合成画像を生成している。ここで、規格化された共通する画像情報が最大限取得されるように設定されているので、生成したマップ上にリアルタイムで画像データを逐次位置合わせ(registration)することが可能となっている。 As such an autonomous position estimation technique, for example, Patent Document 1 discloses a technique for visually identifying a position by applying information acquired from one camera to a three-dimensional LiDAR map. There is. In this technique, the rough position is first determined by GPS, and then a composite image for comparison with the image data obtained by the camera is generated. Here, since the standardized common image information is set to be acquired as much as possible, it is possible to sequentially align the image data on the generated map in real time.
また、例えば非特許文献1には、広範な室内・建物内での位置推定技術として、順次厳密化していく一連の位置検証ステップにおいて、デンス特徴量(dense feature)を抽出してマッチング処理を行う技術が開示されている。この技術では、壁、天井や床のようなテクスチャの乏しい背景に対処すべく、ローカル特徴量(local feature)ではなくデンス特徴量によるマッチング処理を行うことによって、カメラの向き(姿勢)が推定される。ここで、対象画像を撮影したカメラの向きとして、3次元マップにおける6DoF(6 Degrees of Freedom)についての向きも決定される。 Further, for example, in Non-Patent Document 1, as a position estimation technique in a wide range of indoors and buildings, a dense feature is extracted and a matching process is performed in a series of position verification steps that are sequentially tightened. The technology is disclosed. With this technology, the orientation (posture) of the camera is estimated by performing matching processing using dense features instead of local features in order to deal with poorly textured backgrounds such as walls, ceilings, and floors. To. Here, as the orientation of the camera that captured the target image, the orientation of 6DoF (6 Degrees of Freedom) in the three-dimensional map is also determined.
さらに、例えば非特許文献2には、SLAM(Simultaneously Localization and Mapping)と大域での位置推定とを結合させた位置推定技術が開示されている。このうちSLAMは、移動端末で実施され、6DoFの端末向きの推定を行う。一方、キーフレームを用いた大域での位置推定はサーバにおいて実施され、当該位置推定結果は移動端末へ通知されて、GPS測位結果と合わせて使用される。ここで、連続するキーフレームを用いてマッチング処理を行うことによって、端末方位の推定性能を向上させ、大域での位置推定における推定情報の範囲を拡大している。 Further, for example, Non-Patent Document 2 discloses a position estimation technique in which SLAM (Simultaneously Localization and Mapping) and position estimation in a global range are combined. Of these, SLAM is implemented on mobile terminals and estimates 6DoF for terminals. On the other hand, the position estimation in a large area using the key frame is performed in the server, the position estimation result is notified to the mobile terminal, and is used together with the GPS positioning result. Here, by performing the matching process using continuous key frames, the estimation performance of the terminal orientation is improved, and the range of estimation information in the position estimation in a large region is expanded.
しかしながら、以上に述べたような技術を含む従来技術においては、GPSに依存することによって、又は移動物体の影響によって、位置推定誤差の増大する問題が依然解決されていないのが実情である。 However, in the prior art including the above-mentioned techniques, the problem that the position estimation error increases due to the dependence on GPS or the influence of a moving object has not been solved yet.
例えば、特許文献1に記載された技術では、合成画像とのマッチング処理を行うことによって、参照ポイントクラウド上で対象画像の位置合わせを行っている。ここで、当初の位置はGPSによって取得されるので、GPSの測位精度が低い場合、合成画像は誤った位置に生成されてしまう可能性が生じる。またこの後、対象画像と合成画像との比較を行っていくことによって、画像位置合わせにおける誤差が累積してしまうこともあり得る。さらに、対象画像において動的障害物が広範囲で出現したり、画像のブレのような画像情報の劣化が生じたりすることによって、位置合わせ処理や位置推定処理において問題が発生する可能性もあるのである。 For example, in the technique described in Patent Document 1, the target image is aligned on the reference point cloud by performing the matching process with the composite image. Here, since the initial position is acquired by GPS, if the GPS positioning accuracy is low, there is a possibility that the composite image will be generated at an erroneous position. Further, after that, by comparing the target image and the composite image, errors in image alignment may be accumulated. Furthermore, dynamic obstacles may appear in a wide range in the target image, or deterioration of image information such as image blurring may occur, which may cause problems in the alignment process and the position estimation process. be.
また、例えば非特許文献1に記載された技術では、多数の移動物体を含む場面や非常に動きの激しい場面において、一連のカメラ向き検証ステップが、そのような急激の変化に対処できず検証処理に失敗してしまう懸念が生じる。特に、移動物体が対象画像の大部分を占めるような場合、位置推定処理やカメラ向き推定処理は、当該移動物体から極めて深刻な影響を受けてしまうのである。 Further, for example, in the technique described in Non-Patent Document 1, a series of camera orientation verification steps cannot cope with such a sudden change in a scene including a large number of moving objects or a scene with extremely high movement, and verification processing is performed. There is a concern that it will fail. In particular, when a moving object occupies most of the target image, the position estimation process and the camera orientation estimation process are extremely seriously affected by the moving object.
さらに、例えば非特許文献2に記載された技術では、キーフレームを付加することにより局所モデルが常時調整されている。その結果、移動端末側のマップとサーバ側のマップとの間で矛盾の生じる可能性がある。キーフレームから検出された特徴量は、カメラの視野に入った全ての物体の特徴を含むことになるので、移動端末側のマップ及び大域での位置推定結果を更新する際、移動物体の存在によって位置合わせ誤差が生じ得るのである。 Further, for example, in the technique described in Non-Patent Document 2, the local model is constantly adjusted by adding a key frame. As a result, there may be a contradiction between the map on the mobile terminal side and the map on the server side. Since the feature amount detected from the key frame includes the features of all the objects in the field of view of the camera, the presence of the moving object when updating the map on the mobile terminal side and the position estimation result in the global range. Alignment errors can occur.
そこで、本発明は、GPS等の外部測位系に依存することなく、移動物体の存在による影響を抑制した端末位置推定処理を実施することができる装置、プログラム及び方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a device, a program, and a method capable of performing terminal position estimation processing in which the influence of the presence of a moving object is suppressed without depending on an external positioning system such as GPS. ..
本発明によれば、所定のエリアにおける端末の位置を推定する端末位置推定装置であって、
当該端末の周辺に存在する物体に係る情報であって当該端末の位置における観測結果である周辺点群情報を取得する周辺物体情報取得手段と、
点群情報の識別器を用いて、当該周辺点群情報に含まれる個々の物体に係る情報である点群情報が、予め設定された可動物体に係る点群情報か否かを判定する周辺物体情報判定手段と、
当該周辺点群情報に含まれる情報のうち、可動物体に係る点群情報であると判定された点群情報を除去することによって、周辺に存在する不動物体に係る点群情報である周辺不動物体モデルを生成する周辺モデル生成手段と、
当該端末の当該エリア内における位置に係る情報として、当該端末の当該エリア内における位置の候補に係る情報である端末位置候補情報を決定し、予め生成されたモデルであって当該エリアに存在する不動物体に係る点群情報である参照不動物体モデルから、個々の不動物体をノードとして当該不動物体間の距離をエッジとした参照不動物体モデルに係るグラフを生成し、当該参照不動物体モデルに係るグラフと、当該周辺不動物体モデルに含まれる個々の不動物体をノードとして当該不動物体間の距離をエッジとした周辺不動物体モデルに係るグラフとの間でマッチング処理を行って、当該端末位置候補情報から、当該端末の位置に係る端末位置候補情報を選択し、当該参照不動物体モデルにおける選択された端末位置候補情報に係る位置に存在する不動物体に係る点群情報と、当該周辺不動物体モデルにおけるこの不動物体に対応する不動物体に係る点群情報との間の重畳の度合いを最大にする点群平行移動量及び点群回転量に基づいて、当該端末の当該エリア内における位置に係る情報を決定する端末位置決定手段と
を有する端末位置推定装置が提供される。
According to the present invention, it is a terminal position estimation device that estimates the position of a terminal in a predetermined area.
Peripheral object information acquisition means for acquiring peripheral point cloud information which is information related to an object existing in the vicinity of the terminal and is an observation result at the position of the terminal.
A peripheral object that uses a point group information classifier to determine whether the point group information, which is information related to an individual object included in the peripheral point group information, is point group information related to a preset movable object. Information judgment means and
By removing the point cloud information determined to be the point cloud information related to the movable object from the information included in the peripheral point cloud information, the peripheral non-animal body which is the point cloud information related to the non-animal body existing in the vicinity. Peripheral model generation means to generate a model, and
As the information relating to the position of the terminal in the area, the terminal position candidate information which is the information relating to the position candidate in the area of the terminal is determined, and the model generated in advance and existing in the area is immovable. From the reference non-animal body model which is the point group information related to the object, a graph related to the reference non-animal body model with each non-animal body as a node and the distance between the non-animal bodies as an edge is generated, and the graph related to the reference non-animal body model is generated. The matching process is performed between the graph and the graph related to the peripheral animal body model in which the individual animal bodies included in the peripheral animal body model are used as nodes and the distance between the animal bodies is used as an edge, and the terminal position candidate information is used. , The terminal position candidate information relating to the position of the terminal is selected, the point group information relating to the animal body existing at the position corresponding to the selected terminal position candidate information in the reference non-animal body model, and the peripheral non-animal body model . Based on the point group parallel movement amount and the point group rotation amount that maximize the degree of superposition with the point group information related to the non-animal body corresponding to this non-animal body, the information related to the position of the terminal in the area is obtained. A terminal position estimation device having a terminal position determining means for determining is provided.
さらに、本発明による端末位置推定装置において、端末位置決定手段は、当該重畳の度合いを最大にする点群平行移動量及び点群回転量に基づいて、当該端末の向きも決定することも好ましい。 Further, in the terminal position estimation device according to the present invention , it is also preferable that the terminal position determining means also determines the orientation of the terminal based on the point cloud translation amount and the point cloud rotation amount that maximize the degree of superposition.
さらにまた、本発明による端末位置推定装置において、端末位置推定装置は、当該周辺点群情報を、点データ間の距離に基づいて、互いに隣接した点データの集合である物体毎の点群情報に区分する周辺物体情報区分手段を更に有し、
周辺モデル生成手段は、当該物体毎の点群情報のうち、可動物体に係る点群情報であると判定された点群情報を除去することによって当該周辺不動物体モデルを生成する
ことも好ましい。
Furthermore, in the terminal position estimation device according to the present invention , the terminal position estimation device converts the peripheral point cloud information into point cloud information for each object, which is a set of point data adjacent to each other, based on the distance between the point data. It also has peripheral object information classification means for sorting,
It is also preferable that the peripheral model generation means generates the peripheral non-animal body model by removing the point cloud information determined to be the point cloud information related to the movable object from the point cloud information for each object.
本発明によれば、また、所定のエリアにおける端末の位置を推定する端末位置推定装置であって、
当該端末の周辺に存在する物体に係る情報であって当該端末の位置における観測結果である周辺画像情報を取得する周辺画像情報取得手段と、
画像情報の識別器を用いて、当該周辺画像情報に含まれる個々の物体に係る情報である画像部分情報が、予め設定された可動物体に係る画像部分情報であるか否かを判定する周辺物体情報判定手段と、
当該周辺画像情報に含まれる情報のうち、可動物体に係る画像部分情報であると判定された画像部分情報に対しマスキング処理を施すことによって、周辺に存在する不動物体に係る画像情報である周辺不動物体モデルを生成する周辺モデル生成手段と、
予め生成されたモデルであって当該エリアに存在する不動物体に係る画像情報である参照不動物体モデルから又は該モデルにおける端末位置の候補となる部分から、個々の不動物体に係る画像部分情報を抽出し、当該画像部分情報と、当該周辺不動物体モデルに含まれる個々の不動物体に係る画像部分情報との間における画像重畳の度合いに基づいて、当該端末の当該エリア内における位置に係る情報を決定する端末位置決定手段と
を有する端末位置推定装置が提供される。
According to the present invention, it is also a terminal position estimation device that estimates the position of a terminal in a predetermined area.
Peripheral image information acquisition means for acquiring peripheral image information which is information related to an object existing in the vicinity of the terminal and is an observation result at the position of the terminal.
Peripheral determination using an image information classifier to determine whether the image partial information, which is information related to an individual object included in the peripheral image information, is the image partial information related to a preset movable object. Object information determination means and
Of the information included in the peripheral image information, by performing masking processing on the image partial information determined to be the image partial information related to the movable object, the peripheral image information related to the non-animal body existing in the periphery is applied. Peripheral model generation means to generate an inanimate body model,
Image partial information related to individual non-animal bodies is obtained from a reference non-animal body model, which is a pre- generated model and image information related to non-animal bodies existing in the area, or from a part that is a candidate for a terminal position in the model. Based on the degree of image superimposition between the extracted image partial information and the image partial information related to each inanimate object included in the peripheral inanimate body model, the information relating to the position of the terminal in the area is obtained. With the terminal position determination means to determine
A terminal position estimation device having the above is provided .
さらに、上記の周辺画像情報を採用した本発明による端末位置推定装置において、当該周辺画像情報は、当該端末に搭載されたカメラによって生成されたカメラ画像情報、又は当該端末に搭載されたデプスカメラによって生成された距離画像情報であることも好ましい。
さらに以上に述べた本発明による端末位置推定装置の一実施形態として、本端末位置推定装置は、
当該エリアにおける複数の位置の各々における観測結果の情報であって当該位置の周辺に存在する物体に係る情報に基づいて、当該エリアに存在する物体に係る情報であるエリア内物体情報を生成し、
当該エリア内物体情報に含まれる情報のうち、可動物体に係る点群情報であると判定された点群情報を除去することにより生成されたエリア内不動物体情報によって、または、当該エリア内物体情報に含まれる情報のうち、可動物体に係る画像部分情報であると判定された画像部分情報に対しマスキングすることにより生成されたエリア内不動物体情報によって、当該参照不動物体モデルを生成又は更新する
参照モデル管理手段を更に有することも好ましい。
さらにまた、以上に述べた本発明に係る当該不動物体に係る点群情報又は当該不動物体に係る画像部分情報は、当該不動物体における物体種別情報と不動物体間距離に係る情報とを含むことも好ましい。
Further, in the terminal position estimation device according to the present invention that employs the above peripheral image information, the peripheral image information is obtained by the camera image information generated by the camera mounted on the terminal or the depth camera mounted on the terminal. It is also preferable that it is the generated distance image information.
Further, as an embodiment of the terminal position estimation device according to the present invention described above, the terminal position estimation device is
Based on the information of the observation result at each of the plurality of positions in the area and the information related to the objects existing in the vicinity of the position, the object information in the area which is the information related to the objects existing in the area is generated.
Of the information contained in the object information in the area, the inanimate object information in the area generated by removing the point group information determined to be the point group information related to the movable object, or the object information in the area. Of the information contained in the above, the reference inanimate model is generated or updated by the in-area inanimate information generated by masking the image partial information determined to be the image partial information related to the movable object.
It is also preferred to have additional reference model management means.
Furthermore, the point cloud information related to the non-animal body or the image partial information related to the non-animal body described above may include the object type information in the non-animal body and the information related to the distance between the non-animal bodies. preferable.
本発明によれば、また、所定のエリアにおける端末の位置を推定する装置に搭載されたコンピュータを機能させるプログラムであって、
当該端末の周辺に存在する物体に係る情報であって当該端末の位置における観測結果である周辺点群情報を取得する周辺物体情報取得手段と、
点群情報の識別器を用いて、当該周辺点群情報に含まれる個々の物体に係る情報である点群情報が、予め設定された可動物体に係る点群情報か否かを判定する周辺物体情報判定手段と、
当該周辺点群情報に含まれる情報のうち、可動物体に係る点群情報であると判定された点群情報を除去することによって、周辺に存在する不動物体に係る点群情報である周辺不動物体モデルを生成する周辺モデル生成手段と、
当該端末の当該エリア内における位置に係る情報として、当該端末の当該エリア内における位置の候補に係る情報である端末位置候補情報を決定し、予め生成されたモデルであって当該エリアに存在する不動物体に係る点群情報である参照不動物体モデルから、個々の不動物体をノードとして当該不動物体間の距離をエッジとした参照不動物体モデルに係るグラフを生成し、当該参照不動物体モデルに係るグラフと、当該周辺不動物体モデルに含まれる個々の不動物体をノードとして当該不動物体間の距離をエッジとした周辺不動物体モデルに係るグラフとの間でマッチング処理を行って、当該端末位置候補情報から、当該端末の位置に係る端末位置候補情報を選択し、当該参照不動物体モデルにおける選択された端末位置候補情報に係る位置に存在する不動物体に係る点群情報と、当該周辺不動物体モデルにおける該不動物体に対応する不動物体に係る点群情報との間の重畳の度合いを最大にする点群平行移動量及び点群回転量に基づいて、当該端末の当該エリア内における位置に係る情報を決定する端末位置決定手段と
してコンピュータを機能させる端末位置推定プログラムが提供される。
According to the present invention, it is also a program for operating a computer mounted on a device for estimating the position of a terminal in a predetermined area.
Peripheral object information acquisition means for acquiring peripheral point cloud information which is information related to an object existing in the vicinity of the terminal and is an observation result at the position of the terminal.
A peripheral object that uses a point group information classifier to determine whether the point group information, which is information related to an individual object included in the peripheral point group information, is point group information related to a preset movable object. Information judgment means and
By removing the point cloud information determined to be the point cloud information related to the movable object from the information included in the peripheral point cloud information, the peripheral non-animal body which is the point cloud information related to the non-animal body existing in the vicinity. Peripheral model generation means to generate a model, and
As the information relating to the position of the terminal in the area, the terminal position candidate information which is the information relating to the position candidate in the area of the terminal is determined, and the model generated in advance and existing in the area is immovable. From the reference non-animal body model which is the point group information related to the object, a graph related to the reference non-animal body model is generated with each non-animal body as a node and the distance between the non-animal bodies as an edge, and the graph related to the reference non-animal body model is generated. The matching process is performed between the graph and the graph related to the peripheral animal body model in which the individual animal bodies included in the peripheral animal body model are used as nodes and the distance between the animal bodies is used as an edge, and the terminal position candidate information is used. , The terminal position candidate information relating to the position of the terminal is selected, the point group information relating to the animal body existing at the position corresponding to the selected terminal position candidate information in the reference non-animal body model, and the peripheral non-animal body model . Based on the point group parallel movement amount and the point group rotation amount that maximize the degree of superposition with the point group information related to the non-animal body corresponding to the non -animal body, the information related to the position of the terminal in the area is obtained. A terminal position estimation program for operating a computer is provided as a terminal position determining means for determining.
本発明によれば、さらに、所定のエリアにおける端末の位置を推定する装置に搭載されたコンピュータにおける端末位置推定方法であって、
当該端末の周辺に存在する物体に係る情報であって当該端末の位置における観測結果である周辺点群情報を取得するステップと、
点群情報の識別器を用いて、当該周辺点群情報に含まれる個々の物体に係る情報である点群情報が、予め設定された可動物体に係る点群情報か否かを判定するステップと、
当該周辺点群情報に含まれる情報のうち、可動物体に係る点群情報であると判定された点群情報を除去することによって、周辺に存在する不動物体に係る点群情報である周辺不動物体モデルを生成するステップと、
当該端末の当該エリア内における位置に係る情報として、当該端末の当該エリア内における位置の候補に係る情報である端末位置候補情報を決定し、予め生成されたモデルであって当該エリアに存在する不動物体に係る点群情報である参照不動物体モデルから、個々の不動物体をノードとして当該不動物体間の距離をエッジとした参照不動物体モデルに係るグラフを生成し、当該参照不動物体モデルに係るグラフと、当該周辺不動物体モデルに含まれる個々の不動物体をノードとして当該不動物体間の距離をエッジとした周辺不動物体モデルに係るグラフとの間でマッチング処理を行って、当該端末位置候補情報から、当該端末の位置に係る端末位置候補情報を選択し、当該参照不動物体モデルにおける選択された端末位置候補情報に係る位置に存在する不動物体に係る点群情報と、当該周辺不動物体モデルにおける該不動物体に対応する不動物体に係る点群情報との間の重畳の度合いを最大にする点群平行移動量及び点群回転量に基づいて、当該端末の当該エリア内における位置に係る情報を決定するステップと
を有する端末位置推定方法が提供される。
According to the present invention, there is a method for estimating a terminal position in a computer mounted on a device for estimating the position of a terminal in a predetermined area.
A step of acquiring peripheral point cloud information which is information related to an object existing in the vicinity of the terminal and is an observation result at the position of the terminal.
A step of using a point cloud information classifier to determine whether the point cloud information, which is information related to an individual object included in the peripheral point cloud information, is point cloud information related to a preset movable object. ,
By removing the point cloud information determined to be the point cloud information related to the movable object from the information included in the peripheral point cloud information, the peripheral non-animal body which is the point cloud information related to the non-animal body existing in the vicinity. Steps to generate a model and
As the information relating to the position of the terminal in the area, the terminal position candidate information which is the information relating to the position candidate in the area of the terminal is determined, and the model generated in advance and existing in the area is immovable. From the reference non-animal body model which is the point group information related to the object, a graph related to the reference non-animal body model is generated with each non-animal body as a node and the distance between the non-animal bodies as an edge, and the graph related to the reference non-animal body model is generated. The matching process is performed between the graph and the graph related to the peripheral animal body model in which the individual animal bodies included in the peripheral animal body model are used as nodes and the distance between the animal bodies is used as an edge, and the terminal position candidate information is used. , The terminal position candidate information relating to the position of the terminal is selected, the point group information relating to the animal body existing at the position corresponding to the selected terminal position candidate information in the reference non-animal body model, and the peripheral non-animal body model . Based on the point group parallel movement amount and the point group rotation amount that maximize the degree of superposition with the point group information related to the non-animal body corresponding to the non -animal body, the information related to the position of the terminal in the area is obtained. A terminal position estimation method with a step to determine is provided.
本発明の端末位置推定装置、プログラム及び方法によれば、GPS等の外部測位系に依存することなく、移動物体の存在による影響を抑制した端末位置推定処理を実施することができる。 According to the terminal position estimation device, the program, and the method of the present invention, it is possible to carry out the terminal position estimation process in which the influence of the presence of a moving object is suppressed without depending on an external positioning system such as GPS.
以下、本発明の実施形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明による端末位置推定装置を含む端末位置推定システムの一実施形態を示す模式図である。 FIG. 1 is a schematic diagram showing an embodiment of a terminal position estimation system including a terminal position estimation device according to the present invention.
図1に示した、本実施形態の端末位置推定システムは、
(a)所定のエリア内を移動する、通信機能を備えた端末としての自律移動ロボットに設置されたLiDAR3と、
(b)無線(無線LAN、近距離無線通信、無線系事業者アクセスネットワーク等)又は有線(ケーブル等)を介してLiDAR3と通信接続された端末位置推定装置1と
を含んでいる。
The terminal position estimation system of the present embodiment shown in FIG. 1 is
(A) LiDAR3 installed in an autonomous mobile robot as a terminal equipped with a communication function that moves within a predetermined area.
(B) Includes a terminal position estimation device 1 communicatively connected to
このうち、(a)のLiDAR3は、可視スペクトル外のレーザパルスを放射し、当該パルスが対象に反射して戻ってくるまでの時間を計測して、当該対象までの距離を測定する測距センサとしてのLiDAR(Light Detection And Ranging)デバイスである。 Of these, LiDAR3 in (a) is a distance measuring sensor that emits a laser pulse outside the visible spectrum, measures the time until the pulse is reflected by the target and returns, and measures the distance to the target. It is a LiDAR (Light Detection And Ranging) device as.
ここで、LiDAR3の測定対象は、このエリア内においてLiDAR3の周辺に存在し得る、
(ア)人物、ペット等の動物、カートや自動車、地下鉄車両等の乗り物、さらには、台車、椅子のような移動している又は移動し得る「可動物体」、及び
(イ)エスカレータ等のエリア内設備、店舗等のエリア施設、花壇・花瓶やサイネージ等のエリア内設置物、天井や壁・柱・床等のエリア内構造物のような通常、設置場所から移動することのない又は移動し得ない「不動物体」
となっている。
Here, the measurement target of LiDAR3 may exist in the vicinity of LiDAR3 in this area.
(A) People, animals such as pets, vehicles such as carts and automobiles, subway vehicles, and moving or movable "movable objects" such as trolleys and chairs, and (b) areas such as escalator. Normally, it does not move or moves from the installation location, such as internal equipment, area facilities such as stores, installations in the area such as flower beds, vases and signage, and structures in the area such as ceilings, walls, pillars and floors. "Animal body" that cannot be obtained
It has become.
LiDAR3は具体的に、センサを備えたヘッドを回転させ、全周(0~359.9°)の各角度位置(座標)における反射強度(又はそれから算定される3次元距離)を含む点データを、ヘッド1周毎に1フレーム(1ファイル)として出力するデバイスとなっている。また、このヘッドは、垂直方向については、例えばプラスマイナス10°~20°の範囲に例えば10~20本のレーザを放射して各反射波を計測し、所定の角分解能をもって点データを取得する。 Specifically, LiDAR3 rotates a head equipped with a sensor and outputs point data including reflection intensity (or a three-dimensional distance calculated from it) at each angular position (coordinates) around the entire circumference (0 to 359.9 °). It is a device that outputs one frame (one file) for each lap. In the vertical direction, the head radiates, for example, 10 to 20 lasers in the range of plus or minus 10 ° to 20 °, measures each reflected wave, and acquires point data with a predetermined angular resolution. ..
一方、上記(b)の端末位置推定装置1は、最初に、端末(図1では自律移動ロボット)に設置されたLiDAR3によって生成された当該端末の周辺に存在する「物体に係る情報」、具体的には、上記点データの集合である点群(ポイントクラウド,point cloud)情報を取得する。次いで、取得したポイントクラウドを解析することによって、当該端末(自律移動ロボット)のエリア内での位置を推定し、当該端末に推定位置情報を通知するのである。 On the other hand, in the terminal position estimation device 1 of the above (b), first, "information related to an object" existing around the terminal generated by LiDAR3 installed in the terminal (autonomous mobile robot in FIG. 1), specifically. The point cloud (point cloud) information, which is a set of the above point data, is acquired. Next, by analyzing the acquired point cloud, the position of the terminal (autonomous mobile robot) in the area is estimated, and the estimated position information is notified to the terminal.
より具体的に、端末位置推定装置1は、その特徴として、
(A)端末(自律移動ロボット)の周辺に存在する「物体に係る情報」であって端末の位置における観測結果である「周辺物体情報」、本実施形態では周辺ポイントクラウド、を取得する周辺点群取得部(周辺物体情報取得部)121と、
(B)周辺ポイントクラウド(周辺物体情報)に含まれる個々の物体に係る情報である対象ポイントクラウドが、「可動物体」に係る情報か否かを判定する周辺点群可不動判定部(周辺物体情報判定部)123と、
(C)周辺ポイントクラウド(周辺物体情報)に含まれる情報のうち、「可動物体」に係る情報であると判定された対象ポイントクラウドに対し、除去処理、無効化処理又は情報量低減処理(本実施形態では除去処理)を施すことによって、周辺に存在する「不動物体」に係る情報である「周辺不動物体モデル」を生成する周辺モデル生成部124と、
(D)予め生成されたモデルであってこのエリアに存在する「不動物体」に係る情報である「参照不動物体モデル」における「不動物体」と、「周辺不動物体モデル」に含まれる「不動物体」との照合結果に基づいて、端末(自律移動ロボット)のこのエリア内における位置に係る情報を決定する端末位置決定部125と
を有している。
More specifically, the terminal position estimation device 1 is characterized by its characteristics.
(A) Peripheral point to acquire "peripheral object information" which is "information related to an object" existing around the terminal (autonomous mobile robot) and is an observation result at the position of the terminal, and a peripheral point cloud in this embodiment. Group acquisition unit (peripheral object information acquisition unit) 121 and
(B) Peripheral point cloud immobility determination unit (peripheral object) that determines whether the target point cloud, which is information related to individual objects included in the peripheral point cloud (peripheral object information), is information related to "movable objects". Information judgment unit) 123 and
(C) Of the information contained in the peripheral point cloud (peripheral object information), the target point cloud determined to be information related to the "movable object" is subjected to removal processing, invalidation processing, or information amount reduction processing (book). In the embodiment, the peripheral
(D) The "non-animal body" in the "reference non-animal body model" which is a model generated in advance and is information related to the "non-animal body" existing in this area, and the "non-animal body" included in the "peripheral non-animal body model". It has a terminal
このように端末位置推定装置1は、端末のセンサ(LiDAR3)の測定結果である周辺ポイントクラウドに基づいて、周辺に存在する「不動物体」に係る情報である「周辺不動物体モデル」を生成し、これを「参照不動物体モデル」と照合することによって端末位置の情報を推定している。すなわち、GPS等の外部測位系に依存することなく、端末が自ら取得可能な情報をもって、端末位置推定処理を実施することができるのである。 In this way, the terminal position estimation device 1 generates a "peripheral non-animal body model" which is information related to the "non-animal body" existing in the periphery based on the peripheral point cloud which is the measurement result of the terminal sensor (LiDAR3). , The information of the terminal position is estimated by collating this with the "reference object model". That is, the terminal position estimation process can be performed with the information that the terminal can acquire by itself without depending on the external positioning system such as GPS.
したがって、端末位置推定装置1によれば、勿論、屋外での端末位置推定を実施し、例えば自動車やカート等のナビゲーションサービスを提供することもできるが、正確なGPS測位の困難である屋内、例えば巨大ショッピングセンタや工場の内部といった屋内や、さらには地下通路・広場や地下室のような地下エリアにおける端末位置把握・通知サービスを提供することも可能となるのである。またさらに、端末位置推定装置1における端末位置推定方法を、AR(Augmented Reality)提供サービスにおけるユーザ端末位置の推定処理に適用することも可能となっている。 Therefore, according to the terminal position estimation device 1, of course, it is possible to estimate the terminal position outdoors and provide a navigation service such as a car or a cart, but it is difficult to perform accurate GPS positioning indoors, for example. It is also possible to provide terminal position grasping / notification services indoors such as inside huge shopping centers and factories, and even in underground areas such as underground passages / squares and basements. Further, it is also possible to apply the terminal position estimation method in the terminal position estimation device 1 to the user terminal position estimation process in the AR (Augmented Reality) providing service.
さらに、使用する両モデルにおいて「可動物体」に係る情報を除去(又は無効化若しくは低減化)しているので、周辺ポイントクラウド(周辺物体情報)における移動物体の存在による影響を抑制した端末位置推定処理を実施することが可能となっている。実際に従来は、端末のセンサで得られた例えば画像情報が、歩行者や自動車等の移動物体を含む場合に、当該端末の位置推定誤差が増大したり、推定処理にエラーが生じたりすることが大きな問題となってきた。これに対し、端末位置推定装置1では、上述したように移動し得る「可動物体」の影響を抑制しているので、位置推定処理におけるエラーを回避し、より高い位置推定精度を実現することも可能となるのである。 Furthermore, since the information related to "movable objects" is removed (or invalidated or reduced) in both models used, the terminal position estimation suppresses the influence of the presence of moving objects in the peripheral point cloud (peripheral object information). It is possible to carry out the processing. Actually, conventionally, when the image information obtained by the sensor of the terminal includes a moving object such as a pedestrian or a car, the position estimation error of the terminal is increased or an error occurs in the estimation process. Has become a big problem. On the other hand, since the terminal position estimation device 1 suppresses the influence of the "movable object" that can move as described above, it is possible to avoid an error in the position estimation process and realize higher position estimation accuracy. It will be possible.
さらにまた、端末位置推定装置1は、不動物体の位置合わせによって端末位置を推定しているので、例えば背景の位置合わせによる位置推定手法と比較すると、より位置合わせが容易となり、端末センサに起因するエラー要因に対しより頑健な推定結果が取得可能となっている。 Furthermore, since the terminal position estimation device 1 estimates the terminal position by the alignment of the non-animal body, the alignment becomes easier as compared with the position estimation method by the alignment of the background, which is caused by the terminal sensor. It is possible to obtain more robust estimation results for error factors.
なお当然に、本発明による端末位置推定装置1がポイントクラウド情報を取得する先は、LiDARデバイスに限定されるものではない。例えば、レーダ(Radar,Radio detecting and ranging)デバイスや、スキャニングソナー(Scanning Sonar (Sound navigation and ranging))デバイスからポイントクラウド情報を取得し、解析することも可能である。 As a matter of course, the destination where the terminal position estimation device 1 according to the present invention acquires the point cloud information is not limited to the LiDAR device. For example, it is possible to acquire and analyze point cloud information from a radar (Radio detecting and ranging) device or a scanning sonar (Sound navigation and ranging) device.
また当然に、このような測距センサデバイスが搭載される端末も、自律移動ロボットに限定されるものではない。例えば、歩行者・走者の所持する携帯・ウェアラブル端末、各種自動車や、飛行するドローン、さらには各種交通機関等、通信機能を有していてその位置を把握したいニーズがあるものならば様々なものが、本発明に係る位置推定対象としての端末に該当し得る。 Further, as a matter of course, the terminal equipped with such a distance measuring sensor device is not limited to the autonomous mobile robot. For example, mobile / wearable terminals owned by pedestrians / runners, various automobiles, flying drones, various transportation facilities, etc., if they have communication functions and need to know their position, various things. However, it may correspond to the terminal as the position estimation target according to the present invention.
さらに、本発明に係る「物体に係る情報」も、ポイントクラウド情報に限定されるものではない。例えば、端末に搭載されたカメラ(イメージセンサ)によって生成される(RGB)画像情報であってもよく、または、端末に搭載されたデプスカメラによって取得されるデプス値から生成された距離画像情報とすることもできる。これらの画像情報を用いた端末位置推定の実施形態は、後に図5を用いて詳細に説明する。 Further, the "information related to the object" according to the present invention is not limited to the point cloud information. For example, it may be (RGB) image information generated by a camera (image sensor) mounted on the terminal, or distance image information generated from a depth value acquired by a depth camera mounted on the terminal. You can also do it. An embodiment of terminal position estimation using these image information will be described in detail later with reference to FIG.
ちなみに、ポイントクラウド情報を利用する本実施形態では、3次元のポイントクラウド情報である「周辺物体情報」について、3次元の「参照不動物体モデル」を用いて端末位置を推定する。これに対し、後に詳述する画像情報を利用する実施形態では、2次元の画像情報である「周辺物体情報」について、3次元の「参照不動物体モデル」を用いて端末位置を推定することになる。 Incidentally, in the present embodiment using the point cloud information, the terminal position is estimated using the three-dimensional "reference non-animal body model" for the "peripheral object information" which is the three-dimensional point cloud information. On the other hand, in the embodiment using the image information described in detail later, the terminal position is estimated using the three-dimensional "reference non-animal body model" for the "peripheral object information" which is the two-dimensional image information. Become.
[端末位置推定装置の一実施形態]
同じく図1の機能ブロック図によれば、本実施形態の端末位置推定装置1は、LiDAR3から測定情報を受信可能な通信インタフェース101と、ポイントクラウド蓄積部102と、位置情報保存部103と、プロセッサ・メモリとを有する。
[One Embodiment of the terminal position estimation device]
Similarly, according to the functional block diagram of FIG. 1, the terminal position estimation device 1 of the present embodiment has a
ここで、このプロセッサ・メモリは、本発明による端末位置推定プログラムの一実施形態を保存しており、また、コンピュータ機能を有していて、この端末位置推定プログラムを実行することによって、端末位置推定処理を実施する。このことから、端末位置推定装置1は、端末位置推定専用装置又はユニットであってもよいが、本発明による端末位置推定プログラムを搭載した、例えばパーソナル・コンピュータ(PC)、ノート型若しくはタブレット型コンピュータとしてもよい。さらには、計算処理能力の向上した(位置推定対象の)端末自身、例えば通信可能ロボットや、スマートフォン等とすることも可能である。 Here, the processor memory stores one embodiment of the terminal position estimation program according to the present invention, and also has a computer function, and the terminal position estimation is performed by executing the terminal position estimation program. Carry out the process. For this reason, the terminal position estimation device 1 may be a terminal position estimation dedicated device or a unit, but is equipped with a terminal position estimation program according to the present invention, for example, a personal computer (PC), a notebook type or a tablet type computer. May be. Further, it is also possible to use the terminal itself (the target of position estimation) having improved calculation processing capacity, for example, a communicable robot, a smartphone, or the like.
さらに、プロセッサ・メモリは、参照モデル管理部111と、周辺点群取得部121と、周辺点群区分部122と、周辺点群可不動判定部123と、周辺モデル生成部124と、端末位置決定部125と、通信制御部131と、アプリケーション・プログラム部(AP)132とを有する。なお、これらの機能構成部は、プロセッサ・メモリに保存された端末位置推定プログラムの機能と捉えることができる。また、図1における端末位置推定装置1の機能構成部間を矢印で接続して示した処理の流れは、本発明による端末位置推定方法の一実施形態としても理解される。
Further, the processor memory includes a reference
同じく図1の機能ブロック図において、通信制御部131は、LiDAR3から通信インタフェース101を介し、1フレームにヘッド1周(360°)分のポイントクラウドを含む信号を取得し、このポイントクラウドを、ポイントクラウド蓄積部102に適宜バッファしつつ、参照モデル管理部111や周辺点群情報取得部121へ出力する。この際、ポイントクラウドに対し、ノイズやまばらに存在する外れ値を除去すべく公知の方法でフィルタ処理が実施されることも好ましい。
Similarly, in the functional block diagram of FIG. 1, the
参照モデル管理部111は、
(a)端末位置を推定すべき範囲である所定エリアでの複数の位置の各々におけるポイントクラウド(観測結果情報)であって当該位置の周辺に存在する物体に係るポイントクラウドに基づいて、このエリアに存在する物体に係る情報であるエリア内ポイントクラウド(エリア内物体情報)を生成し、
(b)このエリア内ポイントクラウドに含まれる情報のうち、可動物体に係る情報であると判定された対象ポイントクラウドに対し、除去処理を施すことによって生成されたエリア内不動物体情報によって、「参照不動物体モデル」を生成又は更新する。
The reference
(A) A point cloud (observation result information) at each of a plurality of positions in a predetermined area where the terminal position should be estimated, and this area is based on the point cloud related to an object existing around the position. Generates a point cloud in the area (object information in the area), which is information related to the objects existing in the area.
(B) Of the information contained in the point cloud in this area, the target point cloud determined to be information related to a movable object is "referenced" by the inanimate object information in the area generated by performing the removal process. Generate or update the "animal body model".
ここで、上記処理(a)においては、(例えば、端末がエリア内を隈なく移動することによってエリア内の各位置で順次生成されて)入力されたポイントクラウドのフレーム毎に、当該ポイントクラウドを、ポイント(点データ)間の距離に基づいて、互いに隣接したポイント(点データ)の集合である対象ポイントクラウドに区分する。ここで、区分された対象ポイントクラウド全体がエリア内物体情報となるのである。この際、所定の距離条件を適用してポイントクラウド内のポイントをグループ化してもよい。また、ポイント間の距離にはユークリッド距離が採用されることも好ましい。 Here, in the above process (a), the point cloud is generated for each frame of the input point cloud (for example, the terminal is sequentially generated at each position in the area by moving all over the area). , Based on the distance between points (point data), it is divided into target point clouds, which are a set of points (point data) adjacent to each other. Here, the entire divided target point cloud becomes the object information in the area. At this time, points in the point cloud may be grouped by applying a predetermined distance condition. It is also preferable that the Euclidean distance is adopted as the distance between the points.
より具体的に当該区分処理として、最初に、リストが空であるクラスタを有するkd木(kd-tree,k-dimensional tree)を生成し、所定の距離条件を満たして互いに近接するポイントの集合を同一のクラスタに割り当てて、ポイントクラウドをクラスタに分類し、各クラスタに属するポイントの集合を、区分された各対象ポイントクラウドとしてもよい。ここで、kd木は、k次元のユークリッド空間にある点を分類するための公知の空間分割データ構造の一種である。 More specifically, as the division process, first, a kd tree (kd-tree, k-dimensional tree) having a cluster whose list is empty is generated, and a set of points that satisfy a predetermined distance condition and are close to each other is obtained. It may be assigned to the same cluster, the point cloud may be classified into clusters, and the set of points belonging to each cluster may be each divided target point cloud. Here, the kd tree is a kind of known spatially divided data structure for classifying points in the k-dimensional Euclidean space.
また、上記処理(b)においては、例えば、ポイントクラウド識別用の深層学習識別器を用いた公知技術であるPointNetを利用し、ポイントクラウドのフレーム毎に、当該フレームに含まれる対象ポイントクラウドの物体種別を判別する。このように識別対象を物体自体ではなく物体種別といった形で粗くすることによって、この判別処理における演算量がより少なくて済む。ここで、物体種別毎に当該種別が可動物体か不動物体かを予め設定しておくことで、当該フレームに含まれる物体が可動物体であるか否かを判定することができる。例えば、人物、自動車及び椅子は可動物体と設定されてもよい。また、不動物体は、可動物体に設定されていないその他の物体とすることができる。なお、PointNetについては、例えば非特許文献: Charles R. Qi, Hao Su, Kaichun Mo, Leonidas J. Guibas, “PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation”, In Proc. Computer Vision and Pattern Recognition (CVPR), 2017年に記載されている。 Further, in the above process (b), for example, PointNet, which is a known technology using a deep learning classifier for identifying a point cloud, is used, and each frame of the point cloud is an object of the target point cloud included in the frame. Determine the type. By roughening the identification target in the form of an object type rather than the object itself in this way, the amount of calculation in this discrimination process can be reduced. Here, by setting in advance whether the type is a movable object or an inanimate object for each object type, it is possible to determine whether or not the object included in the frame is a movable object. For example, a person, a car and a chair may be set as movable objects. In addition, the non-animal body can be another object that is not set as a movable object. Regarding PointNet, for example, non-patent documents: Charles R. Qi, Hao Su, Kaichun Mo, Leonidas J. Guibas, “PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation”, In Proc. Computer Vision and Pattern Recognition. (CVPR), 2017.
またさらに上記処理(b)において、可動物体であると判定された対象ポイントクラウドを除去することによって、不動物体の対象ポイントクラウドの集合であるエリア内不動物体情報を生成する。この情報では、残った不動物体に係る対象ポイントクラウド毎に、不動物体種別のラベルが付与され、さらに、エリア内に存在する不動物体の種別のリストも生成される。 Further, in the above process (b), by removing the target point cloud determined to be a movable object, the inanimate object information in the area, which is a set of the target point clouds of the inanimate object, is generated. In this information, a label of the non-animal body type is given to each target point cloud related to the remaining non-animal body, and a list of the non-animal body types existing in the area is also generated.
次いで、このエリア内不動物体情報から、例えば公知の3次元モデル構築技術であるKinectfusionを用いて、3次元の参照不動物体モデルを生成する。なお、このモデルは、入力されるポイントクラウドのフレーム毎に生成されるエリア内不動物体情報に基づいて、当該フレーム毎に更新されることも好ましい。なお、Kinectfusionについては、例えば非特許文献:T. Whelan, M. Kaess, M.Fallon, H. Johannsson, John. J. Leonard and J. McDonald, “Kintinuous: Spatially Extended KinectFusion”, InRSS RGB-D Workshop, 2012年に記載されている。 Next, a three-dimensional reference non-animal body model is generated from the non-animal body information in this area by using, for example, Kinect fusion, which is a known three-dimensional model construction technique. It is also preferable that this model is updated for each frame based on the in-area inanimate information generated for each frame of the input point cloud. Regarding Kinectfusion, for example, non-patent literature: T. Whelan, M. Kaess, M. Fallon, H. Johannsson, John. J. Leonard and J. McDonald, “Kintinuous: Spatially Extended KinectFusion”, InRSS RGB-D Workshop , 2012.
このように、参照不動物体モデルから可動物体の痕跡を予め除去しておくことによって、この後、この参照不動物体モデルを用いた端末位置推定において、可動物体がその位置を変化させることによるポイントクラウド照合処理の失敗を、回避することが可能となるのである。また、可能物体の痕跡を除去することによってデータ量が低減し、照合処理演算量がより少なくて済む。 In this way, by removing the traces of the movable object from the reference non-animal body model in advance, the point cloud is caused by the movable object changing its position in the terminal position estimation using this reference non-animal body model. It is possible to avoid the failure of the collation process. Further, by removing the trace of the possible object, the amount of data is reduced, and the amount of collation processing calculation can be reduced.
同じく図1の機能ブロック図において、周辺点群取得部121は、端末(LiDAR3を備えた自律移動ロボット)の周辺に存在する物体に係るポイントクラウドであって、それをもって端末位置の推定処理を行うことになる周辺物体情報としてのポイントクラウドを入力する。例えば、当該ポイントクラウドの時系列フレームを刻々と入力し、端末の現在位置の推定を、連続して概ねリアルタイムで実施させることも可能となる。
Similarly, in the functional block diagram of FIG. 1, the peripheral point
周辺点群区分部122は、周辺点群取得部121で取得された周辺物体情報としての周辺ポイントクラウドを、点データ間の距離に基づいて、互いに隣接した点データの集合である対象ポイントクラウドに区分する。ここでの区分処理は、上述した参照モデル管理部111で実施される区分処理と同様に実施することができる。
The peripheral point
周辺点群可不動判定部123は、区分された個々の対象ポイントクラウドが、可動物体に係る情報か否かを判定する。ここでの判定処理も、上述した参照モデル管理部111で実施される判定処理と同様に実施することができる。
The peripheral point cloud
周辺モデル生成部124は、可能物体に係る情報であると判定された対象ポイントクラウドを、周辺物体情報としての周辺ポイントクラウドから除去し、周辺に存在する不動物体に係る情報である周辺不動物体モデルを生成する。また、この際、残った不動物体に係る対象ポイントクラウド毎に、不動物体種別のラベルが付与され、さらに、周辺不動物体モデル内に存在する不動物体のリストも生成される。このようなモデル生成処理も、上述した参照モデル管理部111で実施されるモデル生成処理と同様に実施することができる。
The peripheral
ちなみに、上述したように可動物体分を除去した周辺不動物体モデルと、同じく可動物体分を除去した参照不動物体モデルとを照合させることによって、可動物体がその位置を変化させることに起因するエラーの発生を抑制し、より高い端末位置推定精度を確保することが可能となるのである。 By the way, by collating the peripheral inanimate model with the movable object removed as described above with the reference inanimate model with the movable object removed, the error caused by the moving object changing its position It is possible to suppress the occurrence and secure higher terminal position estimation accuracy.
図2は、周辺モデル生成部124における周辺モデル生成処理の一実施例を概略的に示した模式図である。
FIG. 2 is a schematic diagram schematically showing an embodiment of the peripheral model generation process in the peripheral
図2(A)に示すように本実施例において、端末位置を推定すべきエリアはショッピングセンタ内の所定範囲であり、当初、LiDAR3から取得された周辺物体情報としてのポイントクラウドには、可動物体である複数の人物に係る対象ポイントクラウドが含まれている。これに対し、周辺モデル生成部124は、図2(B)に示すように、(予め可動物体であると設定された)「人物」であると判定された対象ポイントクラウドを除去してエリア内不動物体情報を生成する。
As shown in FIG. 2A, in this embodiment, the area where the terminal position should be estimated is a predetermined range in the shopping center, and the point cloud as the peripheral object information initially acquired from LiDAR3 is a movable object. Includes target point clouds for multiple people. On the other hand, as shown in FIG. 2B, the peripheral
次いで、周辺モデル生成部124は、エリア内不動物体情報に含まれる不動物体に係る対象ポイントクラウドの各々に対し、周辺点群可不動判定部123での判定器による判定結果を利用して、又は不動物体識別用の識別器を用いて、天井、店舗A、植木鉢、エスカレータ、床等といった該当する不動物体種別のラベルを付与するのである。
Next, the peripheral
同じく図1の機能ブロック図において、端末位置決定部125は、参照モデル管理部111で生成又は更新された参照不動物体モデルにおける不動物体と、周辺モデル生成部124で生成された周辺不動物体モデルに含まれる不動物体との照合結果に基づいて、端末(LiDAR3を備えた自律移動ロボット)のエリア内における位置情報を決定する。
Similarly, in the functional block diagram of FIG. 1, the
ここで、3次元の周辺不動物体モデルを3次元の参照不動物体モデルの全体と照合していく中で端末位置を割り出すことも可能ではある。しかしながら、3次元モデル同士の照合処理であるので、処理演算量が増大し処理時間も長くなることが懸念される。そこで本実施形態では、エリア内において、端末位置の存在し得る複数の候補領域を予め決定した上で、参照不動物体モデルにおける候補領域相当部分との照合処理を行い、端末位置を推定する。これにより、処理演算量を低減させ、処理時間を短縮することが可能となるのである。 Here, it is also possible to determine the terminal position while collating the three-dimensional peripheral inanimate model with the entire three-dimensional reference inanimate model. However, since it is a collation process between three-dimensional models, there is a concern that the amount of processing calculation will increase and the processing time will also increase. Therefore, in the present embodiment, after determining a plurality of candidate regions where the terminal position can exist in the area in advance, the collation process with the candidate region corresponding portion in the reference non-animal body model is performed to estimate the terminal position. This makes it possible to reduce the amount of processing calculation and shorten the processing time.
具体的には、端末位置決定部125の候補位置生成部125aは、端末の位置に係る情報として、端末(LiDAR3を備えた自律移動ロボット)のエリア内における複数の端末位置候補情報である複数の候補領域を決定する。例えば、エリアを予め複数の区域に分けておき、区域毎に、当該区域に存在する又は当該区域から観察し得る不動物体のリストを決定しておく。ここで、隣接する区域同士は互いに重畳する部分を有していてもよい。次いで、各区域の不動物体のリストと、周辺不動物体モデルに含まれる不動物体のリストとを照合し、両リスト内容が一致する又は両リストが所定条件を満たすようなリストを有する区域を候補領域とすることができる。
Specifically, the candidate
またこの際、当該所定条件としては、例えば、所定の不動物体(例えばエスカレータ)については両リストの間で必ずその有無が一致するとの条件を設定することもできる。さらに、両リストの照合において、不動物体のうち所定のもの、例えば天井や床は通常、いずれの区域でも見られるものなので、上記リストに入れない、又は照合対象としない(リスト間でその有無を比較しない)とすることも好ましい。 At this time, as the predetermined condition, for example, it is possible to set a condition that the presence or absence of a predetermined non-animal body (for example, an escalator) always matches between the two lists. Furthermore, in the collation of both lists, certain non-animal objects, such as ceilings and floors, are usually found in any area, so they are not included in the above list or are not subject to collation (whether or not they are present between the lists). (Do not compare) is also preferable.
図3及び図4は、端末位置決定部125における端末位置候補情報決定処理の一実施例を説明するための模式図である。
3 and 4 are schematic views for explaining an embodiment of the terminal position candidate information determination process in the terminal
図3には、端末位置を推定すべきエリアのフロアマップが示されており、当該エリアは、ショッピングセンタ内の所定範囲となっていることが分かる。ここで、周辺不動物体モデルに含まれる不動物体のリストが、エスカレータと、店舗と、植木鉢とを含む場合を説明する。この場合、このリストと一致するリストを有する端末位置候補情報として、2つの候補領域1及び2が決定されるのである。 FIG. 3 shows a floor map of an area where the terminal position should be estimated, and it can be seen that the area is a predetermined range in the shopping center. Here, a case where the list of non-animal bodies included in the peripheral non-animal body model includes an escalator, a store, and a flower pot will be described. In this case, two candidate areas 1 and 2 are determined as terminal position candidate information having a list that matches this list.
次に、端末位置決定部125は、参照不動物体モデルにおける上述したように決定された端末位置候補情報(図3の実施例では候補領域1及び2)の各々に係る位置に存在する不動物体と、周辺不動物体モデルにおける不動物体との「照合処理」の結果に基づいて、端末位置を含む端末位置候補情報を選択するのである。本実施例では具体的に、図4に示すように、候補領域1が選択されている。
Next, the terminal
ここで、上述した「照合処理」の一実施形態について説明する。最初に前提として、LiDAR3から取得されるポイントクラウドを解析して得られた不動物体に係る対象ポイントクラウドの各々は、隣接する他の不動物体に係る対象ポイントクラウドとの距離が決定されているものとする。この距離は、対象ポイントクラウド自体が3次元空間内での位置が決定している点データの集合であるので、例えば、その重心位置を算出し、この重心間の距離を算出することによっても決定可能である。またさらに、不動物体に係る対象ポイントクラウドの各々には、当該不動物体の物体種別情報としてのラベルが付与されている。 Here, an embodiment of the above-mentioned "verification process" will be described. First, as a premise, each of the target point clouds related to the non-animal body obtained by analyzing the point cloud acquired from LiDAR3 has a determined distance from the target point cloud related to other adjacent non-animal bodies. And. Since this distance is a set of point data whose position in the three-dimensional space is determined by the target point cloud itself, it is also determined by, for example, calculating the position of the center of gravity and calculating the distance between the centers of gravity. It is possible. Furthermore, each of the target point clouds related to the non-animal body is given a label as the object type information of the non-animal body.
図1の機能ブロック図に戻って、次に、端末位置決定部125のグラフマッチング処理部125bは、
(a)参照不動物体モデルの各「端末位置候補情報」部分から、個々の不動物体をノードとして不動物体間の距離をエッジとした参照不動物体モデルのグラフである「参照モデルグラフ」を生成し、
(b)周辺不動物体モデルから、個々の不動物体をノードとして不動物体間の距離をエッジとした周辺不動物体モデルのグラフである「周辺モデルグラフ」を生成し、
(c)「参照モデルグラフ」と「周辺モデルグラフ」との間でマッチング処理を行って、端末位置候補情報(図3では候補領域1及び2)から、端末位置を含み得るものを選択する。
Returning to the functional block diagram of FIG. 1, next, the graph
(A) From each "terminal position candidate information" part of the reference non-animal body model, a "reference model graph" which is a graph of the reference non-animal body model with each non-animal body as a node and the distance between the non-animal bodies as an edge is generated. ,
(B) From the peripheral non-animal body model, a "peripheral model graph" which is a graph of the peripheral non-animal body model in which each non-animal body is used as a node and the distance between the non-animal bodies is used as an edge is generated.
(C) Matching processing is performed between the "reference model graph" and the "peripheral model graph", and the terminal position candidate information (candidate areas 1 and 2 in FIG. 3) that can include the terminal position is selected.
具体的には、参照モデルグラフGr(Vr, Er)、及び周辺モデルグラフGt(Vt, Et)を定義する。ここで、Vr及びVtは、それぞれ参照不動物体モデルの「端末位置候補情報」部分及び周辺不動物体モデルにおける、各々が物体種別情報を付与された不動物体群に相当するノード群である。また、Er及びEtは、それぞれ参照不動物体モデルの「端末位置候補情報」部分及び周辺不動物体モデルにおける、各々が不動物体間の距離を付与されたエッジ群である。 Specifically, the reference model graph G r (V r , E r ) and the peripheral model graph G t (V t , E t ) are defined. Here, V r and V t are node groups corresponding to the "terminal position candidate information" part of the reference non-animal model and the peripheral non-animal model, each of which is given object type information. In addition, Er and Et are edge groups in the "terminal position candidate information" part of the reference non-animal body model and the peripheral non-animal body model, respectively, each given a distance between the non-animal bodies.
ちなみに、Gr(Vr, Er)の領域は、Gt(Vt, Et)の領域よりも大きいので、以下、両グラフの照合にはサブマッチング処理を行う。具体的には、Vr⊇Vt及びEr⊇Etであって、次式
(1) f(f(u), f(v))∈Er
が満たされるならば、次式
(2) (u, v)∈Et
の関係が成立するような関数f:Vt→Vr
が存在する場合に、周辺モデルグラフGt(Vt, Et)は、参照モデルグラフGr(Vr, Er)のサブセットであると判断し、この参照モデルグラフGr(Vr, Er)に係る端末位置候補情報(候補領域)を、端末位置を含み得るものとして選択するのである(図4では候補領域1が選択されている)。
By the way, since the region of G r (V r , E r ) is larger than the region of G t (V t , E t ), sub-matching processing is performed for collation of both graphs below. Specifically, V r ⊇ V t and E r ⊇ E t , and the following equation (1) f (f (u), f (v)) ∈ E r
If is satisfied, then the following equation (2) (u, v) ∈ E t
Function f: V t → V r such that the relationship of
If is present, the peripheral model graph G t (V t , Et ) is determined to be a subset of the reference model graph G r (V r , E r ), and this reference model graph G r (V r , E r) is determined. The terminal position candidate information (candidate area) related to Er ) is selected as being capable of including the terminal position (candidate area 1 is selected in FIG. 4).
なお、両モデルにおける不動物体の「照合処理」は、上述した方法に限定されるものではない。例えば、参照不動物体モデル(の各「端末位置候補情報」部分)上において、周辺不動物体モデルを直接マッピングすることも可能である。しかしながら実際に、モデル内には、ポイントクラウドからモデルを生成・更新したことに起因する歪みが存在しており、不動物体位置がドリフトしていることも少なくない。したがって、例えば直接のマッピング処理によって適切な照合が困難となる可能性が生じる。これに対し、上述したように、グラフマッチング処理を行うことによって、このような歪みによる物体ドリフトの影響を抑制し、より適切な照合を行うことが可能となる。 The "collation process" of the non-animal body in both models is not limited to the above-mentioned method. For example, it is also possible to directly map the peripheral object model on the reference object model (each "terminal position candidate information" part). However, in reality, there is distortion in the model due to the generation / update of the model from the point cloud, and the position of the inanimate object is often drifting. Therefore, for example, direct mapping processing may make proper collation difficult. On the other hand, as described above, by performing the graph matching process, it is possible to suppress the influence of the object drift due to such distortion and perform more appropriate collation.
以上説明したようにこの段階では、端末位置決定部125は、端末の存在する大まかな位置範囲を決定している。次に本実施形態では、端末位置決定部125のICP処理部125cが、端末の詳細な位置と、端末(に搭載されたLiDAR3)の向きとを決定する。
As described above, at this stage, the terminal
具体的に、ICP処理部125cは、
(a)選択された端末位置候補情報(図4では候補領域1)に係る位置に存在する不動物体に係る対象ポイントクラウド(以下、参照対象ポイントクラウドと略称)と、
(b)周辺不動物体モデルにおけるこの不動物体に対応する不動物体に係る対象ポイントクラウド(以下、周辺対象ポイントクラウドと略称)と
の間の重畳の度合いを最大にする点群平行移動量及び点群回転量に基づいて、端末の位置及び向きを決定する。ちなみに、選択された端末位置候補情報(候補領域)に存在する不動物体と、周辺不動物体モデルの不動物体とは、上述した照合処理によって対応関係(マッチング関係)が決定している。
Specifically, the
(A) A target point cloud (hereinafter abbreviated as a reference target point cloud) related to an inanimate object existing at a position related to the selected terminal position candidate information (candidate area 1 in FIG. 4).
(B) Point cloud parallel movement amount and point cloud that maximizes the degree of superposition with the target point cloud (hereinafter abbreviated as peripheral target point cloud) related to the non-animal body corresponding to this non-animal body in the peripheral non-animal body model. The position and orientation of the terminal are determined based on the amount of rotation. Incidentally, the correspondence relationship (matching relationship) between the non-animal body existing in the selected terminal position candidate information (candidate area) and the non-animal body of the peripheral non-animal body model is determined by the above-mentioned collation process.
ここで、このような端末位置・向き決定処理を、ICP(Iterative Closest Point)アルゴリズムを用いて実施することも好ましい。ICPアルゴリズムは、ポイントクラウド間の位置合わせを行う公知の手法であって、
(a)一方のポイントクラウドに含まれる各点について、他方のポイントクラウドにおける最も近傍となる点を決定して、当該点同士を最近傍点とし、
(b)決定した最近傍点間の距離を最小化するような剛体変換を求め、
上記(a)及び(b)を繰り返し実施することによって、両ポイントクラウドの位置合わせを完成させる変換を決定するものである。
Here, it is also preferable to carry out such a terminal position / orientation determination process using an ICP (Iterative Closest Point) algorithm. The ICP algorithm is a known method for aligning between point clouds.
(A) For each point included in one point cloud, the closest point in the other point cloud is determined, and the points are set as the nearest points.
(B) Find a rigid body transformation that minimizes the distance between the determined nearest points.
By repeatedly carrying out the above (a) and (b), the conversion that completes the alignment of both point clouds is determined.
ICP処理部125cは、具体的にまず、参照対象ポイントクラウド群を、
(3) Pr=[pr
1, pr
2, ・・・, pr
n]
とし、周辺対象ポイントクラウド群を、
(4) Pt=[pt
1, pt
2, ・・・, pt
m]
とし、さらに、Rを回転変換(演算子)とし、tを並進変換(演算子)として、マッピング誤差を、次式
(5) E(R, t)=Σi=1
nΣj=1
m wi,j・||pr
i-(Rpt
j+t)||2
をもって定義する。ここで、Σi=1
n及びΣj=1
mはそれぞれ、i=1からnまでの総和(summation)及びj=1からmまでの総和である。また、wi,jは、pr
iとpt
jとが同じ不動物体種別である場合に1(wi,j=1)となり、その他の場合に0(wi,j=0)となる係数である。
Specifically, the
(3) P r = [p r 1 , p r 2 , ・ ・ ・, p r n ]
And, the peripheral target point cloud group,
(4) P t = [p t 1 , p t 2 , ・ ・ ・, p t m ]
Further, R is a rotation transformation (operator), t is a translational transformation (operator), and the mapping error is the following equation (5) E (R, t) = Σ i = 1 n Σ j = 1 m . w i, j・ || p r i - (Rp t j + t) || 2
Is defined by. Here, Σ i = 1 n and Σ j = 1 m are the summation from i = 1 to n and the sum from j = 1 to m, respectively. In addition, w i, j becomes 1 (w i, j = 1) when p r i and p t j are the same non-animal body type, and 0 (w i, j = 0) in other cases. Is a coefficient.
この上で、ICP処理部125cは、上式(5)のマッピング誤差を最小化するような回転変換R及び並進変換tを算出し、これにより、参照対象ポイントクラウド群Prに対する変換前の対象ポイントクラウド群Ptの位置及び向きのズレ分が判明する。その結果、3次元の参照不動物体モデルにおける周辺不動物体モデルの適合位置を確定することができ、最終的に、当該周辺不動物体モデルに係る時点における、端末(LiDAR3)のエリア内での位置及び向きに係る情報を決定することが可能となるのである。
On this basis, the
端末位置決定部125は、以上に説明したように決定した端末の位置及び向きに係る情報を、位置情報保存部103に保存しつつ適宜、通信制御部131及び通信インタフェース101を介して、端末(LiDAR3を備えた自律移動ロボット)へ送信する。この位置及び向きに係る情報を取得した端末(LiDAR3を備えた自律移動ロボット)は、当該情報に基づいて、エリア内における自らの位置及び向きを知ることが可能となるのである。
The terminal
また、端末位置決定部125で決定された端末位置及び向き情報は、装置1に搭載された(例えば自律ロボット制御用の)アプリケーション・プログラム(AP)132に取り込まれ、その出力(制御信号)が、通信制御部131及び通信インタフェース101を介して、端末(LiDAR3を備えた自律移動ロボット)に提供されてもよい。さらに、変更態様として、端末位置決定部125で決定された端末位置及び向き情報が、端末以外の別の情報処理装置へ送信され、当該情報処理装置での情報処理に利用されることも可能である。
Further, the terminal position and orientation information determined by the terminal
[端末位置推定装置の他の実施形態]
図5は、本発明による端末位置推定装置を含む端末位置推定システムの他の実施形態を示す模式図である。
[Other Embodiments of Terminal Position Estimator]
FIG. 5 is a schematic diagram showing another embodiment of the terminal position estimation system including the terminal position estimation device according to the present invention.
図5に示した、本実施形態の端末位置推定システムは、
(a)所定のエリア内を移動するユーザの所持するスマートフォン4に搭載されたカメラ41と、
(b)無線(無線LAN、近距離無線通信、無線系事業者アクセスネットワーク等)を介してスマートフォン4と通信接続された端末位置推定装置2と
を含んでいる。
The terminal position estimation system of the present embodiment shown in FIG. 5 is
(A) A camera 41 mounted on a smartphone 4 owned by a user who moves within a predetermined area, and
(B) Includes a terminal position estimation device 2 that is communication-connected to the smartphone 4 via wireless (wireless LAN, short-range wireless communication, wireless operator access network, etc.).
ここで、(a)のカメラ41の撮影対象は、本実施形態において、図1を用いて説明したLiDAR3の測定対象と同様となっており、エリア内においてユーザ(カメラ41)の周辺に存在し得る人物等の「可動物体」、及びエリア内設備、設置物や施設、さらには天井や壁・柱・床等のエリア内構造物のような「不動物体」となっている。 Here, the shooting target of the camera 41 of (a) is the same as the measurement target of LiDAR3 described with reference to FIG. 1 in the present embodiment, and exists in the vicinity of the user (camera 41) in the area. It is a "movable object" such as a person to obtain, and an "inanimate body" such as equipment in the area, installations and facilities, and structures in the area such as ceilings, walls, pillars, and floors.
一方、上記(b)の端末位置推定装置2は、最初に、スマートフォン4のカメラ41によって生成された、スマートフォン4の周辺に存在する「物体に係る情報」、具体的には、撮影された画像情報(動画像情報)を取得する。次いで、取得した画像情報を解析することによって、スマートフォン4のエリア内での位置を推定し、当該端末に推定位置情報を通知するのである。 On the other hand, the terminal position estimation device 2 of the above (b) first generates "information about an object" existing around the smartphone 4 generated by the camera 41 of the smartphone 4, specifically, a captured image. Acquire information (moving image information). Next, by analyzing the acquired image information, the position of the smartphone 4 in the area is estimated, and the estimated position information is notified to the terminal.
より具体的に、端末位置推定装置2は、その特徴として、
(A)スマートフォン4の周辺に存在する「物体に係る情報」であって端末の位置における観測結果である「周辺物体情報」、本実施形態では周辺画像情報、を取得する周辺画像取得部(周辺物体情報取得部)221と、
(B)周辺画像情報(周辺物体情報)に含まれる個々の物体に係る画像部分情報が、「可動物体」に係る画像部分情報か否かを判定する周辺画像可不動判定部(周辺物体情報判定部)223と、
(C)周辺画像情報(周辺物体情報)に含まれる情報のうち、「可動物体」に係る画像部分情報であると判定された画像部分情報に対し、無効化処理又は情報量低減処理(本実施形態では1色によるマスク処理)を施すことによって、周辺に存在する「不動物体」に係る画像情報である「周辺不動物体モデル」を生成する周辺モデル生成部224と、
(D)予め生成されたモデルであってこのエリアに存在する「不動物体」に係る画像情報である「参照不動物体モデル」から又はこのモデルにおける端末位置の候補となる部分から、個々の「不動物体」に係る画像部分情報を抽出し、当該画像部分情報と、「周辺不動物体モデル」に含まれる個々の不動物体に係る画像部分情報との間における画像重畳の度合いに基づいて、当該端末の位置を決定する端末位置決定部225と
を有している。
More specifically, the terminal position estimation device 2 is characterized by its characteristics.
(A) Peripheral image acquisition unit (periphery) that acquires "peripheral object information" that is "information related to an object" existing around the smartphone 4 and is an observation result at the position of the terminal, and peripheral image information in this embodiment. Object information acquisition unit) 221 and
(B) Peripheral image immobility determination unit (peripheral object information determination) for determining whether or not the image partial information related to each object included in the peripheral image information (peripheral object information) is the image partial information related to the "movable object". Part) 223 and
(C) Of the information contained in the peripheral image information (peripheral object information), the image partial information determined to be the image partial information related to the "movable object" is invalidated or the amount of information is reduced (this implementation). Peripheral
(D) From the "reference non-animal body model" which is a pre-generated model and is the image information related to the "non-animal body" existing in this area, or from the part which is a candidate for the terminal position in this model, each "immobility". The image partial information related to the "object" is extracted, and the terminal is based on the degree of image superposition between the image partial information and the image partial information related to each inanimate object included in the "peripheral inanimate model". It has a terminal
このように端末位置推定装置2においても、上述した端末位置推定装置1と同様、GPS等の外部測位系に依存することなく、端末が自ら取得可能な情報をもって、端末位置推定処理を実施することができるのである。またそれ故、端末位置推定装置2によれば、勿論、屋外での端末位置推定を実施し、例えば自動車やカート等のナビゲーションサービスを提供することもできるが、正確なGPS測位の困難である屋内、例えば巨大ショッピングセンタや工場の内部といった屋内や、さらには地下通路・広場や地下室のような地下エリアにおける端末位置把握・通知サービスを提供することも可能となるのである。またさらに、端末位置推定装置2における端末位置推定方法を、AR提供サービスにおけるユーザ端末位置の推定処理に適用することも可能となっている。 In this way, the terminal position estimation device 2 also performs the terminal position estimation process with the information that the terminal can acquire by itself without depending on the external positioning system such as GPS, as in the terminal position estimation device 1 described above. Can be done. Therefore, according to the terminal position estimation device 2, of course, it is possible to estimate the terminal position outdoors and provide a navigation service such as a car or a cart, but it is difficult to perform accurate GPS positioning indoors. For example, it is possible to provide a terminal position grasping / notification service indoors such as the inside of a huge shopping center or a factory, or even in an underground area such as an underground passage / plaza or a basement. Further, it is also possible to apply the terminal position estimation method in the terminal position estimation device 2 to the user terminal position estimation process in the AR providing service.
さらに、使用する両モデルにおいて「可動物体」に係る情報を無効化若しくは低減化しているので、周辺画像情報(周辺物体情報)における移動物体の存在による影響を抑制した端末位置推定処理を実施することが可能となっている。実際に従来は、端末のカメラで得られた画像情報が、歩行者や自動車等の移動物体を含む場合に、当該端末の位置推定誤差が増大したり、推定処理にエラーが生じたりすることが大きな問題となってきた。これに対し、端末位置推定装置2では、上述したように移動し得る「可動物体」の影響を抑制しているので、位置推定処理におけるエラーを回避し、より高い位置推定精度を実現することも可能となるのである。 Furthermore, since the information related to "movable objects" is invalidated or reduced in both models used, the terminal position estimation process that suppresses the influence of the presence of moving objects in the peripheral image information (peripheral object information) should be performed. Is possible. In fact, conventionally, when the image information obtained by the camera of the terminal includes a moving object such as a pedestrian or a car, the position estimation error of the terminal may increase or an error may occur in the estimation process. It has become a big problem. On the other hand, since the terminal position estimation device 2 suppresses the influence of the "movable object" that can move as described above, it is possible to avoid an error in the position estimation process and realize higher position estimation accuracy. It will be possible.
ちなみに、本実施形態において取り扱われる周辺画像情報は、カメラ画像情報に限定されるものではなく、例えば、端末に搭載されたデプスカメラによって生成された距離画像情報とすることも可能である。 Incidentally, the peripheral image information handled in the present embodiment is not limited to the camera image information, and may be, for example, the distance image information generated by the depth camera mounted on the terminal.
図5の機能ブロック図によれば、本実施形態の端末位置推定装置2は、スマートフォン4から、カメラ41によって生成された画像情報を受信可能な通信インタフェース201と、画像データ蓄積部202と、位置情報保存部203と、プロセッサ・メモリとを有する。
According to the functional block diagram of FIG. 5, the terminal position estimation device 2 of the present embodiment has a
ここで、このプロセッサ・メモリは、本発明による端末位置推定プログラムの一実施形態を保存しており、また、コンピュータ機能を有していて、この端末位置推定プログラムを実行することによって、端末位置推定処理を実施する。このことから、端末位置推定装置2は、端末位置推定専用装置又はユニットであってもよいが、本発明による端末位置推定プログラムを搭載した、例えばパーソナル・コンピュータ(PC)、ノート型若しくはタブレット型コンピュータとしてもよい。さらには、計算処理能力の向上した(位置推定対象の)端末自身、例えばスマートフォンや、通信可能ロボット等とすることも可能である。 Here, the processor memory stores one embodiment of the terminal position estimation program according to the present invention, and also has a computer function, and the terminal position estimation is performed by executing the terminal position estimation program. Carry out the process. For this reason, the terminal position estimation device 2 may be a terminal position estimation dedicated device or a unit, but is equipped with a terminal position estimation program according to the present invention, for example, a personal computer (PC), a notebook type or a tablet type computer. May be. Further, it is also possible to use the terminal itself (the target of position estimation) with improved calculation processing capacity, for example, a smartphone, a communicable robot, or the like.
さらに、プロセッサ・メモリは、参照モデル管理部211と、周辺画像取得部221と、周辺画像可不動判定部223と、周辺モデル生成部224と、端末位置決定部225と、通信制御部231と、アプリケーション・プログラム部(AP)232とを有する。なお、これらの機能構成部は、プロセッサ・メモリに保存された端末位置推定プログラムの機能と捉えることができる。また、図5における端末位置推定装置2の機能構成部間を矢印で接続して示した処理の流れは、本発明による端末位置推定方法の一実施形態としても理解される。
Further, the processor memory includes a reference
ここで以下、上記の機能構成部のうち、端末位置推定装置1の機能構成部と比較して、画像情報を取り扱うが故に特有の処理を実施するものについて説明を行う。 Here, among the above-mentioned functional components, those that perform specific processing because they handle image information will be described in comparison with the functional components of the terminal position estimation device 1.
参照モデル管理部211は、
(a)端末位置を推定すべき範囲である所定エリアでの複数の位置の各々における画像情報(観測結果情報)であって当該位置の周辺に存在する物体に係る画像情報に基づいて、このエリアに存在する物体に係る情報であるエリア内画像部分情報(エリア内物体情報)を生成し、
(b)このエリア内画像部分情報に含まれる情報のうち、可動物体に係る情報であると判定された画像部分情報に対し、マスク処理を施すことによって生成されたエリア内不動物体情報によって、「参照不動物体モデル」を生成又は更新する。
The reference
(A) This area is based on image information (observation result information) at each of a plurality of positions in a predetermined area where the terminal position should be estimated and is related to an object existing around the position. Generates in-area image partial information (in-area object information), which is information related to objects existing in
(B) Of the information included in the image partial information in the area, the image partial information determined to be information related to a movable object is subjected to mask processing to generate "in-area non-animal body information". Generate or update a "reference non-animal model".
ここで、上記処理(a)においては、例えば、高速R-CNN(Faster Regions with Convolutional Neural Networks)の識別器を用いた公知の画像識別技術を用いて、画像情報(動画像情報)のフレーム毎に、当該フレームに含まれる画像部分情報に係る物体の種別を判定することができる。なお、高速R-CNNについては、例えば非特許文献: Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.39, Issue.6, p1137-1149, 2017年に記載されている。 Here, in the above processing (a), for example, using a known image identification technique using a high-speed R-CNN (Faster Regions with Convolutional Neural Networks) classifier, each frame of image information (moving image information) is used. In addition, the type of the object related to the image partial information included in the frame can be determined. Regarding high-speed R-CNN, for example, non-patent documents: Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, IEEE Transactions on Pattern Analysis and Machine It is described in Intelligence, Vol.39, Issue.6, p1137-1149, 2017.
またさらに上記処理(b)においては、物体種別毎に当該種別が可動物体か不動物体かを予め設定しておき、このうち可動物体である物体種別に係る画像部分情報であると判定された画像部分情報に対し、当該画像部分を含む黒色の矩形領域を設定するマスク処理を実施することができる。さらに、このマスク処理後のエリア内不動物体情報では、残った不動物体に係る画像部分情報毎に、不動物体種別のラベルが付与され、さらに、エリア内に存在する不動物体のリストも生成されて、これにより、3次元の参照不動物体モデルが生成される。 Further, in the above process (b), whether the type is a movable object or an inanimate object is set in advance for each object type, and the image determined to be the image partial information related to the object type which is a movable object. A mask process for setting a black rectangular area including the image portion can be performed on the partial information. Further, in the in-area non-animal body information after the mask processing, a label for each non-animal body type is given to each image partial information related to the remaining non-animal body, and a list of non-animal bodies existing in the area is also generated. , This produces a three-dimensional reference inanimate model.
このように、参照不動物体モデルから可動物体の痕跡を予め除去しておくことによって、この後、この参照不動物体モデルを用いた端末位置推定において、可動物体がその位置を変化させることによる画像照合処理の失敗を、回避することが可能となるのである。また、可動物体の痕跡を除去することによってデータ量が低減し、照合処理演算量がより少なくて済む。 In this way, by removing the trace of the movable object from the reference non-animal body model in advance, the image collation is performed by changing the position of the movable object in the terminal position estimation using the reference non-animal body model. It is possible to avoid processing failures. Further, by removing the trace of the movable object, the amount of data is reduced, and the amount of collation processing calculation can be smaller.
同じく図5の機能ブロック図において、周辺画像取得部221は、スマートフォン4(カメラ41)の周辺に存在する物体に係る画像情報であって、それをもって端末位置の推定処理を行うことになる周辺物体情報としての周辺画像情報を入力する。例えば、当該画像情報の時系列フレームを刻々と入力し、端末の現在位置の推定を、連続して概ねリアルタイムで実施させることも可能となる。
Similarly, in the functional block diagram of FIG. 5, the peripheral
周辺画像可不動判定部223は、周辺画像情報において、物体に係る画像部分情報を識別し、識別した画像部分情報の物体の種別が、予め設定された可動物体に係る物体種別か否かを判定する。なお、このような識別・判定処理は、上述した参照モデル管理部211で実施される識別・判定処理と同様に実施することができる。
The peripheral image
周辺モデル生成部224は、可能物体に係る情報であると判定された画像部分情報に対してマスク処理を実施し、周辺に存在する不動物体に係る情報である周辺不動物体モデルを生成する。また、この際、残った不動物体に係る画像部分情報毎に、不動物体種別のラベルが付与され、さらに、周辺不動物体モデル内に存在する不動物体の種別のリストも生成される。このようなモデル生成処理も、上述した参照モデル管理部211で実施されるモデル生成処理と同様に実施することができる。
Peripheral
ちなみに、上述したように可動物体分を無効化した周辺不動物体モデルと、同じく可動物体分を無効化した参照不動物体モデルとを照合させることによって、可動物体がその位置を変化させることに起因するエラーの発生を抑制し、より高い端末位置推定精度を確保することが可能となるのである。 By the way, it is caused by the fact that the movable object changes its position by collating the peripheral inanimate model in which the movable object is invalidated and the reference inanimate model in which the movable object is invalidated as described above. It is possible to suppress the occurrence of errors and secure higher terminal position estimation accuracy.
図6は、周辺モデル生成部224における周辺モデル生成処理の一実施例を概略的に示した模式図である。
FIG. 6 is a schematic diagram schematically showing an embodiment of the peripheral model generation process in the peripheral
図6(A)に示すように本実施例において、端末位置を推定すべきエリアはショッピングセンタ内の所定範囲であり、当初、カメラ41から取得された周辺物体情報としての画像情報には、可動物体である複数の人物に係る画像部分情報が含まれている。これに対し、周辺モデル生成部224は、図2(B)に示すように、(予め可動物体であると設定された)「人物」であると識別された画像部分情報に対しマスク処理を実施して、エリア内不動物体情報を生成する。
As shown in FIG. 6A, in this embodiment, the area where the terminal position should be estimated is a predetermined range in the shopping center, and the image information as the peripheral object information initially acquired from the camera 41 is movable. It contains partial image information relating to a plurality of people who are objects. On the other hand, as shown in FIG. 2B, the peripheral
次いで、周辺モデル生成部224は、エリア内不動物体情報に含まれる不動物体に係る画像部分情報の各々に対し、周辺点群可不動判定部223での識別器による物体種別結果を利用して、天井、店舗A、エスカレータ、床等といった該当する物体種別のラベルを付与するのである。
Next, the peripheral
同じく図1の機能ブロック図において、端末位置決定部225は、参照モデル管理部211で生成又は更新された参照不動物体モデルにおける不動物体と、周辺モデル生成部124で生成された周辺不動物体モデルに含まれる不動物体との照合結果に基づいて、スマートフォン4(を所持したユーザ)のエリア内における位置情報を決定する。
Similarly, in the functional block diagram of FIG. 1, the
具体的に、端末位置決定部225は、公知のマッチング技術、例えば非特許文献:a preprint for the paper accepted for publication in ICCV 2011, “Fast Image-Based Localization using Direct 2D-to-3D Matching”,[online],[平成30年8月23日検索]、インターネット<URL: https://www.graphics.rwth-aachen.de/media/papers/sattler_iccv11_preprint_011.pdf>に記載された2D-3D間マッチング技術を用い、参照不動物体モデルに対し、周辺不動物体モデルを照合する。
Specifically, the
これにより、参照不動物体モデルにおける周辺不動物体モデルの適合位置を確定することができ、最終的に、当該周辺不動物体モデルに係る時点における、スマートフォン4(を所持したユーザ)のエリア内での位置及び向きに係る情報を決定することが可能となるのである。 As a result, the suitable position of the peripheral inanimate model in the reference inanimate model can be determined, and finally, the position in the area of the smartphone 4 (the user who possesses) at the time of the peripheral inanimate model. And it becomes possible to determine the information related to the direction.
ちなみに、上述したポイントクラウドに係るモデル同士の照合処理と同様、参照不動物体モデルにおいて、端末位置の存在し得る複数の候補領域を予め決定した上で、参照不動物体モデルにおける候補領域相当部分との照合処理を行い、端末位置を推定することも可能である。これにより、処理演算量を低減させ、処理時間を短縮することが可能となる。 By the way, similar to the collation process between the models related to the point cloud described above, in the reference non-animal body model, after predetermining a plurality of candidate regions in which the terminal position can exist, the part corresponding to the candidate region in the reference non-animal body model is used. It is also possible to perform collation processing and estimate the terminal position. This makes it possible to reduce the amount of processing calculation and shorten the processing time.
具体的には、端末位置決定部225の候補位置生成部225aは、エリア内における複数の端末位置候補情報である少なくとも1つの候補領域を決定する。例えば、エリアを予め複数の区域に分けておき、区域毎に、当該区域に存在する又は当該区域から観察し得る不動物体のリストを決定しておく。ここで、隣接する区域同士は互いに重畳する部分を有していてもよい。次いで、各区域の不動物体のリストと、周辺不動物体モデルに含まれる不動物体のリストとを照合し、両リスト内容が一致する又は両リストが所定条件を満たすようなリストを有する区域を候補領域とすることができる。
Specifically, the candidate
またこの際、当該所定条件としては、例えば、所定の不動物体(例えばエスカレータ)については両リストの間で必ずその有無が一致するとの条件を設定することもできる。さらに、両リストの照合において、不動物体のうち所定のもの、例えば天井や床は、いずれの区域でも見られるものなので、上記リストに入れない、又は照合対象としない(リスト間でその有無を比較しない)とすることも好ましい。 At this time, as the predetermined condition, for example, it is possible to set a condition that the presence or absence of a predetermined non-animal body (for example, an escalator) always matches between the two lists. Furthermore, in the collation of both lists, certain non-animal objects, such as ceilings and floors, are found in any area, so they are not included in the above list or are not subject to collation (comparison between the lists). (No) is also preferable.
次いで、端末位置決定部225の候補位置生成部225aは、参照不動物体モデルの候補領域における不動物体と、周辺モデル生成部124で生成された周辺不動物体モデルに含まれる不動物体との照合結果に基づいて、スマートフォン4(を所持したユーザ)のエリア内における位置情報を決定するのである。これにより、参照不動物体モデルに含まれる全不動物体との間で照合処理を行う必要がなくなり、その結果、照合処理演算量を低減させ、照合処理時間を短縮することが可能となる。
Next, the candidate
[端末位置推定方法]
図7は、本発明による端末位置推定方法における参照不動物体モデルの構築・更新処理の一実施形態を概略的に示すフローチャートである。ここで、以下に説明するステップS101~S106は、観察対象エリアについての参照不動物体モデルを構築し、さらに取得されるフレーム毎に更新する処理となっている。
[Terminal position estimation method]
FIG. 7 is a flowchart schematically showing an embodiment of a reference non-animal body model construction / update process in the terminal position estimation method according to the present invention. Here, steps S101 to S106 described below are processes for constructing a reference inanimate object model for the observation target area and updating each acquired frame.
(S101)最初に、時系列ポイントクラウドデータ、又は時系列画像データを取得する。
(S102)取得されたデータの各フレームにおいて、物体を検出する物体検出処理を実施する。
(S103)検出された物体のうち、予め可動であると設定された可動物体に対し、ポイントクラウドの場合には削除処理を実施し、一方画像データの場合にはマスク処理を実施する。
(S101) First, time-series point cloud data or time-series image data is acquired.
(S102) In each frame of the acquired data, an object detection process for detecting an object is performed.
(S103) Among the detected objects, the movable object that is set to be movable in advance is subjected to the deletion process in the case of the point cloud, while the mask process is performed in the case of the image data.
(S104)削除/マスク処理後のデータに基づき、観察対象エリアに存在する不動物体のリストを生成し、あるいは既に生成されている場合には更新する。
(S105)観察対象エリアにおける不動物体情報である参照不動物体モデルを構築し、あるいは既に構築されている場合には更新する。
(S106)当該時点までの処理について、処理時間、処理フレーム数、及び処理データ量のうちの1つにつき、予め設定した所定閾値を超過しているか否かを判定する。ここで、超過しているとの判定を行った場合、本処理は終了される。一方、超過していないとの判定を行った場合、再度ステップS101からの処理を繰り返す。
(S104) Based on the data after the deletion / mask processing, a list of inanimate objects existing in the observation target area is generated, or if it has already been generated, it is updated.
(S105) A reference non-animal body model, which is non-animal body information in the observation target area, is constructed, or is updated if it has already been constructed.
(S106) For the processing up to the relevant time point, it is determined whether or not one of the processing time, the number of processing frames, and the amount of processing data exceeds a predetermined threshold value set in advance. Here, if it is determined that the excess is exceeded, this process is terminated. On the other hand, if it is determined that the excess is not exceeded, the process from step S101 is repeated again.
図8は、本発明による端末位置推定方法における参照不動物体モデルを用いた端末位置推定処理の一実施形態を概略的に示すフローチャートである。ここで、以下に説明するステップS201~S210は、所定の時系列データを取得してから、端末位置を決定して当該端末に通知するまでの1サイクルに相当する。 FIG. 8 is a flowchart schematically showing an embodiment of the terminal position estimation process using the reference non-animal body model in the terminal position estimation method according to the present invention. Here, steps S201 to S210 described below correspond to one cycle from the acquisition of predetermined time-series data to the determination of the terminal position and the notification to the terminal.
(S201)時系列ポイントクラウドデータ、又は時系列画像データを取得する。
(S202)取得されたデータの各フレームにおいて、物体を検出する物体検出処理を実施する。
(S203)検出された物体のうち、予め可動であると設定された可動物体に対し、ポイントクラウドの場合には削除処理を実施し、一方画像データの場合にはマスク処理を実施する。
(S201) Acquire time-series point cloud data or time-series image data.
(S202) In each frame of the acquired data, an object detection process for detecting an object is performed.
(S203) Among the detected objects, the movable object that is set to be movable in advance is subjected to the deletion process in the case of the point cloud, while the mask process is performed in the case of the image data.
(S204)削除/マスク処理後のデータに基づき、端末の周辺に存在する不動物体のリストを生成し、あるいは既に生成されている場合には更新する。
(S205)端末の周辺に存在する不動物体情報である参照不動物体モデルを構築し、あるいは既に構築されている場合には更新する。
(S206)当該時点までの処理について、処理時間、処理フレーム数、及び処理データ量のうちの1つにつき、予め設定した所定閾値を超過しているか否かを判定する。ここで、超過しているとの判定を行った場合、ステップS207へ移行する。一方、超過していないとの判定を行った場合、再度ステップS201からの処理を繰り返す。
(S204) Based on the data after the deletion / mask processing, a list of inanimate objects existing around the terminal is generated, or if it has already been generated, it is updated.
(S205) A reference non-animal body model, which is non-animal body information existing around the terminal, is constructed, or is updated if it has already been constructed.
(S206) For the processing up to the relevant time point, it is determined whether or not one of the processing time, the number of processing frames, and the amount of processing data exceeds a predetermined threshold value set in advance. Here, if it is determined that the excess is exceeded, the process proceeds to step S207. On the other hand, if it is determined that the excess is not exceeded, the process from step S201 is repeated again.
(S207)生成/更新した不動物体のリストに基づき、参照不動物体モデルにおける、周辺不動物体モデルに相当し得る複数の候補領域を決定する。
(S208,S209)参照不動物体モデル及び周辺不動物体モデルにおける不動物体同士の照合処理を行い、参照不動物体モデルにおける、周辺不動物体モデルとマッチングする候補領域を選択し、さらに、選択された候補領域における端末の位置及び向きを決定する。
(S210)決定した端末の位置及び向きの情報を当該端末に送信する。
(S207) Based on the generated / updated list of non-animal bodies, a plurality of candidate regions that can correspond to the peripheral non-animal body model in the reference non-animal body model are determined.
(S208, S209) Collation processing between the non-animal bodies in the reference non-animal body model and the peripheral non-animal body model is performed, a candidate region matching the peripheral non-animal body model in the reference non-animal body model is selected, and further, the selected candidate region is selected. Determines the position and orientation of the terminal in.
(S210) Information on the position and orientation of the determined terminal is transmitted to the terminal.
ここで、以上に説明したステップS201~S210の1サイクルを繰り返すことによって、その都度、端末に位置及び向き情報を通知することができ、また、このサイクルを十分に高速に行うことによって、概ねリアルタイムで、端末に対し現在位置及び向きを通知することも可能となるのである。 Here, by repeating one cycle of steps S201 to S210 described above, the position and orientation information can be notified to the terminal each time, and by performing this cycle at a sufficiently high speed, it is almost real-time. Therefore, it is possible to notify the terminal of the current position and orientation.
以上詳細に説明したように、本発明によれば、端末のセンサの測定結果である周辺物体情報に基づいて、周辺に存在する不動物体に係る情報である周辺不動物体モデルを生成し、これを参照不動物体モデルと照合することによって端末位置の情報を推定している。すなわち、GPS等の外部測位系に依存することなく、端末が自ら取得可能な情報をもって、端末位置推定処理を実施することができるのである。 As described in detail above, according to the present invention, based on the peripheral object information which is the measurement result of the sensor of the terminal, the peripheral inanimate model which is the information related to the inanimate existing in the periphery is generated, and the peripheral inanimate model is generated. Information on the terminal position is estimated by collating with the reference non-animal body model. That is, the terminal position estimation process can be performed with the information that the terminal can acquire by itself without depending on the external positioning system such as GPS.
したがって、端末位置推定装置1によれば、勿論、屋外での端末位置推定を実施し、例えば自動車やカート等のナビゲーションサービスを提供することもできるが、正確なGPS測位の困難である屋内、例えば巨大ショッピングセンタや工場の内部といった屋内や、さらには地下通路・広場や地下室のような地下エリアにおける端末位置把握・通知サービスを提供することも可能となるのである。またさらに、端末位置推定装置1における端末位置推定方法を、AR提供サービスにおけるユーザ端末位置の推定処理に適用することも可能となっている。 Therefore, according to the terminal position estimation device 1, of course, it is possible to estimate the terminal position outdoors and provide a navigation service such as a car or a cart, but it is difficult to perform accurate GPS positioning indoors, for example. It is also possible to provide terminal position grasping / notification services indoors such as inside huge shopping centers and factories, and even in underground areas such as underground passages / squares and basements. Further, it is also possible to apply the terminal position estimation method in the terminal position estimation device 1 to the user terminal position estimation process in the AR providing service.
以上に述べた本発明の種々の実施形態において、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 In the various embodiments of the present invention described above, various changes, modifications and omissions within the scope of the technical idea and viewpoint of the present invention can be easily carried out by those skilled in the art. The above explanation is just an example and does not attempt to limit anything. The present invention is limited only to the scope of claims and their equivalents.
1、2 端末位置推定装置
101、201 通信インタフェース
102 ポイントクラウド蓄積部
103、203 位置情報保存部
111、211 参照モデル管理部
121 周辺点群取得部
122 周辺点群区分部
123 周辺点群可不動判定部
124、224 周辺モデル生成部
125、225 端末位置決定部
131、231 通信制御部
132、232 アプリケーション・プログラム部(AP)
202 画像データ蓄積部
221 周辺画像取得部
223 周辺画像可不動判定部
3 LiDAR
4 スマートフォン
41 カメラ
1, 2 Terminal
202 Image
4 smartphone 41 camera
Claims (9)
当該端末の周辺に存在する物体に係る情報であって当該端末の位置における観測結果である周辺点群情報を取得する周辺物体情報取得手段と、
点群情報の識別器を用いて、当該周辺点群情報に含まれる個々の物体に係る情報である点群情報が、予め設定された可動物体に係る点群情報か否かを判定する周辺物体情報判定手段と、
当該周辺点群情報に含まれる情報のうち、可動物体に係る点群情報であると判定された点群情報を除去することによって、周辺に存在する不動物体に係る点群情報である周辺不動物体モデルを生成する周辺モデル生成手段と、
当該端末の当該エリア内における位置に係る情報として、当該端末の当該エリア内における位置の候補に係る情報である端末位置候補情報を決定し、予め生成されたモデルであって当該エリアに存在する不動物体に係る点群情報である参照不動物体モデルから、個々の不動物体をノードとして当該不動物体間の距離をエッジとした参照不動物体モデルに係るグラフを生成し、当該参照不動物体モデルに係るグラフと、当該周辺不動物体モデルに含まれる個々の不動物体をノードとして当該不動物体間の距離をエッジとした周辺不動物体モデルに係るグラフとの間でマッチング処理を行って、当該端末位置候補情報から、当該端末の位置に係る端末位置候補情報を選択し、当該参照不動物体モデルにおける選択された端末位置候補情報に係る位置に存在する不動物体に係る点群情報と、当該周辺不動物体モデルにおける該不動物体に対応する不動物体に係る点群情報との間の重畳の度合いを最大にする点群平行移動量及び点群回転量に基づいて、当該端末の当該エリア内における位置に係る情報を決定する端末位置決定手段と
を有することを特徴とする端末位置推定装置。 A terminal position estimation device that estimates the position of a terminal in a predetermined area.
Peripheral object information acquisition means for acquiring peripheral point cloud information which is information related to an object existing in the vicinity of the terminal and is an observation result at the position of the terminal.
A peripheral object that uses a point group information classifier to determine whether the point group information, which is information related to an individual object included in the peripheral point group information, is point group information related to a preset movable object. Information judgment means and
By removing the point cloud information determined to be the point cloud information related to the movable object from the information included in the peripheral point cloud information, the peripheral non-animal body which is the point cloud information related to the non-animal body existing in the vicinity. Peripheral model generation means to generate a model, and
As the information relating to the position of the terminal in the area, the terminal position candidate information which is the information relating to the position candidate in the area of the terminal is determined, and the model generated in advance and existing in the area is immovable. From the reference non-animal body model which is the point group information related to the object, a graph related to the reference non-animal body model is generated with each non-animal body as a node and the distance between the non-animal bodies as an edge, and the graph related to the reference non-animal body model is generated. The matching process is performed between the graph and the graph related to the peripheral animal body model in which the individual animal bodies included in the peripheral animal body model are used as nodes and the distance between the animal bodies is used as an edge, and the terminal position candidate information is used. , The terminal position candidate information relating to the position of the terminal is selected, the point group information relating to the animal body existing at the position corresponding to the selected terminal position candidate information in the reference non-animal body model, and the peripheral non-animal body model . Based on the point group parallel movement amount and the point group rotation amount that maximize the degree of superposition with the point group information related to the non-animal body corresponding to the non -animal body, the information related to the position of the terminal in the area is obtained. A terminal position estimation device comprising a terminal position determining means for determining.
前記周辺モデル生成手段は、当該物体毎の点群情報のうち、可動物体に係る点群情報であると判定された点群情報を除去することによって当該周辺不動物体モデルを生成する
ことを特徴とする請求項1又は2に記載の端末位置推定装置。 The terminal position estimation device further has peripheral object information classification means for classifying the peripheral point cloud information into point cloud information for each object, which is a set of point data adjacent to each other, based on the distance between the point data. ,
The peripheral model generation means is characterized in that the peripheral inanimate model is generated by removing the point cloud information determined to be the point cloud information related to the movable object from the point cloud information for each object. The terminal position estimation device according to claim 1 or 2 .
当該端末の周辺に存在する物体に係る情報であって当該端末の位置における観測結果である周辺画像情報を取得する周辺画像情報取得手段と、
画像情報の識別器を用いて、当該周辺画像情報に含まれる個々の物体に係る情報である画像部分情報が、予め設定された可動物体に係る画像部分情報であるか否かを判定する周辺物体情報判定手段と、
当該周辺画像情報に含まれる情報のうち、可動物体に係る画像部分情報であると判定された画像部分情報に対しマスキング処理を施すことによって、周辺に存在する不動物体に係る画像情報である周辺不動物体モデルを生成する周辺モデル生成手段と、
予め生成されたモデルであって当該エリアに存在する不動物体に係る画像情報である参照不動物体モデルから又は該モデルにおける端末位置の候補となる部分から、個々の不動物体に係る画像部分情報を抽出し、当該画像部分情報と、当該周辺不動物体モデルに含まれる個々の不動物体に係る画像部分情報との間における画像重畳の度合いに基づいて、当該端末の当該エリア内における位置に係る情報を決定する端末位置決定手段と
を有することを特徴とする端末位置推定装置。 A terminal position estimation device that estimates the position of a terminal in a predetermined area.
Peripheral image information acquisition means for acquiring peripheral image information which is information related to an object existing in the vicinity of the terminal and is an observation result at the position of the terminal .
Peripheral determination using an image information classifier to determine whether the image partial information, which is information related to an individual object included in the peripheral image information, is the image partial information related to a preset movable object. Object information determination means and
Of the information included in the peripheral image information, by performing masking processing on the image partial information determined to be the image partial information related to the movable object, the peripheral image information related to the non-animal body existing in the periphery is applied. Peripheral model generation means to generate an inanimate body model,
Image partial information related to individual non-animal bodies is obtained from a reference non-animal body model, which is a pre- generated model and image information related to non-animal bodies existing in the area, or from a part that is a candidate for a terminal position in the model. Based on the degree of image superimposition between the extracted image partial information and the image partial information related to each inanimate object included in the peripheral inanimate body model, the information relating to the position of the terminal in the area is obtained. With the terminal position determination means to determine
A terminal position estimation device characterized by having .
当該エリア内物体情報に含まれる情報のうち、可動物体に係る点群情報であると判定された点群情報を除去することにより生成されたエリア内不動物体情報によって、または、当該エリア内物体情報に含まれる情報のうち、可動物体に係る画像部分情報であると判定された画像部分情報に対しマスキングすることにより生成されたエリア内不動物体情報によって、当該参照不動物体モデルを生成又は更新する
参照モデル管理手段を更に有することを特徴とする請求項1から5のいずれか1項に記載の端末位置推定装置。 Based on the information of the observation result at each of the plurality of positions in the area and the information related to the objects existing in the vicinity of the position, the object information in the area which is the information related to the objects existing in the area is generated.
Of the information contained in the object information in the area, the inanimate body information in the area generated by removing the point group information determined to be the point group information related to the movable object, or in the area. Of the information included in the object information, the reference inanimate model is generated or updated by the in-area inanimate information generated by masking the image partial information determined to be the image partial information related to the movable object. The terminal position estimation device according to any one of claims 1 to 5, further comprising a reference model management means.
当該端末の周辺に存在する物体に係る情報であって当該端末の位置における観測結果である周辺点群情報を取得する周辺物体情報取得手段と、
点群情報の識別器を用いて、当該周辺点群情報に含まれる個々の物体に係る情報である点群情報が、予め設定された可動物体に係る点群情報か否かを判定する周辺物体情報判定手段と、
当該周辺点群情報に含まれる情報のうち、可動物体に係る点群情報であると判定された点群情報を除去することによって、周辺に存在する不動物体に係る点群情報である周辺不動物体モデルを生成する周辺モデル生成手段と、
当該端末の当該エリア内における位置に係る情報として、当該端末の当該エリア内における位置の候補に係る情報である端末位置候補情報を決定し、予め生成されたモデルであって当該エリアに存在する不動物体に係る点群情報である参照不動物体モデルから、個々の不動物体をノードとして当該不動物体間の距離をエッジとした参照不動物体モデルに係るグラフを生成し、当該参照不動物体モデルに係るグラフと、当該周辺不動物体モデルに含まれる個々の不動物体をノードとして当該不動物体間の距離をエッジとした周辺不動物体モデルに係るグラフとの間でマッチング処理を行って、当該端末位置候補情報から、当該端末の位置に係る端末位置候補情報を選択し、当該参照不動物体モデルにおける選択された端末位置候補情報に係る位置に存在する不動物体に係る点群情報と、当該周辺不動物体モデルにおける該不動物体に対応する不動物体に係る点群情報との間の重畳の度合いを最大にする点群平行移動量及び点群回転量に基づいて、当該端末の当該エリア内における位置に係る情報を決定する端末位置決定手段と
してコンピュータを機能させることを特徴とする端末位置推定プログラム。 A program that activates a computer mounted on a device that estimates the position of a terminal in a predetermined area.
Peripheral object information acquisition means for acquiring peripheral point cloud information which is information related to an object existing in the vicinity of the terminal and is an observation result at the position of the terminal.
A peripheral object that uses a point group information classifier to determine whether the point group information, which is information related to an individual object included in the peripheral point group information, is point group information related to a preset movable object. Information judgment means and
By removing the point cloud information determined to be the point cloud information related to the movable object from the information included in the peripheral point cloud information, the peripheral non-animal body which is the point cloud information related to the non-animal body existing in the vicinity. Peripheral model generation means to generate a model, and
As the information relating to the position of the terminal in the area, the terminal position candidate information which is the information relating to the position candidate in the area of the terminal is determined, and the model generated in advance and existing in the area is immovable. From the reference non-animal body model which is the point group information related to the object, a graph related to the reference non-animal body model is generated with each non-animal body as a node and the distance between the non-animal bodies as an edge, and the graph related to the reference non-animal body model is generated. The matching process is performed between the graph and the graph related to the peripheral animal body model in which the individual animal bodies included in the peripheral animal body model are used as nodes and the distance between the animal bodies is used as an edge, and the terminal position candidate information is used. , The terminal position candidate information relating to the position of the terminal is selected, the point group information relating to the animal body existing at the position corresponding to the selected terminal position candidate information in the reference non-animal body model, and the peripheral non-animal body model . Based on the point group parallel movement amount and the point group rotation amount that maximize the degree of superposition with the point group information related to the non-animal body corresponding to the non -animal body, the information related to the position of the terminal in the area is obtained. A terminal position estimation program characterized in that a computer functions as a terminal position determining means for determining.
当該端末の周辺に存在する物体に係る情報であって当該端末の位置における観測結果である周辺点群情報を取得するステップと、
点群情報の識別器を用いて、当該周辺点群情報に含まれる個々の物体に係る情報である点群情報が、予め設定された可動物体に係る点群情報か否かを判定するステップと、
当該周辺点群情報に含まれる情報のうち、可動物体に係る点群情報であると判定された点群情報を除去することによって、周辺に存在する不動物体に係る点群情報である周辺不動物体モデルを生成するステップと、
当該端末の当該エリア内における位置に係る情報として、当該端末の当該エリア内における位置の候補に係る情報である端末位置候補情報を決定し、予め生成されたモデルであって当該エリアに存在する不動物体に係る点群情報である参照不動物体モデルから、個々の不動物体をノードとして当該不動物体間の距離をエッジとした参照不動物体モデルに係るグラフを生成し、当該参照不動物体モデルに係るグラフと、当該周辺不動物体モデルに含まれる個々の不動物体をノードとして当該不動物体間の距離をエッジとした周辺不動物体モデルに係るグラフとの間でマッチング処理を行って、当該端末位置候補情報から、当該端末の位置に係る端末位置候補情報を選択し、当該参照不動物体モデルにおける選択された端末位置候補情報に係る位置に存在する不動物体に係る点群情報と、当該周辺不動物体モデルにおける該不動物体に対応する不動物体に係る点群情報との間の重畳の度合いを最大にする点群平行移動量及び点群回転量に基づいて、当該端末の当該エリア内における位置に係る情報を決定するステップと
を有することを特徴とする端末位置推定方法。 It is a terminal position estimation method in a computer mounted on a device that estimates the position of a terminal in a predetermined area.
A step of acquiring peripheral point cloud information which is information related to an object existing in the vicinity of the terminal and is an observation result at the position of the terminal.
A step of using a point cloud information classifier to determine whether the point cloud information, which is information related to an individual object included in the peripheral point cloud information, is point cloud information related to a preset movable object. ,
By removing the point cloud information determined to be the point cloud information related to the movable object from the information included in the peripheral point cloud information, the peripheral non-animal body which is the point cloud information related to the non-animal body existing in the vicinity. Steps to generate a model and
As the information relating to the position of the terminal in the area, the terminal position candidate information which is the information relating to the position candidate in the area of the terminal is determined, and the model generated in advance and existing in the area is immovable. From the reference non-animal body model which is the point group information related to the object, a graph related to the reference non-animal body model is generated with each non-animal body as a node and the distance between the non-animal bodies as an edge, and the graph related to the reference non-animal body model is generated. The matching process is performed between the graph and the graph related to the peripheral animal body model in which the individual animal bodies included in the peripheral animal body model are used as nodes and the distance between the animal bodies is used as an edge, and the terminal position candidate information is used. , The terminal position candidate information relating to the position of the terminal is selected, the point group information relating to the animal body existing at the position corresponding to the selected terminal position candidate information in the reference non-animal body model, and the peripheral non-animal body model . Based on the point group parallel movement amount and the point group rotation amount that maximize the degree of superposition with the point group information related to the non-animal body corresponding to the non -animal body, the information related to the position of the terminal in the area is obtained. A terminal position estimation method comprising: a step to determine.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168255A JP6997057B2 (en) | 2018-09-07 | 2018-09-07 | Devices, programs and methods for estimating terminal position from non-animal body information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168255A JP6997057B2 (en) | 2018-09-07 | 2018-09-07 | Devices, programs and methods for estimating terminal position from non-animal body information |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042447A JP2020042447A (en) | 2020-03-19 |
JP6997057B2 true JP6997057B2 (en) | 2022-01-17 |
Family
ID=69798342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018168255A Active JP6997057B2 (en) | 2018-09-07 | 2018-09-07 | Devices, programs and methods for estimating terminal position from non-animal body information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6997057B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7440323B2 (en) * | 2020-03-31 | 2024-02-28 | 三機工業株式会社 | Air terminal inspection device, inspection method, and inspection system |
CN111640143B (en) * | 2020-04-12 | 2023-05-30 | 复旦大学 | Neural navigation rapid surface registration method and system based on PointNet |
JP7473914B2 (en) | 2020-07-29 | 2024-04-24 | 株式会社安藤・間 | Self-location estimation system and construction machine location estimation system |
JP7568106B2 (en) * | 2021-07-05 | 2024-10-16 | 日本電気株式会社 | Information processing device, control method, and program |
WO2023281587A1 (en) * | 2021-07-05 | 2023-01-12 | 日本電気株式会社 | Information processing device, control method, and storage medium |
JP7075090B1 (en) * | 2021-09-21 | 2022-05-25 | シンメトリー・ディメンションズ・インク | Information processing system and information processing method |
WO2024180688A1 (en) * | 2023-02-28 | 2024-09-06 | 日本電気株式会社 | Position and orientation estimation system, position and orientation estimation device, and position and orientation estimation method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013076829A1 (en) | 2011-11-22 | 2013-05-30 | 株式会社日立製作所 | Autonomous mobile system |
JP2018004343A (en) | 2016-06-29 | 2018-01-11 | クラリオン株式会社 | On-board processing device |
-
2018
- 2018-09-07 JP JP2018168255A patent/JP6997057B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013076829A1 (en) | 2011-11-22 | 2013-05-30 | 株式会社日立製作所 | Autonomous mobile system |
JP2018004343A (en) | 2016-06-29 | 2018-01-11 | クラリオン株式会社 | On-board processing device |
Non-Patent Citations (1)
Title |
---|
Howon Cheong et al. ,Vision-based global localization in Indoor Environment with an Object Entity-based hybrid map,International Conference on Control, Automation and Systems 2007,2007年10月17日,pp.218-223,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4406911 |
Also Published As
Publication number | Publication date |
---|---|
JP2020042447A (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6997057B2 (en) | Devices, programs and methods for estimating terminal position from non-animal body information | |
CN113168717B (en) | Point cloud matching method and device, navigation method and equipment, positioning method and laser radar | |
Chen et al. | Gaussian-process-based real-time ground segmentation for autonomous land vehicles | |
US12111178B2 (en) | Distributed device mapping | |
Siegemund et al. | A temporal filter approach for detection and reconstruction of curbs and road surfaces based on conditional random fields | |
Zhao et al. | Lidar mapping optimization based on lightweight semantic segmentation | |
JP2019527832A (en) | System and method for accurate localization and mapping | |
Warren et al. | Large scale monocular vision-only mapping from a fixed-wing sUAS | |
Ji et al. | RGB-D SLAM using vanishing point and door plate information in corridor environment | |
Park et al. | Vision-based SLAM system for small UAVs in GPS-denied environments | |
EP3765996A1 (en) | Urban environment labelling | |
CN111754388B (en) | Picture construction method and vehicle-mounted terminal | |
Ferguson et al. | A 2d-3d object detection system for updating building information models with mobile robots | |
Pannen et al. | Lane marking learning based on crowdsourced data | |
CN115867939A (en) | System and method for air-to-ground registration | |
GB2578721A (en) | Method and system for processing image data utilizing deep neural network | |
Choi et al. | Multi‐robot mapping using omnidirectional‐vision slam based on fisheye images | |
Fischer et al. | Stickylocalization: Robust end-to-end relocalization on point clouds using graph neural networks | |
Wang et al. | 3D-LIDAR based branch estimation and intersection location for autonomous vehicles | |
JP2023508276A (en) | map containing covariances at multiresolution voxels | |
JP6894395B2 (en) | Information acquisition device, information aggregation system, and information aggregation device | |
Yang et al. | An optimization-based selection approach of landing sites for swarm unmanned aerial vehicles in unknown environments | |
CN117635721A (en) | Target positioning method, related system and storage medium | |
Yang et al. | Locator slope calculation via deep representations based on monocular vision | |
Alfonso et al. | Automobile indexation from 3D point clouds of urban scenarios |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210827 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6997057 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |