JP2017130146A - Image management apparatus, image management method and program - Google Patents
Image management apparatus, image management method and program Download PDFInfo
- Publication number
- JP2017130146A JP2017130146A JP2016010776A JP2016010776A JP2017130146A JP 2017130146 A JP2017130146 A JP 2017130146A JP 2016010776 A JP2016010776 A JP 2016010776A JP 2016010776 A JP2016010776 A JP 2016010776A JP 2017130146 A JP2017130146 A JP 2017130146A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- dimensional point
- management apparatus
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、画像管理装置、画像管理方法及びプログラムに関する。 The present invention relates to an image management apparatus, an image management method, and a program.
橋梁等の点検対象構造物の撮影において、撮影した画像データとその撮影内容の関連付けは、野帳にメモを残すことで行われる。例えば、橋梁を対象にした点検において、主桁や床版等の点検対象部位を撮影した画像をまとめて閲覧したい場合、野帳に書き込まれたメモを参考に、大量の画像データの中から目的の画像を手動で探す必要がある。このような、画像を手動で探す煩雑さを低減する方法として、次に挙げる技術が開示されている。 In photographing a structure to be inspected such as a bridge, the association between the photographed image data and the photographing content is performed by leaving a memo in the field book. For example, if you want to view images of inspection parts such as main girders and floor slabs together in inspections for bridges, refer to the memo written in the field book and select the target from a large amount of image data. You need to search for images manually. The following techniques are disclosed as methods for reducing the complexity of manually searching for images.
特許文献1には、三次元空間に配置された画像に対して、ユーザが関心のある領域を指定することで、その領域に関連付けられた画像を表示する技術が開示されている。この技術では、画像と三次元点が相互に関連付けられており、ユーザが指定する矩形領域に囲われた三次元点について関連付けられた画像を取得し、表示する。
しかし、特許文献1では、矩形で選択された範囲の三次元点に関連付けられた画像を取得するに留まり、点検対象構造物の三次元的な構造を考慮して、点検対象部位毎に画像を取得することはできない。
However, in
本発明の目的は、構造的なまとまり毎に画像を取得することができる画像管理装置、画像管理方法及びプログラムを提供することである。 An object of the present invention is to provide an image management apparatus, an image management method, and a program capable of acquiring an image for each structural unit.
本発明の画像管理装置は、三次元空間における座標が指定されると、前記指定される座標に応じて、構造物に係る三次元点群の中から、前記構造物における構造的なまとまりであるセグメントに対応する三次元点を抽出する抽出手段と、前記抽出手段により抽出される、前記セグメントに対応する三次元点に関連付けられた画像を取得する取得手段とを有することを特徴とする。 The image management apparatus according to the present invention is a structural unit in the structure from among the three-dimensional point group related to the structure, according to the designated coordinates, when coordinates in the three-dimensional space are designated. It has an extraction means for extracting a three-dimensional point corresponding to a segment, and an acquisition means for acquiring an image associated with the three-dimensional point corresponding to the segment extracted by the extraction means.
本発明によれば、構造的なまとまりであるセグメント毎に画像を取得することができる。 According to the present invention, an image can be acquired for each segment that is a structural unit.
(第1の実施形態)
本発明の第1の実施形態では、点検対象構造物は、三次元点群として表現され、三次元点群に含まれる各三次元点には画像が関連付けられている。なお、点検対象構造物を例に説明するが、点検以外の目的にも本発明は適用可能である。立体形状の構造物であれば本発明を適用することができる。例えば、CADや3Dプリンタに関する目的にも本発明は適用可能である。
(First embodiment)
In the first embodiment of the present invention, the inspection target structure is expressed as a three-dimensional point group, and an image is associated with each three-dimensional point included in the three-dimensional point group. Although the structure to be inspected is described as an example, the present invention can be applied to purposes other than inspection. The present invention can be applied to a three-dimensional structure. For example, the present invention can also be applied to purposes related to CAD and 3D printers.
以下では、ユーザによって入力された座標情報に基づいて、点検対象構造物に係る三次元点群の部分集合であるセグメントを推定し、推定されたセグメントに含まれる各三次元点に関連付けられた画像を取得する画像管理装置について説明する。 In the following, based on the coordinate information input by the user, a segment that is a subset of the three-dimensional point group related to the inspection target structure is estimated, and an image associated with each three-dimensional point included in the estimated segment An image management apparatus that acquires the image will be described.
図1は、本発明の第1の実施形態による画像管理装置の画面例を示す図である。表示領域101は、三次元点群102(三次元モデル701(図7))を表示する領域であり、ユーザの操作に従って任意の視点から三次元点群102(三次元モデル701)を閲覧することができる。三次元点群102は、表示領域101に表示された三次元点群である。表示領域103は、三次元点群102の中でユーザによって選択された三次元点に関連付けられた画像104が一覧表示される領域である。ボタン105は、三次元点群102を読み込むためのボタンである。ボタン106は、ボタン105で読み込まれた三次元点群102に関連付けられた画像104を読み込むためのボタンである。
FIG. 1 is a diagram showing an example of a screen of the image management apparatus according to the first embodiment of the present invention. The
図2は、本実施形態による画像管理装置のハードウェア構成例を示す図である。CPU201は、各種処理のための演算や論理判断等を行い、バス207に接続された各構成要素を制御する。画像管理装置には、プログラムメモリとデータメモリを含むメモリが搭載されている。プログラムメモリは、後述するフローチャートの処理ステップを含むCPU201による制御のためのプログラムを格納する。メモリは、ROM202であってもよいし、外部記憶装置等からプログラムがロードされるRAM203であってもよい。ストレージ204は、三次元点群102(三次元モデル701)、三次元点群102に含まれる各三次元点に関連付けられた画像104を格納するためのデバイスである。表示デバイス205は、三次元点群102(三次元モデル701)を表示する領域101と、ユーザの入力に応じて取得された画像104を表示する領域103を有する。ポインティングデバイス206は、表示デバイス205に表示された三次元空間において、座標情報を入力するためのデバイスである。
FIG. 2 is a diagram illustrating a hardware configuration example of the image management apparatus according to the present embodiment. The
図3は、本実施形態による画像管理装置の機能ブロックを示す図である。画像管理装置は、CPU201がプログラムを実行することにより、図3の機能ブロックを実現する。三次元点群記憶部301は、点検対象構造物を表現する三次元点群102を記憶する。
FIG. 3 is a diagram showing functional blocks of the image management apparatus according to the present embodiment. The image management apparatus implements the functional blocks shown in FIG. 3 when the
なお、三次元点群102を示す情報は、三次元点群記憶部301によって予め記憶していてもよいし、外部から取得して三次元点群記憶部301に記憶させてもよい。
Information indicating the three-
また、図示を省略する三次元点群算出手段によって、点検対象構造物を撮像した複数の画像から算出するようにしてもよい。三次元点群算出手段は、例えば、一般的な三次元点群算出処理であるStructure from Motion 技術を用いて三次元点群算出することができる。この技術は、例えば、マッチングされた特徴点組の位置関係からエピポーラ幾何的計算法により画像の撮影された相対的な位置と画像の姿勢(例えば重力方向)を推定する。そして、画像のExif(Exchangeable image file format)情報から焦点距離などのパラメータを取得し、その焦点距離を示す情報に基づいて特徴点の組が表す三次元空間上の座標位置を算出する。更に、これらの算出値をバンドル調整法を用いた最適化のための計算を行うことで、特徴点の組が表す三次元空間上の座標位置を決定するという処理を行う。 Moreover, you may make it calculate from the several image which imaged the structure for inspection by the three-dimensional point group calculation means which abbreviate | omits illustration. The three-dimensional point group calculation means can calculate the three-dimensional point group using, for example, Structure from Motion technology which is a general three-dimensional point group calculation process. In this technique, for example, a relative position where an image is photographed and an attitude of the image (for example, a gravitational direction) are estimated from a positional relationship between matched feature point sets by an epipolar geometric calculation method. Then, parameters such as the focal length are acquired from Exif (Exchangeable image file format) information of the image, and the coordinate position in the three-dimensional space represented by the set of feature points is calculated based on the information indicating the focal length. Further, by performing calculation for optimization using the bundle adjustment method for these calculated values, a process of determining the coordinate position in the three-dimensional space represented by the set of feature points is performed.
また、例えば、傾きセンサやGPS受信機を備えたカメラを用いて各画像を撮影するようにしてもよい。そのようにすれば画像と、その画像が撮影された位置を示す情報と、撮影方向を示す情報とを関連付けることができる。それらの情報に基づいて、三次元点群を算出するようにしてもよい。 Further, for example, each image may be taken using a camera equipped with a tilt sensor and a GPS receiver. By doing so, it is possible to associate an image, information indicating the position where the image was captured, and information indicating the imaging direction. A three-dimensional point group may be calculated based on such information.
画像記憶部302は、三次元点群記憶部301に記憶されている三次元点群102の各三次元点に関連付けられた画像104を記憶する。関連情報記憶部303は、三次元点群記憶部301に記憶されている三次元点群102の各三次元点と、画像記憶部302に記憶されている画像104との間の関連情報を記憶する。三次元点群表示部304は、三次元点群表示手段であり、三次元点群記憶部301に記憶されている三次元点群102を表示デバイス205上に表示する。座標入力部305は、ユーザの操作に応じて、座標情報を入力する。セグメント選択部306は、座標入力部305において入力された座標情報に基づいて、三次元点群記憶部301に記憶されている三次元点群102の部分集合であるセグメントを選択する。セグメントは、点検対象構造物における構造的なまとまりである。画像取得部307は、取得手段であり、セグメント選択部306で選択されたセグメントに含まれる各三次元点に関連付けられた画像104を取得する。画像表示部308は、画像表示手段であり、画像取得部307により取得された画像104を表示デバイス205に表示する。
The
図4(a)は、三次元点群102を表すテーブルであり、三次元点群記憶部301に格納される。図4(a)の一行は、一つの三次元点に対応する。テーブルの各三次元点は、三次元点ID401及び三次元座標402を有する。
FIG. 4A is a table representing the three-
図4(b)は、画像集合を表すテーブルであり、画像記憶部302に格納される。図4(b)の一行は、一枚の画像に対応する。テーブルの各画像は、画像ID403及び画像名404を有する。画像名404は、ストレージ204に格納されている画像データを一意に指定可能な文字列である。
FIG. 4B is a table representing an image set and is stored in the
図4(c)は、三次元点と画像の間の関連情報を保持するテーブルであり、関連情報記憶部303に格納される。図4(c)の一行は、一つの三次元点とそれに関連付けられた一枚以上の画像の間の関連情報に対応する。テーブルの各関連情報は、関連情報ID405、三次元点ID406、及び関連画像ID407を有する。関連画像ID407は、三次元点ID406が表す三次元点に関連付けられた一枚以上の画像の画像IDを示す。
FIG. 4C is a table that holds related information between the three-dimensional point and the image, and is stored in the related
図5は、第1の実施形態による画像管理装置の画像管理方法を示すフローチャートである。三次元点群表示部304は、図1のように、三次元点群記憶部301に記憶されている三次元点群102を表示領域101に表示する。ステップS501では、座標入力部305は、例えば図1の表示領域101に表示される三次元点群102の上で、ユーザの操作に応じて、二次元座標を入力する。次に、ステップS502では、座標入力部305は、入力された二次元座標と、図4(a)に含まれる三次元点を表示デバイス205に投影したときの二次元座標との間の距離を計算する。そして、座標入力部305は、図4(a)に含まれる三次元点の中から、ステップS501の入力座標に対する最近傍の三次元点を一つ探索する。すなわち、座標入力部305は、一つの三次元点を探索することにより、三次元空間における座標を指定する。ここで、座標入力部305は、ステップS501で入力された二次元座標に基づいて、視点位置から直線を引き、図4(a)の三次元点群に含まれる各三次元点について、直線との距離を計算することによって最近傍点を探索してもよい。また、座標入力部305は、ステップS501で三次元座標を直接入力し、ステップS502では、その三次元座標と図4(a)の三次元点群に含まれる各三次元点との距離を計算することで最近傍点を探索してもよい。
FIG. 5 is a flowchart illustrating an image management method of the image management apparatus according to the first embodiment. As shown in FIG. 1, the three-dimensional point
次に、ステップS503では、セグメント選択部306は、ステップS502で探索された三次元点に基づき、三次元点群記憶部301に記憶されている三次元点群の部分集合であるセグメントを選択する。ここで、セグメント選択部306は、セグメントの選択に先んじて、三次元点群に対してセグメンテーションを実行し、選択対象となるセグメントを取得しておく。また、セグメント選択部306は、三次元点群全体に対して予めセグメンテーションを実行しておいてもよいし、ステップS502で探索された三次元点に基づいて、セグメンテーションの範囲を限定してもよい。ここで、セグメンテーションの手法として、ステップS502で探索された三次元点をシード点として、法線や色の類似度によってシード点からセグメントを拡張していく領域成長法(Region Growing)を利用してもよい。また、RANSAC等の既知のモデルフィッティング手法によってセグメントを推定してもよい。また、セグメント選択部306は、予め、点検対象部位毎に三次元点群を手動でセグメントに分割しておき、その中からステップS502で探索された三次元点を含むセグメントを選択してもよい。ここで、セグメントの分割方法には、各セグメントに属する三次元点を、それぞれリストとして保持する方法と、三次元点群を空間的に分割し、各分割された空間に内包される三次元点を同一セグメントとする方法がある。前者では、セグメントを表す三次元点のリストの中に、ステップS502で探索された三次元点が含まれているかでセグメントを選択する。後者では、ユーザが、分割された空間のいずれを選択したかを判断することでセグメントを選択する。後者の場合、ステップS502において、ユーザの入力座標に基づいて三次元点を探索する必要はない。なお、三次元点群表示部304は、ユーザが意図した点検対象部位に対する適切なセグメントが推定できたかを確認するために、図6のように、セグメント602に含まれる三次元点の色を変える等で、推定されたセグメント602を強調表示してもよい。ここで、三次元点601は、ステップS502で探索された三次元点であり、セグメント602は、三次元点601に基づいて推定されたセグメントである。セグメント選択部306は、抽出手段であり、選択されたセグメント602に対応する三次元点を抽出する。具体的には、セグメント選択部306は、選択されたセグメント602に含まれる三次元点を抽出する。
Next, in step S503, the
次に、ステップS504では、画像取得部307は、ステップS503で選択されたセグメント602に含まれる各三次元点について、図4(c)の関連情報テーブルを参照し、画像記憶部302から各三次元点に関連付けられた画像を取得する。次に、ステップS505では、画像表示部308は、図1のように、ステップS504で取得された画像104を表示デバイス205に表示する。
Next, in step S504, the
以上説明したように、本実施形態によれば、ユーザが入力した座標情報に基づいて、三次元点群からセグメント602を選択し、選択されたセグメント602単位で三次元点に関連付けられた画像104を取得し、ユーザに提示する。これにより、点検対象部位毎に画像を検索し、閲覧することが可能となる。
As described above, according to the present embodiment, the
(第2の実施形態)
第1の実施形態では、点検対象構造物を三次元点群で表現していた。しかし、三次元点群では、点検対象構造物の概形しか把握することができないため、三次元点群を基に生成したメッシュからなる三次元モデルをユーザに提示するのが好ましい。一方で、三次元モデルに対するユーザの座標入力に応じて画像を取得するためには、例えば、三次元モデルの各頂点に画像が関連付けられていなければならない。三次元モデルの生成は、第1の実施形態で扱った疎な三次元点群を入力として、Multi-view Stereo等の手法により密な三次元点群を推定し、マーチングキューブ法等の手法によりメッシュを生成することにより行うことができる。このようにして生成された精細な三次元モデルでは、頂点数が膨大になり、それに伴って関連情報が増加することによって、画像取得に係わる処理コストの上昇につながる。
(Second Embodiment)
In the first embodiment, the inspection target structure is expressed by a three-dimensional point group. However, since the three-dimensional point cloud can only grasp the outline of the structure to be inspected, it is preferable to present the user with a three-dimensional model composed of a mesh generated based on the three-dimensional point cloud. On the other hand, in order to acquire an image according to a user's coordinate input with respect to the three-dimensional model, for example, the image must be associated with each vertex of the three-dimensional model. The 3D model is generated by using the sparse 3D point cloud handled in the first embodiment as an input, estimating a dense 3D point cloud using a method such as Multi-view Stereo, and using a marching cube method or the like. This can be done by generating a mesh. In the fine three-dimensional model generated in this way, the number of vertices becomes enormous, and associated information increases accordingly, leading to an increase in processing cost for image acquisition.
そこで、本発明の第2の実施形態では、ユーザに提示する三次元モデルと、画像が関連付けられた三次元点からなる三次元点群をそれぞれ個別に用意することで、処理コストを下げる。以下、ユーザの座標入力に応じて画像を取得する動作について説明する。 Therefore, in the second embodiment of the present invention, the processing cost is reduced by separately preparing a three-dimensional point group composed of a three-dimensional model to be presented to the user and a three-dimensional point associated with an image. Hereinafter, an operation for acquiring an image according to a coordinate input by the user will be described.
図7は、本発明の第2の実施形態による画像管理装置の画面例を示す図である。図7の画面は、図1の画面に対して、三次元点群102の代わりに、三次元モデル701を設けたものである。図7の101、103から106までは、第1の実施形態による図1の101、103から106までと同一である。以下、本実施形態が第1の実施形態と異なる点を説明する。三次元モデル701は、三次元点群を基に生成したメッシュからなる三次元モデルであり、表示領域101に表示される。
FIG. 7 is a diagram showing an example of a screen of the image management apparatus according to the second embodiment of the present invention. The screen in FIG. 7 is obtained by providing a three-
図8は、本実施形態による画像管理装置の機能ブロックを示す図である。画像管理装置は、CPU201がプログラムを実行することにより、図3の機能ブロックを実現する。図8の画像管理装置は、図3の画像管理装置と比較して、三次元モデル表示部802を、三次元点群表示部304の代わりに設けている。また、三次元モデル記憶部801が新たに追加されている。図8の301から303、305から308までは、第1の実施形態による図3の301から303、305から308までと同一である。三次元モデル記憶部801は、三次元点群記憶部301に記憶されている三次元点群を基に生成したメッシュからなる三次元モデルを記憶する。ここで、三次元モデルは、三次元点群記憶部301に記憶されている三次元点群に対して位置合わせが行われており、三次元空間内で三次元点群に重なる位置に存在している。三次元モデル表示部802は、三次元モデル表示手段であり、三次元モデル記憶部801に記憶されている三次元モデル701(図7)を表示デバイス205上に表示する。三次元モデル701は、三次元点群102に対して三次元的に位置合わせが行われた三次元モデルである。
FIG. 8 is a diagram showing functional blocks of the image management apparatus according to the present embodiment. The image management apparatus implements the functional blocks shown in FIG. 3 when the
図9は、第2の実施形態による画像管理装置の画像管理方法を示すフローチャートである。図9のフローチャートは、図5のフローチャートに対して、ステップS502の代わりに、ステップS901を設けたものである。図9のS501、S503からS505までは、第1の実施形態による図5のS501、S503からS505までと同一である。三次元モデル表示部802は、図7のように、三次元モデル記憶部801に記憶されている三次元モデル701を表示領域101に表示する。ステップS501では、座標入力部305は、例えば図7の表示領域101に表示された三次元モデル701の上で、ユーザの操作に応じて、二次元座標を入力する。画像管理装置は、ステップS501の後、ステップS901に処理を進める。ステップS901では、座標入力部305は、三次元点群記憶部301に記憶されている三次元点群であって、三次元モデル701と重なる位置に存在する三次元点群の中から、ステップS501で入力された座標情報に対して最近傍の三次元点を一つ探索する。最近傍の三次元点の探索については、図5のステップS502で説明した方法を用いることができる。その後、画像管理装置は、ステップS503〜S505の処理を行う。
FIG. 9 is a flowchart illustrating an image management method of the image management apparatus according to the second embodiment. The flowchart in FIG. 9 is different from the flowchart in FIG. 5 in that step S901 is provided instead of step S502. S501 and S503 to S505 in FIG. 9 are the same as S501 and S503 to S505 in FIG. 5 according to the first embodiment. The three-dimensional
なお、三次元モデル表示部802は、三次元モデル701の上に、三次元点群記憶部301に記憶されている三次元点群102(図1)を表示してもよい。その場合、ステップS501では、座標入力部305は、例えば図7の表示領域101に表示された三次元モデル701及び三次元点群102の上で、ユーザの操作に応じて、二次元座標を入力する。
Note that the 3D
以上説明したように、本実施形態によれば、三次元的な位置合わせが行われた三次元モデル及び三次元点群をそれぞれ用意し、三次元モデル701をユーザに提示する一方で、ユーザの座標入力に応じて画像104を取得する処理は三次元点群に対して実行される。これにより、ユーザは、点検対象構造物の詳細な外観を把握して三次元座標を入力することができ、また、画像の取得に係わる処理コストを抑えることが可能となる。
As described above, according to the present embodiment, a three-dimensional model and a three-dimensional point group that have been three-dimensionally aligned are prepared, and the three-
(第3の実施形態)
図10は、本発明の第3の実施形態による画像管理装置の機能ブロックを示す図である。画像管理装置は、CPU201がプログラムを実行することにより、図10の機能ブロックを実現する。本実施形態では、第1の実施形態において取得された画像104について、点検対象構造物に対する画像の正対度に基づくソート動作について説明する。図10の画像管理装置は、図3の画像管理装置に対して、画像ソート部1001を追加したものである。図10の301から308までは、第1の実施形態による図3の301から308までと同一である。以下、本実施形態が第1の実施形態と異なる点を説明する。画像ソート部1001は、画像ソート手段であり、画像取得部307により取得された画像を所定の基準に基づいてソートする。画像表示部308は、画像ソート部1001によってソートされた画像を表示デバイス205に表示する。
(Third embodiment)
FIG. 10 is a diagram showing functional blocks of the image management apparatus according to the third embodiment of the present invention. The image management apparatus implements the functional blocks of FIG. 10 when the
図11は、画像記憶部302に記憶されている各画像の撮影時におけるカメラパラメータを表すテーブルであり、各画像と関連付けられて画像記憶部302に格納される。図11の一行は、一枚の画像に対するカメラパラメータに対応する。そのテーブルは、カメラパラメータID1101、画像ID1102、及びカメラ位置1103の対応関係を有する。ここで、カメラ位置1103は、点検対象構造物について視点を変えながら撮影した複数の画像から三次元点とカメラ位置を推定する、Structure from Motion等の既知の手法によって求めることができる。
FIG. 11 is a table showing camera parameters at the time of shooting each image stored in the
図12は、第3の実施形態による画像管理装置の画像管理方法を示すフローチャートである。図12のフローチャートは、図5のフローチャートに対して、ステップS1201を追加したものである。図12のS501からS505までは、第1の実施形態による図5のS501からS505までと同一である。ステップS504の後、ステップS1201では、画像ソート部1001は、ステップS504で取得した画像を、点検対象構造物に対する正対度(正対度合い)に従ってソートする。ここで、正対度は、点検対象構造物に属するある面の法線と撮影時のカメラの視線方向がなす角度のことである。正対度の算出に関しては、図13のフローチャートを用いて後述する。ステップS505では、画像表示部308は、画像ソート部1001によってソートされた画像を表示デバイス205に表示する。
FIG. 12 is a flowchart illustrating an image management method of the image management apparatus according to the third embodiment. The flowchart of FIG. 12 is obtained by adding step S1201 to the flowchart of FIG. S501 to S505 in FIG. 12 are the same as S501 to S505 in FIG. 5 according to the first embodiment. After step S504, in step S1201, the
図13は、図12のステップS1201の詳細を示すフローチャートである。このステップS1201では、画像ソート部1001は、ステップS504で取得した各画像について正対度を算出し、正対度に基づいてソートを実行する。画像ソート部1001は、図14(a)及び(b)に示すように、一時データを格納するために一時データテーブルを利用する。このテーブルは、例えばRAM203上に格納される。ステップS1301では、画像ソート部1001は、図14(a)に示すように、一時データテーブルを初期化する。図14(a)は、ステップS1301による初期化処理後の一時データテーブルを表す。図14(a)の一行は、一枚の画像に対する一時データに対応する。一時データテーブルの各行は、画像ID1401、処理ステータス1402、及び正対度1403の対応関係を有する。ステップS1301の初期化処理によって、一時データテーブルには、ステップS504で取得された画像数の行が追加され、処理ステータス1402は未処理としてマークされる。次に、ステップS1302では、画像ソート部1001は、図14(a)の一時データテーブルと図4(b)の画像集合を表すテーブルを参照し、未処理の画像を一枚取得する。
FIG. 13 is a flowchart showing details of step S1201 in FIG. In step S1201, the
図15(a)は、ある画像に対する正対度の算出方法について説明する図である。三次元点1501は、図5のステップS502で探索された三次元点である。カメラ位置1502は、ステップS1302で取得した処理対象画像の撮影時のカメラ位置である。範囲1503は、ステップS1302で取得した処理対象の画像に写っている点検対象部位の範囲を三次元空間において表したものである。ステップS1303では、画像ソート部1001は、三次元点1501の座標とカメラ位置1502を結ぶベクトル1504を求める。ここで、画像ソート部1001は、カメラ位置1502を図11のテーブルから取得する。次に、S1304では、画像ソート部1001は、ステップS1302で取得した画像の中の三次元点1501の法線1505を算出する。ここで、法線の算出は、複数の近傍三次元点について既知のモデルフィッティング手法で平面を推定し、推定された平面についての法線を算出すればよい。また、画像ソート部1001は、予め各三次元点について法線を算出しておいてもよい。その場合、画像ソート部1001は、三次元点群記憶部301に格納されている図4(a)のテーブルに法線ベクトルを格納するカラムを追加する。次に、ステップS1305では、画像ソート部1001は、ベクトル1504と法線1505がなす角度を基に正対度を算出する。例えば、正対度は、ベクトル1504と法線1505がなす角度の逆数である。次に、ステップS1306では、画像ソート部1001は、図14(b)に示すように、一時データテーブルに対して、ステップS1302で取得した画像に対応するステップS1305で算出した正対度1403を保存する。次に、ステップS1307では、画像ソート部1001は、図14(b)に示すように、一時データテーブルに対して、ステップS1302で取得した画像に対応する処理ステータス1402に処理済みをマークする。図14(b)は、複数の画像について、正対度の算出が完了した後の一時データテーブルを表す。次に、ステップS1308では、画像ソート部1001は、図14(b)の一時データテーブルを参照して、未処理の画像が存在するかを判定する。画像ソート部1001は、存在すればステップS1302に処理を戻し、存在しなければ、すべての画像について正対度を算出したとして、ステップS1309に処理を進める。ステップS1309では、画像ソート部1001は、一時データテーブルの正対度1403を参照して、画像をソートする。
FIG. 15A is a diagram for explaining a method of calculating the degree of confrontation for a certain image. The three-
図15(b)は、図15(a)と異なる画像に対して正対度を算出する動作を説明する図である。範囲1507は、ステップS1302で取得した処理対象の画像に写っている点検対象部位の範囲を三次元空間において表したものである。画像ソート部1001は、図15(a)の場合と同様に、三次元点1501とカメラ位置1506を結ぶベクトル1508と、三次元点1501の法線1505を算出し、ベクトル1508と法線1505がなす角度を正対度として求める。図15(b)は、図15(a)に比べ、三次元点1501の法線1505の方向と近いカメラ位置1506から画像を撮影しているため、図15(b)の正対度は、図15(a)の正対度よりも大きくなる。
FIG. 15B is a diagram for explaining the operation of calculating the degree of confrontation for an image different from that in FIG. A
なお、本実施形態では、所定の基準が正対度1403である場合の画像のソートについて説明したが、所定の基準は正対度1403に限定されない。画像ソート部1001は、取得した画像の撮影日時や、取得した画像の三次元的な位置、三次元空間に写像した画像の三次元的な位置とステップS502で探索された三次元点との間の距離等の正対度以外の所定の基準によって画像をソートしてもよい。また、画像ソート部1001は、取得した画像の中のステップS503で選択したセグメントの大きさ(面積)等の正対度以外の所定の基準によって画像をソートしてもよい。さらに、画像ソート部1001は、上記のような基準によるソート後の画像の中から、上記の所定の基準に基づいて画像を削除してもよい。つまり、画像ソート部1001は、削除手段としても機能する。具体的には、画像ソート部1001は、上記の所定の基準の値が所定の閾値以下の画像を非表示とするようなフィルタリングを行ってもよい。画像表示部308は、画像ソート部1001によりフィルタリングされた画像を表示する。
In the present embodiment, the sorting of images in the case where the predetermined criterion is the
以上説明したように、本実施形態によれば、点検対象部位(セグメント)毎に取得した画像を、正対度をはじめとした基準に基づいてソートした上でユーザに提示する。これにより、点検対象部位が明瞭に写っている画像が取得結果の上位に表示されたり、取得した画像の三次元的な位置関係の順や、時系列順に画像を閲覧することができたりするため、ユーザの利便性が高まる。 As described above, according to the present embodiment, images acquired for each inspection target region (segment) are presented to the user after being sorted based on criteria such as the degree of confrontation. This makes it possible to display an image clearly showing the site to be inspected at the top of the acquisition result, or to view the image in the order of the three-dimensional positional relationship of the acquired image or in time series , User convenience is enhanced.
第1〜第3の実施形態によれば、三次元点群に含まれる各三次元点に画像を関連付けることで画像を管理し、三次元点群とのインタラクションによって画像検索を行い、構造的なまとまりであるセグメント毎に画像を取得して表示することができる。 According to the first to third embodiments, an image is managed by associating an image with each three-dimensional point included in the three-dimensional point group, and an image search is performed by interaction with the three-dimensional point group. Images can be acquired and displayed for each segment that is a unit.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
301 三次元点群記憶部、302 画像記憶部、303 関連情報記憶部、304 三次元点群表示部、305 座標入力部、306 セグメント選択部、307 画像取得部、308 画像表示部 301 three-dimensional point group storage unit, 302 image storage unit, 303 related information storage unit, 304 three-dimensional point group display unit, 305 coordinate input unit, 306 segment selection unit, 307 image acquisition unit, 308 image display unit
Claims (15)
前記抽出手段により抽出される、前記セグメントに対応する三次元点に関連付けられた画像を取得する取得手段と
を有することを特徴とする画像管理装置。 When coordinates in a three-dimensional space are designated, a three-dimensional point corresponding to a segment that is a structural unit in the structure is selected from a group of three-dimensional points related to the structure according to the designated coordinates. Extracting means for extracting;
An image management apparatus comprising: an acquisition unit configured to acquire an image associated with a three-dimensional point corresponding to the segment extracted by the extraction unit.
前記抽出手段は、前記三次元点群表示手段により表示される三次元点群を基に前記座標が指定されることを特徴とする請求項1又は2記載の画像管理装置。 Furthermore, it has a three-dimensional point cloud display means for displaying the three-dimensional point cloud,
3. The image management apparatus according to claim 1, wherein the extracting unit specifies the coordinates based on a three-dimensional point group displayed by the three-dimensional point group displaying unit.
前記抽出手段は、前記三次元モデル表示手段により表示される三次元モデルを基に前記座標が指定されることを特徴とする請求項1又は2記載の画像管理装置。 Furthermore, a three-dimensional model display means for displaying a three-dimensional model that has been three-dimensionally aligned with the three-dimensional point group,
The image management apparatus according to claim 1, wherein the extraction unit is configured to designate the coordinates based on a three-dimensional model displayed by the three-dimensional model display unit.
前記抽出手段は、前記三次元モデル表示手段により表示される三次元モデル及び三次元点群を基に前記座標が指定されることを特徴とする請求項4記載の画像管理装置。 The 3D model display means displays the 3D point cloud on the 3D model,
5. The image management apparatus according to claim 4, wherein the extracting means designates the coordinates based on a three-dimensional model and a three-dimensional point group displayed by the three-dimensional model display means.
取得手段により、前記抽出ステップで抽出される、前記セグメントに対応する三次元点に関連付けられた画像を取得する取得ステップと
を有することを特徴とする画像管理方法。 When the coordinates in the three-dimensional space are designated by the extracting means, the segment corresponding to the segment that is a structural unit in the structure is selected from the three-dimensional point group related to the structure according to the designated coordinates. An extraction step for extracting a three-dimensional point;
An image management method comprising: an acquisition step of acquiring an image associated with a three-dimensional point corresponding to the segment, which is extracted in the extraction step by an acquisition unit.
前記抽出ステップで抽出される、前記セグメントに対応する三次元点に関連付けられた画像を取得する取得ステップと
をコンピュータに実行させるためのプログラム。 When coordinates in a three-dimensional space are designated, a three-dimensional point corresponding to a segment that is a structural unit in the structure is selected from a group of three-dimensional points related to the structure according to the designated coordinates. An extraction step to extract;
A program for causing a computer to execute an acquisition step of acquiring an image associated with a three-dimensional point corresponding to the segment extracted in the extraction step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016010776A JP6723748B2 (en) | 2016-01-22 | 2016-01-22 | Image management apparatus, image management method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016010776A JP6723748B2 (en) | 2016-01-22 | 2016-01-22 | Image management apparatus, image management method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017130146A true JP2017130146A (en) | 2017-07-27 |
JP6723748B2 JP6723748B2 (en) | 2020-07-15 |
Family
ID=59395662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016010776A Active JP6723748B2 (en) | 2016-01-22 | 2016-01-22 | Image management apparatus, image management method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6723748B2 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019145072A (en) * | 2018-02-23 | 2019-08-29 | 株式会社Lixil | Supporting device |
JP2019175350A (en) * | 2018-03-29 | 2019-10-10 | 公益財団法人鉄道総合技術研究所 | Structure inspection system, structure inspection device, and structure inspection method |
JP2019196982A (en) * | 2018-05-10 | 2019-11-14 | コニカミノルタ株式会社 | Image processing device, overloading detection device, overloading detection system and program |
JP2020010318A (en) * | 2018-05-28 | 2020-01-16 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | Method and system for reproducing visual and/or audio content synchronously by one group of devices |
WO2021014775A1 (en) | 2019-07-19 | 2021-01-28 | 富士フイルム株式会社 | Image display device, method, and program |
WO2021014751A1 (en) | 2019-07-19 | 2021-01-28 | 富士フイルム株式会社 | Image display device, method, and program |
WO2021100681A1 (en) | 2019-11-20 | 2021-05-27 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
WO2021166381A1 (en) * | 2020-02-18 | 2021-08-26 | 富士フイルム株式会社 | Point cloud data processing device, point cloud data processing method, and program |
WO2021193672A1 (en) | 2020-03-27 | 2021-09-30 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
WO2021200432A1 (en) | 2020-03-30 | 2021-10-07 | パナソニックIpマネジメント株式会社 | Imaging instruction method, imaging method, imaging instruction device, and imaging device |
WO2022059335A1 (en) | 2020-09-18 | 2022-03-24 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
WO2022124017A1 (en) | 2020-12-08 | 2022-06-16 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
WO2023095375A1 (en) | 2021-11-29 | 2023-06-01 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
WO2023135891A1 (en) | 2022-01-14 | 2023-07-20 | パナソニックIpマネジメント株式会社 | Calculation method and calculation device |
WO2024047782A1 (en) * | 2022-08-31 | 2024-03-07 | 三菱電機株式会社 | Point group data drawing system, server, point group data drawing device, and point group data drawing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008099915A1 (en) * | 2007-02-16 | 2008-08-21 | Mitsubishi Electric Corporation | Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data |
JP2010039932A (en) * | 2008-08-07 | 2010-02-18 | Ricoh Co Ltd | Image processing apparatus, image processing method and program |
-
2016
- 2016-01-22 JP JP2016010776A patent/JP6723748B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008099915A1 (en) * | 2007-02-16 | 2008-08-21 | Mitsubishi Electric Corporation | Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data |
JP2010039932A (en) * | 2008-08-07 | 2010-02-18 | Ricoh Co Ltd | Image processing apparatus, image processing method and program |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7240846B2 (en) | 2018-02-23 | 2023-03-16 | 株式会社Lixil | support equipment |
JP2019145072A (en) * | 2018-02-23 | 2019-08-29 | 株式会社Lixil | Supporting device |
JP2019175350A (en) * | 2018-03-29 | 2019-10-10 | 公益財団法人鉄道総合技術研究所 | Structure inspection system, structure inspection device, and structure inspection method |
JP6996415B2 (en) | 2018-05-10 | 2022-02-04 | コニカミノルタ株式会社 | Image processing equipment, overload detection equipment, overload detection system and programs |
JP2019196982A (en) * | 2018-05-10 | 2019-11-14 | コニカミノルタ株式会社 | Image processing device, overloading detection device, overloading detection system and program |
JP2020010318A (en) * | 2018-05-28 | 2020-01-16 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | Method and system for reproducing visual and/or audio content synchronously by one group of devices |
JP7069085B2 (en) | 2018-05-28 | 2022-05-17 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー | Methods and systems for synchronously playing visual and / or audio content on a group of devices |
WO2021014775A1 (en) | 2019-07-19 | 2021-01-28 | 富士フイルム株式会社 | Image display device, method, and program |
WO2021014751A1 (en) | 2019-07-19 | 2021-01-28 | 富士フイルム株式会社 | Image display device, method, and program |
US12131455B2 (en) | 2019-07-19 | 2024-10-29 | Fujifilm Corporation | Image display apparatus, image display method, and image display program |
US12069224B2 (en) | 2019-07-19 | 2024-08-20 | Fujifilm Corporation | Image display apparatus, image display method, and image display program |
WO2021100681A1 (en) | 2019-11-20 | 2021-05-27 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
US11869146B2 (en) | 2019-11-20 | 2024-01-09 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional model generation method and three-dimensional model generation device |
JPWO2021166381A1 (en) * | 2020-02-18 | 2021-08-26 | ||
WO2021166381A1 (en) * | 2020-02-18 | 2021-08-26 | 富士フイルム株式会社 | Point cloud data processing device, point cloud data processing method, and program |
CN115088020A (en) * | 2020-02-18 | 2022-09-20 | 富士胶片株式会社 | Point cloud data processing device, point cloud data processing method, and program |
JP7392101B2 (en) | 2020-02-18 | 2023-12-05 | 富士フイルム株式会社 | Point cloud data processing device, point cloud data processing method, and program |
WO2021193672A1 (en) | 2020-03-27 | 2021-09-30 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
WO2021200432A1 (en) | 2020-03-30 | 2021-10-07 | パナソニックIpマネジメント株式会社 | Imaging instruction method, imaging method, imaging instruction device, and imaging device |
WO2022059335A1 (en) | 2020-09-18 | 2022-03-24 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
WO2022124017A1 (en) | 2020-12-08 | 2022-06-16 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
WO2023095375A1 (en) | 2021-11-29 | 2023-06-01 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method and three-dimensional model generation device |
WO2023135891A1 (en) | 2022-01-14 | 2023-07-20 | パナソニックIpマネジメント株式会社 | Calculation method and calculation device |
WO2024047782A1 (en) * | 2022-08-31 | 2024-03-07 | 三菱電機株式会社 | Point group data drawing system, server, point group data drawing device, and point group data drawing method |
Also Published As
Publication number | Publication date |
---|---|
JP6723748B2 (en) | 2020-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6723748B2 (en) | Image management apparatus, image management method and program | |
US10964108B2 (en) | Augmentation of captured 3D scenes with contextual information | |
JP6948175B2 (en) | Image processing device and its control method | |
US8487926B2 (en) | Method and apparatus for generating 3D image using 2D photograph images | |
JP5093053B2 (en) | Electronic camera | |
JP4770960B2 (en) | Image search system and image search method | |
US20130207966A1 (en) | Apparatus and method of producing 3d model | |
JP6144364B2 (en) | Work support data creation program | |
JP6921686B2 (en) | Generator, generation method, and program | |
US11263477B2 (en) | Method of auto-generation of multidepth image by interconnecting images into tree structure | |
CN105023266A (en) | Method and device for implementing augmented reality (AR) and terminal device | |
WO2014112138A1 (en) | Information processing device, information processing system, and information processing program | |
JP2023010759A (en) | Information processing device, information processing method, and program | |
CN104700355A (en) | Generation method, device and system for indoor two-dimension plan | |
KR101574636B1 (en) | Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage | |
JP2017003525A (en) | Three-dimensional measuring device | |
CN116051736A (en) | Three-dimensional reconstruction method, device, edge equipment and storage medium | |
CN113298871B (en) | Map generation method, positioning method, system thereof, and computer-readable storage medium | |
JP7015130B2 (en) | Data processing equipment | |
JP6719945B2 (en) | Information processing apparatus, information processing method, information processing system, and program | |
JP2015056152A (en) | Display control device and method for controlling display control device | |
JP6606748B2 (en) | Stereo pair image display device | |
WO2021176877A1 (en) | Image processing device, image processing method, and image processing program | |
Bourke | Novel imaging of heritage objects and sites | |
JP2020091718A (en) | Photographed image classification device and photographed image classification method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200624 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6723748 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |