Nothing Special   »   [go: up one dir, main page]

JP2019027908A - Exterior surface material investigation system - Google Patents

Exterior surface material investigation system Download PDF

Info

Publication number
JP2019027908A
JP2019027908A JP2017147260A JP2017147260A JP2019027908A JP 2019027908 A JP2019027908 A JP 2019027908A JP 2017147260 A JP2017147260 A JP 2017147260A JP 2017147260 A JP2017147260 A JP 2017147260A JP 2019027908 A JP2019027908 A JP 2019027908A
Authority
JP
Japan
Prior art keywords
image
visible light
light image
flying object
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017147260A
Other languages
Japanese (ja)
Other versions
JP6441421B1 (en
Inventor
博貴 今川
Hirotaka Imagawa
博貴 今川
青木 達也
Tatsuya Aoki
達也 青木
智博 中川
Tomohiro Nakagawa
智博 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tonton
Tonton Inc
Original Assignee
Tonton
Tonton Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tonton, Tonton Inc filed Critical Tonton
Priority to JP2017147260A priority Critical patent/JP6441421B1/en
Application granted granted Critical
Publication of JP6441421B1 publication Critical patent/JP6441421B1/en
Publication of JP2019027908A publication Critical patent/JP2019027908A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)
  • Investigating Or Analyzing Materials Using Thermal Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Radiation Pyrometers (AREA)

Abstract

To investigate abnormality of the exterior surface material of a structure in a short time.SOLUTION: An exterior surface material investigation system processes an image imaged by an aircraft 10 so as to be displayed on a terminal device 30 and investigates a state of the exterior surface material of a structure. The aircraft 10 includes: a visible light image imaging means for imaging a visible light image; and a non-visible light image imaging means for imaging a non-visible light image by an electromagnetic wave or a sound wave other than the visible light. The terminal device 30 or the aircraft 10 includes: image processing means for executing the predetermined image processing for the visible light image and/or the non-visible light image; aircraft control means for controlling a flying state of the aircraft based on the image processing result of the image processing means; and abnormality detection means for detecting the abnormality of the exterior surface material based on the image processing result by the image processing means.SELECTED DRAWING: Figure 1

Description

本発明は、外面材調査システムに関するものである。   The present invention relates to an outer surface material investigation system.

従来、構造物の外面材(例えば、タイル、サイディング、レンガ、および、表面コンクリート等)の剥離等の異常を検査する方法としては、例えば、特許文献1に開示された技術がある。   Conventionally, as a method for inspecting abnormalities such as peeling of an outer surface material (for example, tile, siding, brick, surface concrete, etc.) of a structure, there is a technique disclosed in Patent Document 1, for example.

特許文献1に開示された技術では、建物の外壁に赤外線を照射する赤外線ヒータと、赤外線を照射されて加熱した外壁の正常部分と剥離部分の温度差を映像化する赤外線カメラを配置する。そして、赤外線カメラで得られた映像から壁面表面温度パターンを計算機シミューレーションで作成し、正常部分と剥離部分を色分けすることで、剥離部分を特定することができる。   In the technique disclosed in Patent Document 1, an infrared heater that irradiates infrared rays on the outer wall of a building and an infrared camera that visualizes a temperature difference between a normal portion and a peeled portion of the outer wall that is irradiated with infrared rays and heated are arranged. Then, the wall surface temperature pattern is created by computer simulation from the image obtained by the infrared camera, and the normal portion and the peeled portion are color-coded to identify the peeled portion.

特開平05−312745号公報JP 05-31745 A

しかしながら、特許文献1に開示された技術では、赤外線ヒータを用いることから、検査対象となるのは赤外線ヒータからの赤外線が届く範囲に限定されるため、広い範囲を検査するためには、検査に時間を要するという問題点がある。   However, in the technique disclosed in Patent Document 1, since an infrared heater is used, the inspection target is limited to a range where infrared rays from the infrared heater reach. Therefore, in order to inspect a wide range, the inspection is performed. There is a problem that it takes time.

本発明は、構造物の外面材の異常を短時間で検査することが可能な外面材調査システムを提供することを目的としている。   An object of the present invention is to provide an outer surface material investigation system capable of inspecting abnormality of an outer surface material of a structure in a short time.

上記課題を解決するために、本発明は、飛行体によって撮像した画像を処理して端末装置に表示し、構造物の外面材の状態を調査する外面材調査システムにおいて、前記飛行体は、可視光画像を撮像する可視光画像撮像手段と、可視光以外の領域の電磁波または音波による非可視光画像を撮像する非可視光画像撮像手段と、を有し、前記端末装置または前記飛行体は、前記可視光画像および/または前記非可視光画像に対して所定の画像処理を実行する画像処理手段と、前記画像処理手段による画像処理結果に基づいて前記飛行体の飛行状態を制御する飛行体制御手段と、前記画像処理手段による画像処理結果に基づいて前記外面材の異常を検出する異常検出手段と、を有する、ことを特徴とする。
このような構成によれば、構造物の外面材の異常を短時間で検査することが可能になる。
In order to solve the above-described problems, the present invention provides an external material inspection system that processes an image captured by a flying object and displays the processed image on a terminal device to investigate the state of the external surface material of the structure. A visible light image capturing unit that captures a light image; and a non-visible light image capturing unit that captures a non-visible light image by an electromagnetic wave or a sound wave in a region other than visible light; and the terminal device or the flying object includes: Image processing means for executing predetermined image processing on the visible light image and / or the non-visible light image, and flying object control for controlling a flight state of the flying object based on an image processing result by the image processing means And an abnormality detecting means for detecting an abnormality of the outer surface material based on an image processing result by the image processing means.
According to such a structure, it becomes possible to test | inspect the abnormality of the outer surface material of a structure for a short time.

また、本発明は、前記画像処理手段は、前記外面材を構成する要素に対応する画像成分を検出する処理を実行し、前記飛行体制御手段は、前記画像処理手段によって検出される前記要素に対応する前記画像成分に基づいて、前記飛行体の前記構造物からの距離および/または飛行速度を調整することを特徴とする。
このような構成によれば、距離や飛行速度を適切に設定することができる。
According to the present invention, the image processing means executes a process of detecting an image component corresponding to an element constituting the outer surface material, and the flying object control means applies the element detected by the image processing means. The distance from the structure of the flying object and / or the flight speed is adjusted based on the corresponding image component.
According to such a configuration, the distance and the flight speed can be set appropriately.

また、本発明は、前記画像処理手段は、前記外面材を構成する要素に対応する画像成分を検出する処理を実行し、前記飛行体制御手段は、前記画像処理手段によって検出される前記要素に対応する前記画像成分に基づいて、前記可視光画像撮像手段および前記非可視光画像撮像手段の仰角または俯角を調整することを特徴とする。
このような構成によれば、仰角または俯角を適切に設定することができる。
According to the present invention, the image processing means executes a process of detecting an image component corresponding to an element constituting the outer surface material, and the flying object control means applies the element detected by the image processing means. The elevation angle or depression angle of the visible light image capturing unit and the non-visible light image capturing unit is adjusted based on the corresponding image component.
According to such a configuration, the elevation angle or depression angle can be set appropriately.

また、本発明は、前記非可視光画像撮像手段は、被写体から放射される赤外線を検出し、前記被写体の各部の温度を示す熱画像を撮像し、前記画像処理手段は、前記可視光画像撮像手段によって撮像された前記可視光画像に基づいて前記外面材を構成する要素に対応する空間周波数成分を特定し、前記可視光画像と前記熱画像の相対的な関係に基づいて前記熱画像における前記要素の空間周波数成分を特定し、特定された空間周波数に対応する帯域成分を抽出する処理を実行する、ことを特徴とする。
このような構成によれば、外面材を構成する要素に対応する画像成分を確実に抽出することができる。
Further, according to the present invention, the invisible light image capturing unit detects infrared rays emitted from a subject, captures a thermal image indicating the temperature of each part of the subject, and the image processing unit captures the visible light image. A spatial frequency component corresponding to an element constituting the outer surface material is specified based on the visible light image captured by the means, and the thermal image in the thermal image is based on a relative relationship between the visible light image and the thermal image. A process of specifying a spatial frequency component of an element and extracting a band component corresponding to the specified spatial frequency is performed.
According to such a configuration, it is possible to reliably extract image components corresponding to the elements constituting the outer surface material.

また、本発明は、前記異常検出手段は、前記画像処理手段によって抽出された前記帯域成分を参照し、前記外面材を構成する前記要素に対応する部分の温度が隣接する部分と異なる場合には異常と判定することを特徴とする。
このような構成によれば、異常箇所を確実に検出することができる。
In the present invention, the abnormality detection unit refers to the band component extracted by the image processing unit, and the temperature of the part corresponding to the element constituting the outer surface material is different from the adjacent part. It is determined to be abnormal.
According to such a configuration, it is possible to reliably detect an abnormal location.

また、本発明は、前記異常検出手段によって異常が検出された場合には、前記飛行体制御手段は、前記飛行体をホバリング状態とし、前記異常検出手段は、ホバリング中に撮像された複数の前記非可視光画像に基づいて異常の有無を判定する、ことを特徴とする。
このような構成によれば、誤検出の発生を低減することができる。
Further, in the present invention, when an abnormality is detected by the abnormality detection unit, the flying object control unit sets the flying object to a hovering state, and the abnormality detection unit includes a plurality of the images captured during hovering. It is characterized by determining the presence or absence of abnormality based on an invisible light image.
According to such a configuration, occurrence of erroneous detection can be reduced.

また、本発明は、前記飛行体制御手段は、地図上において調査の対象となる前記構造物の指定を受け、指定された前記構造物に基づいて飛行経路を設定することを特徴とする。
このような構成によれば、飛行経路を簡単に設定することができる。
Further, the present invention is characterized in that the flying object control means receives designation of the structure to be investigated on a map and sets a flight path based on the designated structure.
According to such a configuration, the flight path can be easily set.

また、本発明は、前記飛行体制御手段は、垂直方向の飛行と、水平方向の飛行を交互に繰り返すことで、前記構造物の所定の外面を撮像するように制御することを特徴とする。
このような構成によれば、飛行体の制御を簡易化するとともに、異常箇所を漏れなく検出することができる。
Further, the present invention is characterized in that the flying object control means performs control so as to image a predetermined outer surface of the structure by alternately repeating vertical flight and horizontal flight.
According to such a configuration, it is possible to simplify the control of the flying object and to detect the abnormal part without omission.

また、本発明は、前記飛行体制御手段は、前記構造物の外面を東、南、西、および、北の順に撮影するように制御することを特徴とする。
このような構成によれば、温度上昇/温度降下が生じやすい順に外面を検査することができる。
Moreover, the present invention is characterized in that the flying object control means controls the outer surface of the structure to be photographed in the order of east, south, west, and north.
According to such a configuration, the outer surface can be inspected in the order in which the temperature rise / temperature drop is likely to occur.

また、本発明は、前記端末装置は、画像を表示する表示手段を有し、前記表示手段は、前記可視光画像と前記非可視光画像を並置して表示するか、または、前記可視光画像に前記非可視光画像を重畳して表示する、ことを特徴とする。
このような構成によれば、操作者が目視により確認しながら異常箇所を検出することができる。
Further, according to the present invention, the terminal device includes a display unit that displays an image, and the display unit displays the visible light image and the non-visible light image side by side, or the visible light image. The invisible light image is superimposed and displayed on the screen.
According to such a configuration, the operator can detect an abnormal location while visually confirming it.

本発明によれば、構造物の外面材の異常を短時間で検査することが可能な外面材調査システムを提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the outer surface material investigation system which can test | inspect the abnormality of the outer surface material of a structure for a short time.

本発明の実施形態に係る外面材調査システムの構成例を示す図である。It is a figure which shows the structural example of the outer surface material investigation system which concerns on embodiment of this invention. 図1に示す飛行体の詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the flying body shown in FIG. 図1に示す送信機の詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the transmitter shown in FIG. 図1に示す端末装置の詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the terminal device shown in FIG. 図1に示すサーバの詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the server shown in FIG. 外面材の異状と温度の関係を示す図である。It is a figure which shows the relationship between the abnormality of an outer surface material, and temperature. 飛行体の飛行経路の一例を示す図である。It is a figure which shows an example of the flight path | route of a flying body. 地図上に表示された構造体の一例である。It is an example of the structure displayed on the map. 可視光画像と熱画像を並置して表示する例である。This is an example in which a visible light image and a thermal image are displayed side by side. 可視光画像と熱画像を重畳して表示する例である。This is an example in which a visible light image and a thermal image are superimposed and displayed. 可視光画像と熱画像を並置して表示する例である。This is an example in which a visible light image and a thermal image are displayed side by side. 可視光画像と熱画像を重畳して表示する例である。This is an example in which a visible light image and a thermal image are superimposed and displayed. 飛行体によって外面材を検査する際に実行される処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the process performed when inspecting an outer surface material with a flying body. 図13に示す初期調整処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the initial adjustment process shown in FIG. 図14に示す目的成分抽出処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the target component extraction process shown in FIG. 図13に示す撮像処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the imaging process shown in FIG. 図16に示す飛行中調整処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the adjustment process in flight shown in FIG. 図16に示す異常検出処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the abnormality detection process shown in FIG. 図16に示す画像表示/格納処理の一例を説明するフローチャートである。17 is a flowchart for explaining an example of image display / storage processing shown in FIG.

次に、本発明の実施形態について説明する。   Next, an embodiment of the present invention will be described.

(A)本発明の実施形態の構成の説明
図1は、本発明の実施形態に係る外面材調査システムの構成例を示す図である。図1に示すように、外面材調査システム1は、飛行体10、送信機20、端末装置30、基地局40、ネットワーク50、および、サーバ60を有し、構造物Bの外面の異常を調査する。
(A) Description of Configuration of Embodiment of the Present Invention FIG. 1 is a diagram showing a configuration example of an outer surface material investigation system according to an embodiment of the present invention. As shown in FIG. 1, the outer surface material investigation system 1 includes an air vehicle 10, a transmitter 20, a terminal device 30, a base station 40, a network 50, and a server 60. To do.

飛行体10は、無人航空機UAV(Unmanned Air Vehicle)であり、例えば、4つ以上のプロペラによってホバリング(空中停止)することが可能なドローン等によって構成される。なお、小型ヘリコプタや、気球等によって構成されるようにしてもよい。   The flying body 10 is an unmanned aircraft UAV (Unmanned Air Vehicle), and is configured by, for example, a drone that can be hovered (stopped in the air) by four or more propellers. In addition, you may make it comprise with a small helicopter, a balloon, etc.

送信機20は、操縦者によって操作され、飛行体10に対して制御信号を送信するとともに、飛行体10によって撮像された画像を受信し、端末装置30に供給する。   The transmitter 20 is operated by a pilot, transmits a control signal to the flying object 10, receives an image captured by the flying object 10, and supplies the image to the terminal device 30.

端末装置30は、スマートフォンまたはタブレット端末等によって構成され、接続ケーブル等によって、送信機20と接続され、送信機20との間で情報を授受する。端末装置30は、LCD(Liquid Crystal Display)タッチパネルを有し、操縦者によってLCDタッチパネルが操作された場合には、操作に対応して飛行体10を制御する。また、端末装置30は、飛行体10から送信される画像を表示する。   The terminal device 30 is configured by a smartphone, a tablet terminal, or the like, connected to the transmitter 20 by a connection cable or the like, and exchanges information with the transmitter 20. The terminal device 30 has an LCD (Liquid Crystal Display) touch panel, and controls the flying object 10 in response to the operation when the operator operates the LCD touch panel. In addition, the terminal device 30 displays an image transmitted from the flying object 10.

基地局40は、端末装置30との間で電波によって情報を授受するとともに、ネットワーク50を介してサーバ60との間で情報を授受する。   The base station 40 transmits / receives information to / from the terminal device 30 by radio waves, and transmits / receives information to / from the server 60 via the network 50.

ネットワーク50は、例えば、インターネットによって構成され、基地局40とサーバ60との間で、所定のプロトコルに基づいて、情報を授受する。   The network 50 is configured by the Internet, for example, and exchanges information between the base station 40 and the server 60 based on a predetermined protocol.

サーバ60は、基地局40およびネットワーク50を介して端末装置30から伝送された画像等の情報を格納する。   The server 60 stores information such as images transmitted from the terminal device 30 via the base station 40 and the network 50.

図2は、飛行体10の構成例を示している。図2の例では、飛行体10は、赤外光撮像素子11、可視光撮像素子12、ジンバル13、画像処理部14、送受信部15、アンテナ15a、制御部16、GPS(Global Positioning System)17、センサ18、および、モータ19−1〜19−4を有している。   FIG. 2 shows a configuration example of the flying object 10. In the example of FIG. 2, the flying object 10 includes an infrared light imaging device 11, a visible light imaging device 12, a gimbal 13, an image processing unit 14, a transmission / reception unit 15, an antenna 15 a, a control unit 16, and a GPS (Global Positioning System) 17. , Sensor 18 and motors 19-1 to 19-4.

ここで、赤外光撮像素子11は、黒体の放射輝度が黒体の絶対温度の4乗に比例することを利用し、被写体から放射される赤外線から被写体の各部の温度を検出し、熱画像として出力する。なお、熱画像を構成するそれぞれの画素は、被写体各部の温度を示す情報を有している。   Here, the infrared image pickup device 11 detects the temperature of each part of the subject from the infrared rays radiated from the subject using the fact that the radiance of the black body is proportional to the fourth power of the absolute temperature of the black body, Output as an image. Each pixel constituting the thermal image has information indicating the temperature of each part of the subject.

可視光撮像素子12は、被写体から放射される可視光を3原色に分解し、それぞれの色の光の強度を対応する電荷に光電変換し、可視光画像として出力する。なお、赤外光撮像素子11と可視光撮像素子12は同じ画角を有しているので、被写体の同じ領域の可視光画像と、それに対応する熱画像を得ることができる。   The visible light imaging element 12 separates the visible light emitted from the subject into three primary colors, photoelectrically converts the light intensity of each color into a corresponding charge, and outputs it as a visible light image. Since the infrared light image sensor 11 and the visible light image sensor 12 have the same angle of view, a visible light image of the same region of the subject and a thermal image corresponding to the visible light image can be obtained.

ジンバル13は、赤外光撮像素子11および可視光撮像素子12の双方が固定された固定部材の傾きを電子制御によって制御することで、飛行体10が揺動した場合でも、赤外光撮像素子11および可視光撮像素子12によって撮像される画像が変化しないように制御する。なお、ジンバル13は、赤外光撮像素子11および可視光撮像素子12の垂直方向の傾き(チルト)を制御できる構成とされている。これにより、赤外光撮像素子11および可視光撮像素子12は、被写体の同じ領域を安定して撮像することができる。   The gimbal 13 controls the inclination of the fixing member to which both the infrared light imaging element 11 and the visible light imaging element 12 are fixed by electronic control, so that the infrared light imaging element can be used even when the flying object 10 is swung. 11 and the visible light image sensor 12 are controlled so as not to change. The gimbal 13 is configured to be able to control the vertical tilt of the infrared light image sensor 11 and the visible light image sensor 12. Thereby, the infrared light image sensor 11 and the visible light image sensor 12 can stably image the same region of the subject.

画像処理部14は、赤外光撮像素子11および可視光撮像素子12から出力される画像に対して、例えば、圧縮処理等を施し、送受信部15に供給する。   The image processing unit 14 performs, for example, compression processing on the images output from the infrared light imaging device 11 and the visible light imaging device 12 and supplies the images to the transmission / reception unit 15.

送受信部15は、画像処理部14から供給される画像を、アンテナ15aを介して送信機20に対して送信するとともに、送信機20から送信される制御信号を、アンテナ15aを介して受信し、制御部16に供給する。アンテナ15aは、送信機20との間で電波によって情報を送受信する。   The transmission / reception unit 15 transmits the image supplied from the image processing unit 14 to the transmitter 20 via the antenna 15a, and receives the control signal transmitted from the transmitter 20 via the antenna 15a. This is supplied to the control unit 16. The antenna 15a transmits and receives information to and from the transmitter 20 by radio waves.

制御部16は、送受信部15から供給される制御信号、GPS17から供給される位置情報、および、センサ18から供給される飛行体10の飛行状態を示す情報等に基づいて、ジンバル13およびモータ19−1〜19−4を制御する。   The control unit 16 includes a gimbal 13 and a motor 19 based on a control signal supplied from the transmission / reception unit 15, position information supplied from the GPS 17, information indicating a flight state of the flying object 10 supplied from the sensor 18, and the like. -1 to 19-4 are controlled.

GPS17は、複数の人工衛星から送信される時刻情報を有する信号を受信し、これらの時間差から自身の位置に関する情報(緯度情報および経度情報)を検出し、制御部16に供給する。   The GPS 17 receives signals having time information transmitted from a plurality of artificial satellites, detects information (latitude information and longitude information) related to its own position from these time differences, and supplies the information to the control unit 16.

センサ18は、例えば、ジャイロセンサ、磁気センサ、気圧センサ、超音波センサ、および、ビジョンポジショニングセンサを有し、飛行体10の姿勢、高度、および、障害物との距離、障害物の形状等を検出し、制御部16に通知する。   The sensor 18 includes, for example, a gyro sensor, a magnetic sensor, an atmospheric pressure sensor, an ultrasonic sensor, and a vision positioning sensor, and determines the attitude, altitude, distance from the obstacle, the shape of the obstacle, and the like of the flying object 10. Detect and notify the control unit 16.

モータ19−1〜19−4は、例えば、ブラシレスモータ等によって構成され、それぞれのモータ19−1〜19−4には、プロペラが取り付けられている。制御部16は、これらのモータ19−1〜19−4の回転数を個別に制御することで、目的の方向に移動したり、飛行体10の方向を変更したりすることができる。   The motors 19-1 to 19-4 are configured by, for example, brushless motors, and propellers are attached to the motors 19-1 to 19-4. The control unit 16 can move in the target direction or change the direction of the flying object 10 by individually controlling the rotation speeds of the motors 19-1 to 19-4.

図3は、図1に示す送信機20の詳細な構成例を示す図である。図3の例では、送信機20は、送受信部21、アンテナ21a、制御部22、ジョイスティック23,24、操作部25、および、I/F(Interface)26を有している。   FIG. 3 is a diagram illustrating a detailed configuration example of the transmitter 20 illustrated in FIG. 1. In the example of FIG. 3, the transmitter 20 includes a transmission / reception unit 21, an antenna 21 a, a control unit 22, joysticks 23 and 24, an operation unit 25, and an I / F (Interface) 26.

ここで、送受信部21は、アンテナ21aを介して、飛行体10との間で電波によって情報を送受信する。   Here, the transmitting / receiving unit 21 transmits / receives information to / from the flying object 10 via the antenna 21a by radio waves.

制御部22は、ジョイスティック23,24、I/F26、および、操作部25から供給される情報に基づいて、飛行体10を制御するための制御信号を生成し、送受信部21を介して飛行体10に送信する。また、制御部22は、飛行体10によって撮像された画像を、送受信部21を介して受信し、I/F26を介して端末装置30に供給する。   The control unit 22 generates a control signal for controlling the flying object 10 based on information supplied from the joysticks 23 and 24, the I / F 26, and the operation unit 25, and the flying object via the transmission / reception unit 21. 10 to send. The control unit 22 receives an image captured by the flying object 10 via the transmission / reception unit 21 and supplies the image to the terminal device 30 via the I / F 26.

ジョイスティック23,24は、操作者の親指等によって前後方向または左右方向に操作され、操作量に応じた信号を生成して制御部22に供給する。   The joysticks 23 and 24 are operated in the front-rear direction or the left-right direction by the operator's thumb or the like, generate a signal corresponding to the operation amount, and supply the signal to the controller 22.

操作部25は、操作ボタン、ジョグダイアル、および、LCDタッチパネル等によって構成され、操作者の操作に応じた信号を生成して制御部22に供給する。   The operation unit 25 includes operation buttons, a jog dial, an LCD touch panel, and the like. The operation unit 25 generates a signal corresponding to an operation by the operator and supplies the signal to the control unit 22.

I/F26は、例えば、USB(Universal Serial Bus)等によって構成され、制御部22と端末装置30との間で制御情報および画像情報等の情報を授受する。   The I / F 26 is configured by, for example, a USB (Universal Serial Bus) or the like, and exchanges information such as control information and image information between the control unit 22 and the terminal device 30.

図4は、図1に示す端末装置30の詳細な構成例を示している。図4に示すように、端末装置30は、CPU(Central Processing Unit)31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、GPS34、GPU(Graphics Processing Unit)35、I/F36、バス37、および、LCDタッチパネル38を有している。   FIG. 4 shows a detailed configuration example of the terminal device 30 shown in FIG. As shown in FIG. 4, the terminal device 30 includes a CPU (Central Processing Unit) 31, a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, a GPS 34, a GPU (Graphics Processing Unit) 35, an I / F 36, A bus 37 and an LCD touch panel 38 are provided.

ここで、CPU31は、ROM32に格納されたプログラムに応じて各部を制御する中央処理装置である。   Here, the CPU 31 is a central processing unit that controls each unit in accordance with a program stored in the ROM 32.

ROM32は、不揮発性の半導体記憶装置によって構成され、CPU31が実行する基本的なプログラム等を格納する。   The ROM 32 is configured by a nonvolatile semiconductor storage device, and stores a basic program executed by the CPU 31 and the like.

RAM33は、揮発性の半導体記憶装置によって構成され、CPU31が実行対象とするプログラムや、計算途中のデータを一時的に格納する。   The RAM 33 is composed of a volatile semiconductor storage device, and temporarily stores programs to be executed by the CPU 31 and data being calculated.

GPS34は、複数の人工衛星からの信号を受信し、これらの時間差に基づいて自身の位置を特定し、CPU31に供給する。   The GPS 34 receives signals from a plurality of artificial satellites, specifies its own position based on these time differences, and supplies it to the CPU 31.

GPU35は、CPU31から供給される描画命令に基づいて描画処理を実行し、得られた画像データをLCDタッチパネル38に供給して表示させる。   The GPU 35 executes a drawing process based on the drawing command supplied from the CPU 31 and supplies the obtained image data to the LCD touch panel 38 for display.

I/F36は、例えば、USB等によって構成され、接続ケーブルによって、図3に示すI/F26と接続され、I/F26との間で情報を授受する。   The I / F 36 is configured by, for example, a USB or the like, and is connected to the I / F 26 illustrated in FIG. 3 by a connection cable, and exchanges information with the I / F 26.

バス37は、CPU31、ROM32、RAM33、GPS34、GPU35、および、I/F36を相互に接続し、これらの間で情報の授受を可能とするための信号線群である。   The bus 37 is a signal line group for mutually connecting the CPU 31, ROM 32, RAM 33, GPS 34, GPU 35, and I / F 36, and enabling exchange of information among them.

LCDタッチパネル38は、例えば、液晶パネルの表示部にタッチセンサが重畳されて構成される。LCDタッチパネル38は、GPU35によって描画された画像等をLCDに表示するとともに、操作者によってタッチセンサが操作された場合には操作箇所を示す情報をI/F36を介してCPU31に伝える。   The LCD touch panel 38 is configured by, for example, a touch sensor superimposed on a display unit of a liquid crystal panel. The LCD touch panel 38 displays an image or the like drawn by the GPU 35 on the LCD, and when the touch sensor is operated by the operator, transmits information indicating an operation location to the CPU 31 via the I / F 36.

図5は、図1に示すサーバ60の構成例を示す図である。なお、図5に示すサーバ60は、CPU61、ROM62、RAM63、HDD64、I/F65、および、バス66を有している。   FIG. 5 is a diagram illustrating a configuration example of the server 60 illustrated in FIG. 1. 5 includes a CPU 61, a ROM 62, a RAM 63, an HDD 64, an I / F 65, and a bus 66.

ここで、CPU61は、ROM62およびHDD64等に格納されたプログラムに応じて各部を制御する中央処理装置である。   Here, the CPU 61 is a central processing unit that controls each unit in accordance with programs stored in the ROM 62 and the HDD 64.

ROM62は、不揮発性の半導体記憶装置によって構成され、CPU61が実行する基本的なプログラム等を格納する。   The ROM 62 is configured by a nonvolatile semiconductor memory device, and stores a basic program executed by the CPU 61 and the like.

RAM63は、揮発性の半導体記憶装置によって構成され、CPU61が実行対象とするプログラムや、計算途中のデータを一時的に格納する。   The RAM 63 is composed of a volatile semiconductor storage device, and temporarily stores programs to be executed by the CPU 61 and data being calculated.

HDD64は、例えば、磁気記憶装置等によって構成され、CPU61が実行するプログラムやデータを格納する。   The HDD 64 is configured by, for example, a magnetic storage device and stores programs and data executed by the CPU 61.

I/F65は、例えば、ネットワーク50を介して基地局40との間で情報を授受する際のプロトコルの変換処理等を実行する。   The I / F 65 performs, for example, protocol conversion processing when information is exchanged with the base station 40 via the network 50.

バス66は、CPU61、ROM62、RAM63、HDD64、および、I/F65を相互に接続し、これらの間で情報の授受を可能とするための信号線群である。   The bus 66 is a signal line group for mutually connecting the CPU 61, the ROM 62, the RAM 63, the HDD 64, and the I / F 65 so that information can be exchanged therebetween.

(B)本発明の実施形態の動作の説明
つぎに、本発明の実施形態の動作について説明する。本実施形態に係る外面材調査システムは、構造物(例えば、集合住宅、オフィスビル、戸建て家屋、橋梁、橋脚、トンネル、ダム)の外面材(例えば、タイル、サイディング、レンガ、および、表面コンクリート等)の剥離または破損等の異常を検出する。
(B) Description of Operation of the Embodiment of the Present Invention Next, the operation of the embodiment of the present invention will be described. The exterior material inspection system according to the present embodiment includes an exterior material (for example, tile, siding, brick, surface concrete, etc.) of a structure (for example, an apartment house, an office building, a detached house, a bridge, a pier, a tunnel, or a dam). ) To detect abnormalities such as peeling or breakage.

より詳細には、例えば、コンクリート等の躯体等の表面に、図6(A)に示すように、複数のタイルが配列されて接着されている場合において、破線で囲んだタイルが、裏面の躯体から剥離していることを考える。この場合、太陽光によってタイルの温度が上昇すると、タイルの熱は裏面の躯体に伝導する。しかしながら、タイルが躯体から剥離している場合には、タイルと躯体との間に空気層が存在し、熱が躯体に伝わりにくいことから、剥離しているタイルの温度は、剥離していないタイルよりも高い状態になる。   More specifically, for example, when a plurality of tiles are arranged and bonded to the surface of a concrete body or the like, as shown in FIG. Think of it peeling off. In this case, when the temperature of the tile rises due to sunlight, the heat of the tile is conducted to the housing on the back surface. However, when the tiles are peeled off from the enclosure, an air layer exists between the tiles and the enclosure, and heat is not easily transferred to the enclosure. It will be in a higher state.

図6(B)は、温度上昇時における図6(A)に示す一点鎖線上のタイルの温度を示している。図6(B)に示すように、温度上昇時は剥離しているタイルは、剥離していないタイルよりも温度が高くなっている。図6(C)は、温度下降時における図6(A)に示す一点鎖線上のタイルの温度を示している。図6(C)に示すように、温度下降時(例えば、太陽が沈んだ場合)には、タイルおよび躯体の熱はタイルを介して大気中に放射される。このとき、剥離している箇所は空気層の存在により、躯体からの熱が伝わりにくいことから、図6(C)に示すように、剥離しているタイルの温度は、剥離していないタイルよりも低い状態になる。なお、剥離しているタイルと、その周辺のタイルの温度差は、条件にもよるが、例えば、1〜2℃未満であることが多い。   FIG. 6B shows the temperature of the tile on the alternate long and short dash line shown in FIG. 6A when the temperature rises. As shown in FIG. 6B, the temperature of the tile that is peeled when the temperature rises is higher than that of the tile that is not peeled. FIG. 6C shows the temperature of the tile on the alternate long and short dash line shown in FIG. As shown in FIG. 6C, when the temperature drops (for example, when the sun goes down), the heat of the tile and the casing is radiated into the atmosphere through the tile. At this time, since the heat from the housing is less likely to be transferred due to the presence of the air layer, the peeled portion is at a temperature higher than that of the non-peeled tile, as shown in FIG. Is also low. In addition, although the temperature difference of the peeling tile and the surrounding tile is based also on conditions, it is often less than 1-2 degreeC, for example.

本実施形態では、赤外光撮像素子11によって撮像された熱画像によって、周辺よりも温度が高いまたは低いタイルを検出することで、剥離が生じた(異常が生じた)タイルを見つけることができる。   In this embodiment, by detecting a tile having a temperature higher or lower than that of the surrounding area from a thermal image captured by the infrared light image sensor 11, it is possible to find a tile in which peeling (an abnormality has occurred). .

つぎに、本実施形態の動作について説明する。   Next, the operation of this embodiment will be described.

例えば、図7に示すような構造物(図7の例では集合住宅)Bの外面材を調査する場合を例に挙げて説明する。この場合、構造物Bの近くに飛行体10を置き、送信機20、端末装置30、および、飛行体10の電源を投入する。端末装置30の電源が投入され、ROM32およびRAM33等に格納されている、飛行体10を制御するためのアプリケーションソフトウエア(以下単に「アプリ」と称する)が起動されると、CPU31は、アプリの制御に応じてGPS34により現在位置を検出し、現在位置を中心とする地図を、ネットワーク50を介して、図示しない地図サーバから取得し、LCDタッチパネル38に表示させる。その結果、LCDタッチパネル38には、例えば、図8に示すような現在位置(端末装置30が存在する位置)を中心とする地図が表示される。このような地図を参照し、例えば、図7に対応する構造物Bを検査対象として指定する動作(例えば、LCDタッチパネル38の該当する位置をタップする動作)を行うと、図8に示すように、構造物Bが検査対象として選択され、例えば、破線によって囲まれた状態となる。   For example, the case of investigating the outer surface material of a structure B as shown in FIG. 7 (in the example of FIG. 7, an apartment house) B will be described as an example. In this case, the flying object 10 is placed near the structure B, and the transmitter 20, the terminal device 30, and the flying object 10 are powered on. When the terminal device 30 is turned on and application software (hereinafter simply referred to as “application”) stored in the ROM 32 and the RAM 33 and the like is started, the CPU 31 The current position is detected by the GPS 34 according to the control, and a map centered on the current position is acquired from a map server (not shown) via the network 50 and displayed on the LCD touch panel 38. As a result, a map centering on the current position (position where the terminal device 30 exists) as shown in FIG. 8 is displayed on the LCD touch panel 38, for example. With reference to such a map, for example, when an operation of designating the structure B corresponding to FIG. 7 as an inspection target (for example, an operation of tapping a corresponding position on the LCD touch panel 38), as shown in FIG. The structure B is selected as an inspection target and is surrounded by a broken line, for example.

端末装置30のCPU31は、指定された構造物の輪郭を地図情報から取得し、輪郭の各部の頂点の位置情報(緯度情報および経度情報)を取得する。例えば、図8の例では、x1,y1〜x8,y8の位置情報が取得される。なお、構造物の垂直方向の高さが分かる場合には、高さを示す情報を入力するようにしてもよい。   The CPU 31 of the terminal device 30 acquires the contour of the designated structure from the map information, and acquires position information (latitude information and longitude information) of the vertices of each part of the contour. For example, in the example of FIG. 8, the position information of x1, y1 to x8, y8 is acquired. In addition, when the vertical height of the structure is known, information indicating the height may be input.

構造物の形状が特定されると、CPU31は、飛行体10の飛行経路を決定する。具体的には、構造物Bのそれぞれの面に対して、垂直方向の飛行と水平方向の飛行を交互に繰り返す経路を設定する。例えば、図7の例では、図中に実線の矢印で示す経路が設定される。なお、構造物Bは東、西、南、北の4面を有するが、これらの面の優先順位としては、東、南、西、北の順に設定することが望ましい、太陽光による温度変化は、この順番で現れるからである。   When the shape of the structure is specified, the CPU 31 determines the flight path of the flying object 10. Specifically, for each surface of the structure B, a route that alternately repeats the vertical flight and the horizontal flight is set. For example, in the example of FIG. 7, a route indicated by a solid arrow in the drawing is set. In addition, although the structure B has four surfaces of east, west, south, and north, as the priority of these surfaces, it is desirable to set in order of east, south, west, and north. Because they appear in this order.

飛行経路が決定すると、端末装置30のCPU31は、送信機20に対して、飛行体10を飛行経路の開始位置に移動するとともに、ホバリングを開始するように指示する情報を供給する。この結果、飛行体10は、図7に示す飛行経路の開始位置まで移動するとともに、所定の高さ(例えば、構造物のタイルが画角内に収まる高さ)でホバリングを開始する。   When the flight path is determined, the CPU 31 of the terminal device 30 supplies information that instructs the transmitter 20 to move the flying object 10 to the start position of the flight path and to start hovering. As a result, the flying object 10 moves to the start position of the flight path shown in FIG. 7 and starts hovering at a predetermined height (for example, a height at which the tile of the structure is within the angle of view).

飛行体10がホバリングを開始すると、端末装置30は、初期調整処理を実行する。すなわち、端末装置30のCPU31は、構造物Bの外面材を構成する要素に対応する画像成分が最大になるように調整する。より詳細には、CPU31は、飛行体10の可視光撮像素子12によって得られる可視光画像から、構造物Bの外面材を構成する要素(図7の例ではタイル)の縦横の画素サイズを取得する。例えば、タイルの画像サイズとして、横50画素、縦10画素を取得する。つぎに、可視光撮像素子12と赤外光撮像素子11の有効画素数の比率から、赤外光撮像素子11によって得られる熱画像における要素(図7の例ではタイル)の画素数を求める。例えば、有効画素数の比が2:1(例えば、可視光が1920×1080で、熱画像が960×540)である場合には、横25画素、縦5画素が得られる。   When the flying object 10 starts hovering, the terminal device 30 executes an initial adjustment process. That is, the CPU 31 of the terminal device 30 adjusts so that the image component corresponding to the elements constituting the outer surface material of the structure B is maximized. More specifically, the CPU 31 obtains the vertical and horizontal pixel sizes of the elements (tiles in the example of FIG. 7) constituting the outer surface material of the structure B from the visible light image obtained by the visible light imaging element 12 of the flying object 10. To do. For example, 50 pixels in the horizontal direction and 10 pixels in the vertical direction are acquired as the tile image size. Next, the number of pixels of elements (tiles in the example of FIG. 7) in the thermal image obtained by the infrared light image sensor 11 is obtained from the ratio of the effective pixel numbers of the visible light image sensor 12 and the infrared light image sensor 11. For example, when the ratio of the number of effective pixels is 2: 1 (for example, visible light is 1920 × 1080 and thermal image is 960 × 540), 25 pixels horizontally and 5 pixels vertically are obtained.

つぎに、CPU31は、熱画像における外面材を構成する要素の水平周波数fhと、垂直周波数fvを求める。より詳細には、外面材は、図6(A)に示すように、水平方向および垂直方向に一定の周期で繰り返し配置されていることから、これらの要素による空間周波数を求める。いまの例では、横25画素、縦5画素の逆数が略空間周波数となる。   Next, CPU31 calculates | requires the horizontal frequency fh and the vertical frequency fv of the element which comprises the outer surface material in a thermal image. More specifically, as shown in FIG. 6A, the outer surface material is repeatedly arranged at a constant period in the horizontal direction and the vertical direction, and thus the spatial frequency of these elements is obtained. In the present example, the reciprocal of 25 horizontal pixels and 5 vertical pixels is substantially the spatial frequency.

空間周波数が求まると、CPU31は、熱画像から水平周波数fhと、垂直周波数fvの周波数成分を抽出する。これにより、外面材の構成要素に関する成分(図6(A)ではタイルに対応する成分。以下「目的成分」と称する)が抽出される。なお、目的成分としては、タイルに対応する基本周波数成分だけでなく、高調波成分(例えば、奇数次/偶数次高調波等)を抽出するとともに、タイルが上下または左右に連続して異常である場合に対応するために、基本周波数成分の1/n(nは自然数)の周波数成分についても抽出するようにしてもよい。   When the spatial frequency is obtained, the CPU 31 extracts frequency components of the horizontal frequency fh and the vertical frequency fv from the thermal image. As a result, components relating to the components of the outer surface material (components corresponding to the tiles in FIG. 6A, hereinafter referred to as “target components”) are extracted. As the target component, not only the fundamental frequency component corresponding to the tile but also the harmonic component (for example, odd order / even order harmonic) is extracted, and the tile is abnormal vertically or horizontally. In order to deal with the case, the frequency component of 1 / n (n is a natural number) of the fundamental frequency component may be extracted.

つぎに、CPU31は、飛行体10のジンバル13のチルト角度(仰角または俯角)を調整し、例えば、目的成分のスペクトルが最大になるように設定する。また、CPU31は、飛行体10の構造物Bからの距離を調整し、例えば、目的成分のスペクトルが最大になるように設定する。このような動作により、熱画像において外面材を構成する要素が最も鮮明に検出されるように設定される。   Next, the CPU 31 adjusts the tilt angle (elevation angle or depression angle) of the gimbal 13 of the flying object 10 and sets the spectrum of the target component to be maximum, for example. Moreover, CPU31 adjusts the distance from the structure B of the flying body 10, for example, sets it so that the spectrum of a target component may become the maximum. Such an operation is set so that the elements constituting the outer surface material are detected most clearly in the thermal image.

初期調整処理が完了すると、CPU31は、飛行体10に対して撮像処理を実行させる。撮像処理では、図7に示すような経路で飛行体10を飛行させる。また、鮮明かつノイズの少ない熱画像が撮像できるように、ジンバル13によってチルトを調整するとともに、構造物Bからの距離および飛行速度を調整する。なお、チルト、距離、および、飛行速度の調整する方法としては、例えば、目的成分のスペクトルが最大となるように調整することができる。   When the initial adjustment process is completed, the CPU 31 causes the flying object 10 to execute an imaging process. In the imaging process, the flying object 10 is caused to fly along a route as shown in FIG. Further, the tilt is adjusted by the gimbal 13 and the distance from the structure B and the flight speed are adjusted so that a clear thermal image with little noise can be taken. As a method for adjusting the tilt, distance, and flight speed, for example, adjustment can be made so that the spectrum of the target component is maximized.

また、飛行中に、異常な部分を検出した場合、例えば、剥離によって周囲よりも温度差を有するタイルを検出した場合には、異常検出処理を実行する。異常検出処理では、誤検出を防止するために、例えば、異常を検出した場所で飛行体10をホバリングさせ、複数の熱画像を撮像し、例えば、これらの画像の移動平均を求めることで、ノイズ成分を減少させ、得られた熱画像によって温度異常が剥離によるものか、それともノイズによるものかを区別する。その結果、剥離によるものと判定した場合には、剥離しているタイルに熱画像上または可視光画像上でマーキングをする。   Further, when an abnormal part is detected during flight, for example, when a tile having a temperature difference from the surroundings is detected by peeling, an abnormality detection process is executed. In the abnormality detection process, in order to prevent erroneous detection, for example, the flying object 10 is hovered at a place where the abnormality is detected, a plurality of thermal images are captured, and, for example, noise is obtained by obtaining a moving average of these images. The components are reduced, and the obtained thermal image is used to distinguish whether the temperature abnormality is due to peeling or noise. As a result, when it is determined to be due to peeling, marking is performed on the peeling tile on a thermal image or a visible light image.

CPU31は、以上のような処理の結果得られた画像データを、GPU35に供給し、LCDタッチパネル38に表示させる。図9および図10は、LCDタッチパネル38に表示される画像の一例を示している。ここで、図9は、可視光画像と熱画像を左右に並置して表示した表示例であり、図10は可視光画像と熱画像を重畳して表示した表示例である。図9では、可視光画像が左側に、対応する熱画像が右側に表示され、熱画像には異常箇所に実線の矩形によるマーキングがされている。また、図10は、可視光画像に対して、熱画像が重畳して表示され、異常箇所には実線の矩形によるマーキングがされている。これらの画像は、構造物Bの同じ範囲を同じ位置から撮像しているので、並置した場合には対応関係が容易に理解でき、また、1枚の画像として簡単に重畳処理することができる。   The CPU 31 supplies the image data obtained as a result of the above processing to the GPU 35 and causes the LCD touch panel 38 to display the image data. 9 and 10 show an example of an image displayed on the LCD touch panel 38. FIG. Here, FIG. 9 is a display example in which the visible light image and the thermal image are displayed side by side, and FIG. 10 is a display example in which the visible light image and the thermal image are superimposed and displayed. In FIG. 9, the visible light image is displayed on the left side and the corresponding thermal image is displayed on the right side. In the thermal image, the abnormal portion is marked with a solid rectangle. In FIG. 10, a thermal image is superimposed on a visible light image, and abnormal portions are marked with a solid rectangle. Since these images are taken in the same range of the structure B from the same position, the correspondence relationship can be easily understood when they are juxtaposed, and can be easily superimposed as a single image.

図11および図12は、実際に撮像された画像の一例を示している。図11は可視光画像と熱画像が並置されて表示されている表示例を示し、図12は可視光画像と熱画像が重畳されて表示されている表示例を示している。   11 and 12 show an example of an actually captured image. FIG. 11 shows a display example in which the visible light image and the thermal image are displayed side by side, and FIG. 12 shows a display example in which the visible light image and the thermal image are superimposed and displayed.

なお、以上のようにして撮像された画像は、ネットワーク50を介してサーバ60に転送され、所定のフォルダまたはディレクトリ等に保存される。   The image captured as described above is transferred to the server 60 via the network 50 and stored in a predetermined folder or directory.

構造物Bの一つの外面の検査が完了すると、他の外面の撮像を開始する。より詳細には、東、南、西、北の順番に、外面の検査を実行する。なお、新たな外面を検査する場合には、前述したように、ホバリングによって初期調整処理を実行した後に、撮像処理を実行する。   When the inspection of one outer surface of the structure B is completed, imaging of the other outer surface is started. More specifically, external inspections are performed in the order of east, south, west, and north. When inspecting a new outer surface, as described above, after performing the initial adjustment process by hovering, the imaging process is performed.

以上に説明したように、本発明の実施形態によれば、構造物Bの構造を検出し、自動的に飛行経路を設定し、飛行体10によって可視光画像と熱画像を撮像するようにしたので、検査に要する時間を大幅に短縮することができる。   As described above, according to the embodiment of the present invention, the structure of the structure B is detected, the flight path is automatically set, and the visible light image and the thermal image are captured by the flying object 10. Therefore, the time required for the inspection can be greatly shortened.

また、初期調整処理により、ジンバル13の俯角または仰角を調整するとともに、構造物Bとの距離が最適になるように調整するので、ノイズが少なく、また、解析に最適な熱画像を得ることができる。   In addition, the initial adjustment process adjusts the depression angle or elevation angle of the gimbal 13 and adjusts the distance to the structure B to be optimal, so that there is little noise and an optimal thermal image for analysis can be obtained. it can.

また、飛行体10の飛行中も飛行中調整処理によって、ジンバル13の俯角または仰角を調整するとともに、構造物Bとの距離および飛行速度が最適になるように調整するので、ノイズが少なく、また、解析に最適な熱画像を常に得ることができる。   Further, during the flight of the flying object 10, the depression angle or elevation angle of the gimbal 13 is adjusted by the in-flight adjustment process, and the distance to the structure B and the flight speed are adjusted to be optimal, so that there is little noise, and The thermal image optimal for analysis can always be obtained.

また、外面材を構成する要素(例えば、タイル)のサイズに対応する空間周波数成分を抽出し、抽出した目的成分に基づいて、位置、および、飛行速度を調整するようにしたので、外面材を構成する要素が最適に撮像されるように飛行状態を制御することができる。また、抽出した目的成分に基づいて、ジンバル13の俯角または仰角を制御するようにしたので、例えば、天空反射等の影響を排除して、外面材を構成する要素が最適に撮像される角度に調整することができる。   In addition, the spatial frequency component corresponding to the size of the elements (for example, tiles) constituting the outer surface material is extracted, and the position and the flight speed are adjusted based on the extracted target component. The flight state can be controlled so that the constituent elements are imaged optimally. Further, since the depression angle or elevation angle of the gimbal 13 is controlled based on the extracted target component, for example, the influence of the sky reflection or the like is eliminated, and the angle of the elements constituting the outer surface material is optimally imaged. Can be adjusted.

また、外面材を構成する要素(例えば、タイル)のサイズに対応する空間周波数成分を抽出し、抽出した成分に基づいて異常を検出するようにしたので、外面材を構成する要素以外の影響を低減し、剥離等の異常を確実に検出することができる。より詳細には、撮像された熱画像には、天空反射、壁面の汚れ、日陰、照り返し、樹木の影響、室内の暖房等による影響がノイズとして含まれる。外面材のサイズに対応する空間周波数成分を抽出することで、外面材とは空間周波数が異なるこれらのノイズ成分を低減し、より確実な判断を行うことができる。   In addition, since the spatial frequency component corresponding to the size of the elements (for example, tiles) constituting the outer surface material is extracted and the abnormality is detected based on the extracted components, the influence other than the elements constituting the outer surface material is affected. And abnormalities such as peeling can be reliably detected. More specifically, the captured thermal image includes noise as an effect of sky reflection, wall contamination, shade, reflection, effects of trees, indoor heating, and the like. By extracting the spatial frequency component corresponding to the size of the outer surface material, it is possible to reduce these noise components having a spatial frequency different from that of the outer surface material, and to perform more reliable determination.

また、異常を検出した場合には、飛行体10をホバリング状態にして、例えば、複数の熱画像を撮像し、これら複数の熱画像に対して、例えば、移動平均を施して得られた熱画像に基づいて、異常の有無を再判定するようにしたので、誤判定を低減することができる。   In addition, when an abnormality is detected, the flying object 10 is put in a hovering state, for example, a plurality of thermal images are taken, and a thermal image obtained by, for example, performing a moving average on the plurality of thermal images. Based on the above, since the presence / absence of abnormality is re-determined, erroneous determination can be reduced.

つぎに、図13〜図19を参照して、以上の動作を実現するためのフローチャートについて説明する。まず、図13は、構造物Bの撮像を開始する際に、端末装置30において実行される処理の一例を示すフローチャートである。図13のフローチャートが開始されると、以下のステップが実行される。   Next, a flowchart for realizing the above operation will be described with reference to FIGS. First, FIG. 13 is a flowchart illustrating an example of processing executed in the terminal device 30 when imaging of the structure B is started. When the flowchart of FIG. 13 is started, the following steps are executed.

ステップS10では、CPU31は、対象となる構造物を地図上で指定を受ける。より詳細には、CPU31は、GPS34から現在位置に関する情報(緯度情報および経度情報)を取得し、現在位置に対応する地図を、ネットワーク50を介して、図示しない地図サーバから取得し、LCDタッチパネル38に表示させる。このようにして表示された地図上を参照し、操作者は、対象となる構造物を指定することができる。   In step S10, the CPU 31 receives a target structure on the map. More specifically, the CPU 31 acquires information (latitude information and longitude information) related to the current position from the GPS 34, acquires a map corresponding to the current position from a map server (not shown) via the network 50, and the LCD touch panel 38. To display. With reference to the map displayed in this manner, the operator can specify the target structure.

ステップS11では、CPU31は、飛行経路を決定する。より詳細には、CPU31は、ステップS10で指定された構造物Bの輪郭を、輪郭抽出処理等によって抽出し、輪郭の頂点の緯度および経度を特定する。そして、頂点の位置から構造物Bの外面を特定し、特定した外面を東、南、西、北の順に選択するとともに、図7に示すような垂直方向と水平方向が交互に繰り返される飛行経路を設定する。なお、後述する初期調整処理等によって、飛行体10と構造物Bとの距離が変化する場合があり、その場合には飛行経路も変更されることがあるので、設定された経路は柔軟に変更可能とすることが望ましい。   In step S11, the CPU 31 determines a flight path. More specifically, the CPU 31 extracts the contour of the structure B specified in step S10 by contour extraction processing or the like, and specifies the latitude and longitude of the vertex of the contour. Then, the outer surface of the structure B is identified from the position of the apex, and the identified outer surface is selected in the order of east, south, west, and north, and the flight path in which the vertical direction and the horizontal direction are alternately repeated as shown in FIG. Set. Note that the distance between the flying object 10 and the structure B may change due to an initial adjustment process or the like to be described later. In this case, the flight path may be changed, so the set path can be flexibly changed. It is desirable to make it possible.

ステップS12では、CPU31は、飛行体10に対してホバリングするように制御信号を送信する。より詳細には、CPU31は、送信機20を介して、飛行体10に対して制御信号を送信し、飛行体10にホバリングを実行させる。なお、ホバリングの位置としては、飛行経路の開始位置とし、また、ホバリングの高度としては、構造物Bの外面のタイル等の下端が撮像できる位置とする。   In step S <b> 12, the CPU 31 transmits a control signal so as to hover with respect to the flying object 10. More specifically, the CPU 31 transmits a control signal to the flying object 10 via the transmitter 20 to cause the flying object 10 to perform hovering. The hovering position is the start position of the flight path, and the hovering altitude is a position where the lower end of the tile on the outer surface of the structure B can be imaged.

ステップS13では、CPU31は、所定の外面の撮像を開始する前に実行する初期調整処理を実行させる。この処理の詳細は、図14を参照して後述する。なお、初期調整処理を実行することで、ジンバルのチルトが最適に調整されるとともに、飛行体10と構造物Bの距離が最適に調整される。   In step S <b> 13, the CPU 31 executes an initial adjustment process that is executed before imaging of a predetermined outer surface is started. Details of this processing will be described later with reference to FIG. In addition, by performing the initial adjustment process, the tilt of the gimbal is optimally adjusted, and the distance between the flying object 10 and the structure B is optimally adjusted.

ステップS14では、CPU31は、構造物Bの所定の外面を自動的に飛行しながら撮像する撮像処理を実行する。この処理の詳細は、図16を参照して後述する。なお、この撮像処理を実行することで、構造物Bの所定の外面が撮像される。   In step S <b> 14, the CPU 31 executes an imaging process for imaging while flying a predetermined outer surface of the structure B automatically. Details of this processing will be described later with reference to FIG. In addition, the predetermined outer surface of the structure B is imaged by performing this imaging process.

ステップS15では、CPU31は、他の外面も撮像するか否かを判定し、他の外面も撮像すると判定した場合(ステップS15:Y)にはステップS16に進み、それ以外の場合(ステップS15:N)には処理を終了する(エンド)。例えば、構造物Bの東側の外面の撮像が完了した場合には、南側の外面を撮像するので、Yと判定してステップS16に進む。   In step S15, the CPU 31 determines whether or not to capture other external surfaces. If it is determined that other external surfaces are to be imaged (step S15: Y), the process proceeds to step S16, and otherwise (step S15: In N), the process ends (end). For example, when imaging of the outer surface on the east side of the structure B is completed, since the outer surface on the south side is imaged, it is determined as Y and the process proceeds to step S16.

ステップS16では、CPU31は、飛行体10を制御し、他の外面前に移動させる。より詳細には、構造物Bの東側の外面の撮像が完了した場合には、南側の外面の前まで移動させる。   In step S <b> 16, the CPU 31 controls the flying object 10 and moves it in front of another outer surface. More specifically, when imaging of the outer surface on the east side of the structure B is completed, it is moved to the front of the outer surface on the south side.

つぎに、図14を参照して、図13に示す初期調整処理の詳細について説明する。図14に示す処理が開始されると、以下のステップが実行される。   Next, the details of the initial adjustment process shown in FIG. 13 will be described with reference to FIG. When the process shown in FIG. 14 is started, the following steps are executed.

ステップS30では、端末装置30のCPU31は、外面材を構成する要素に関する画像成分である目的成分を抽出する処理を実行する。なお、この処理の詳細は、図15を参照して後述する。   In step S <b> 30, the CPU 31 of the terminal device 30 executes a process of extracting a target component that is an image component related to an element constituting the outer surface material. Details of this processing will be described later with reference to FIG.

ステップS31では、CPU31は、ジンバル13のチルト(仰角または俯角)を調整する。これにより、ジンバル13のチルトが調整される。   In step S31, the CPU 31 adjusts the tilt (elevation angle or depression angle) of the gimbal 13. Thereby, the tilt of the gimbal 13 is adjusted.

ステップS32では、CPU31は、ステップS30で抽出された目的成分のスペクトルが最大となる角度になったか否かを判定し、最大となった場合(ステップS32:Y)にはステップS33に進み、それ以外の場合(ステップS32:N)にはステップS30に戻って、前述の場合と同様の処理を繰り返す。なお、ステップS30〜ステップS32の処理によって、ジンバル13の仰角または俯角が、外面材の構成要素を的確に撮像するように調整される。   In step S32, the CPU 31 determines whether or not the spectrum of the target component extracted in step S30 has reached the maximum angle. If the spectrum has reached the maximum (step S32: Y), the process proceeds to step S33. Otherwise (step S32: N), the process returns to step S30, and the same processing as described above is repeated. In addition, the elevation angle or depression angle of the gimbal 13 is adjusted by the processes in steps S30 to S32 so that the components of the outer surface material are accurately imaged.

ステップS33では、CPU31は、外面材を構成する要素に関する画像成分である目的成分を抽出する処理を実行する。なお、この処理の詳細は、図15を参照して後述する。   In step S <b> 33, the CPU 31 executes a process of extracting a target component that is an image component related to an element constituting the outer surface material. Details of this processing will be described later with reference to FIG.

ステップS34では、CPU31は、飛行体10と構造物Bの前後方向の位置関係を調整する。例えば、図7の例では、飛行体10と構造物BのY方向の距離を調整する。   In step S34, the CPU 31 adjusts the positional relationship between the flying object 10 and the structure B in the front-rear direction. For example, in the example of FIG. 7, the distance between the flying object 10 and the structure B in the Y direction is adjusted.

ステップS35では、CPU31は、ステップS33で抽出された目的成分のスペクトルが最大となる位置になったか否かを判定し、最大となった場合(ステップS35:Y)には元の処理に復帰(リターン)し、それ以外の場合(ステップS35:N)にはステップS33に戻って、前述の場合と同様の処理を繰り返す。なお、ステップS33〜ステップS35の処理によって、飛行体10と構造物Bの間の距離が、外面材の構成要素を的確に撮像するように調整される。   In step S35, the CPU 31 determines whether or not the spectrum of the target component extracted in step S33 has reached the maximum position, and when it has reached the maximum (step S35: Y), the process returns to the original processing (step S35: Y). In other cases (step S35: N), the process returns to step S33, and the same processing as described above is repeated. In addition, the distance between the flying body 10 and the structure B is adjusted by the process of step S33 to step S35 so as to accurately capture the components of the outer surface material.

つぎに、図15を参照して、図14に記載されている目的成分抽出処理の詳細について説明する。図15に示すフローチャートが開始されると、以下のステップが実行される。   Next, the details of the target component extraction processing described in FIG. 14 will be described with reference to FIG. When the flowchart shown in FIG. 15 is started, the following steps are executed.

ステップS50では、CPU31は、飛行体10から可視光画像と熱画像を取得する。より詳細には、CPU31は、飛行体10の赤外光撮像素子11および可視光撮像素子12によってそれぞれ撮像された可視光画像と熱画像を、送信機20を介して取得する。   In step S <b> 50, the CPU 31 acquires a visible light image and a thermal image from the flying object 10. More specifically, the CPU 31 acquires a visible light image and a thermal image captured by the infrared light imaging device 11 and the visible light imaging device 12 of the flying object 10 via the transmitter 20.

ステップS51では、CPU31は、ステップS50で取得した可視光画像からタイルの縦横の画素数を取得する。より詳細には、例えば、ラプラシアンフィルタによって、可視光画像のエッジを検出し、検出したエッジの間隔から水平方向と垂直方向の縦横の画素数を特定する。   In step S51, the CPU 31 acquires the number of vertical and horizontal pixels of the tile from the visible light image acquired in step S50. More specifically, for example, an edge of a visible light image is detected by a Laplacian filter, and the number of vertical and horizontal pixels in the horizontal direction and the vertical direction is specified from the detected edge interval.

ステップS52では、CPU31は、熱画像における外面材を構成する要素(図6の例ではタイル)の水平周波数fhを特定する。より詳細には、可視光画像と熱画像の画素数の比(例えば、2:1)に基づいて、ステップS51で求めた横方向の画素数から水平周波数fhを求める。   In step S52, the CPU 31 specifies the horizontal frequency fh of the elements (tiles in the example of FIG. 6) constituting the outer surface material in the thermal image. More specifically, the horizontal frequency fh is obtained from the number of pixels in the horizontal direction obtained in step S51 based on the ratio of the number of pixels of the visible light image and the thermal image (for example, 2: 1).

ステップS53では、CPU31は、熱画像における外面材を構成する要素(図6の例ではタイル)の垂直周波数fvを特定する。より詳細には、可視光画像と熱画像の画素数の比(例えば、2:1)に基づいて、ステップS51で求めた縦方向の画素数から垂直周波数fvを求める。   In step S53, the CPU 31 specifies the vertical frequency fv of the elements (tiles in the example of FIG. 6) constituting the outer surface material in the thermal image. More specifically, the vertical frequency fv is obtained from the number of pixels in the vertical direction obtained in step S51 based on the ratio of the number of pixels of the visible light image and the thermal image (for example, 2: 1).

ステップS54では、CPU31は、例えば、DOG(Difference of Gaussian)フィルタ等により、熱画像からfh,fvの帯域成分を抽出する処理を実行する。これにより、タイルよりも空間周波数が低いと考えられる、天空反射、壁面の汚れ、日陰、照り返し、樹木の影響、室内の暖房等による成分を減衰することができる。また、熱画像では、含有する水分量の違いから、タイルの周囲の目地部の温度がタイルの温度よりも高く表れるが、このような成分はタイル自体よりも空間周波数が高いので、このような成分も減衰することができる。処理が完了すると、元の処理に復帰(リターン)する。   In step S54, the CPU 31 executes a process of extracting band components of fh and fv from the thermal image using, for example, a DOG (Difference of Gaussian) filter. As a result, it is possible to attenuate components due to sky reflection, dirt on the wall surface, shade, reflection, effects of trees, indoor heating, and the like, which are considered to have a lower spatial frequency than tiles. In addition, in the thermal image, the temperature of the joints around the tile appears higher than the temperature of the tile due to the difference in the amount of moisture contained, but such a component has a higher spatial frequency than the tile itself. Components can also be attenuated. When the process is completed, the process returns to the original process.

つぎに、図16を参照して、図13に示す撮像処理の詳細について説明する。図16に示すフローチャートが開始されると、以下のステップが実行される。   Next, details of the imaging process shown in FIG. 13 will be described with reference to FIG. When the flowchart shown in FIG. 16 is started, the following steps are executed.

ステップS70では、CPU31は、飛行体10を制御して上昇を開始させる。より詳細には、CPU31は、送信機20を介して制御信号を送ることで、飛行体10を垂直方向に上昇させる。なお、飛行体10は、GPS17からの出力と、センサ18からの出力に基づいて、飛行体10が垂直方向にずれなく、また、機体が傾いたりすることなく、上昇するように制御する。なお、センサ18には、障害物を検出するための超音波センサおよび画像センサも含まれているので、障害物を検出した場合には回避し、回避後は元の飛行経路に復帰するようにしてもよい。   In step S <b> 70, the CPU 31 controls the flying object 10 to start ascending. More specifically, the CPU 31 sends the control signal via the transmitter 20 to raise the flying object 10 in the vertical direction. The flying object 10 is controlled based on the output from the GPS 17 and the output from the sensor 18 so that the flying object 10 is lifted without being displaced in the vertical direction and without being tilted. The sensor 18 also includes an ultrasonic sensor and an image sensor for detecting an obstacle. Therefore, when the obstacle is detected, the sensor 18 avoids the obstacle and returns to the original flight path after the avoidance. May be.

ステップS71では、CPU31は、飛行中にジンバル13のチルト、構造物Bと飛行体10の距離、および、飛行速度を調整する飛行中調整処理を実行する。なお、この処理の詳細は、図17を参照して後述する。   In step S71, the CPU 31 executes an in-flight adjustment process for adjusting the tilt of the gimbal 13, the distance between the structure B and the flying object 10, and the flight speed during the flight. Details of this processing will be described later with reference to FIG.

ステップS72では、CPU31は、構造物Bの外面材の異常を検出する処理である異常検出処理を実行する。なお、この処理の詳細は、図18を参照して後述する。   In step S <b> 72, the CPU 31 executes an abnormality detection process that is a process of detecting an abnormality in the outer surface material of the structure B. Details of this process will be described later with reference to FIG.

ステップS73では、CPU31は、飛行体10によって撮像された可視光画像と熱画像をLCDタッチパネル38に表示するとともに、サーバ60に格納する処理を実行する。なお、この処理の詳細は、図19を参照して後述する。   In step S <b> 73, the CPU 31 executes a process of displaying the visible light image and the thermal image captured by the flying object 10 on the LCD touch panel 38 and storing them in the server 60. Details of this processing will be described later with reference to FIG.

ステップS74では、CPU31は、飛行体10によって撮像された可視光画像に基づいて、構造物Bの上側エッジ(例えば、構造物Bの屋上部と空との境界部)を検出したか否かを判定し、上側エッジを検出したと判定した場合(ステップS74:Y)にはステップS75に進み、それ以外の場合(ステップS74:N)にはステップS71に戻って前述の場合と同様の処理を繰り返す。なお、ステップS70〜ステップS74の処理により、図7に示す、Z軸方向の下から上に向かう矢印に対応する飛行および撮像が実行される。   In step S74, the CPU 31 determines whether or not the upper edge of the structure B (for example, the boundary between the roof of the structure B and the sky) is detected based on the visible light image captured by the flying object 10. If it is determined that the upper edge has been detected (step S74: Y), the process proceeds to step S75. Otherwise (step S74: N), the process returns to step S71 and the same processing as described above is performed. repeat. Note that flight and imaging corresponding to the arrow from the bottom to the top in the Z-axis direction shown in FIG. 7 are executed by the processing in steps S70 to S74.

ステップS75では、CPU31は、飛行体10を左または右に一定距離移動させる。例えば、図7の例では、構造物Bの屋上付近において、X軸方向の右から左に飛行体10が移動する。なお、移動する距離としては、撮像漏れが生じないようにするために、撮像される画像の一部が重複するように設定することが望ましい。例えば、図7に示すように左側に移動する場合、移動前に撮像された画像の左端の領域と、移動後に撮像される画像の右端の領域とが重複(例えば、画像幅の1〜2割が重複)するように設定することが望ましい。   In step S75, the CPU 31 moves the flying object 10 left or right by a certain distance. For example, in the example of FIG. 7, the flying object 10 moves from the right to the left in the X-axis direction near the roof of the structure B. Note that the moving distance is desirably set so that a part of the captured images overlaps in order to prevent an imaging omission. For example, when moving to the left as shown in FIG. 7, the left end area of the image captured before the movement overlaps with the right end area of the image captured after the movement (for example, 10 to 20% of the image width). It is desirable to set it to overlap.

ステップS76では、CPU31は、飛行体10を制御して下降を開始させる。より詳細には、CPU31は、送信機20を介して制御信号を送ることで、飛行体10を垂直方向に下降させる。   In step S76, the CPU 31 controls the flying object 10 to start descending. More specifically, the CPU 31 sends the control signal via the transmitter 20 to lower the flying object 10 in the vertical direction.

ステップS77では、CPU31は、飛行中にジンバル13のチルト、構造物Bと飛行体10の距離、および、飛行速度を調整する飛行中調整処理を実行する。なお、この処理の詳細は、図17を参照して後述する。   In step S77, the CPU 31 executes an in-flight adjustment process for adjusting the tilt of the gimbal 13, the distance between the structure B and the flying object 10, and the flight speed during the flight. Details of this processing will be described later with reference to FIG.

ステップS78では、CPU31は、構造物Bの外面材の異常を検出する処理である異常検出処理を実行する。なお、この処理の詳細は、図18を参照して後述する。   In step S <b> 78, the CPU 31 executes an abnormality detection process that is a process of detecting an abnormality in the outer surface material of the structure B. Details of this process will be described later with reference to FIG.

ステップS79では、CPU31は、飛行体10によって撮像された可視光画像と熱画像をLCDタッチパネル38に表示するとともに、サーバ60に格納する処理を実行する。なお、この処理の詳細は、図19を参照して後述する。   In step S <b> 79, the CPU 31 executes a process of displaying the visible light image and the thermal image captured by the flying object 10 on the LCD touch panel 38 and storing them in the server 60. Details of this processing will be described later with reference to FIG.

ステップS80では、CPU31は、飛行体10のセンサ18が有する高度センサまたはGPS17からの情報により、所定の高度(例えば、構造物Bの外面のタイル等の下端が撮像できる高度)に下降したか否かを判定し、所定の高度まで下降したと判定した場合(ステップS80:Y)にはステップS81に進み、それ以外の場合(ステップS80:N)にはステップS77に戻って同様の処理を繰り返す。なお、ステップS76〜ステップS80の処理により、図7に示す、Z軸方向の上から下に向かう矢印に対応する飛行および撮像が実行される。   In step S80, the CPU 31 has lowered to a predetermined altitude (for example, an altitude at which the lower end of the tile on the outer surface of the structure B can be imaged) based on information from the altitude sensor of the sensor 18 of the flying object 10 or the GPS 17. If it is determined that the vehicle has descended to a predetermined altitude (step S80: Y), the process proceeds to step S81. Otherwise (step S80: N), the process returns to step S77 and the same process is repeated. . Note that the flight and imaging corresponding to the arrow from the top to the bottom in the Z-axis direction shown in FIG. 7 are executed by the processing in steps S76 to S80.

ステップS81では、CPU31は、飛行体10を左または右に所定距離移動させる。例えば、図7の例では、構造物Bの1階付近において、X軸方向の右から左に飛行体10が移動する。なお、移動する距離としては、撮像漏れが生じないようにするために、撮像される画像の一部が重複するように設定することが望ましい。例えば、図7に示すように左側に移動する場合、移動前に撮像される画像の左端の領域と、移動後に撮像される画像の右端の領域とが重複(例えば、画像幅の1〜2割が重複)するように設定することが望ましい。   In step S81, the CPU 31 moves the flying object 10 to the left or right by a predetermined distance. For example, in the example of FIG. 7, in the vicinity of the first floor of the structure B, the flying object 10 moves from right to left in the X-axis direction. Note that the moving distance is desirably set so that a part of the captured images overlaps in order to prevent an imaging omission. For example, when moving to the left as shown in FIG. 7, the left end area of the image captured before the movement overlaps the right end area of the image captured after the movement (for example, 10 to 20% of the image width). It is desirable to set it to overlap.

ステップS82では、CPU31は、所定の外面の撮像が完了したか否かを判定し、終了したと判定した場合(ステップS82:Y)には元の処理に復帰(リターン)し、それ以外の場合(ステップS83:N)にはステップS70に戻って前述の場合と同様の処理を繰り返す。   In step S82, the CPU 31 determines whether or not imaging of a predetermined outer surface has been completed. If it is determined that the imaging has been completed (step S82: Y), the CPU 31 returns (returns) to the original processing, and otherwise. In (Step S83: N), the processing returns to Step S70 and the same processing as described above is repeated.

つぎに、図17を参照して、図16に示す飛行中調整処理の詳細について説明する。図17に示すフローチャートが開始されると、以下のステップが実行される。   Next, the details of the in-flight adjustment process shown in FIG. 16 will be described with reference to FIG. When the flowchart shown in FIG. 17 is started, the following steps are executed.

ステップS90では、端末装置30のCPU31は、外面材を構成する要素に関する画像成分である目的成分を抽出する処理(図15に示す処理)を実行する。   In step S <b> 90, the CPU 31 of the terminal device 30 executes a process (process shown in FIG. 15) for extracting a target component that is an image component related to an element constituting the outer surface material.

ステップS91では、CPU31は、ジンバル13のチルトを調整する。これにより、ジンバル13の仰角または俯角が調整される。   In step S91, the CPU 31 adjusts the tilt of the gimbal 13. Thereby, the elevation angle or depression angle of the gimbal 13 is adjusted.

ステップS92では、CPU31は、ステップS90で抽出された目的成分のスペクトルが最大となる角度になったか否かを判定し、最大となった場合(ステップS92:Y)にはステップS93に進み、それ以外の場合(ステップS92:N)にはステップS90に戻って、前述の場合と同様の処理を繰り返す。なお、ステップS90〜ステップS92の処理によって、飛行体10の飛行中において、ジンバル13の仰角または俯角が、外面材の構成要素を的確に撮像するように調整される。   In step S92, the CPU 31 determines whether or not the spectrum of the target component extracted in step S90 has reached the maximum angle. If the spectrum has reached the maximum (step S92: Y), the process proceeds to step S93. Otherwise (step S92: N), the process returns to step S90, and the same processing as described above is repeated. Note that the elevation angle or depression angle of the gimbal 13 is adjusted so as to accurately capture the components of the outer surface material during the flight of the flying object 10 by the processing of Step S90 to Step S92.

ステップS93では、CPU31は、外面材を構成する要素に関する画像成分である目的成分を抽出する処理(図15に示す処理)を実行する。   In step S <b> 93, the CPU 31 executes a process (process shown in FIG. 15) for extracting a target component that is an image component related to an element constituting the outer surface material.

ステップS94では、CPU31は、飛行体10と構造物Bの前後方向の位置関係を調整する。例えば、図7の例では、飛行体10と構造物BのY方向の距離を調整する。   In step S94, the CPU 31 adjusts the positional relationship between the flying object 10 and the structure B in the front-rear direction. For example, in the example of FIG. 7, the distance between the flying object 10 and the structure B in the Y direction is adjusted.

ステップS95では、CPU31は、ステップS93で抽出された目的成分のスペクトルが最大となる位置になったか否かを判定し、最大となった場合(ステップS95:Y)にはステップS96に進み、それ以外の場合(ステップS95:N)にはステップS93に戻って、前述の場合と同様の処理を繰り返す。なお、ステップS93〜ステップS95の処理によって、飛行体10の飛行中において、飛行体10と構造物Bの間の距離が、外面材の構成要素を的確に撮像するように調整される。   In step S95, the CPU 31 determines whether or not the spectrum of the target component extracted in step S93 has reached the maximum position, and if it has reached the maximum (step S95: Y), the process proceeds to step S96. Otherwise (step S95: N), the process returns to step S93, and the same process as described above is repeated. It should be noted that the distance between the flying object 10 and the structure B is adjusted so that the components of the outer surface material can be accurately imaged during the flight of the flying object 10 by the processing of step S93 to step S95.

ステップS96では、CPU31は、外面材を構成する要素に関する画像成分である目的成分を抽出する処理(図15に示す処理)を実行する。   In step S <b> 96, the CPU 31 executes a process (process shown in FIG. 15) for extracting a target component that is an image component related to an element constituting the outer surface material.

ステップS97では、CPU31は、飛行体10と飛行速度を調整する。例えば、図7の例では、飛行体10の上昇速度または下降速度を調整する。   In step S97, the CPU 31 adjusts the flying speed with the flying object 10. For example, in the example of FIG. 7, the ascending speed or the descending speed of the flying object 10 is adjusted.

ステップS98では、CPU31は、ステップS96で抽出された目的成分のスペクトルが最大となる位置になったか否かを判定し、最大となった場合(ステップS98:Y)には元の処理に復帰(リターン)し、それ以外の場合(ステップS95:N)にはステップS95に戻って、前述の場合と同様の処理を繰り返す。なお、ステップS96〜ステップS98の処理によって、飛行体10の飛行中において、飛行体10の飛行速度が、外面材の構成要素を的確に撮像するように調整される。   In step S98, the CPU 31 determines whether or not the spectrum of the target component extracted in step S96 has reached the maximum position. If the spectrum has reached the maximum (step S98: Y), the process returns to the original process (step S98: Y). In other cases (step S95: N), the process returns to step S95 and the same process as described above is repeated. It should be noted that the flight speed of the flying object 10 is adjusted so that the components of the outer surface material can be accurately imaged during the flight of the flying object 10 by the processing of step S96 to step S98.

つぎに、図18を参照して、図16に示す異常検出処理の詳細について説明する。図18に示すフローチャートが開始されると、以下のステップが実行される。   Next, the details of the abnormality detection process shown in FIG. 16 will be described with reference to FIG. When the flowchart shown in FIG. 18 is started, the following steps are executed.

ステップS110では、CPU31は、外面材を構成する要素に関する画像成分である目的成分を抽出する処理(図15に示す処理)を実行する。   In step S <b> 110, the CPU 31 executes a process (process shown in FIG. 15) for extracting a target component that is an image component related to an element constituting the outer surface material.

ステップS111では、CPU31は、ステップS110の処理によって抽出された目的成分を参照し、周辺と温度が異なるタイルが存在するか否かを判定し、存在すると判定した場合(ステップS111:Y)にはステップS112に進み、それ以外の場合(ステップS111:N)には元の処理に復帰(リターン)する。より詳細には、目的成分として抽出されるのは、熱画像におけるタイルの温度差を示す情報であることから、この温度差が周辺とは異なる部分が存在する場合にはYと判定してステップS112に進む。   In step S111, the CPU 31 refers to the target component extracted by the process of step S110, determines whether there is a tile having a temperature different from that of the surrounding area, and determines that it exists (step S111: Y). The process proceeds to step S112, and otherwise returns (returns) to the original process (step S111: N). More specifically, since information indicating the temperature difference of the tile in the thermal image is extracted as the target component, if there is a portion where this temperature difference is different from the surroundings, it is determined that the step is Y. Proceed to S112.

ステップS112では、CPU31は、飛行体10を制御し、上昇飛行または下降飛行を中断し、ホバリングを開始させる。この結果、飛行体10は上昇飛行または下降飛行中に、異常が検出された場所においてホバリング状態となる。   In step S112, the CPU 31 controls the flying object 10, interrupts ascending flight or descending flight, and starts hovering. As a result, the flying object 10 is in the hovering state at the place where the abnormality is detected during the ascending flight or the descending flight.

ステップS113では、CPU31は、複数の画像によるノイズ削減処理を実行する。より詳細には、CPU31は、異常が検出された場所の熱画像を複数撮像する。例えば、熱画像を2〜10枚程度撮像する。そして、撮像した複数の熱画像の加算平均等を求めることで、ノイズを削減することができる。なお、加算平均以外の方法によって、ノイズを削減するようにしてもよい。   In step S113, the CPU 31 executes noise reduction processing using a plurality of images. More specifically, the CPU 31 takes a plurality of thermal images of places where an abnormality has been detected. For example, about 2 to 10 thermal images are taken. And noise can be reduced by calculating | requiring the addition average etc. of the several imaged thermal image. Note that noise may be reduced by a method other than averaging.

ステップS114では、CPU31は、ノイズを削減した熱画像に対して、外面材を構成する要素に関する画像成分である目的成分を抽出する処理(図15に示す処理)を施す。   In step S <b> 114, the CPU 31 performs a process (process shown in FIG. 15) for extracting a target component, which is an image component related to an element constituting the outer surface material, from the thermal image with reduced noise.

ステップS115では、CPU31は、ステップS114における処理によって得られた目的成分を参照し、周辺と温度が異なるタイルが存在するか否かを判定し、存在すると判定した場合(ステップS115:Y)にはステップS116に進み、それ以外の場合(ステップS115:N)には誤検出であると判定して元の処理に復帰(リターン)する。なお、ステップS112〜ステップS114の処理により、ノイズを削減した熱画像に基づいて異常箇所を検出することで、誤検出を低減することができる。なお、周辺と温度が異なるタイルが存在するか否かだけでなく、例えば、ノイズ削減処理によっても、温度が異なる領域の形状が変化しない場合に、Yと判定するようにしてもよい。   In step S115, the CPU 31 refers to the target component obtained by the process in step S114, determines whether there is a tile having a temperature different from that of the surrounding area, and determines that it exists (step S115: Y). The process proceeds to step S116, and in other cases (step S115: N), it is determined that there is a false detection, and the process returns (returns) to the original process. In addition, it is possible to reduce false detection by detecting an abnormal part based on the thermal image in which noise is reduced by the processes in steps S112 to S114. It should be noted that Y may be determined not only if there are tiles having different temperatures from the surroundings, but also if, for example, noise reduction processing does not change the shape of regions having different temperatures.

なお、ステップS112〜ステップS114の処理では、飛行経路上において、ホバリングするようにしたが、異常箇所を確実に検出するために、構造物Bに接近するようにしてもよい。   In the processing from step S112 to step S114, the hovering is performed on the flight path. However, the structure B may be approached in order to reliably detect the abnormal part.

ステップS116では、CPU31は、周辺と温度が異なるタイルを画像上においてマーキングする処理を実行する。これにより、例えば、図9および図10に示すように、異常箇所のタイルが実線の矩形によって囲まれる。   In step S116, the CPU 31 executes a process of marking a tile having a temperature different from that of the periphery on the image. As a result, for example, as shown in FIGS. 9 and 10, the tile at the abnormal location is surrounded by a solid rectangle.

ステップS117では、CPU31は、警告を発する処理を実行する。例えば、CPU31は、図示しないスピーカから異常を検出したことを示す警告音を発するようにすることができる。   In step S117, the CPU 31 executes a process for issuing a warning. For example, the CPU 31 can emit a warning sound indicating that an abnormality has been detected from a speaker (not shown).

なお、ステップS115において異常を検出した場合には、警告するだけでなく、飛行体10を該当するタイルまで接近させるとともに、微量の塗料等を噴射し、マーキングし、マーキングが終了すると、元の飛行経路に復帰するようにしてもよい。   When an abnormality is detected in step S115, not only a warning is given, but also the flying object 10 is brought close to the corresponding tile, and a small amount of paint is sprayed and marked. You may make it return to a path | route.

つぎに、図19を参照して、図16に示す画像表示/格納処理の詳細について説明する。図19に示すフローチャートが開始されると、以下のステップが実行される。   Next, the details of the image display / storage processing shown in FIG. 16 will be described with reference to FIG. When the flowchart shown in FIG. 19 is started, the following steps are executed.

ステップS130では、CPU31は、例えば、送信機20を介して飛行体10から熱画像を取得する。   In step S <b> 130, the CPU 31 acquires a thermal image from the flying object 10 via the transmitter 20, for example.

ステップS131では、CPU31は、ステップS130で取得した熱画像に対して、外面材を構成する要素に関する画像成分である目的成分を抽出する処理(図15に示す処理)を施す。   In step S131, the CPU 31 performs a process (process shown in FIG. 15) for extracting a target component, which is an image component related to the elements constituting the outer surface material, on the thermal image acquired in step S130.

ステップS132では、CPU31は、ステップS131の処理によって得られた目的成分(温度を示す情報)を、色相を示す情報に変換する。この結果、温度差が大きくなるにつれて、黒、青、緑、赤、白と色相が変化する情報に変換される。   In step S132, the CPU 31 converts the target component (information indicating temperature) obtained by the processing in step S131 into information indicating hue. As a result, it is converted into information whose hue changes from black, blue, green, red, and white as the temperature difference increases.

ステップS133では、CPU31は、例えば、送信機20を介して飛行体10から可視光画像を取得する。   In step S133, the CPU 31 acquires a visible light image from the flying object 10 via the transmitter 20, for example.

ステップS134では、CPU31は、例えば、LCDタッチパネル38に対して所定の操作をすることで、画像の並置モードが選択されている場合(ステップS134:Y)にはステップS135に進み、それ以外の場合(ステップS134:N)にはステップS136に進む。例えば、LCDタッチパネル38に表示された画像表示モードを選択するアイコンが操作され、表示モードとして画像の並置モードが選択された場合にはステップS135に進み、表示モードとして画像の重畳モードが選択された場合にはステップS136に進む。   In step S134, for example, when the image juxtaposition mode is selected by performing a predetermined operation on the LCD touch panel 38 (step S134: Y), the CPU 31 proceeds to step S135, and otherwise. In (Step S134: N), the process proceeds to Step S136. For example, when the icon for selecting the image display mode displayed on the LCD touch panel 38 is operated and the image juxtaposition mode is selected as the display mode, the process proceeds to step S135, and the image superposition mode is selected as the display mode. If so, the process proceeds to step S136.

ステップS135では、CPU31は、LCDタッチパネル38に対して、熱画像と可視光画像とを並置して表示させる。この結果、例えば、図9または図11に示すような態様で熱画像と可視光画像とが並置して表示される。   In step S135, the CPU 31 displays the thermal image and the visible light image side by side on the LCD touch panel 38. As a result, for example, the thermal image and the visible light image are displayed side by side in the manner shown in FIG. 9 or FIG.

ステップS136では、CPU31は、例えば、LCDタッチパネル38に対して所定の操作をすることで、画像の重畳モードが選択されている場合(ステップS136:Y)にはステップS137に進み、それ以外の場合(ステップS136:N)にはステップS141に進む。例えば、LCDタッチパネル38に表示された画像表示モードを選択するアイコンが操作され、表示モードとして画像の重畳モードが選択された場合にはステップS137に進み、それ以外の場合にはステップS141に進む。   In step S136, the CPU 31 proceeds to step S137 if the image superimposing mode is selected by performing a predetermined operation on the LCD touch panel 38 (step S136: Y), and otherwise In (Step S136: N), the process proceeds to Step S141. For example, when the icon for selecting the image display mode displayed on the LCD touch panel 38 is operated and the image superposition mode is selected as the display mode, the process proceeds to step S137, and otherwise, the process proceeds to step S141.

ステップS137では、CPU31は、可視光画像を構成するそれぞれの画素をα(α<1)倍する。   In step S137, the CPU 31 multiplies each pixel constituting the visible light image by α (α <1).

ステップS138では、CPU31は、熱画像を構成するそれぞれの画素を(1−α)倍する。   In step S138, the CPU 31 multiplies each pixel constituting the thermal image by (1−α).

ステップS139では、CPU31は、ステップS137とステップS138で得られた可視光画像と熱画像を合成する。なお、以上の処理により、可視光画像の上に熱画像がアルファブレンディング処理によって重畳合成される。   In step S139, the CPU 31 combines the visible light image and the thermal image obtained in steps S137 and S138. By the above processing, the thermal image is superimposed and synthesized on the visible light image by the alpha blending process.

ステップS140では、CPU31は、LCDタッチパネル38に対して、ステップS139の合成処理によって得られた画像を表示させる。この結果、例えば、図10または図12に示すような態様で熱画像と可視光画像と重畳して表示される。   In step S140, the CPU 31 causes the LCD touch panel 38 to display the image obtained by the combining process in step S139. As a result, for example, the thermal image and the visible light image are superimposed and displayed in the manner shown in FIG. 10 or FIG.

ステップS141では、CPU31は、熱画像と可視光画像とを、ネットワーク50を介して送信し、サーバ60に格納させる。なお、熱画像の代わりに、ステップS131の処理で得られた目的成分を格納するようにしてもよい。   In step S <b> 141, the CPU 31 transmits the thermal image and the visible light image via the network 50 and stores them in the server 60. Note that the target component obtained by the process of step S131 may be stored instead of the thermal image.

以上に説明したように、図13〜図19に示すフローチャートによれば、前述した動作を実現することができる。   As described above, according to the flowcharts shown in FIGS. 13 to 19, the above-described operation can be realized.

(C)変形実施形態の説明
以上の各実施形態は一例であって、本発明が上述した場合のみに限定されるものでないことはいうまでもない。例えば、以上の例では、非可視光画像として、赤外線による熱画像を用いるようにしたが、これ以外の画像を用いるようにしてもよい。具体的には、例えば、紫外線を用いるようにしたり、MHzまたはGHz帯域の電磁波を用いるようにしたり、超音波を用いるようにしてもよい。なお、紫外線を用いる場合には、2次元の紫外線撮像素子を用いればよい。また、MHzまたはGHz帯域の電磁波を用いる場合、水平方向に複数の受信アンテナを配置し、送信アンテナから送信された電磁波が構造物Bによって反射され、これら複数の受信アンテナに到達する際の時間差から水平方向の角度を検出し、受信した信号の強度によって対象物の反射率等を特定することができる。また、超音波の場合も同様に、複数の受信素子を水平方向に配置し、複数の受信素子に到達する際の時間差から水平方向の角度を検出し、受信した信号の強度によって対象物の反射率等を特定することができる。
(C) Description of Modified Embodiment Each of the above embodiments is an example, and it is needless to say that the present invention is not limited to the case described above. For example, in the above example, an infrared thermal image is used as the invisible light image, but an image other than this may be used. Specifically, for example, ultraviolet rays may be used, electromagnetic waves in the MHz or GHz band may be used, or ultrasonic waves may be used. In the case where ultraviolet rays are used, a two-dimensional ultraviolet imaging element may be used. In addition, when using electromagnetic waves in the MHz or GHz band, a plurality of receiving antennas are arranged in the horizontal direction, and the electromagnetic waves transmitted from the transmitting antennas are reflected by the structure B, and from the time difference when reaching these receiving antennas By detecting the angle in the horizontal direction, the reflectance of the object can be specified by the intensity of the received signal. Similarly, in the case of ultrasonic waves, a plurality of receiving elements are arranged in the horizontal direction, the angle in the horizontal direction is detected from the time difference when reaching the plurality of receiving elements, and the reflection of the object is determined by the intensity of the received signal. The rate etc. can be specified.

また、以上の実施形態では、図13〜図19に示す処理は、端末装置30において実行するようにしたが、図13〜図19に示すフローチャートや、フローチャートを構成するステップを、飛行体10、送信機20、端末装置30、および、サーバ60のいずれかまたはこれらに分散して配置するようにしてもよい。例えば、図13〜図17に示す処理は、飛行体10において実行し、図19に示す処理を端末装置30またはサーバ60において実行するようにしてもよい。もちろん、図13〜図17に示す処理を全て端末装置30またはサーバ60において実行するようにしてもよい。   Moreover, in the above embodiment, although the process shown in FIGS. 13-19 was performed in the terminal device 30, the flowchart which shows the flowchart shown in FIGS. You may make it arrange | position among the transmitter 20, the terminal device 30, and the server 60, or distribute | distributing them. For example, the process shown in FIGS. 13 to 17 may be executed in the flying object 10 and the process shown in FIG. 19 may be executed in the terminal device 30 or the server 60. Of course, all the processes shown in FIGS. 13 to 17 may be executed in the terminal device 30 or the server 60.

また、以上の実施形態では、構造物としては、集合住宅を例に挙げて説明したが、これ以外にも、オフィスビル、戸建て家屋、橋梁、橋脚、トンネル、ダム等を対象として、外面材の異常を検出するようにしてもよい。また、外面材を構成する要素としては、タイルを例に挙げて説明したが、これ以外にも、サイディング、レンガ、および、表面コンクリートを対象として検査を行うことも可能である。   Further, in the above embodiment, the structure has been described by taking a collective housing as an example, but in addition to this, for exterior buildings for office buildings, detached houses, bridges, piers, tunnels, dams, etc. An abnormality may be detected. Moreover, although the tile was taken as an example as an element constituting the outer surface material, in addition to this, it is also possible to inspect siding, brick, and surface concrete.

また、図7に示す実施形態では、垂直方向の飛行時に構造物Bを撮像するようにしたが、水平方向の飛行時に構造物Bを撮像するようにしてもよい。また、図7の例では、屋上については撮像対象から除外しているが、屋上についても合わせて撮像してもよい。なお、その場合、図7の例では、X方向の飛行時に撮像し、Y方向に移動した後に、X方向に飛行しながら撮像する動作を繰り返すことで屋上全体をもれなく撮像できる。もちろん、Y方向の飛行時に撮像し、X方向に移動した後に、Y方向に飛行しながら撮像する動作を繰り返すようにしてもよい。なお、屋上については、屋上部分の防水シート等の剥離を検出するようにしてもよい。   In the embodiment shown in FIG. 7, the structure B is imaged when flying in the vertical direction, but the structure B may be imaged when flying in the horizontal direction. In the example of FIG. 7, the rooftop is excluded from the imaging target, but the rooftop may also be imaged. In that case, in the example of FIG. 7, the entire rooftop can be captured by repeating the operation of capturing images while flying in the X direction after capturing images during the flight in the X direction and moving in the Y direction. Of course, it is also possible to repeat the operation of capturing an image while flying in the Y direction, moving in the X direction, and then flying while flying in the Y direction. In addition, about rooftop, you may make it detect peeling of the waterproof sheet etc. of a rooftop part.

また、以上の実施形態では、熱画像から目的成分を抽出し、目的成分の大小によって撮像状態を判断するようにしたが、これ以外の方法によって撮像状態を判断するようにしてもよい。例えば、目的成分よりも空間周波数が低い成分(主に天空反射等のノイズ成分)および/または高い成分(主に目地の部分によるノイズ成分)が少なる場合を、撮像状態が良好と判断するようにしてもよい。また、可視光画像を周波数領域に変換し、主に含まれる空間周波数からタイルに係る成分を抽出し、当該成分に対応する成分を熱画像から抽出するようにしてもよい。そのような構成によれば、天空反射等の影響を受けにくい可視光画像に基づいて、適切な空間周波数成分を特定および抽出することができる。   In the above embodiment, the target component is extracted from the thermal image, and the imaging state is determined based on the size of the target component. However, the imaging state may be determined by other methods. For example, when the component having a lower spatial frequency (mainly a noise component such as sky reflection) and / or a higher component (mainly a noise component due to a joint portion) is less than the target component, the imaging state is determined to be good. It may be. Alternatively, the visible light image may be converted into a frequency domain, a component related to the tile may be extracted mainly from the spatial frequency included, and a component corresponding to the component may be extracted from the thermal image. According to such a configuration, it is possible to identify and extract an appropriate spatial frequency component based on a visible light image that is not easily affected by sky reflection or the like.

また、以上の実施形態では、赤外光撮像素子11および可視光撮像素子12が撮像するのは、動画または静止画のいずれかであるかについては明示していないが、これらのいずれも使用することができる。すなわち、静止画の場合には、直前に撮像した静止画と、上下方向に重複する範囲が存在するように撮像することができる。例えば、飛行体10が上昇している場合、直前に撮像した静止画の上部と、これから撮像しようとする静止画の下部の一部(例えば、静止画の1〜2割)が重複するタイミングで撮像すればよい。もちろん、飛行体10の飛行を制御するための画像が必要であるので、所定の間隔(例えば、1秒間に数枚等)で撮像した静止画を飛行の制御に使用しつつ、前述の重複の条件を満たす静止画を抽出して異常検出を行うことができる。また、動画の場合には、GOP(Group of Pictures)を構成するI(Intra)ピクチャを抽出することで、静止画の場合と同様に処理することができる。   Moreover, in the above embodiment, it is not specified whether the infrared light image sensor 11 and the visible light image sensor 12 are moving images or still images, but any of these is used. be able to. That is, in the case of a still image, the image can be captured so that there is a range that overlaps with the still image captured immediately before in the vertical direction. For example, when the flying object 10 is rising, at the timing when the upper part of the still image captured immediately before and a part of the lower part of the still image to be captured (for example, 10 to 20% of the still image) overlap. What is necessary is just to image. Of course, since an image for controlling the flight of the flying object 10 is required, still images taken at a predetermined interval (for example, several images per second) are used for flight control, and the above-described overlapping images are used. Anomaly detection can be performed by extracting still images that satisfy the conditions. Also, in the case of a moving image, processing can be performed in the same manner as in the case of a still image by extracting an I (Intra) picture that constitutes a GOP (Group of Pictures).

また、以上の実施形態では、異常を検出した場合には、飛行体10をホバリング状態にして撮像するようにしたが、ホバリングするのではなく、異常が検出された箇所を飛行しながら複数回撮像し、周辺と温度が異なる部分の形状が、撮像位置等によらず変化しない場合には、異常と判定するようにしてもよい。また、以上の実施形態では、飛行体10による構造物Bの撮像は1回のみとしたが、複数回撮像して得られた画像の所定回数以上に、同じ形状の異常箇所が撮像されている場合に異常と判定するようにしてもよい。例えば、図7に示す経路を矢印の方向に飛行した後、矢印の逆方向に再度飛行しながら撮像し、同じ箇所に同じ形状の異常が検出された場合に、異常と判定するようにしてもよい。真性の異常箇所は、撮像状態(例えば、飛行経路、ジンバル13のチルト、構造物Bからの距離等)によらず、同じ形状の異常箇所として撮像される可能性が高いからである。   Further, in the above embodiment, when an abnormality is detected, the flying object 10 is hovered and imaged. However, instead of hovering, imaging is performed a plurality of times while flying at a location where the abnormality is detected. However, when the shape of the part where the temperature is different from that of the periphery does not change regardless of the imaging position or the like, it may be determined as abnormal. Further, in the above embodiment, the imaging of the structure B by the flying object 10 is performed only once. However, an abnormal part having the same shape is captured more than a predetermined number of times obtained by capturing images multiple times. You may make it determine with it being abnormal. For example, after flying the route shown in FIG. 7 in the direction of the arrow, the image is taken while flying again in the opposite direction of the arrow, and when an abnormality of the same shape is detected at the same location, it is determined that the abnormality has occurred. Good. This is because the true abnormal part is likely to be imaged as an abnormal part having the same shape regardless of the imaging state (for example, the flight path, the tilt of the gimbal 13, the distance from the structure B, etc.).

また、以上の実施形態では、異常を検出する処理としては、周辺のタイルとは温度が異なる(高いまたは低い)タイルを画像処理によって検出するようにしたが、例えば、CNN(Convolutional Neural Network)等のニューラルネットワークを用いて、学習処理によって異常箇所を検出するようにしてもよい。具体的には、Convolution層、Pooling層、全結合層等を有するCNNに対して、剥離したタイルを撮像した画像を学習用の画像として供給し、学習処理を施すことで、異常検出用のCNNを構成することができる。   Further, in the above embodiment, as processing for detecting an abnormality, tiles having a temperature different from that of surrounding tiles (higher or lower) are detected by image processing. However, for example, CNN (Convolutional Neural Network) or the like is used. An abnormal part may be detected by a learning process using the above neural network. Specifically, an abnormality detection CNN is supplied to a CNN having a Convolution layer, a Pooling layer, a fully connected layer, and the like by supplying an image obtained by imaging a peeled tile as a learning image and performing a learning process. Can be configured.

なお、図13〜図19に示すフローチャートは一例であって、本発明が図13〜図19に示すフローチャートに限定されるものではない。   Note that the flowcharts shown in FIGS. 13 to 19 are examples, and the present invention is not limited to the flowcharts shown in FIGS. 13 to 19.

1 :外面材調査システム
10 :飛行体
11 :赤外光撮像素子(非可視光撮像手段)
12 :可視光撮像素子(可視光撮像手段)
13 :ジンバル
14 :画像処理部
15 :送受信部
15a :アンテナ
16 :制御部(飛行体制御手段)
17 :GPS
18 :センサ
19 :モータ
20 :送信機
21 :送受信部
21a :アンテナ
22 :制御部
23 :ジョイスティック
24 :ジョイスティック
25 :操作部
26 :I/F
30 :端末装置
31 :CPU(画像処理手段、飛行体制御手段、異常検出手段)
32 :ROM
33 :RAM
34 :GPS
36 :I/F
37 :バス
38 :LCDタッチパネル(表示手段)
40 :基地局
50 :ネットワーク
60 :サーバ
61 :CPU
62 :ROM
63 :RAM
64 :HDD
65 :I/F
66 :バス
1: External surface material inspection system 10: Aircraft 11: Infrared light imaging device (invisible light imaging means)
12: Visible light imaging device (visible light imaging means)
13: Gimbal 14: Image processing unit 15: Transmission / reception unit 15a: Antenna 16: Control unit (aircraft control means)
17: GPS
18: Sensor 19: Motor 20: Transmitter 21: Transmitter / receiver 21a: Antenna 22: Control unit 23: Joystick 24: Joystick 25: Operation unit 26: I / F
30: Terminal device 31: CPU (image processing means, flying object control means, abnormality detection means)
32: ROM
33: RAM
34: GPS
36: I / F
37: Bus 38: LCD touch panel (display means)
40: Base station 50: Network 60: Server 61: CPU
62: ROM
63: RAM
64: HDD
65: I / F
66: Bus

上記課題を解決するために、本発明は、飛行体によって撮像した画像を処理して端末装置に表示し、構造物の外面材の状態を調査する外面材調査システムにおいて、前記飛行体は、可視光画像を撮像する可視光画像撮像手段と、被写体から放射される赤外線を検出し、前記被写体の各部の温度を示す熱画像を非可視光画像として撮像する非可視光画像撮像手段と、を有し、前記端末装置または前記飛行体は、前記可視光画像撮像手段によって撮像された前記可視光画像に基づいて前記外面材を構成する要素に対応する空間周波数成分を特定し、前記可視光画像と前記熱画像の相対的な関係に基づいて前記熱画像における前記要素の空間周波数成分を特定し、特定された空間周波数に対応する帯域成分を抽出する処理を実行する画像処理手段と、前記画像処理手段による画像処理結果に基づいて前記飛行体の飛行状態を制御する飛行体制御手段と、前記画像処理手段による画像処理結果に基づいて前記外面材の異常を検出する異常検出手段と、を有する、ことを特徴とする。
このような構成によれば、構造物の外面材の異常を短時間で検査することが可能になる。
In order to solve the above-described problems, the present invention provides an external material inspection system that processes an image captured by a flying object and displays the processed image on a terminal device to investigate the state of the external surface material of the structure. A visible light image capturing unit that captures a light image; and an invisible light image capturing unit that detects infrared rays emitted from the subject and captures a thermal image indicating the temperature of each part of the subject as a non-visible light image. Then, the terminal device or the flying object specifies a spatial frequency component corresponding to an element constituting the outer surface material based on the visible light image captured by the visible light image capturing unit, and the visible light image Image processing means for specifying a spatial frequency component of the element in the thermal image based on a relative relationship of the thermal image and executing a process of extracting a band component corresponding to the specified spatial frequency; A flying object control means for controlling the flight conditions of the aircraft based on the image processing result by the image processing means, and abnormality detecting means for detecting an abnormality of said outer members on the basis of a result of image processing by the image processing means, It is characterized by having.
According to such a structure, it becomes possible to test | inspect the abnormality of the outer surface material of a structure for a short time.

また、本発明は、前記飛行体制御手段は、前記画像処理手段によって検出される空間周波数に対応する帯域成分に基づいて、前記飛行体の前記構造物からの距離および/または飛行速度を調整することを特徴とする。
このような構成によれば、距離や飛行速度を適切に設定することができる。
Further, the present invention, the aircraft control means, based on the band component corresponding to the spatial frequencies detected by the image processing means, for adjusting the distance and / or flying speed of the said structure of the aircraft It is characterized by that.
According to such a configuration, the distance and the flight speed can be set appropriately.

また、本発明は、前記飛行体制御手段は、前記画像処理手段によって検出される空間周波数に対応する帯域成分に基づいて、前記可視光画像撮像手段および前記非可視光画像撮像手段の仰角または俯角を調整することを特徴とする。
このような構成によれば、仰角または俯角を適切に設定することができる。
Further, the present invention, the aircraft control means, based on the band component corresponding to the spatial frequencies detected by the image processing means, elevation or depression angle of the visible light image pickup means and said non-visible light image pickup means It is characterized by adjusting.
According to such a configuration, the elevation angle or depression angle can be set appropriately.

Claims (10)

飛行体によって撮像した画像を処理して端末装置に表示し、構造物の外面材の状態を調査する外面材調査システムにおいて、
前記飛行体は、
可視光画像を撮像する可視光画像撮像手段と、
可視光以外の領域の電磁波または音波による非可視光画像を撮像する非可視光画像撮像手段と、を有し、
前記端末装置または前記飛行体は、
前記可視光画像および/または前記非可視光画像に対して所定の画像処理を実行する画像処理手段と、
前記画像処理手段による画像処理結果に基づいて前記飛行体の飛行状態を制御する飛行体制御手段と、
前記画像処理手段による画像処理結果に基づいて前記外面材の異常を検出する異常検出手段と、を有する、
ことを特徴とする外面材調査システム。
In the exterior material investigation system that processes the image captured by the flying object and displays it on the terminal device, and investigates the state of the exterior material of the structure,
The aircraft is
A visible light image capturing means for capturing a visible light image;
A non-visible light image capturing means for capturing a non-visible light image by electromagnetic waves or sound waves in a region other than visible light,
The terminal device or the flying body is
Image processing means for executing predetermined image processing on the visible light image and / or the invisible light image;
A flying object control means for controlling a flight state of the flying object based on an image processing result by the image processing means;
An abnormality detection means for detecting an abnormality of the outer surface material based on an image processing result by the image processing means,
External material survey system characterized by that.
前記画像処理手段は、前記外面材を構成する要素に対応する画像成分を検出する処理を実行し、
前記飛行体制御手段は、前記画像処理手段によって検出される前記要素に対応する前記画像成分に基づいて、前記飛行体の前記構造物からの距離および/または飛行速度を調整することを特徴とする請求項1に記載の外面材調査システム。
The image processing means executes a process of detecting an image component corresponding to an element constituting the outer surface material,
The aircraft control means adjusts the distance from the structure and / or the flight speed of the aircraft based on the image component corresponding to the element detected by the image processing means. The outer surface material investigation system according to claim 1.
前記画像処理手段は、前記外面材を構成する要素に対応する画像成分を検出する処理を実行し、
前記飛行体制御手段は、前記画像処理手段によって検出される前記要素に対応する前記画像成分に基づいて、前記可視光画像撮像手段および前記非可視光画像撮像手段の仰角または俯角を調整することを特徴とする請求項1または2に記載の外面材調査システム。
The image processing means executes a process of detecting an image component corresponding to an element constituting the outer surface material,
The flying object control means adjusts the elevation angle or depression angle of the visible light image imaging means and the invisible light image imaging means based on the image component corresponding to the element detected by the image processing means. The exterior material inspection system according to claim 1 or 2, characterized in that
前記非可視光画像撮像手段は、被写体から放射される赤外線を検出し、前記被写体の各部の温度を示す熱画像を撮像し、
前記画像処理手段は、前記可視光画像撮像手段によって撮像された前記可視光画像に基づいて前記外面材を構成する要素に対応する空間周波数成分を特定し、前記可視光画像と前記熱画像の相対的な関係に基づいて前記熱画像における前記要素の空間周波数成分を特定し、特定された空間周波数に対応する帯域成分を抽出する処理を実行する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の外面材調査システム。
The invisible light image capturing means detects infrared radiation emitted from the subject, captures a thermal image indicating the temperature of each part of the subject,
The image processing unit specifies a spatial frequency component corresponding to an element constituting the outer surface material based on the visible light image captured by the visible light image capturing unit, and relative to the visible light image and the thermal image. Specifying a spatial frequency component of the element in the thermal image based on a general relationship, and performing a process of extracting a band component corresponding to the specified spatial frequency,
The exterior material inspection system according to any one of claims 1 to 3, wherein:
前記異常検出手段は、前記画像処理手段によって抽出された前記帯域成分を参照し、前記外面材を構成する前記要素に対応する部分の温度が隣接する部分と異なる場合には異常と判定することを特徴とする請求項4に記載の外面材調査システム。   The abnormality detection means refers to the band component extracted by the image processing means, and determines that an abnormality is detected when the temperature of the portion corresponding to the element constituting the outer surface material is different from the adjacent portion. The exterior material inspection system according to claim 4, wherein 前記異常検出手段によって異常が検出された場合には、前記飛行体制御手段は、前記飛行体をホバリング状態とし、
前記異常検出手段は、ホバリング中に撮像された複数の前記非可視光画像に基づいて異常の有無を判定する、
ことを特徴とする請求項5に記載の外面材調査システム。
When an abnormality is detected by the abnormality detection means, the flying object control means sets the flying object in a hovering state,
The abnormality detection means determines the presence or absence of abnormality based on the plurality of invisible light images captured during hovering;
The exterior material inspection system according to claim 5, wherein
前記飛行体制御手段は、地図上において調査の対象となる前記構造物の指定を受け、指定された前記構造物に基づいて飛行経路を設定することを特徴とする請求項1乃至5のいずれか1項に記載の外面材調査システム。   The said flying object control means receives designation | designated of the said structure used as the object of investigation on a map, and sets a flight path | route based on the designated said structure. Item 1. The exterior material inspection system according to item 1. 前記飛行体制御手段は、垂直方向の飛行と、水平方向の飛行を交互に繰り返すことで、前記構造物の所定の外面を撮像するように制御することを特徴とする請求項1乃至7のいずれか1項に記載の外面材調査システム。   The said flying object control means controls to image a predetermined outer surface of the structure by alternately repeating vertical flight and horizontal flight. The exterior material inspection system according to claim 1. 前記飛行体制御手段は、前記構造物の外面を東、南、西、および、北の順に撮影するように制御することを特徴とする請求項1乃至8のいずれか1項に記載の外面材調査システム。   The outer surface material according to any one of claims 1 to 8, wherein the flying object control means controls the outer surface of the structure to be photographed in order of east, south, west, and north. Survey system. 前記端末装置は、画像を表示する表示手段を有し、
前記表示手段は、前記可視光画像と前記非可視光画像を並置して表示するか、または、前記可視光画像に前記非可視光画像を重畳して表示する、
ことを特徴とする請求項1乃至9のいずれか1項に記載の外面材調査システム。
The terminal device has display means for displaying an image,
The display means displays the visible light image and the non-visible light image juxtaposed or displays the non-visible light image superimposed on the visible light image.
The exterior material inspection system according to any one of claims 1 to 9, wherein
JP2017147260A 2017-07-28 2017-07-28 External material inspection system Expired - Fee Related JP6441421B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017147260A JP6441421B1 (en) 2017-07-28 2017-07-28 External material inspection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017147260A JP6441421B1 (en) 2017-07-28 2017-07-28 External material inspection system

Publications (2)

Publication Number Publication Date
JP6441421B1 JP6441421B1 (en) 2018-12-19
JP2019027908A true JP2019027908A (en) 2019-02-21

Family

ID=64668689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017147260A Expired - Fee Related JP6441421B1 (en) 2017-07-28 2017-07-28 External material inspection system

Country Status (1)

Country Link
JP (1) JP6441421B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102313627B1 (en) * 2020-05-06 2021-10-19 고려대학교 산학협력단 Method for measuring defect of steel concrete structure and apparatus for measuring defect of steel concrete structure
WO2021241534A1 (en) * 2020-05-29 2021-12-02 富士フイルム株式会社 Aerial photography system and method
WO2021241535A1 (en) * 2020-05-29 2021-12-02 富士フイルム株式会社 Structure inspection method and inspection system
WO2021241533A1 (en) * 2020-05-29 2021-12-02 富士フイルム株式会社 Imaging system, imaging method, imaging program, and information acquisition method
JP7385332B1 (en) * 2022-09-06 2023-11-22 株式会社センシンロボティクス Information processing system and program, information processing method, server
WO2024009356A1 (en) * 2022-07-04 2024-01-11 日本電信電話株式会社 System, method, and device for inspecting blades of wind power generation facility

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110145989B (en) * 2019-06-11 2020-12-29 广州珠江黄埔大桥建设有限公司 Concrete crack detection device and detection method based on unmanned aerial vehicle
JP7263983B2 (en) * 2019-08-30 2023-04-25 富士通株式会社 Photography omission detection device and photography omission detection method
WO2021079516A1 (en) * 2019-10-25 2021-04-29 株式会社センシンロボティクス Flight route creation method for flying body and management server
CN111103297B (en) * 2020-01-20 2024-07-12 无锡市建筑工程质量检测中心 Non-contact detection method and detection system for quality of building exterior wall surface layer
JP2021067670A (en) * 2020-06-30 2021-04-30 株式会社センシンロボティクス Method of creating flight route for flying object and management server
JP6810497B1 (en) * 2020-09-01 2021-01-06 株式会社センシンロボティクス Flight route creation method and management server for aircraft
JP6810498B1 (en) * 2020-09-01 2021-01-06 株式会社センシンロボティクス Flight route creation method and management server for aircraft
CN114839196B (en) * 2022-07-01 2022-10-14 中国标准化研究院 System of non-contact quality measurement research method based on computer vision

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005016995A (en) * 2003-06-24 2005-01-20 Railway Technical Res Inst Infrared structure diagnosis method
WO2016098146A1 (en) * 2014-12-19 2016-06-23 株式会社 スカイロボット Non-destructive structure inspection system
WO2017065102A1 (en) * 2015-10-15 2017-04-20 株式会社プロドローン Flying-type inspection device and inspection method
JP2017078575A (en) * 2015-10-19 2017-04-27 エナジー・ソリューションズ株式会社 Checkup system, and checkup method
GB2546564A (en) * 2016-01-25 2017-07-26 Above Surveying Ltd Utilising UAVs for detecting defects in solar panel arrays

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005016995A (en) * 2003-06-24 2005-01-20 Railway Technical Res Inst Infrared structure diagnosis method
WO2016098146A1 (en) * 2014-12-19 2016-06-23 株式会社 スカイロボット Non-destructive structure inspection system
WO2017065102A1 (en) * 2015-10-15 2017-04-20 株式会社プロドローン Flying-type inspection device and inspection method
JP2017078575A (en) * 2015-10-19 2017-04-27 エナジー・ソリューションズ株式会社 Checkup system, and checkup method
GB2546564A (en) * 2016-01-25 2017-07-26 Above Surveying Ltd Utilising UAVs for detecting defects in solar panel arrays

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102313627B1 (en) * 2020-05-06 2021-10-19 고려대학교 산학협력단 Method for measuring defect of steel concrete structure and apparatus for measuring defect of steel concrete structure
KR20210135944A (en) * 2020-05-06 2021-11-16 고려대학교 산학협력단 Method for measuring defect of steel concrete structure and apparatus for measuring defect of steel concrete structure
KR102400954B1 (en) * 2020-05-06 2022-05-24 고려대학교 산학협력단 Method for measuring defect of steel concrete structure and apparatus for measuring defect of steel concrete structure
WO2021241534A1 (en) * 2020-05-29 2021-12-02 富士フイルム株式会社 Aerial photography system and method
WO2021241535A1 (en) * 2020-05-29 2021-12-02 富士フイルム株式会社 Structure inspection method and inspection system
WO2021241533A1 (en) * 2020-05-29 2021-12-02 富士フイルム株式会社 Imaging system, imaging method, imaging program, and information acquisition method
JP7436656B2 (en) 2020-05-29 2024-02-21 富士フイルム株式会社 Shooting system, shooting method, shooting program, and information acquisition method
JP7436657B2 (en) 2020-05-29 2024-02-21 富士フイルム株式会社 Flight photography system and method
WO2024009356A1 (en) * 2022-07-04 2024-01-11 日本電信電話株式会社 System, method, and device for inspecting blades of wind power generation facility
JP7385332B1 (en) * 2022-09-06 2023-11-22 株式会社センシンロボティクス Information processing system and program, information processing method, server
WO2024052997A1 (en) * 2022-09-06 2024-03-14 株式会社センシンロボティクス Information processing system and program, information processing method, and server

Also Published As

Publication number Publication date
JP6441421B1 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
JP6441421B1 (en) External material inspection system
CA3006155C (en) Positioning system for aerial non-destructive inspection
US9639960B1 (en) Systems and methods for UAV property assessment, data capture and reporting
EP3818337B1 (en) Defect detection system using a camera equipped uav for building facades on complex asset geometry with optimal automatic obstacle deconflicted flightpath
US9613538B1 (en) Unmanned aerial vehicle rooftop inspection system
JP2018160228A (en) Route generation device, route control system, and route generation method
US20180275659A1 (en) Route generation apparatus, route control system and route generation method
JP2017138162A (en) Inspection system and inspection method of structure
JP7436657B2 (en) Flight photography system and method
EP3474109A1 (en) Measuring device, control device for unmanned aerial vehicle and method for controlling unmanned aerial vehicle
WO2019041276A1 (en) Image processing method, and unmanned aerial vehicle and system
JP6583840B1 (en) Inspection system
JP2017215239A (en) Solar cell inspection system
JP6515367B1 (en) Imaging system and imaging method
JP2024072827A (en) Control device, imaging system, and imaging method
JP6611146B1 (en) Imaging system and imaging method
JP6681101B2 (en) Inspection system
JP2019211486A (en) Inspection system
US11566894B2 (en) Systems and methods for generating a two-dimensional map
JP6611152B1 (en) Imaging system and imaging method
JP6681102B2 (en) Inspection system
JP7456908B2 (en) Unmanned aerial vehicle control device for roof inspection
JP2020070013A (en) Height position acquisition system and imaging system, height position acquisition method, and imaging method
JP2020072465A (en) Imaging system and imaging method
KR20200025996A (en) Management system and method for solar panel using drone

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181121

R150 Certificate of patent or registration of utility model

Ref document number: 6441421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees