JP2017201757A - 画像取得システム、画像取得方法、画像処理方法 - Google Patents
画像取得システム、画像取得方法、画像処理方法 Download PDFInfo
- Publication number
- JP2017201757A JP2017201757A JP2016093098A JP2016093098A JP2017201757A JP 2017201757 A JP2017201757 A JP 2017201757A JP 2016093098 A JP2016093098 A JP 2016093098A JP 2016093098 A JP2016093098 A JP 2016093098A JP 2017201757 A JP2017201757 A JP 2017201757A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- uav
- imaging
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000003384 imaging method Methods 0.000 claims abstract description 130
- 238000012545 processing Methods 0.000 claims abstract description 88
- 239000000203 mixture Substances 0.000 claims abstract description 19
- 230000036544 posture Effects 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 36
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000012937 correction Methods 0.000 description 25
- 239000002131 composite material Substances 0.000 description 15
- 230000006870 function Effects 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 8
- 238000011161 development Methods 0.000 description 5
- 238000007689 inspection Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000011960 computer-aided design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】複数の無人航空機にて取得した画像の合成を精度よく行う方法及びそれを用いた装置を提供する。【解決手段】第1のカメラを有する第1の無人航空機と、第2のカメラを有する第2の無人航空機と、第3のカメラを有する指令装置と、前記第1のカメラで撮像対象を撮像することにより得られた第1の画像と前記第2のカメラで前記撮像対象を撮像することにより得られた第2の画像とを合成する合成処理を行う画像処理装置と、を有する画像取得システムであって、前記指令装置が、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を前記第3のカメラにより撮像することにより、第3の画像を取得し、前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の前記合成処理を行う際に前記姿勢の差を補正する処理を行う。【選択図】図3
Description
本発明は無人航空機(UAV(Unmanned aerial vehicle))を用いた画像取得方法に関する。
ビル壁面、橋脚等の建造物の維持管理のために、赤外線カメラを用いた検査手法が広く用いられている。この検査手法は、コンクリート内部の空洞や表面の傷(異常部位)等と正常部位との温度差を赤外線カメラにより可視化することにより、従来の打音検査等に比べて広範囲を迅速に検査可能であることが特徴である。
他方、UAVはセンサーやバッテリーの技術進歩に伴って、近年著しい発展を遂げており、様々な分野と融合した製品、システムが開発されている。上述した建造物の維持管理分野も例外ではない。
特許文献1では、赤外線画像を取得可能なカメラをUAVに搭載し、UAVを構造物の検査に用いるシステムが提案されている。上述した赤外線カメラを用いた検査においては、赤外線画像と可視光画像を比較し、異常部位の判別を行う。この判別は、赤外線画像と可視光画像を重ねあわせる(合成する)ことで容易となる。この際、2種の画像を同時に取得することによって、より精度の高い合成画像を短時間で生成することが可能となる。上述した同時取得には、1台のUAVに2種のカメラを搭載することが望ましいが、UAVの搭載量や駆動電源の制約により、現状では実現が難しい。容易に実現が可能な構成として2つのUAVにそれぞれ異なるカメラを搭載し、同時に撮像を行うことで、上述の2種の画像の同時取得が可能となる。しかしながら、この構成の場合2つのカメラの位置関係と向きが固定されず、気流等の外部環境によって常に変動する状態となる。このため、画像の合成精度を向上させる工夫が必要となる。
特許文献2では、複数のカメラで構造物の画像を取得し、画像中の特徴点あるいは基準となるマーカを基に画像の位置合わせを行っている。このような特徴点を用いた画像の位置合わせは一般的に行われており、カメラが固定されている状況においては精度よく位置合わせが可能となる。しかし、この手法では上述したカメラの位置変動がある場合、精度の低下、又は画像処理時間の長時間化が問題となる。さらにマーカを用いるならば、撮像対象へのマーカの設置作業を必要とするため、作業時間、コストの面で不利となる。
その他の方法として、画像を取得した際の互いのカメラの位置関係と向きを基に画像を補正する方法が挙げられる。カメラの位置関係と向きを得る方法としてはUAVに搭載したセンサー類を用いることが考えられるが、センサーの応答速度及び精度が問題となる。一般的なUAVにおいて屋外では特に位置はGPS(Global Positioning System)、高度は気圧センサーを用いることが多い。しかし、GPSの精度はおよそ1mオーダー、気圧センサーも0.1mオーダーと画像の補正に用いるには精度が不足する。
本発明は、上記の課題に対し、複数の無人航空機にて取得した画像の合成を精度よく行う方法及びそれを用いた装置を提供することを目的とする。
本発明の第1態様は、第1のカメラを有する第1の無人航空機と、第2のカメラを有する第2の無人航空機と、第3のカメラを有する指令装置と、前記第1のカメラで撮像対象を撮像することにより得られた第1の画像と前記第2のカメラで前記撮像対象を撮像することにより得られた第2の画像とを合成する合成処理を行う画像処理装置と、を有する画像取得システムであって、前記指令装置が、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を前記第3のカメラにより撮像することにより、第3の画像を取得し、前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の前記合成処理を行う際に前記姿勢の差を補正する処理を行うことを特徴とする画像取得システムを提供する。
本発明の第2態様は、第1のカメラを有する第1の無人航空機と、第2のカメラを有する第2の無人航空機と、第3のカメラと、画像処理装置と、を用いて画像を取得する画像取得方法であって、前記第1の無人航空機が前記第1のカメラにより撮像対象を撮像することにより、第1の画像を取得するステップと、前記第2の無人航空機が前記第2のカメラにより前記撮像対象を撮像することにより、第2の画像を取得するステップと、前記第3のカメラが、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を撮像することにより、第3の画像を取得するステップと、前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、を有することを特徴とする画像取得方法を提供する。
本発明の第3態様は、第1の無人航空機が第1のカメラにより撮像対象を撮像することにより得られた第1の画像のデータを取得するステップと、第2の無人航空機が第2のカメラにより前記撮像対象を撮像することにより得られた第2の画像のデータを取得するステップと、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を第3のカメラにより撮像することにより得られた第3の画像のデータを取得するステップと、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、を有することを特徴とする画像処理方法を提供する。
本発明の第4態様は、上記画像処理方法の各ステップをプロセッサに実行させることを特徴とするプログラムを提供する。
本発明によれば、複数の無人航空機にて取得した画像の合成を精度よく行う方法及びそれを用いた装置を提供できる。
以下、図面を参照しながら本発明の実施の形態を説明する。各実施形態では、複数の無人航空機(UAV)によりそれぞれ撮像対象を撮像し、各UAVで得られた画像から合成画像を生成するUAV画像取得システムを例示する。
[第一の実施形態]
<全体構成>
図1は本発明の第一の実施形態に係るUAV画像取得システムの概略装置構成を説明する模式図である。詳細な画像取得、処理シーケンスについては後述する。
<全体構成>
図1は本発明の第一の実施形態に係るUAV画像取得システムの概略装置構成を説明する模式図である。詳細な画像取得、処理シーケンスについては後述する。
UAV画像取得システムは、赤外線カメラ搭載UAV101(以降、UAV101)と可視光カメラ搭載UAV102(以降、UAV102)、指令装置103、画像処理装置104、コンピュータ105、表示装置106によって構成される。画像処理装置104は専用処理ボードとしてコンピュータ105に組み込まれている。例として、コンピュータ105はPC(personal computer)、表示装置106は液晶ディスプレイを用いる。また、画像処理装置104は、画像処理専用のプロセッサ(FPGA、ASICなど)、メモリ、及び各種のI/Oを有する画像処理ボードにより構成され、後述する画像処理装置104の機能は当該プロセッサが必要なプログラムを実行することで実現される。
本実施形態では図1に示すシステム構成をとっているが、本発明の構成はこれに限られない。例えば、指令装置103に画像処理装置104を組み込んでもよいし、コンピュータ105と表示装置106を一体としたノートPC、スマートフォン、タブレット端末などを用いてもよい。又は、指令装置103、画像処理装置104、コンピュータ105、表示装置106のすべての機能を一つの装置で構成してもよい。あるいは、一部の機能をネットワーク上のサーバ(クラウドサーバなど)で実行してもよい。
UAV101は赤外領域の画像データを取得し、UAV102は可視光領域の画像データを取得する。画像データの取得タイミング(シャッターを切るタイミング)は後述するトリガ信号により制御される。UAVによって取得した画像データを「原画像データ」と呼称する。また、UAV101によって取得した原画像データを「赤外線原画像データ」、UAV102によって取得した原画像データを「可視光原画像データ」と呼称する。赤外線原画像データと可視光原画像データは後述する画像処理装置104にて合成処理が施され、画像として表示装置106に表示される。
なお、UAV101とUAV102は搭載するカメラが異なる点を除いて、機体は同一のものを使用することができる。ただしUAVの同定のために、それぞれ異なる塗装、マーキングを施すことが好ましい(搭載カメラの形状が大きく異なる場合はその限りでない)。使用するUAVは一般に使用されているものと同様に、GPSによる自動航行、又は無線遠隔操縦が可能となっている。さらに、後述するトリガ信号を受信して撮像を行う機能、取得した画像を無線にて画像処理装置へ送信する機能を有している。
<指令装置>
図2を参照して、指令装置103の構成を説明する。図2は指令装置と画像処理装置の概略構成を示す模式図である。
図2を参照して、指令装置103の構成を説明する。図2は指令装置と画像処理装置の概略構成を示す模式図である。
指令装置103は、UAV101、UAV102に対し、撮像開始のトリガ信号を発信する。また指令装置103は、UAV101、UAV102の姿勢を算出するための画像データ(姿勢画像データ)の取得、UAV101、UAV102で取得した原画像データの受信と画像処理装置104への転送を行う。
指令装置103は、指令制御系201、撮像ユニット202、測距ユニット203、雲台ユニット204、データ送受信ユニット205を有する。
指令装置103は、指令制御系201、撮像ユニット202、測距ユニット203、雲台ユニット204、データ送受信ユニット205を有する。
指令制御系201は、後述する撮像ユニット202、測距ユニット203、雲台ユニット204、データ送受信ユニット205への命令、及び画像処理制御系206とのデータのやり取りを行う。
撮像ユニット202は、撮像モジュールと撮像処理制御系とを有する。撮像モジュールは、光学系(レンズ、絞り等)、その光学系の焦点合わせを行うためのレンズ駆動機構、及び撮像センサーを有する。撮像処理制御系は、撮像モジュールの各部を制御する回路である。撮像処理制御系は、指令制御系201の命令に基づいて撮像モジュールを制御してUAV101、102を撮像し、UAV101、102が写った画像データ(姿勢画像データ)を指令制御系201を通して画像処理制御系206へと送る。姿勢画像データは、2機のUAV101、102それぞれの姿勢(位置及び向き)を検出する目的で利用される画像データである。したがって、機体の同定と姿勢(位置及び向き)の検出が可能な程度に2機のUAV101、102が明りょうに写っている画像データであれば、姿勢画像データとして用いることができる。
測距ユニット203は、対象との距離を測定する測距センサーと、測距センサーを制御する測距処理制御系とを有する。測距センサーの方式は問わないが、本実施形態では、レーザー光のTOF(Time of Flight)により距離を測定するレーザー測距センサーを用いる。測距処理制御系は、指令制御系201の命令に基づいて測距センサーを駆動して指令装置103と各UAVとの間の距離を測定し、取得した距離データを指令制御系201を通して画像処理制御系206へと送る。
雲台ユニット204は、撮像ユニット202及び測距ユニット203が設置された雲台の駆動機構と、その駆動制御系を有する。駆動制御系は、指令制御系201の命令に基づいて駆動機構を駆動して雲台の方位角及び仰角を制御し、撮像ユニット202及び測距ユニット203を適切な方向へ向ける。
データ送受信ユニット205は、指令制御系201の命令に基づいてUAV101及びUAV102とのデータの送受信を行う。UAVの撮像対象の位置データ、後述する撮像開始トリガ信号等、UAV101及び102が撮像するために必要な情報の送信も、データ送受信ユニット205より行われる。また、各UAV101、102より受信した原画像データは指令制御系201を通して画像処理制御系206へと送られる。
<画像処理装置>
画像処理装置104は、指令装置103で取得したUAVの姿勢画像データと距離データから、原画像データを適切に合成するための補正パラメータを算出する。さらに、画像処理装置104は、補正パラメータを用いて原画像データの合成処理を行い、合成処理を行った画像データを表示装置106に表示するための表示データを生成する。また、画像処理装置104は、各UAVの撮像対象の位置データ等、指令装置103を通してUAVに送信する情報を、コンピュータ105を通してユーザーより取得する。
画像処理装置104は、指令装置103で取得したUAVの姿勢画像データと距離データから、原画像データを適切に合成するための補正パラメータを算出する。さらに、画像処理装置104は、補正パラメータを用いて原画像データの合成処理を行い、合成処理を行った画像データを表示装置106に表示するための表示データを生成する。また、画像処理装置104は、各UAVの撮像対象の位置データ等、指令装置103を通してUAVに送信する情報を、コンピュータ105を通してユーザーより取得する。
図2に示すように、画像処理装置104は、画像処理制御系206、UAV検出部207、姿勢算出部208、補正パラメータ算出部209、合成処理部211、現像処理部212、表示データ生成部213、ユーザー情報取得部215を有する。なお、UAV検出部207から補正パラメータ算出部209までをまとめて補正パラメータ算出ユニット210、合成処理部211から表示データ生成部213までをまとめて合成画像生成ユニット214とする。
画像処理制御系206は、補正パラメータ算出ユニット210、合成画像生成ユニット214、及びユーザー情報取得部215の制御、並びに、指令装置103(指令制御系201)とのデータのやり取りを行う。
補正パラメータ算出ユニット210は、指令装置103で取得した姿勢画像データ及び距離データを用いて、各UAV101、102の姿勢検出を行い、後述する合成処理に用いる補正パラメータの算出を行う。補正パラメータ算出ユニット210は、UAV検出部207、姿勢算出部208、及び補正パラメータ算出部209を有する。UAV検出部207は、姿勢画像データ中のUAVの特徴(塗装色、マーカ、カメラ形状)を検出し、UAVの同定を行う。本実施形態においては、UAV検出部207は、姿勢画像データ中のUAVがUAV101であるかUAV102であるかを、その特徴から判断する。姿勢算出部208は、UAV検出部207で同定したUAV101、102それぞれの姿勢を検出し、姿勢情報を出力する。姿勢は、検出対象(UAV)の特徴点を用いる公知な方法(例:Bag−of−Features表現を用いる方法)によって算出可能である。補正パラメータ算出部209は、姿勢情報及び距離データより、UAVに搭載されたカメラの撮像対象に対する角度、距離を推定し、合成画像を生成するための補正パラメータを算出する。
合成画像生成ユニット214は、各UAV101、102が取得した原画像データと指令装置103が取得した姿勢画像データ及び距離データを用いて、表示装置106に表示する画像データを生成する。合成画像生成ユニット214は、合成処理部211、現像処理部212、及び表示データ生成部213を有する。合成処理部211は、補正パラメータ算出部209で算出した補正パラメータに基づいて、UAV101及び102で取得した原画像データに補正処理を行った後、画像合成処理を施し合成画像データを生成する。補正処理は、2つの原画像データの位置、向き、大きさ等を合わせるための処理であり、例えば、アフィン変換等の変形処理や回転処理、トリミング処理などが含まれる。現像処理部212は、合成画像データの各画素値をXYZ色度座標値に変換する。この変換された画像データを、XYZ画像データと称する。また、必要に応じてノイズ除去等のデジタルフィルター処理、JPEG(Joint Photographic Experts
Group)等の圧縮処理を行う。表示データ生成部213は現像処理部212で生成されたXYZ画像データを、ルックアップテーブルを用いて、表示装置106で表示可能なRGB表色系の画像データに変換する。
Group)等の圧縮処理を行う。表示データ生成部213は現像処理部212で生成されたXYZ画像データを、ルックアップテーブルを用いて、表示装置106で表示可能なRGB表色系の画像データに変換する。
ユーザー情報取得部215は、コンピュータ105内の記憶装置からユーザー情報を取得する。ユーザー情報は、例えば、UAVの機体設定情報(撮像対象、撮像対象への飛行ルート・スケジュール、帰還場所等)、UAVに搭載したカメラの情報(画角、焦点距離等)等を含む。機体設定情報及びカメラ情報は事前にUI等を介してユーザーによって入力され、コンピュータ105内の記憶装置に保持されている。ユーザー情報取得部215により取得された機体設定情報は、画像処理制御系206、指令制御系201、データ送受信ユニット205を通じて各UAV101、102へと送られる。なお、これ以後特に言及の無い限り、指令装置103とUAV101、102との間の通信はデータ送受信ユニット205を介して行うものとする。
<UAVの制御及び撮像処理>
本実施形態のUAV101及びUAV102、指令装置103、画像処置装置104での合成画像データ取得についての詳細な工程を図3のシーケンスチャートを用いて説明する。
本実施形態のUAV101及びUAV102、指令装置103、画像処置装置104での合成画像データ取得についての詳細な工程を図3のシーケンスチャートを用いて説明する。
ステップS301では、ユーザー情報取得部215が上述したユーザー情報(機体設定
情報、カメラ情報等)を取得する。取得したユーザー情報は画像処理制御系206を通して指令装置103へ送られる。
情報、カメラ情報等)を取得する。取得したユーザー情報は画像処理制御系206を通して指令装置103へ送られる。
ステップS302では、ステップS301で取得した機体設定情報等を基に、指令装置103が(データ送受信ユニット205を介して)UAV101、UAV102の初期化を行う。具体的には、撮像対象、撮像位置(撮像対象を撮像するときのUAVの位置)、飛行ルート、飛行スケジュール、期間場所等の情報が各UAV101、102に送信し設定される。
ステップS303では、ステップS302での設定に基づき、UAV101及びUAV102を撮像位置へと移動させる。撮像位置までの移動はGPS等を利用した自動航行にて行うことが好ましい。移動後、搭載したカメラの画角に撮像対象が収まるよう、各UAV101、102が自機の位置と向きを微調整する。画角に撮像対象を収めたら、各UAV101、102は移動完了の通知を指令装置103へ送る。
ステップS304では、指令装置103が後段のUAVの撮像(姿勢画像データ取得)と測距(距離データ取得)の準備を行う。具体的には、撮像位置(空中)にいるUAV101及び102が2機とも撮像ユニット202の画角に収まるように、指令制御系201が雲台ユニット204を制御し、指令装置103(撮像ユニット202及び測距ユニット203)の向きを変更する。
UAVが画角に収まるかどうかの判断は、いかなる方法で行ってもよい。例えば、ステップS302で各UAV101、102に設定した撮像位置と指令装置103の設置位置と撮像ユニット202の画角とから理論的に(幾何学的に)計算してもよい。あるいは、各UAV101、102の存在位置を各UAVのGPS情報から計算し、各UAV101、102の存在位置と指令装置103の設置位置と撮像ユニット202の画角とから幾何学的に計算してもよい。あるいは、撮像ユニット202で取得される画像に対し物体認識を行い、2機のUAV101及び102が画像中に含まれているか否かを判断してもよい。
UAV撮像準備(ステップS304)と、UAV101及び102の移動(ステップS303)が完了したら、次のステップS305へと進む。ステップS305では、指令装置103が、撮像を命令するトリガ信号を各UAV101、102に発信する。このトリガ信号に基づいて、各UAV101、102によるステップS306の処理と、指令装置103によるステップS307の処理とが、同期して(ほぼ同時に)実行される。
ステップS306では、UAV101とUAV102がそれぞれ撮像対象の撮像(原画像データの取得)を行う。撮像はトリガ信号を受信したと同時にカメラのシャッターを切ることによって行われる。取得した原画像データのヘッダ等に画像取得時刻(タイムスタンプ)を記録する。本実施形態のシーケンスでは撮像を1回としているが、複数回行う場合はUAVごとに一意な通し番号(ユニークシリアルナンバー)を原画像データのヘッダ等に記録する。画像取得時刻や通し番号を記録するのは、異なるUAVで同時に取得された原画像データのペアリングを行うためである。撮像後、各UAV101、102は、取得した原画像データを指令装置103へ送信する。これにより、一つの撮像対象について、赤外線原画像データと可視光原画像データが取得される。
ステップS307では、ステップS305でのトリガ信号発信と同時に、指令装置103がUAVの撮像(姿勢画像データの取得)と測距(距離データの取得)を行う。姿勢画像データの取得は撮像ユニット202、距離データの取得は測距ユニット203によって行われる。これにより、UAV101が撮像対象を撮像した時(ステップS306)の、
UAV101の位置(空中での3次元位置)と、UAV101の撮像対象に対する姿勢(向き)とが記録される。同様に、UAV102が撮像対象を撮像した時(ステップS306)の、UAV102の位置(空中での3次元位置)と、UAV102の撮像対象に対する姿勢(向き)とが記録される。原画像データと、姿勢画像データ及び距離データの対応をとるために、姿勢画像データ及び距離データにもタイムスタンプやユニークシリアルナンバーを記録するとよい。
UAV101の位置(空中での3次元位置)と、UAV101の撮像対象に対する姿勢(向き)とが記録される。同様に、UAV102が撮像対象を撮像した時(ステップS306)の、UAV102の位置(空中での3次元位置)と、UAV102の撮像対象に対する姿勢(向き)とが記録される。原画像データと、姿勢画像データ及び距離データの対応をとるために、姿勢画像データ及び距離データにもタイムスタンプやユニークシリアルナンバーを記録するとよい。
ステップS308では、UAV101、102を所定の場所へ帰還させる。帰還のタイミングは、指令装置103の指示に基づいても良いし、各UAV101、102に送信した機体設定情報に基づいて各UAV101、102に判断させても良い。移動は、ステップS303同様、GPS等を利用した自動航行にて行うことが好ましい。
ステップS309では、指令制御系201が、各UAV101、102から取得した原画像データと、姿勢画像データ、距離データを、画像処理装置104へ転送する。
ステップS310では、補正パラメータ算出ユニット210が、各UAV101、102から取得した原画像データの画像合成に用いる補正パラメータの算出を行う。具体的には、UAV検出部207が姿勢画像データからUAV101及びUAV102をそれぞれ同定し、姿勢算出部208がUAV101及びUAV102それぞれの特徴点を検出し姿勢を推定する。そして、補正パラメータ算出部209が、UAV101の姿勢情報及び距離データに基づいて、UAV101に搭載されたカメラの撮像対象に対する視線ベクトル(撮像対象に対するカメラの位置及び距離、カメラの光軸の向きなど)を推定する。また、補正パラメータ算出部209は、UAV102の姿勢情報及び距離データに基づいて、UAV102に搭載されたカメラの撮像対象に対する視線ベクトルを推定する。UAV101とUAV102の間の視線ベクトルの差、もしくはそれに相当する情報が、補正パラメータである。補正パラメータは、複数のUAV(カメラ)の姿勢の差(カメラ座標系の差)を補正するための情報、あるいは、異なる姿勢のUAV(カメラ)で得られた複数の画像の間の位置・向き・大きさ等を合わせる補正を行うための情報といえる。
ステップS311では、UAV101で取得した原画像データとUAV102で取得した原画像データの合成処理を行い、合成した画像データの表示データを生成し、表示装置106へ出力する。具体的には、合成処理部211が、原画像データのタイムスタンプを確認し、UAV101及び102で同時(信号、回路の遅延等を考慮した上で実質的に同時)に取得した原画像データを選択する。撮像対象の撮像を複数回行った場合は、ユニークシリアルナンバーも合わせて参照する。その後、合成処理部211は、補正パラメータに基づいて2つの原画像データの視線ベクトルを一致させるように、一方又は両方の原画像データに変形、トリミング等の画像補正を施す。そして、合成処理部211は、補正後の2つの原画像データを重ね合せることで合成画像を生成する。重ね合せは、例えばアルファブレンド等公知な方法で行うとよい。合成処理後は、現像処理部212、表示データ生成部213にて表示装置106で表示可能な画像形態に合成画像を変換し、出力する。
<第一の実施形態の利点>
以上のように、本実施形態では、複数のUAVに異なるカメラを搭載し、トリガ信号によって同時に画像の取得を行う。さらに、撮像時のUAVの姿勢及び距離を外部より観察することで、マーカ等を用いずに、異なるカメラで取得した画像の合成画像を効率的かつ高精度に取得することが可能となる。
以上のように、本実施形態では、複数のUAVに異なるカメラを搭載し、トリガ信号によって同時に画像の取得を行う。さらに、撮像時のUAVの姿勢及び距離を外部より観察することで、マーカ等を用いずに、異なるカメラで取得した画像の合成画像を効率的かつ高精度に取得することが可能となる。
[第二の実施形態]
<全体構成>
図4は本発明の第二の実施形態に係るUAV画像取得システムの概略構成を説明する模
式図である。本実施形態と第一の実施形態の最大の違いは、第一の実施形態における指令装置103の機能をUAVに搭載し画像取得を実行する点である。加えて、第一の実施形態では静止画像の撮像により原画像データを取得したのに対し、本実施形態では、UAVにより動画を撮像し、動画像データからフレームを抽出することにより原画像データの取得を行う点で異なる。
<全体構成>
図4は本発明の第二の実施形態に係るUAV画像取得システムの概略構成を説明する模
式図である。本実施形態と第一の実施形態の最大の違いは、第一の実施形態における指令装置103の機能をUAVに搭載し画像取得を実行する点である。加えて、第一の実施形態では静止画像の撮像により原画像データを取得したのに対し、本実施形態では、UAVにより動画を撮像し、動画像データからフレームを抽出することにより原画像データの取得を行う点で異なる。
本実施形態におけるUAV画像取得システムは、赤外線カメラ搭載UAV401(以降、UAV401)と可視光カメラ搭載UAV402(以降、UAV402)、指令UAV403の少なくとも3機のUAVを有する。またUAV画像取得システムは、画像処理装置404、コンピュータ405、表示装置406、データ送受信ユニット407を有する。
UAV401はUAV101と、UAV402はUAV102と同様の機能、構成のため説明は割愛する。画像処理装置404は画像処理装置104、コンピュータ405はコンピュータ105、表示装置406は表示装置106と同様の構成であるので説明を割愛する。
指令UAV403は、第一の実施形態における指令装置103と同様の機能を持つUAVであり、UAV401、UAV402の姿勢画像データを取得するためのカメラと、距離データを取得する測距装置を搭載している。さらに、指令UAV403は、画像処理装置404とデータ通信を行うための、データ送受信ユニット205に相当する機能を有している(不図示)。
データ送受信ユニット407は画像処理装置404に接続されており、UAV401、UAV402及びUAV403とのデータ送受信を行う。データ送受信ユニット407は、データ送受信ユニット205とほぼ同様であり、UAVが撮像を行うために必要な情報(撮像対象の位置データ等)の送信や、UAVより受信した原画像データを画像処理装置404へと送る機能を有する。
<UAVの制御及び撮像処理>
本実施形態のUAV401及びUAV402、指令UAV403、画像処置装置404での合成画像データ取得についての詳細な工程を図5のシーケンスチャートを用いて説明する。
本実施形態のUAV401及びUAV402、指令UAV403、画像処置装置404での合成画像データ取得についての詳細な工程を図5のシーケンスチャートを用いて説明する。
ステップS501の処理は、第一の実施形態のステップS301と同様であるので説明を省略する。ただし、本実施形態では、機体設定情報とカメラ情報に加えて、UAV401及びUAV402の三次元CADデータ(computer−aided designデータ)をユーザー又はコンピュータ405内の記憶装置より取得する。
ステップS502では、ステップS501で取得した機体設定情報等を基に、画像処理装置404がデータ送受信ユニット407を介してUAV401、UAV402及び指令UAV403の初期化を行う。具体的には、撮像対象、撮像位置(撮像対象や姿勢画像を撮像するときのUAVの位置)、飛行ルート、飛行スケジュール、期間場所等の情報が各UAV401、402、403に送信し設定される。
ステップS503では、ステップS502での設定に基づき、UAV401、UAV402及び指令UAV403を撮像位置へと移動させる。撮像位置までの移動はGPS等を利用した自動航行にて行うことが好ましい。移動後、UAV401とUAV402は搭載したカメラの画角に撮像対象が収まるよう、自機の位置と向きを微調整する。
ステップS504では、指令UAV403が、後段の姿勢画像データの取得と距離データ取得の準備を行う。具体的には、撮像位置(空中)にいるUAV401及び402が2機とも指令UAV403に搭載したカメラの画角に収まるように、指令UAV403の位置と向きを微調整する。UAVが画角に収まるかどうかの判断は、第一の実施形態で述べた方法など、いかなる方法で行ってもよい。
ステップS505では、UAV401、402がそれぞれ撮像対象の撮像の準備を行う。まず、UAV401とUAV402は撮像位置でホバリングしながら、搭載したカメラの画角に撮像対象が収まるよう、位置を微調整する。その後、UAV401とUAV402はそれぞれ、撮像準備完了の通知を指令UAV403へ送信し、後段のトリガ信号を受信するまで、動画データの取得を行う。
ステップS506では、指令UAV403が、UAV401、402に撮像を命令するトリガ信号を発信する。このトリガ信号に基づいて、各UAV401、402によるステップS507の処理と、指令UAV403によるステップS508の処理とが、同期して(ほぼ同時に)実行される。
ステップS507では、UAV401とUAV402がそれぞれ原画像データの取得を行う。原画像データの取得は、ステップS505以降取り込み続けている動画データから、トリガ信号を受信した時点のフレーム画像を抽出することで行う。
ステップS508では、ステップS506でのトリガ信号発信と同時に、指令UAV403がUAV401及びUAV402の撮像(姿勢画像データの取得)と測距(距離データの取得)を行う。これにより、UAV401が撮像対象を撮像した時(ステップS507)の、UAV401の位置(空中での3次元位置)と、UAV401の撮像対象に対する姿勢(向き)とが記録される。同様に、UAV402が撮像対象を撮像した時(ステップS507)の、UAV402の位置(空中での3次元位置)と、UAV402の撮像対象に対する姿勢(向き)とが記録される。原画像データと、姿勢画像データ及び距離データの対応をとるために、姿勢画像データ及び距離データにもタイムスタンプやユニークシリアルナンバーを記録するとよい。
ステップS509では、各UAVがステップS502で設定した機体設定情報を確認し、撮像スケジュール(すべての撮像対象の撮像)が完了している場合、所定の場所へ帰還する。帰還後、UAV401、UAV402は原画像データを、指令UAV403は姿勢画像データと距離データを画像処理装置404へ送信する。
ステップS510では、第一の実施形態におけるステップS310と同様に、画像処理装置404が、原画像データの画像合成に用いる補正パラメータの算出を行う。本実施形態では、画像処理装置404は、ステップS501で取得した三次元CADデータ(三次元形状情報)に基づいて、各UAV401、402の同定及び姿勢情報の算出を行う。例えば、三次元CADデータからUAVの様々な姿勢の形状を求め、それらと姿勢画像データに写るUAVの形状とを比較することで、UAVの同定及び姿勢の検出を行うことができる。
ステップS511の処理は、第一の実施形態のステップS311と同様であるので説明を省略する。
<第二の実施形態の利点>
以上のように本実施形態では、UAVによる撮像を制御する機能をもUAVに搭載することで、限定された条件下(例えば、人の立ち入りが困難な場所)でも効率よくかつ高精
度な合成画像の取得が可能となる。
以上のように本実施形態では、UAVによる撮像を制御する機能をもUAVに搭載することで、限定された条件下(例えば、人の立ち入りが困難な場所)でも効率よくかつ高精
度な合成画像の取得が可能となる。
[その他の実施形態]
第一及び第二の実施形態では、画像処理装置104、404を専用ボードとしてコンピュータ105、405に組み込む構成としたが、同様の機能をコンピュータ105、405上で実行するソフトウェアで実現してもよい。
第一及び第二の実施形態では、UAVが自動航行により移動したが、使用者が遠隔操縦によってUAVを移動させても良い。
第一及び第二の実施形態では、画像処理装置104、404を専用ボードとしてコンピュータ105、405に組み込む構成としたが、同様の機能をコンピュータ105、405上で実行するソフトウェアで実現してもよい。
第一及び第二の実施形態では、UAVが自動航行により移動したが、使用者が遠隔操縦によってUAVを移動させても良い。
第一及び第二の実施形態では、距離データの取得にレーザー光線を用いた測距を行っているが、このほかに超音波を利用する方法、測距儀を利用する方法等、公知の測距方法によって距離データを取得しても良い。また、姿勢画像データ内に写っている構造物等とUAVの大きさから相対的な距離を画像処理によって算出し、これを基に距離データを算出しても良い。この場合は、撮像カメラで測距できるため、測距センサなどの専用装置は不要となる。
第一及び第二の実施形態では、原画像データ、姿勢画像データ及び距離データを無線にて画像処理装置へ送信したが、UAV内に搭載した記憶装置(例えばSDメモリーカード)に一旦記憶させ、帰還後にユーザーが取り出して読みだしても良い。
第一及び第二の実施形態では、撮像終了後すぐにUAVを帰還させているが、次の撮像対象位置に移動して上述した撮像シーケンスを行っても良い。
第二の実施形態において、指令UAV403の機能をすべてのUAV401〜403に搭載し、指令UAV403の機能を果たすUAVを状況に応じて変更できる構成としても良い。この場合、例えば撮像対象への到着が最後となった機体を指令UAVとすることで、撮像時間の短縮が図れる。
第一及び第二の実施形態では、撮像終了後すぐにUAVを帰還させているが、次の撮像対象位置に移動して上述した撮像シーケンスを行っても良い。
第二の実施形態において、指令UAV403の機能をすべてのUAV401〜403に搭載し、指令UAV403の機能を果たすUAVを状況に応じて変更できる構成としても良い。この場合、例えば撮像対象への到着が最後となった機体を指令UAVとすることで、撮像時間の短縮が図れる。
第一及び第二の実施形態では、2機のUAVで赤外線画像と可視光画像を撮像し、それらを重ね合せる処理を説明したが、UAVの台数、取得する画像の種類、合成処理の内容は問わない。例えば、3機以上のUAVにより撮像対象の撮像(原画像データの取得)を行っても良い。また、複数のUAVが同種の画像を取得してもよいし、赤外線画像や可視光画像以外の種類の画像を取得してもよい。また、合成処理は、画像の重ね合せの他に、例えば、画像のつなぎ合わせ(スティッチング)、画像の差分などでもよい。異なるUAVで撮像された複数の画像を位置合わせするための補正が必要であれば、本発明を好ましく適用できる。
前記各実施形態における様々な技術を適宜組み合わせることで得られる構成も本発明の範疇に属する。
前記各実施形態における様々な技術を適宜組み合わせることで得られる構成も本発明の範疇に属する。
101:赤外線カメラ搭載UAV
102:可視光カメラ搭載UAV
103:指令装置
104:画像処理装置
102:可視光カメラ搭載UAV
103:指令装置
104:画像処理装置
Claims (13)
- 第1のカメラを有する第1の無人航空機と、
第2のカメラを有する第2の無人航空機と、
第3のカメラを有する指令装置と、
前記第1のカメラで撮像対象を撮像することにより得られた第1の画像と前記第2のカメラで前記撮像対象を撮像することにより得られた第2の画像とを合成する合成処理を行う画像処理装置と、
を有する画像取得システムであって、
前記指令装置が、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を前記第3のカメラにより撮像することにより、第3の画像を取得し、
前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の前記合成処理を行う際に前記姿勢の差を補正する処理を行う
ことを特徴とする画像取得システム。 - 前記第1の無人航空機が前記第1の画像を取得する処理と、前記第2の無人航空機が前記第2の画像を取得する処理と、前記指令装置が前記第3の画像を取得する処理とが、同時に実行される
ことを特徴とする請求項1に記載の画像取得システム。 - 前記第1の無人航空機が前記第1の画像を取得する処理と、前記第2の無人航空機が前記第2の画像を取得する処理と、前記指令装置が前記第3の画像を取得する処理とが、前記指令装置によって発せられるトリガ信号に基づき実行される
ことを特徴とする1又は2に記載の画像取得システム。 - 前記第1の画像の取得は、前記第1の無人航空機が前記トリガ信号に基づき前記第1のカメラのシャッターを切ることにより行われ、
前記第2の画像の取得は、前記第2の無人航空機が前記トリガ信号に基づき前記第2のカメラのシャッターを切ることにより行われる
ことを特徴とする請求項3に記載の画像取得システム。 - 前記第1の画像の取得は、前記第1のカメラから取り込まれる動画データから前記トリガ信号に基づく時刻のフレーム画像を抽出することにより行われ、
前記第2の画像の取得は、前記第2のカメラから取り込まれる動画データから前記トリガ信号に基づく時刻のフレーム画像を抽出することにより行われる
ことを特徴とする請求項3に記載の画像取得システム。 - 前記姿勢の差を補正する処理は、前記第1の画像と前記第2の画像の位置及び向きを合わせる処理を含む
ことを特徴とする請求項1〜5のうちいずれか1項に記載の画像取得システム。 - 前記指令装置は、無人航空機である
ことを特徴とする請求項1〜6のうちいずれか1項に記載の画像取得システム。 - 前記第1の画像及び前記第2の画像に、画像取得時刻又は一意な通し番号を記録する
ことを特徴とする請求項1〜7のうちいずれか1項に記載の画像取得システム。 - 前記画像処理装置は、前記第3の画像から前記第1の無人航空機及び前記第2の無人航空機それぞれの特徴点を検出することにより、前記第1の無人航空機及び前記第2の無人
航空機それぞれの姿勢を推定する
ことを特徴とする請求項1〜8のうちいずれか1項に記載の画像取得システム。 - 前記画像処理装置は、前記第3の画像と、前記第1の無人航空機及び前記第2の無人航空機それぞれの三次元形状情報とに基づいて、前記第1の無人航空機及び前記第2の無人航空機それぞれの姿勢を推定する
ことを特徴とする請求項1〜8のうちいずれか1項に記載の画像取得システム。 - 第1のカメラを有する第1の無人航空機と、
第2のカメラを有する第2の無人航空機と、
第3のカメラと、
画像処理装置と、
を用いて画像を取得する画像取得方法であって、
前記第1の無人航空機が前記第1のカメラにより撮像対象を撮像することにより、第1の画像を取得するステップと、
前記第2の無人航空機が前記第2のカメラにより前記撮像対象を撮像することにより、第2の画像を取得するステップと、
前記第3のカメラが、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を撮像することにより、第3の画像を取得するステップと、
前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、
を有することを特徴とする画像取得方法。 - 第1の無人航空機が第1のカメラにより撮像対象を撮像することにより得られた第1の画像のデータを取得するステップと、
第2の無人航空機が第2のカメラにより前記撮像対象を撮像することにより得られた第2の画像のデータを取得するステップと、
前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を第3のカメラにより撮像することにより得られた第3の画像のデータを取得するステップと、
前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、
を有することを特徴とする画像処理方法。 - 請求項12に記載の画像処理方法の各ステップをプロセッサに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016093098A JP2017201757A (ja) | 2016-05-06 | 2016-05-06 | 画像取得システム、画像取得方法、画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016093098A JP2017201757A (ja) | 2016-05-06 | 2016-05-06 | 画像取得システム、画像取得方法、画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017201757A true JP2017201757A (ja) | 2017-11-09 |
Family
ID=60264879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016093098A Pending JP2017201757A (ja) | 2016-05-06 | 2016-05-06 | 画像取得システム、画像取得方法、画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017201757A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019514236A (ja) * | 2016-02-03 | 2019-05-30 | ソニー株式会社 | 複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むためのシステム及び方法 |
JP2019192111A (ja) * | 2018-04-27 | 2019-10-31 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 情報処理装置、情報提示指示方法、プログラム、及び記録媒体 |
JP2019200198A (ja) * | 2018-05-15 | 2019-11-21 | 東邦瓦斯株式会社 | 検査装置 |
CN110720055A (zh) * | 2018-10-31 | 2020-01-21 | 深圳市大疆创新科技有限公司 | 一种定位方法、设备、飞行器及计算机可读存储介质 |
JP2020165727A (ja) * | 2019-03-28 | 2020-10-08 | 東邦瓦斯株式会社 | 検査装置 |
KR20210066042A (ko) * | 2019-11-27 | 2021-06-07 | 건국대학교 산학협력단 | 드론 기반의 항공 사진 측량 장치 및 방법 |
JP2022030264A (ja) * | 2020-08-06 | 2022-02-18 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 保持部材、撮像装置、及び撮像システム |
-
2016
- 2016-05-06 JP JP2016093098A patent/JP2017201757A/ja active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019514236A (ja) * | 2016-02-03 | 2019-05-30 | ソニー株式会社 | 複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むためのシステム及び方法 |
JP2019192111A (ja) * | 2018-04-27 | 2019-10-31 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 情報処理装置、情報提示指示方法、プログラム、及び記録媒体 |
JP2022113698A (ja) * | 2018-05-15 | 2022-08-04 | 東邦ガスネットワーク株式会社 | 検査装置 |
JP2019200198A (ja) * | 2018-05-15 | 2019-11-21 | 東邦瓦斯株式会社 | 検査装置 |
JP7250198B2 (ja) | 2018-05-15 | 2023-03-31 | 東邦ガスネットワーク株式会社 | 検査装置 |
JP7112978B2 (ja) | 2018-05-15 | 2022-08-04 | 東邦ガスネットワーク株式会社 | 検査装置 |
CN110720055A (zh) * | 2018-10-31 | 2020-01-21 | 深圳市大疆创新科技有限公司 | 一种定位方法、设备、飞行器及计算机可读存储介质 |
JP2020165727A (ja) * | 2019-03-28 | 2020-10-08 | 東邦瓦斯株式会社 | 検査装置 |
JP7051743B2 (ja) | 2019-03-28 | 2022-04-11 | 東邦瓦斯株式会社 | 検査装置 |
KR20210066042A (ko) * | 2019-11-27 | 2021-06-07 | 건국대학교 산학협력단 | 드론 기반의 항공 사진 측량 장치 및 방법 |
KR102387642B1 (ko) * | 2019-11-27 | 2022-04-19 | 건국대학교 산학협력단 | 드론 기반의 항공 사진 측량 장치 및 방법 |
JP2022030264A (ja) * | 2020-08-06 | 2022-02-18 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 保持部材、撮像装置、及び撮像システム |
JP7074298B2 (ja) | 2020-08-06 | 2022-05-24 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 保持部材、撮像装置、及び撮像システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017201757A (ja) | 画像取得システム、画像取得方法、画像処理方法 | |
JP5618840B2 (ja) | 飛行体の飛行制御システム | |
JP5775632B2 (ja) | 飛行体の飛行制御システム | |
JP5947634B2 (ja) | 航空写真撮像方法及び航空写真撮像システム | |
US10852723B2 (en) | Unmanned aerial vehicle swarm photography | |
US8581960B2 (en) | Imaging device, imaging method, and imaging system | |
JP5748561B2 (ja) | 航空写真撮像方法及び航空写真撮像装置 | |
JP6583840B1 (ja) | 検査システム | |
EP3358480B1 (en) | Drawing creation device and drawing creation method | |
JP7436657B2 (ja) | 飛行撮影システム及び方法 | |
WO2019100219A1 (zh) | 输出影像生成方法、设备及无人机 | |
WO2019051832A1 (zh) | 可移动物体控制方法、设备及系统 | |
JP2016177640A (ja) | 映像監視システム | |
TW201904643A (zh) | 控制裝置、飛行體以及記錄媒體 | |
CN112955711A (zh) | 位置信息确定方法、设备及存储介质 | |
WO2019216257A1 (ja) | 検査システム | |
US20210229810A1 (en) | Information processing device, flight control method, and flight control system | |
JP2023100642A (ja) | 検査システム | |
WO2020019175A1 (zh) | 图像处理方法和设备、摄像装置以及无人机 | |
CN112529965A (zh) | 一种激光雷达与单目相机的标定方法及装置 | |
JP2020016663A (ja) | 検査システム | |
JP6681102B2 (ja) | 検査システム | |
JP2019219874A (ja) | 自律移動撮影制御システムおよび自律移動体 | |
JP7437930B2 (ja) | 移動体及び撮像システム | |
JP2007221179A (ja) | 画像表示装置および画像表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |