JP6912281B2 - Aircraft, flight control systems, flight control methods, programs and recording media - Google Patents
Aircraft, flight control systems, flight control methods, programs and recording media Download PDFInfo
- Publication number
- JP6912281B2 JP6912281B2 JP2017120639A JP2017120639A JP6912281B2 JP 6912281 B2 JP6912281 B2 JP 6912281B2 JP 2017120639 A JP2017120639 A JP 2017120639A JP 2017120639 A JP2017120639 A JP 2017120639A JP 6912281 B2 JP6912281 B2 JP 6912281B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking target
- tracking
- sound
- sound source
- source direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 58
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 title claims description 30
- 238000003384 imaging method Methods 0.000 claims description 78
- 238000012545 processing Methods 0.000 claims description 54
- 238000004891 communication Methods 0.000 claims description 28
- 230000007246 mechanism Effects 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 23
- 238000012790 confirmation Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 230000010365 information processing Effects 0.000 description 14
- 239000000284 extract Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000003337 fertilizer Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本開示は、所定の対象を追跡可能な飛行体、飛行制御システム、飛行体を制御するための飛行制御方法、プログラム及び記録媒体に関する。 The present disclosure relates to a flying object capable of tracking a predetermined object, a flight control system, a flight control method for controlling the flying object, a program, and a recording medium.
撮像装置を搭載し、空中を飛行しながら被写体を撮像する空中撮影が可能な飛行体(例えばUAV:Unmanned Aerial Vehicle)が知られている。この種の空中撮影に利用可能な飛行体において、主要な被写体となる人や乗り物等の所定の対象を目標として自動的に追跡する機能を持つものがある。 There is known an air vehicle (for example, UAV: Unmanned Aerial Vehicle) which is equipped with an image pickup device and can take an aerial image of a subject while flying in the air. Some of the flying objects that can be used for this type of aerial photography have a function of automatically tracking a predetermined target such as a person or a vehicle, which is the main subject.
飛行体が追跡動作を行っている際に、追跡対象の被写体の向きや距離、位置などの変化が大きい場合、追跡対象が他の被写体に隠れて遮断される場合など、追跡対象を見失って自動追跡に失敗してしまうことがある。このように追跡動作が中断した場合、飛行体を制御するための端末をユーザが操作して追跡対象を再度設定し直すことなどにより、追跡を再開する。 When the flying object is performing a tracking operation, the tracking target is automatically lost and lost, such as when the direction, distance, position, etc. of the subject to be tracked change significantly, or when the tracking target is hidden by another subject and blocked. Tracking may fail. When the tracking operation is interrupted in this way, the tracking is restarted by the user operating the terminal for controlling the flying object and resetting the tracking target.
自動追跡機能を有する飛行体の例として、例えば特許文献1には、俯瞰することができない状況においても目標物の追跡が可能な自律飛行移動体が開示されている。この従来例の自律飛行移動体は、ターゲットを認識できなくなった場合に、地図情報に基づいて認識できなくなった位置付近の経路を探索し、探索された経路に基づいてターゲットの追跡を実行するものである。 As an example of an air vehicle having an automatic tracking function, for example, Patent Document 1 discloses an autonomous flying mobile body capable of tracking a target even in a situation where a bird's-eye view cannot be obtained. In this conventional autonomous flying vehicle, when the target cannot be recognized, the route near the unrecognizable position is searched based on the map information, and the target is tracked based on the searched route. Is.
従来の追跡機能を有する飛行体では、追跡動作中に追跡対象を見失った場合、ユーザが飛行体を制御するための端末を用いて追跡対象を再度設定する等の操作が必要となる。追跡対象の再設定操作を行う際には、ユーザが端末操作と同時に飛行体の機体の状態を確認することができないため、追跡対象の設定と飛行体の操縦との同時操作は困難である。このように、従来の飛行体では、追跡対象の自動追跡に失敗した場合、追跡を続行するための操作性に課題がある。 In a conventional flying object having a tracking function, if the tracking target is lost during the tracking operation, it is necessary for the user to perform an operation such as resetting the tracking target using a terminal for controlling the flying object. When resetting the tracking target, the user cannot confirm the state of the aircraft of the flying object at the same time as operating the terminal, so that it is difficult to set the tracking target and operate the flying object at the same time. As described above, in the conventional air vehicle, when the automatic tracking of the tracking target fails, there is a problem in the operability for continuing the tracking.
一態様において、所定の追跡対象を撮像する撮像装置と、追跡対象を含む周囲の音を収音する収音装置と、追跡対象の追跡に関する処理を実行する制御部と、を有する飛行体であって、制御部は、撮像装置により撮像した撮像画像を用いて追跡対象を追跡し、収音装置により取得した音情報により追跡対象に該当する音源方向を推定し、音源方向の推定結果に基づいて撮像装置による撮影方向を調整する、飛行体である。 In one aspect, it is an air vehicle having an imaging device that images a predetermined tracking target, a sound collecting device that collects ambient sounds including the tracking target, and a control unit that executes processing related to tracking the tracking target. The control unit tracks the tracking target using the image captured by the imaging device, estimates the sound source direction corresponding to the tracking target from the sound information acquired by the sound collecting device, and based on the estimation result of the sound source direction. It is a flying object that adjusts the shooting direction by the image pickup device.
制御部は、追跡対象の追跡において、撮像画像における追跡対象に関する画像の特徴値を算出し、画像の特徴値を比較して追跡対象を探索してよい。 In tracking the tracking target, the control unit may calculate the feature value of the image related to the tracking target in the captured image, compare the feature values of the images, and search for the tracking target.
制御部は、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整してよい。 When the tracking of the tracking target fails, the control unit may acquire the sound information emitted by the tracking target, estimate the sound source direction, and adjust the shooting direction according to the sound source direction.
制御部は、音情報における追跡対象に関する音の特徴値を算出し、音の特徴値によって追跡対象の音源方向を推定し、音源方向に応じて追跡対象を追跡してよい。 The control unit may calculate the characteristic value of the sound related to the tracking target in the sound information, estimate the sound source direction of the tracking target from the characteristic value of the sound, and track the tracking target according to the sound source direction.
制御部は、追跡対象の追跡において、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定してよい。 In tracking the tracking target, the control unit may limit the area for searching the tracking target in the captured image according to the estimated sound source direction.
制御部は、音源方向の推定において、収音装置により取得した音情報から追跡対象の音成分を抽出し、追跡対象の音成分について音源方向の推定処理を行ってよい。 In estimating the sound source direction, the control unit may extract the sound component to be tracked from the sound information acquired by the sound collecting device and perform the sound source direction estimation process for the sound component to be tracked.
制御部は、撮影方向の調整において、飛行体の回転翼機構と、撮像装置を支持する支持機構との少なくとも一方の動きを制御してよい。 The control unit may control the movement of at least one of the rotor blade mechanism of the flying object and the support mechanism that supports the image pickup device in adjusting the photographing direction.
一態様において、飛行体と、飛行体と通信を行う端末と、を有する飛行制御システムであって、飛行体は、所定の追跡対象を撮像する撮像装置と、追跡対象を含む周囲の音を収音する収音装置と、追跡対象の候補情報を端末に送信する通信部と、追跡対象の追跡に関する処理を実行するものであって、撮像装置により撮像した撮像画像を用いて追跡対象を追跡し、収音装置により取得した音情報により追跡対象に該当する音源方向を推定し、音源方向の推定結果に基づいて撮像装置による撮影方向を調整する、制御部と、を有し、端末は、追跡対象の候補情報を受信する通信部と、追跡対象の候補を表示する表示部と、追跡対象の設定に関する入力を行う操作部と、を有する、飛行制御システムである。 In one aspect, a flight control system comprising an air vehicle and a terminal that communicates with the air vehicle, wherein the air vehicle collects an imaging device that captures a predetermined tracking target and ambient sound including the tracking target. A sound collecting device that makes a sound, a communication unit that transmits candidate information of a tracking target to a terminal, and a process related to tracking the tracking target are executed, and the tracking target is tracked using an image captured by the imaging device. The terminal has a control unit that estimates the sound source direction corresponding to the tracking target from the sound information acquired by the sound collecting device and adjusts the shooting direction by the imaging device based on the estimation result of the sound source direction. It is a flight control system having a communication unit for receiving target candidate information, a display unit for displaying tracking target candidates, and an operation unit for inputting information regarding tracking target settings.
端末の表示部は、追跡対象の追跡を失敗した場合に、追跡失敗表示を行ってよい。 The display unit of the terminal may display the tracking failure when the tracking of the tracking target fails.
一態様において、所定の追跡対象を追跡する飛行体を制御するための飛行制御方法であって、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を有する、飛行制御方法である。 In one aspect, it is a flight control method for controlling an air vehicle that tracks a predetermined tracking target, in which a step of imaging the tracking target by an imaging device and a sound collecting device for surrounding sounds including the tracking target are picked up. A step of tracking the tracking target using the captured image, a step of estimating the sound source direction corresponding to the tracking target based on the collected sound information, and a shooting by the imaging device based on the estimation result of the sound source direction. It is a flight control method having a step of adjusting a direction.
追跡対象を追跡するステップは、撮像画像における追跡対象に関する画像の特徴値を算出し、画像の特徴値を比較して追跡対象を探索するステップを含んでよい。 The step of tracking the tracking target may include a step of calculating the feature value of the image related to the tracking target in the captured image, comparing the feature values of the images, and searching for the tracking target.
音源方向を推定するステップは、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定するステップを含み、撮影方向を調整するステップは、推定した音源方向に応じて撮影方向を調整するステップを含んでよい。 The step of estimating the sound source direction includes a step of acquiring the sound information emitted by the tracking target and estimating the sound source direction when the tracking of the tracking target fails, and the step of adjusting the shooting direction is in the estimated sound source direction. It may include a step of adjusting the shooting direction accordingly.
音情報における追跡対象に関する音の特徴値を算出するステップを有し、追跡対象を追跡するステップは、音の特徴値によって追跡対象の音源方向を推定し、音源方向に応じて追跡対象を追跡するステップを含んでよい。 The step of calculating the characteristic value of the sound regarding the tracking target in the sound information, and the step of tracking the tracking target estimates the sound source direction of the tracking target from the sound characteristic value and tracks the tracking target according to the sound source direction. May include steps.
追跡対象を追跡するステップは、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定するステップを含んでよい。 The step of tracking the tracking target may include a step of limiting the region for searching the tracking target in the captured image according to the estimated sound source direction.
追跡対象を追跡するステップは、収音装置により取得した音情報から追跡対象の音成分を抽出し、追跡対象の音成分について音源方向の推定処理を行うステップを含んでよい。 The step of tracking the tracking target may include a step of extracting the sound component of the tracking target from the sound information acquired by the sound collecting device and performing an estimation process of the sound source direction for the sound component of the tracking target.
撮影方向を調整するステップは、飛行体の回転翼機構と、撮像装置を支持する支持機構との少なくとも一方の動きを制御するステップを含んでよい。 The step of adjusting the imaging direction may include a step of controlling the movement of at least one of the rotor blade mechanism of the flying object and the support mechanism supporting the image pickup device.
飛行制御方法において、追跡対象の候補情報を飛行体と通信を行う端末に送信するステップと、追跡対象の候補情報を端末により受信するステップと、追跡対象の候補を表示部により表示するステップと、追跡対象の設定に関する入力を行うステップと、を有してよい。 In the flight control method, a step of transmitting candidate information of a tracking target to a terminal communicating with an air vehicle, a step of receiving candidate information of a tracking target by the terminal, and a step of displaying the candidate of the tracking target by a display unit. It may have a step of making input regarding the setting of the tracking target.
飛行制御方法において、追跡対象の追跡を失敗した場合に、表示部により追跡失敗表示を行うステップ、を有してよい。 In the flight control method, there may be a step of displaying the tracking failure by the display unit when the tracking of the tracking target fails.
一態様において、プログラムは、所定の追跡対象を追跡する飛行体を制御するコンピュータに、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を実行させるための、プログラムである。 In one aspect, the program includes a step of capturing the tracked object with an image pickup device and a step of picking up ambient sound including the tracked object by a sound picking device on a computer controlling an air vehicle that tracks a predetermined tracking target. , The step of tracking the tracking target using the captured image, the step of estimating the sound source direction corresponding to the tracking target from the collected sound information, and adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction. It is a program to execute the steps to be performed.
一態様において、記録媒体は、所定の追跡対象を追跡する飛行体を制御するコンピュータに、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な、記録媒体である。 In one aspect, the recording medium is a step of imaging the tracked object by the imaging device on a computer controlling the flying object that tracks the predetermined tracked object, and a step of collecting the ambient sound including the tracked object by the sound collecting device. The step of tracking the tracking target using the captured image, the step of estimating the sound source direction corresponding to the tracking target from the collected sound information, and the shooting direction by the imaging device based on the estimation result of the sound source direction. A computer-readable, recording medium that records the steps to adjust and the program to run it.
なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the features of the present disclosure. Sub-combinations of these feature groups can also be inventions.
以下、発明の実施の形態を通じて本開示を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。 Hereinafter, the present disclosure will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of features described in the embodiments are essential to the solution of the invention.
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。但し、それ以外の場合、一切の著作権を留保する。 The claims, description, drawings, and abstracts include matters that are subject to copyright protection. The copyright holder will not object to any person's reproduction of these documents as long as they appear in the Patent Office files or records. However, in other cases, all copyrights are reserved.
本開示に係る飛行制御方法は、飛行体の飛行を制御するための情報処理装置における各種の処理(ステップ)が規定されたものである。飛行体は、空中を移動する航空機(例えばドローン、ヘリコプター)を含む。飛行体は、無人飛行体(UAV:Unmanned Aerial Vehicle)であってもよい。飛行体は、空中撮影、物の運搬、或いは農薬、肥料、水等の散布作業等の飛行を伴う各種作業を行うためにあらかじめ設定された飛行経路に沿って飛行する。飛行体は、自動追跡動作を行う際、設定された追跡対象を追跡しながら飛行する。 The flight control method according to the present disclosure defines various processes (steps) in the information processing device for controlling the flight of the flying object. Aircraft include aircraft moving in the air (eg, drones, helicopters). The air vehicle may be an unmanned aerial vehicle (UAV). The flying object flies along a preset flight path for performing various operations involving flight such as aerial photography, transportation of objects, or spraying of pesticides, fertilizers, water, and the like. When performing the automatic tracking operation, the flying object flies while tracking the set tracking target.
本開示に係る情報処理装置は、コンピュータであって、例えば飛行体自体に情報処理装置が含まれてよい。本開示に係る情報処理装置は、飛行体の移動を含む各種処理の遠隔制御を指示するための送信機、又は送信機との間で情報やデータの入出力が可能に接続された端末装置、若しくは飛行体との間で情報やデータの入出力が可能に接続された端末装置など、各種の端末(プラットフォーム)を含む。端末は、例えばPC、タブレット端末、携帯端末などであってよい。 The information processing device according to the present disclosure is a computer, and the information processing device may be included in the flying object itself, for example. The information processing device according to the present disclosure is a transmitter for instructing remote control of various processes including movement of an air vehicle, or a terminal device connected to the transmitter so that information and data can be input and output. Alternatively, it includes various terminals (platforms) such as terminal devices connected to the aircraft so that information and data can be input and output. The terminal may be, for example, a PC, a tablet terminal, a mobile terminal, or the like.
本開示に係るプログラムは、情報処理装置に各種の処理(ステップ)を実行させるためのプログラムである。 The program according to the present disclosure is a program for causing an information processing apparatus to execute various processes (steps).
本開示に係る記録媒体は、プログラム(つまり、情報処理装置に各種の処理(ステップ)を実行させるためのプログラム)が記録されたものである。 The recording medium according to the present disclosure is one in which a program (that is, a program for causing an information processing apparatus to execute various processes (steps)) is recorded.
本開示に係る飛行制御システムは、移動体の一例としての飛行体と、飛行体の動作又は処理を遠隔で制御するための端末(プラットフォーム)とを含む構成である。本開示に係る飛行制御システムは、飛行体単体で追跡対象を追跡して飛行する構成であってよい。 The flight control system according to the present disclosure includes a flying object as an example of a moving object and a terminal (platform) for remotely controlling the operation or processing of the flying object. The flight control system according to the present disclosure may be configured to track and fly a tracking target by itself.
以下に示す本開示に係る各実施形態において、飛行体として、無人飛行体(UAV)を例示する。本明細書に添付する図面では、無人飛行体を「UAV」と表記する。以下に示す各実施形態において、飛行体は、追跡対象を設定し、追跡対象に追従して位置を移動させながら飛行する。 In each embodiment according to the present disclosure shown below, an unmanned aerial vehicle (UAV) is exemplified as the flying object. In the drawings attached herein, the unmanned aerial vehicle is referred to as "UAV". In each of the following embodiments, the flying object sets a tracking target and flies while moving the position following the tracking target.
以下に示す各実施形態において、情報処理装置は、飛行体において、追跡対象の特徴値として、画像情報、音情報などを含む特徴値情報を生成、取得、変更が可能である。情報処理装置は、飛行体において、飛行開始位置、飛行終了位置、飛行経路上の所定位置、飛行高度、飛行速度などのうち、少なくとも一つを含む飛行位置の情報を生成、取得、変更が可能である。端末に情報処理装置が含まれる場合、情報処理装置は飛行体と通信可能であり、追跡対象の特徴値情報、飛行体の飛行位置の情報を飛行体に伝送可能である。ここにいう「通信」とは、データ通信全般を含む広い概念であり、ケーブルなどにより有線接続する場合だけでなく、無線通信によって接続する場合も含まれる。また、情報処理装置が飛行体と直接通信する場合だけでなく、送信機又は記憶媒体を介して間接的に通信を行う場合も含まれる。 In each of the following embodiments, the information processing apparatus can generate, acquire, and change feature value information including image information, sound information, and the like as feature values to be tracked in the flying object. The information processing device can generate, acquire, and change flight position information including at least one of a flight start position, a flight end position, a predetermined position on a flight path, a flight altitude, and a flight speed in an air vehicle. Is. When the terminal includes an information processing device, the information processing device can communicate with the flying object, and can transmit the feature value information of the tracking target and the flight position information of the flying object to the flying object. The term "communication" as used herein is a broad concept including data communication in general, and includes not only the case of wired connection by a cable or the like but also the case of wireless communication. Further, it includes not only the case where the information processing device directly communicates with the flying object but also the case where the information processing device indirectly communicates via the transmitter or the storage medium.
図1は、実施形態における飛行制御システム10の構成例を示す模式図である。飛行制御システム10は、無人飛行体100及び端末50を含む。無人飛行体100及び端末50は、有線通信又は無線通信(例えば無線LAN(Local Area Network)、又はBluetooth(登録商標))を用いて、互いに通信することが可能である。端末50は、例えば端末50を使用する人物(以下、「ユーザ」という)の両手で把持された状態で使用される。端末50は、例えば送信機、タブレット端末、携帯端末、PCなどであってよい。端末50は、送信機にタブレット端末又は携帯端末が装着され互いに通信可能に設けられた構成であってよい。
FIG. 1 is a schematic diagram showing a configuration example of the
図2は、無人飛行体100の外観の一例を示す図である。無人飛行体100は、撮像部の一例としての撮像装置220を備えて移動する移動体の一例である。移動体とは、無人飛行体100の他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。ここで、図2に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(図2のx軸参照)が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(図2のy軸参照)が定められ、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(図2のz軸)が定められる。
FIG. 2 is a diagram showing an example of the appearance of the
無人飛行体100は、UAV本体102と、回転翼機構210と、撮像装置220と、ジンバル230と、収音装置180とを含む構成である。無人飛行体100は、例えば端末50から送信される遠隔制御の指示を基に移動することができる。無人飛行体100の移動は、飛行を意味し、少なくとも上昇、降下、左旋回、右旋回、左水平移動、右水平移動の飛行が含まれる。
The unmanned
無人飛行体100は、複数の回転翼機構(プロペラ)210を備える。無人飛行体100は、例えば4つの回転翼機構210を備える。無人飛行体100は、これら回転翼機構210の回転を制御することにより無人飛行体100を移動させる。ただし、回転翼の数は、4つに限定されない。また、無人飛行体100は、回転翼を有さない固定翼機でよい。
The
撮像装置220は、所望の撮像範囲に含まれる被写体(例えば人物、車両など)を撮像するカメラである。撮像装置220は、支持機構の一例であるジンバル230に取り付けられ、ジンバル230の動きによって撮像範囲が調節される。
The
収音装置180は、被写体を含む撮像範囲の周辺の音を収音するマイクロホンである。収音装置180は、複数のマイクロホンを有するマイクアレイでよい。
The
次に、無人飛行体100の構成例について説明する。
Next, a configuration example of the
図3は、無人飛行体100のハードウェア構成の一例を示すブロック図である。無人飛行体100は、制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、収音装置180と、バッテリ190と、回転翼機構210と、撮像装置220と、ジンバル230と、GPS受信機240と、慣性計測装置250と、磁気コンパス260と、気圧高度計270と、超音波センサ280とを含む構成である。
FIG. 3 is a block diagram showing an example of the hardware configuration of the
制御部110は、プロセッサ、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。制御部110は、無人飛行体100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。制御部110は、無人飛行体100において飛行の制御に関する処理を実行する機能を有する。
The
制御部110は、メモリ160又はストレージ170に格納されたプログラムに従って無人飛行体100の飛行を制御する。また、制御部110は、通信インタフェース150を介して遠隔の端末50から受信した命令に従って、無人飛行体100の移動(つまり、飛行)を制御する。
The
制御部110は、回転翼機構210を制御することで、無人飛行体100の飛行を制御する。つまり、制御部110は、回転翼機構210を制御することにより、無人飛行体100の緯度、経度、及び高度を含む位置、並びに向きを制御する。制御部110は、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280のうちの少なくとも一つにより取得される位置情報に基づき、回転翼機構210を制御する。
The
制御部110は、例えば撮像装置220の撮像方向を示す情報として、ジンバル230から撮像装置220の姿勢の状態を示す姿勢情報を取得する。撮像装置220の姿勢の状態を示す情報は、ジンバル230のピッチ軸及びヨー軸の基準回転角度からの回転角度を示す。制御部110は、無人飛行体100の向きを示す情報を取得する。
For example, the
制御部110は、撮像装置220及びジンバル230を制御する。制御部110は、撮像装置220の撮像方向又は画角を変更することによって、撮像装置220の撮像範囲を制御する。制御部110は、ジンバル230の回転機構を制御することで、ジンバル230に支持されている撮像装置220の撮像範囲を制御する。
The
制御部110は、撮像装置220により撮像された被写体の画像データ(以下、「撮像画像」と称する場合がある)を取得する。
The
制御部110は、収音装置180により収音された被写体及び周辺の音情報を取得する。
The
通信インタフェース150は、通信部の一例であり、端末50と通信する。通信インタフェース150は、端末50からの追跡対象、飛行経路等に関する各種の情報を受信する。通信インタフェース150は、端末50からの制御部110に対する各種の命令を受信する。
The
メモリ160は、記憶部の一例である。メモリ160は、制御部110が回転翼機構210、撮像装置220、ジンバル230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、通信インタフェース150、ストレージ170、及び収音装置180を制御するのに必要なプログラム等を格納する。メモリ160は、制御部110の処理時に使用される各種の情報やデータを保存する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人飛行体100の内部に設けられてよいし、無人飛行体100から取り外し可能に設けられてよい。メモリ160には、追跡対象の特徴値情報などを含む追跡情報を保存してよい。
The
ストレージ170は、記憶部の一例である。ストレージ170は、各種データ、情報を蓄積し、保持する。ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ170は、無人飛行体100の内部に設けられてよいし、無人飛行体100から取り外し可能に設けられてよい。
The
収音装置180は、複数のマイクロホンが列状に配置されたマイクアレイを含む。収音装置180は、例えば、2つ以上のマイクロホンと、各マイクロホンにて収音した音信号を処理する信号処理回路とを含んでよい。収音装置180は、追跡対象の音源方向の推定のために、追跡対象を含む周囲の音を収音し、複数のマイクロホンにてそれぞれ収音した追跡対象を含む被写体の音信号の情報を取得する。
The
バッテリ190は、無人飛行体100の各部の駆動源としての機能を有し、無人飛行体100の各部に必要な電源を供給する。
The
回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。回転翼機構210は、回転翼を回転させることにより、特定の方向の気流を生じさせ、無人飛行体100の飛行(上昇、下降、水平移動、旋回、傾斜等)を制御する。
The
撮像装置220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像画像は動画であってもよく、静止画であってよい。撮像装置220の撮像により得られた画像データは、撮像装置220が有するメモリ又はメモリ160、ストレージ170などに格納される。
The
ジンバル230は、撮像装置220を支持する支持機構の一例であり、少なくとも1つの軸を中心に撮像装置220を回転可能に支持する。ジンバル230は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置220を回転可能に支持してよい。ジンバル230は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置220を回転させることで、撮像装置220の撮像方向を変更してよい。
The
GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人飛行体100の位置)を算出する。GPS受信機240は、無人飛行体100の位置情報を制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりに制御部110により行われてよい。この場合、制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。
The
慣性計測装置(IMU:Inertial Measurement Unit)250は、無人飛行体100の姿勢を検出し、検出結果を制御部110に出力する。慣性計測装置250は、無人飛行体100の姿勢として、無人飛行体100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出する。
The inertial measurement unit (IMU) 250 detects the attitude of the
磁気コンパス260は、無人飛行体100の機首の方位を検出し、検出結果を制御部110に出力する。気圧高度計270は、無人飛行体100が飛行する高度を検出し、検出結果を制御部110に出力する。超音波センサ280は、超音波を照射し、地面や物体により反射された超音波を検出し、検出結果を制御部110に出力する。検出結果は、例えば無人飛行体100から地面までの距離(つまり、高度)を示す。検出結果は、例えば無人飛行体100から物体までの距離を示してよい。
The
次に、無人飛行体100の制御部110の機能の一例について説明する。
制御部110は、撮像装置220により撮像された撮像画像の画像データ中の被写体において、所定の追跡対象の追跡に関する処理を行う追跡部111と、収音装置180により取得された音情報のデータ(音データ)に基づいて所定の音源方向の推定に関する処理を行う音源方向推定部112とを含む。
Next, an example of the function of the
The
追跡部111は、設定された追跡対象を追跡するよう無人飛行体100を移動させ、追跡対象を撮像装置220にて撮像可能なように、回転翼機構210、撮像装置220及びジンバル230を制御する。追跡部111は、撮像装置220にて取得した撮像画像を用いて追跡対象を追跡する。追跡部111は、撮像装置220にて撮像した撮像画像において追跡対象の特徴値の算出、比較、更新を行い、追跡対象を探索する。追跡部111は、動画像の撮像画像において、以前のフレームの追跡対象の特徴値と現在のフレームの特徴値とを比較し、特徴値が一致する追跡対象を探索する。
The
音源方向推定部112は、収音装置180にて取得した音データから、追跡対象が発する音と環境音とを分離し、各マイクロホンにて取得した追跡対象の音の位相情報を取得し、追跡対象に該当する音源の方向を推定する。
The sound source
追跡部111は、推定された音源方向に基づいて、撮像装置220及びジンバル230を制御し、例えば音源方向に応じて追跡対象に向かうように撮像装置220の撮影方向を調整する。
The
次に、端末50の構成例について説明する。 Next, a configuration example of the terminal 50 will be described.
図4は、端末50のハードウェア構成の一例を示すブロック図である。端末50は、処理部51と、メモリ52と、無線通信部53と、表示部54と、操作部55と、インタフェース部56と、ストレージ57と、バッテリ58とを含む構成である。端末50は、無人飛行体100を遠隔制御するための指示を送信する操作端末の機能を持つ情報処理装置の一例である。端末50は、無人飛行体100の飛行に関する各種の情報やデータの入出力を行う設定端末の機能を持つ情報処理装置の一例である。なお、端末50は、送信機とタブレット端末又は携帯端末とが互いに接続された別体の構成であってよい。
FIG. 4 is a block diagram showing an example of the hardware configuration of the terminal 50. The terminal 50 includes a
処理部51は、プロセッサ(例えばCPU、MPU又はDSP)を用いて構成される。処理部51は、端末50の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
The
処理部51は、無線通信部53を介して、無人飛行体100からのデータや情報を取得してよい。処理部51は、インタフェース部56を介して、他の装置からのデータや情報を取得してよい。処理部51は、操作部55を介して入力されたデータや情報を取得してよい。処理部51は、メモリ52に保持されたデータや情報を取得してよい。処理部51は、データや情報を表示部54に送り、このデータや情報に基づく表示情報を表示部54に表示させてよい。処理部51は、データや情報をストレージ57に送り、このデータや情報を格納してよい。処理部51は、ストレージ57に格納されたデータや情報を取得してよい。
The
処理部51は、操作部55の操作入力に基づき、例えば追跡対象を含む画像領域の設定など、追跡対象の設定に関する設定入力を行ってよい。
Based on the operation input of the
処理部51は、操作部55の操作入力に基づき、無人飛行体100の移動を遠隔制御するための操作信号を生成してよい。処理部51は、生成した操作信号を移動制御用の命令として、無線通信部53を介して無人飛行体100に送信し、無人飛行体100を遠隔制御してよい。
The
処理部51は、表示部54に表示する設定画面、操作画面、通知画面、確認画面のうちの少なくとも一つの表示画面を生成してよい。
The
メモリ52は、記憶部の一例である。メモリ52は、例えば、処理部51の動作を規定するプログラムや設定値のデータが格納されたROM(Read Only Memory)と、処理部51の処理時に使用される各種の情報やデータを一時的に保存するRAM(Random Access Memory)とを有する。メモリ52のROMに格納されたプログラムや設定値のデータは、所定の記録媒体(例えばCD−ROM、DVD−ROM)にコピーされてよい。
The
無線通信部53は、通信部の一例であり、アンテナを介して、各種の無線通信方式により、無人飛行体100との間で通信し、情報やデータの送受信を行う。無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、近距離無線通信、又は公衆無線回線を介した通信を含んでよい。無線通信部53は、他の装置との間で通信を行って情報やデータを送受信してよい。
The
表示部54は、例えばLCD(Liquid Crystal Display)又は有機EL(ElectroLuminescence)ディスプレイを用いて構成され、表示画面において、処理部51から出力された各種の情報やデータを表示する。表示部54は、設定画面、操作画面、通知画面、確認画面のうちの少なくとも一つの表示画面を表示してよい。表示部54は、例えばLED(Light Emission Diode)を用いた表示ランプを有してよい。表示ランプは、例えば、無人飛行体100と端末50との無線の接続状態、無人飛行体100の起動状態、無人飛行体100又は端末50のバッテリの容量の残量のうち、少なくとも一つを表示してよい。
The
操作部55は、端末50を保持するユーザにより入力される操作指示、又はデータや情報を受け付ける。操作部55は、ジョイスティック、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。操作部55は、例えば、ユーザによる無人飛行体100の移動を遠隔で制御(例えば、無人飛行体100の前後移動、左右移動、上下移動、向き変更)するための操作において使用される。操作部55は、例えば、追跡対象に関する設定入力をする操作において使用される。操作部55は、例えば、追跡対象の確認、追跡開始の指示などの操作において使用される。
The
インタフェース部56は、端末50と他の装置との間の情報やデータの入出力を行う。インタフェース部56は、例えば端末50に設けられたUSBポート(不図示)でよい。インタフェース部56は、USBポート以外のインタフェースでもよい。
The
ストレージ57は、記憶部の一例である。ストレージ57は、各種データ、情報を蓄積し、保持する。ストレージ57は、フラッシュメモリ、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ57は、端末50の本体から取り外し可能に設けられてよい。
The
バッテリ58は、端末50の各部の駆動源としての機能を有し、端末50の各部に必要な電源を供給する。
The
次に、無人飛行体100による追跡動作について説明する。
Next, the tracking operation by the
(第1の実施形態)
図5は、無人飛行体により追跡対象を追跡する第1の実施形態の様子を模式的に示す図である。第1の実施形態では、人物を追跡対象として追跡して撮像する例を示す。無人飛行体100は、撮像装置220によって人物410を被写体として撮像し、撮像画像中の人物を追跡対象に設定する。無人飛行体100は、設定した追跡対象を継続して撮像するように、ジンバル230によって撮像装置220を回転させ、撮影方向を調整する。このとき、ジンバル230は、例えば、ヨー軸を中心とした水平方向Dh、ピッチ軸を中心とした垂直方向Dvに、それぞれ撮像装置220を回転させる。無人飛行体100は、追跡対象の人物410の移動に応じて、回転翼機構210を制御し、無人飛行体100の位置を追従させる。
(First Embodiment)
FIG. 5 is a diagram schematically showing a state of the first embodiment in which a tracking target is tracked by an unmanned flying object. The first embodiment shows an example in which a person is tracked and imaged as a tracking target. The
例えば、追跡対象が大きく移動して撮像装置220の画角から外れるなど、撮像した画像データにおいて追跡対象を探索できず、追跡に失敗した場合、無人飛行体100は、収音装置180によって撮像領域周辺の音を収音し、追跡対象に該当する音源方向SDを推定する。このとき、追跡対象の人物410は、追跡失敗を認識した場合に無人飛行体100に対して呼びかけるなど、無人飛行体100に向けて音声を発する。無人飛行体100は、追跡対象が発する音を取得し、音源方向SDを推定することによって、追跡対象の方向を検知する。無人飛行体100は、推定した音源方向SDに基づき、ジンバル230を制御して撮像装置220の撮影方向を音源方向SDに向かうように、すなわち追跡対象の人物410に向かうように調整する。
For example, if the tracking target cannot be searched for in the captured image data and the tracking fails, for example, the tracking target moves significantly and deviates from the angle of view of the
図6は、実施形態における追跡動作の初期設定に関する処理手順の一例を示すフローチャートである。図7は、実施形態における追跡動作の初期設定を行うための初期設定画面の一例を示す図である。 FIG. 6 is a flowchart showing an example of a processing procedure related to the initial setting of the tracking operation in the embodiment. FIG. 7 is a diagram showing an example of an initial setting screen for initializing the tracking operation in the embodiment.
無人飛行体100は、追跡動作の初期設定において、追跡対象を設定する。本例では、端末50を用いて追跡対象の設定を行う手順を示す。端末50は、ユーザによる撮像画像中の追跡対象範囲の操作指示を入力し、追跡対象範囲を設定する(S11)。このとき、端末50は、表示部54において、図7に示す一例のように、複数領域に分割した撮像画像310を有する設定画面300を表示する。ユーザが撮像画像310において追跡対象TG1を含む領域をタッチ操作等により指定すると、追跡対象範囲321を示す画像領域枠が表示され、ユーザが確認後に設定ボタン(SET)322をタッチ操作すると、端末50は、該当する画像領域を追跡対象範囲として設定する。端末50は、追跡対象範囲情報を無人飛行体100に送信し、無人飛行体100は、追跡対象範囲情報を受信入力して撮像画像における追跡対象範囲を設定する。
The
無人飛行体100は、撮像画像中の追跡対象範囲の画像データにおいて、追跡対象の画像の特徴値を算出する(S12)。追跡対象の画像データから算出する特徴値は、例えば、画像特徴量の一例であるSIFT(Scale-Invariant Feature Transform)を用いてよい。追跡対象の画像特徴量は、SIFTの他に、SURF(Speeded Up Robust Features)、GLOH(Gradient Location and Orientation Histogram)、FAST(Features from Accelerated Segment Test)などを用いてよい。追跡対象の特徴値は、追跡対象のみの画像の特徴値を算出してよいし、追跡対象を含む所定領域の画像の特徴値を算出してよい。なお、端末50において追跡対象の特徴値を算出して無人飛行体100に送信し、無人飛行体100が特徴値を取得してよい。
The
図8は、第1の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。自動追跡動作の処理は、無人飛行体100における制御部110の追跡部111及び音源方向推定部112によって主に実行してよい。無人飛行体100の制御部110は、撮像装置220によって所定の撮像領域を撮影し、撮像画像を取得する(S21)。制御部110は、撮像画像から追跡対象に対応する画像を抽出する(S22)。このとき、制御部110は、設定された追跡対象範囲に基づいて追跡対象を含む領域の画像を抽出する。そして、制御部110は、抽出した所定領域の画像において追跡対象を探索する(S23)。制御部110は、追跡対象の探索処理において、画像の特徴値の比較を行い、抽出した所定領域の画像の特徴値と以前に算出した追跡対象の特徴値とを比較し、一致するかどうか判定する。制御部110は、追跡対象の探索処理において、現在撮像した撮像画像における追跡対象の画像領域を用いて、追跡対象の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から追跡対象の特徴値と一致する領域を抽出して探索してよい。
FIG. 8 is a flowchart showing an example of the processing procedure of the automatic tracking operation in the first embodiment. The processing of the automatic tracking operation may be mainly executed by the
制御部110は、追跡対象の特徴値が一致するか否かによって、追跡に失敗したかどうか判定する(S24)。追跡に成功した場合(S24:No)、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S21〜S24)。
The
追跡に失敗した場合(S24:Yes)、制御部110は、収音装置180によって収音した音声信号を受信し、撮像領域周辺の音データを取得する(S25)。制御部110は、取得した音データについて、複数の音源の音データを分離する(S26)。制御部110は、音源分離処理において、例えば、BSS(Blind Source Separation、ブラインド信号源分離)を用いて複数の音源からの音データを分離してよい。制御部110は、音源分離処理により、ノイズ等の環境音と、追跡対象に該当する被写体が発する音とを分離する。本例では、追跡対象の人物410が発した音声データを環境音から分離する。制御部110は、分離した複数の音データについて、追跡対象の音成分を主成分として抽出する(S27)。制御部110は、主成分の音データに関して、追跡対象の特徴値として音の特徴値を算出する。追跡対象の音データから算出する特徴値は、例えば、周波数特性、指向性の有無、エンベロープなどを用いてよい。
When the tracking fails (S24: Yes), the
制御部110は、追跡対象に対応する主成分の音データについて、例えば音の特徴値によって、音源方向を推定する(S28)。制御部110は、音源方向の推定処理において、例えば、収音装置180のマイクアレイによって各マイクロホンにて取得した音データの位相情報を用いて、音源からの音の到来方向を推定する。音源方向の推定処理は、例えば、ビームフォーミング法などの遅延和アレイによって音響ビームを形成して空間的にスキャンさせることで音源位置を推定する方法、CSP(Cross-power Spectrum Phase analysis)法などの複数のマイクロホンにおける到来時間差を求めて遅延時間を算出することで音源定位を推定する方法、などを用いてよい。
The
制御部110は、音源方向の推定結果に基づき、追跡対象の方向を検知し、撮像装置220による撮影方向を調整する(S29)。このとき、制御部110は、撮像装置220とジンバル230の少なくとも一方の動きを制御し、追跡対象に向かうように撮像装置220の撮影方向を調整する。制御部110は、回転翼機構210を制御して無人飛行体100を移動、回転させ、撮影方向を調整してよい。そして、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S21〜S24)。
The
図9は、実施形態における追跡失敗時の処理手順の一例を示すシーケンス図である。図10は、実施形態における追跡失敗を通知する通知画面の一例を示す図である。図11は、実施形態における追跡対象の再設定時の確認画面の一例を示す図である。 FIG. 9 is a sequence diagram showing an example of a processing procedure at the time of tracking failure in the embodiment. FIG. 10 is a diagram showing an example of a notification screen for notifying a tracking failure in the embodiment. FIG. 11 is a diagram showing an example of a confirmation screen at the time of resetting the tracking target in the embodiment.
追跡対象の追跡に失敗した場合、無人飛行体100及び端末50は、ユーザへの通知、再設定した追跡対象の確認などの処理を行ってよい。無人飛行体100は、自動追跡動作中に、追跡対象の探索に失敗したことを判定すると(S31)、端末50に対して、追跡状態情報の一例である追跡失敗を示す情報を送信する(S32)。端末50は、追跡失敗を示す追跡状態情報を受信すると、追跡状態表示の一例として、追跡失敗の状況をユーザに通知する追跡失敗表示を行う(S33)。このとき、端末50は、表示部54において、図10に示す一例のように、追跡失敗を通知する通知画面330を表示する。通知画面330には、撮像画像310において追跡失敗表示(MISSED)323が表示され、ユーザが視認可能である。端末50は、通知画面330の表示の他に、アラーム音等の音による通知、LED発光等の光による通知などを行ってよい。
When the tracking of the tracking target fails, the
無人飛行体100は、図8に示した手順(S25〜S29)のように、音源方向の推定、撮影方向の調整の処理を実行し、追跡対象の再探索を行う(S34)。無人飛行体100は、追跡対象の探索において、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定し、追跡対象の候補を抽出してよい。無人飛行体100は、再探索により抽出した追跡対象の候補を示す情報を、追跡対象候補情報として端末50に送信する(S35)。端末50は、追跡対象候補情報を受信すると、追跡対象の確認のために追跡対象候補をユーザに示す追跡対象候補表示を行う(S36)。このとき、端末50は、表示部54において、図11に示す一例のように、追跡対象候補の確認を行う確認画面350を表示する。確認画面350には、撮像画像310において追跡対象TG1を囲む追跡対象枠324が表示され、追跡対象確認表示(TARGET?)325が表示される。ユーザが追跡対象の確認後に確認ボタン(OK)326をタッチ操作すると、端末50は、ユーザによる確認指示を入力し(S37)、確認応答を無人飛行体100に送信する(S38)。
The
無人飛行体100は、端末50からの確認応答を受信すると、該当する追跡対象を含む領域を新たな追跡対象範囲として設定し、追跡対象の特徴値を算出して更新する(S39)。無人飛行体100は、その後、自動追跡動作を継続する(S40)。
Upon receiving the confirmation response from the terminal 50, the
上述した第1の実施形態では、無人飛行体は、追跡対象に該当する音源方向を推定し、音源方向推定結果を利用して、追跡動作の補正を行う。実施形態において、無人飛行体は、追跡対象の追跡に失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整する。これにより、追跡対象に該当する音源方向に撮像装置を向けて、追跡対象を再度追跡可能なように継続して撮像でき、追跡結果を補正することができる。また、追跡動作時のロバスト性を向上できる。この場合、追跡対象を再設定する操作が不要になり、操作性を向上できる。 In the first embodiment described above, the unmanned aircraft estimates the sound source direction corresponding to the tracking target, and corrects the tracking operation by using the sound source direction estimation result. In the embodiment, when the tracking target fails to be tracked, the unmanned aircraft acquires the sound information emitted by the tracking target, estimates the sound source direction, and adjusts the shooting direction according to the sound source direction. As a result, the imaging device can be directed toward the sound source corresponding to the tracking target, and the tracking target can be continuously imaged so that the tracking target can be tracked again, and the tracking result can be corrected. In addition, robustness during tracking operation can be improved. In this case, the operation of resetting the tracking target becomes unnecessary, and the operability can be improved.
無人飛行体は、初期設定において追跡対象を設定する場合、又は追跡失敗後に再度追跡対象を設定する場合、端末に追跡対象候補を表示し、ユーザによる確認後の指示操作を入力する。これにより、ユーザが追跡対象を正確かつ容易に確認して設定でき、操作性を向上できる。 When the tracking target is set in the initial setting, or when the tracking target is set again after the tracking failure, the unmanned aircraft displays the tracking target candidate on the terminal and inputs the instruction operation after confirmation by the user. As a result, the user can accurately and easily confirm and set the tracking target, and the operability can be improved.
(第2の実施形態)
図12は、無人飛行体により追跡対象を追跡する第2の実施形態の様子を模式的に示す図である。第2の実施形態では、車両等の移動体を追跡対象として追跡して撮像する例を示す。無人飛行体100は、撮像装置220によって車両420を被写体として撮像し、撮像画像中の車両を追跡対象に設定する。無人飛行体100は、設定した追跡対象を継続して撮像するように、ジンバル230によって撮像装置220を回転させ、撮影方向を調整する。このとき、ジンバル230は、例えば、ヨー軸を中心とした水平方向Dh、ピッチ軸を中心とした垂直方向Dvに、それぞれ撮像装置220を回転させる。無人飛行体100は、追跡対象の車両420の移動に応じて、回転翼機構210を制御し、無人飛行体100の位置を追従させる。
(Second Embodiment)
FIG. 12 is a diagram schematically showing a state of a second embodiment in which a tracking target is tracked by an unmanned flying object. The second embodiment shows an example in which a moving object such as a vehicle is tracked and imaged as a tracking target. The
無人飛行体100は、追跡対象を追跡する際に、収音装置180によって撮像領域周辺の音を収音し、追跡対象に該当する音源方向SDを推定する。車両等の移動体は、移動の際にエンジン音、モータ音、タイヤ音、風切音など、各種の音を発生している。無人飛行体100は、移動体が発する音を取得し、音源方向SDを推定することによって、追跡対象の方向を検知する。無人飛行体100は、推定した音源方向SDに基づき、ジンバル230を制御して撮像装置220の撮影方向を音源方向SDに向かうように、すなわち追跡対象の車両420に向かうように調整する。
When the
無人飛行体100は、追跡動作の初期設定を行う際、図6に示した追跡対象の特徴値算出手順(S12)において、追跡対象に関する画像の特徴値と音の特徴値を算出する。画像の特徴値は、例えば画像特徴量の一例であるSIFTを用いてよい。音の特徴値は、例えば周波数特性などを用いてよい。
When the
図13は、第2の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。自動追跡動作の処理は、無人飛行体100における制御部110の追跡部111及び音源方向推定部112によって主に実行してよい。無人飛行体100の制御部110は、撮像装置220によって所定の撮像領域を撮影し、撮像画像を取得する(S51)。制御部110は、撮像画像から追跡対象に対応する画像を抽出する(S52)。このとき、制御部110は、設定された追跡対象範囲に基づいて追跡対象を含む領域の画像を抽出する。
FIG. 13 is a flowchart showing an example of the processing procedure of the automatic tracking operation in the second embodiment. The processing of the automatic tracking operation may be mainly executed by the
また、制御部110は、収音装置180によって収音した音声信号を受信し、撮像領域周辺の音データを取得する(S61)。制御部110は、取得した音データについて、複数の音源の音データを分離する(S62)。制御部110は、音源分離処理により、ノイズ等の環境音と、追跡対象に該当する被写体が発する音とを分離する。本例では、追跡対象の車両420が発した走行音等の音データを環境音から分離する。制御部110は、分離した複数の音データについて、追跡対象の音成分を主成分として抽出する(S63)。制御部110は、主成分の音データに関して、追跡対象の特徴値として音の特徴値を算出する。制御部110は、追跡対象に対応する主成分の音データについて、例えば音の特徴値によって、音源方向を推定する(S64)。制御部110は、音源方向の推定処理において、例えば、収音装置180のマイクアレイによって各マイクロホンにて取得した音データの位相情報を用いて、音源からの音の到来方向を推定する。
Further, the
制御部110は、抽出した所定領域の画像において追跡対象を探索する(S53)。制御部110は、追跡対象の探索処理において、画像の特徴値の比較を行い、抽出した所定領域の画像の特徴値と以前に算出した追跡対象の特徴値とを比較し、一致するかどうか判定する。このとき、制御部110は、音源方向の推定結果を用いて、撮像画像中の追跡対象を探索する領域を、音源方向に基づいて限定する。制御部110は、追跡対象の探索処理において、現在撮像した撮像画像における追跡対象の画像領域を用いて、追跡対象の画像の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から追跡対象の特徴値と一致する領域を抽出して探索してよい。制御部110は、追跡対象の探索処理において、現在取得した追跡対象の音データを用いて、追跡対象の音の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から音源方向に対応する所定領域を抽出して探索してよい。
The
制御部110は、追跡対象の特徴値が一致するか否かによって、追跡対象の同一性を判定する。制御部110は、追跡対象の特徴値の判定結果と音源方向の推定結果に基づき、撮影方向の調整が必要かどうか判定する(S54)。撮影方向の調整が必要である場合(S54:Yes)、制御部110は、音源方向の推定結果に基づき、追跡対象の方向を検知し、撮像装置220による撮影方向を調整する(S55)。このとき、制御部110は、撮像装置220とジンバル230の少なくとも一方の動きを制御し、追跡対象に向かうように撮像装置220の撮影方向を調整する。制御部110は、回転翼機構210を制御して無人飛行体100を移動、回転させ、撮影方向を調整してよい。そして、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S51〜S54、S61〜S64)。
The
上述した第2の実施形態では、無人飛行体は、追跡対象に該当する音源方向を推定し、音源方向推定結果を利用して、追跡対象を探索する。実施形態において、音源方向に応じて撮像画像における追跡対象を探索する領域を限定し、追跡対象の特徴値の算出、比較に関する画像処理を行う。これにより、追跡に関する処理量を削減できる。また、追跡動作時のロバスト性を向上できる。撮像画像中に追跡対象候補が複数存在する場合、音源方向によって正確に追跡対象を特定できる。また、音源方向推定結果を用いて撮影方向の調整し、追跡動作の補正を行うことができる。実施形態によれば、追跡対象の音源方向に応じて、追跡対象を見失うことなく撮像し、撮像画像中の追跡対象を的確に探索でき、追跡動作を継続できる。この場合、追跡対象を再設定する操作が不要になり、操作性を向上できる。 In the second embodiment described above, the unmanned vehicle estimates the sound source direction corresponding to the tracking target, and uses the sound source direction estimation result to search for the tracking target. In the embodiment, the area for searching the tracking target in the captured image is limited according to the sound source direction, and image processing related to calculation and comparison of feature values of the tracking target is performed. As a result, the amount of processing related to tracking can be reduced. In addition, robustness during tracking operation can be improved. When there are a plurality of tracking target candidates in the captured image, the tracking target can be accurately specified depending on the sound source direction. In addition, the shooting direction can be adjusted using the sound source direction estimation result, and the tracking operation can be corrected. According to the embodiment, according to the direction of the sound source of the tracking target, the tracking target can be imaged without losing sight of the tracking target, the tracking target in the captured image can be accurately searched, and the tracking operation can be continued. In this case, the operation of resetting the tracking target becomes unnecessary, and the operability can be improved.
本実施形態によれば、飛行体において撮像画像を用いて追跡対象を追跡する際に、追跡対象に該当する音源方向を推定し、推定した音源方向に基づいて撮像装置による撮影方向を調整できる。これにより、追跡対象に撮像装置を向けるようにでき、追跡結果を補正することができる。したがって、追跡対象を再設定する操作が不要になり、操作性を向上できる。 According to the present embodiment, when tracking a tracking target using a captured image in a flying object, the sound source direction corresponding to the tracking target can be estimated, and the shooting direction by the imaging device can be adjusted based on the estimated sound source direction. As a result, the imaging device can be directed to the tracking target, and the tracking result can be corrected. Therefore, the operation of resetting the tracking target becomes unnecessary, and the operability can be improved.
本実施形態によれば、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整することができる。これにより、追跡対象の追跡を失敗した場合であっても追跡対象に撮像装置を向けるように撮影方向を調整し、追跡結果を補正することができる。 According to the present embodiment, when the tracking of the tracking target fails, the sound information emitted by the tracking target can be acquired, the sound source direction can be estimated, and the shooting direction can be adjusted according to the sound source direction. As a result, even if the tracking of the tracking target fails, the imaging direction can be adjusted so that the imaging device is directed to the tracking target, and the tracking result can be corrected.
本実施形態によれば、撮像画像を用いて追跡対象を追跡する際に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮像画像における追跡対象を探索する領域を限定できる。これにより、追跡結果を補正でき、追跡に関する処理量を削減でき、追跡動作時のロバスト性を向上できる。 According to the present embodiment, when tracking a tracking target using a captured image, an area in which sound information emitted by the tracking target is acquired, the sound source direction is estimated, and the tracking target in the captured image is searched according to the sound source direction. Can be limited. As a result, the tracking result can be corrected, the amount of processing related to tracking can be reduced, and the robustness during the tracking operation can be improved.
以上、本開示について実施形態を用いて説明したが、本開示に係る発明の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。 Although the present disclosure has been described above using the embodiments, the technical scope of the invention according to the present disclosure is not limited to the scope described in the above-described embodiments. It will be apparent to those skilled in the art to make various changes or improvements to the embodiments described above. It is clear from the description of the claims that the form with such changes or improvements may be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, the specification, and the drawing is particularly "before" and "prior to". As long as the output of the previous process is not used in the subsequent process, it can be realized in any order. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it does not mean that it is essential to carry out in this order. do not have.
10 飛行制御システム
50 端末
51 処理部
52 メモリ
53 無線通信部
54 表示部
55 操作部
56 インタフェース部
57 ストレージ
58 バッテリ
100 無人飛行体(UAV)
102 UAV本体
110 制御部
111 追跡部
112 音源方向推定部
150 通信インタフェース
160 メモリ
170 ストレージ
180 収音装置
190 バッテリ
210 回転翼機構
220 撮像装置
230 ジンバル
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
10
102 UAV
Claims (18)
前記追跡対象を含む周囲の音を収音する収音装置と、
前記追跡対象の追跡に関する処理を実行する制御部と、を有する飛行体であって、
前記制御部は、
前記撮像装置により撮像した撮像画像を用いて前記追跡対象を追跡し、
前記収音装置により取得した前記追跡対象が発する音情報により前記追跡対象に該当する音源方向を推定し、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整し、
前記制御部は、
前記追跡対象の追跡を失敗した場合に、前記追跡対象が発する音情報を取得して音源方向を推定し、前記音源方向に応じて前記撮影方向を調整する、
飛行体。 An imaging device that captures a predetermined tracking target, and
A sound collecting device that collects ambient sound including the tracking target, and
An air vehicle having a control unit that executes processing related to tracking the tracking target.
The control unit
The tracking target is tracked using the captured image captured by the imaging device, and the tracking target is tracked.
The sound source direction corresponding to the tracking target is estimated from the sound information emitted by the tracking target acquired by the sound collecting device, and the sound source direction corresponding to the tracking target is estimated.
On the basis of the sound source direction estimation results by adjusting the imaging direction of the imaging device,
The control unit
When the tracking of the tracking target fails, the sound information emitted by the tracking target is acquired, the sound source direction is estimated, and the shooting direction is adjusted according to the sound source direction.
Aircraft.
前記追跡対象の追跡において、
前記撮像画像における前記追跡対象に関する画像の特徴値を算出し、前記画像の特徴値を比較して前記追跡対象を探索する、
請求項1に記載の飛行体。 The control unit
In the tracking of the tracking target,
The feature value of the image related to the tracking target in the captured image is calculated, and the feature value of the image is compared to search for the tracking target.
The flying object according to claim 1.
前記音情報における前記追跡対象に関する音の特徴値を算出し、
前記音の特徴値によって前記追跡対象の音源方向を推定し、前記音源方向に応じて前記追跡対象を追跡する、
請求項1又は2に記載の飛行体。 The control unit
Calculate the characteristic value of the sound related to the tracking target in the sound information,
The sound source direction of the tracking target is estimated from the characteristic value of the sound, and the tracking target is tracked according to the sound source direction.
The flying object according to claim 1 or 2.
前記追跡対象の追跡において、
前記推定した音源方向に応じて前記撮像画像における前記追跡対象を探索する領域を限定する、
請求項1〜3のいずれか一項に記載の飛行体。 The control unit
In the tracking of the tracking target,
The region for searching the tracking target in the captured image is limited according to the estimated sound source direction.
The flying object according to any one of claims 1 to 3.
前記音源方向の推定において、
前記収音装置により取得した音情報から前記追跡対象の音成分を抽出し、前記追跡対象の音成分について音源方向の推定処理を行う、
請求項1〜4のいずれか一項に記載の飛行体。 The control unit
In the estimation of the sound source direction,
The sound component of the tracking target is extracted from the sound information acquired by the sound collecting device, and the sound component of the tracking target is estimated in the sound source direction.
The flying object according to any one of claims 1 to 4.
前記撮影方向の調整において、
前記飛行体の回転翼機構と、前記撮像装置を支持する支持機構との少なくとも一方の動きを制御する、
請求項1〜5のいずれか一項に記載の飛行体。 The control unit
In the adjustment of the shooting direction,
Controlling the movement of at least one of the rotor blade mechanism of the flying object and the support mechanism supporting the image pickup device.
The flying object according to any one of claims 1 to 5.
前記飛行体は、
所定の追跡対象を撮像する撮像装置と、
前記追跡対象を含む周囲の音を収音する収音装置と、
前記追跡対象の候補情報を前記端末に送信する通信部と、
前記追跡対象の追跡に関する処理を実行するものであって、前記撮像装置により撮像した撮像画像を用いて前記追跡対象を追跡し、前記追跡対象の追跡を失敗した場合に、前記収音装置により取得した前記追跡対象が発する音情報により前記追跡対象に該当する音源方向を推定し、前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整する、制御部と、を有し、
前記端末は、
前記追跡対象の候補情報を受信する通信部と、
前記追跡対象の候補を表示する表示部と、
前記追跡対象の設定に関する入力を行う操作部と、を有する、
飛行制御システム。 A flight control system having an air vehicle and a terminal that communicates with the air vehicle.
The flying object
An imaging device that captures a predetermined tracking target, and
A sound collecting device that collects ambient sound including the tracking target, and
A communication unit that transmits the candidate information of the tracking target to the terminal, and
The process related to the tracking of the tracking target is executed, the tracking target is tracked using the image captured by the imaging device , and when the tracking of the tracking target fails, the sound collecting device acquires the tracking target. It has a control unit that estimates the sound source direction corresponding to the tracking target from the sound information emitted by the tracking target, and adjusts the shooting direction by the imaging device based on the estimation result of the sound source direction.
The terminal
A communication unit that receives the candidate information to be tracked, and
A display unit that displays the candidates to be tracked, and
It has an operation unit for inputting the setting of the tracking target.
Flight control system.
前記追跡対象の追跡を失敗した場合に、追跡失敗表示を行う、
請求項7に記載の飛行制御システム。 The display unit of the terminal is
When the tracking of the tracking target fails, the tracking failure display is displayed.
The flight control system according to claim 7.
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記収音した前記追跡対象が発する音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を有し、
前記音源方向を推定するステップは、
前記追跡対象の追跡を失敗した場合に、前記追跡対象が発する音情報を取得して音源方向を推定し、
前記撮影方向を調整するステップは、
前記推定した音源方向に応じて前記撮影方向を調整する、
飛行制御方法。 A flight control method for controlling an air vehicle that tracks a predetermined tracking target.
A step of imaging the tracking object with an imaging device,
A step of collecting the surrounding sound including the tracking target by the sound collecting device, and
A step of tracking the tracking target using the captured image, and
A step of estimating the sound source direction corresponding to the tracking target from the sound information emitted by the tracking target that has collected the sound, and a step of estimating the sound source direction corresponding to the tracking target.
Have a, and adjusting the imaging direction of the imaging device based on the sound source direction estimation result,
The step of estimating the sound source direction is
When the tracking of the tracking target fails, the sound information emitted by the tracking target is acquired to estimate the sound source direction, and the sound source direction is estimated.
The step of adjusting the shooting direction is
The shooting direction is adjusted according to the estimated sound source direction.
Flight control method.
前記撮像画像における前記追跡対象に関する画像の特徴値を算出し、前記画像の特徴値を比較して前記追跡対象を探索する、
請求項9に記載の飛行制御方法。 The step of tracking the tracking target is
The feature value of the image related to the tracking target in the captured image is calculated, and the feature value of the image is compared to search for the tracking target.
The flight control method according to claim 9.
前記追跡対象を追跡するステップは、
前記音の特徴値によって前記追跡対象の音源方向を推定し、前記音源方向に応じて前記追跡対象を追跡する、
請求項9又は10に記載の飛行制御方法。 It has a step of calculating a characteristic value of a sound related to the tracking target in the sound information.
The step of tracking the tracking target is
The sound source direction of the tracking target is estimated from the characteristic value of the sound, and the tracking target is tracked according to the sound source direction.
The flight control method according to claim 9 or 10.
前記推定した音源方向に応じて前記撮像画像における前記追跡対象を探索する領域を限定する、
請求項9〜11のいずれか一項に記載の飛行制御方法。 The step of tracking the tracking target is
The region for searching the tracking target in the captured image is limited according to the estimated sound source direction.
The flight control method according to any one of claims 9 to 11.
前記収音装置により取得した音情報から前記追跡対象の音成分を抽出し、前記追跡対象の音成分について音源方向の推定処理を行う、
請求項9〜12のいずれか一項に記載の飛行制御方法。 The step of tracking the tracking target is
The sound component of the tracking target is extracted from the sound information acquired by the sound collecting device, and the sound component of the tracking target is estimated in the sound source direction.
The flight control method according to any one of claims 9 to 12.
前記飛行体の回転翼機構と、前記撮像装置を支持する支持機構との少なくとも一方の動きを制御する、
請求項9〜13のいずれか一項に記載の飛行制御方法。 The step of adjusting the shooting direction is
Controlling the movement of at least one of the rotor blade mechanism of the flying object and the support mechanism supporting the image pickup device.
The flight control method according to any one of claims 9 to 13.
前記追跡対象の候補情報を前記端末により受信するステップと、
前記追跡対象の候補を表示部により表示するステップと、
前記追跡対象の設定に関する入力を行うステップと、を有する、
請求項9に記載の飛行制御方法。 A step of transmitting the candidate information of the tracking target to a terminal communicating with the flying object, and
A step of receiving the candidate information of the tracking target by the terminal, and
A step of displaying the candidate to be tracked by the display unit, and
It has a step of inputting the setting of the tracking target.
The flight control method according to claim 9.
請求項15に記載の飛行制御方法。 When the tracking of the tracking target fails, the display unit has a step of displaying the tracking failure.
The flight control method according to claim 15.
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記追跡対象の追跡を失敗した場合に、前記収音した前記追跡対象が発する音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を実行させるための、
プログラム。 To a computer that controls an air vehicle that tracks a given tracking target,
A step of imaging the tracking object with an imaging device,
A step of collecting the surrounding sound including the tracking target by the sound collecting device, and
A step of tracking the tracking target using the captured image, and
When the tracking of the tracking target fails , the step of estimating the sound source direction corresponding to the tracking target from the sound information emitted by the tracking target that has collected the sound, and the step of estimating the sound source direction corresponding to the tracking target.
To execute the step of adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction.
program.
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記追跡対象の追跡を失敗した場合に、前記収音した前記追跡対象が発する音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な、
記録媒体。 To a computer that controls an air vehicle that tracks a given tracking target,
A step of imaging the tracking object with an imaging device,
A step of collecting the surrounding sound including the tracking target by the sound collecting device, and
A step of tracking the tracking target using the captured image, and
When the tracking of the tracking target fails , the step of estimating the sound source direction corresponding to the tracking target from the sound information emitted by the tracking target that has collected the sound, and the step of estimating the sound source direction corresponding to the tracking target.
A computer-readable computer that records a program for adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction and executing the step.
recoding media.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017120639A JP6912281B2 (en) | 2017-06-20 | 2017-06-20 | Aircraft, flight control systems, flight control methods, programs and recording media |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017120639A JP6912281B2 (en) | 2017-06-20 | 2017-06-20 | Aircraft, flight control systems, flight control methods, programs and recording media |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019006154A JP2019006154A (en) | 2019-01-17 |
JP6912281B2 true JP6912281B2 (en) | 2021-08-04 |
Family
ID=65027434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017120639A Active JP6912281B2 (en) | 2017-06-20 | 2017-06-20 | Aircraft, flight control systems, flight control methods, programs and recording media |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6912281B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7442147B2 (en) | 2019-02-19 | 2024-03-04 | パナソニックIpマネジメント株式会社 | Unmanned aerial vehicles, information processing methods and programs |
CN113453980B (en) * | 2019-05-15 | 2024-03-29 | 松下知识产权经营株式会社 | Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system |
CN117999471A (en) * | 2021-09-30 | 2024-05-07 | 杰富意先进技术株式会社 | Acoustic wave receiving device, acoustic source azimuth calibration device and acoustic source azimuth calibration method |
WO2023164814A1 (en) * | 2022-03-01 | 2023-09-07 | 深圳市大疆创新科技有限公司 | Media apparatus and control method and device therefor, and target tracking method and device |
CN116027804B (en) * | 2022-12-30 | 2024-02-13 | 中国科学院长春光学精密机械与物理研究所 | Unmanned plane ground photoelectric measurement and control guiding device and guiding method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6470024B2 (en) * | 2014-11-27 | 2019-02-13 | みこらった株式会社 | Levitating platform |
JP6551824B2 (en) * | 2015-01-23 | 2019-07-31 | みこらった株式会社 | Floating platform |
JP6680498B2 (en) * | 2015-09-28 | 2020-04-15 | 株式会社日立システムズ | Autonomous flying vehicle, target tracking method |
-
2017
- 2017-06-20 JP JP2017120639A patent/JP6912281B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019006154A (en) | 2019-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6912281B2 (en) | Aircraft, flight control systems, flight control methods, programs and recording media | |
US11573562B2 (en) | Magic wand interface and other user interaction paradigms for a flying digital assistant | |
JP6878567B2 (en) | 3D shape estimation methods, flying objects, mobile platforms, programs and recording media | |
JP6803800B2 (en) | Information processing device, aerial photography route generation method, aerial photography route generation system, program, and recording medium | |
JP6899846B2 (en) | Flight path display methods, mobile platforms, flight systems, recording media and programs | |
US20200097027A1 (en) | Method and apparatus for controlling an unmanned aerial vehicle and an unmanned aerial vehicle system | |
JP6817422B2 (en) | Information processing device, aerial photography route generation method, aerial photography route generation system, program, and recording medium | |
US12024284B2 (en) | Information processing device, information processing method, and recording medium | |
US20190116309A1 (en) | Overhead line image capturing system and overhead line image capturing method | |
JPWO2018193574A1 (en) | Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium | |
JP2019040514A (en) | Communication relay method, relay flying body, program and recording medium | |
JP2018070011A (en) | Unmanned aircraft controlling system, controlling method and program thereof | |
CN111213107B (en) | Information processing device, imaging control method, program, and recording medium | |
CN111344650B (en) | Information processing device, flight path generation method, program, and recording medium | |
WO2017203646A1 (en) | Image capture control device, shadow position specification device, image capture system, mobile object, image capture control method, shadow position specification method, and program | |
US12007763B2 (en) | Magic wand interface and other user interaction paradigms for a flying digital assistant | |
CN105807783A (en) | Flight camera | |
JP2020135327A (en) | Flight body system, flight body, position measuring method and program | |
JP2023095030A (en) | Abnormality detecting system and abnormality detecting method | |
CN114586335A (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP6974290B2 (en) | Position estimation device, position estimation method, program, and recording medium | |
JP2018070012A (en) | Unmanned aircraft controlling system, controlling method and program thereof | |
JP2013096934A (en) | Target position detection device, target position detection method for use in the same, and target position detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200923 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210708 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6912281 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |