JP2019006154A - Flight vehicle, flight control system, flight control method, program, and recording medium - Google Patents
Flight vehicle, flight control system, flight control method, program, and recording medium Download PDFInfo
- Publication number
- JP2019006154A JP2019006154A JP2017120639A JP2017120639A JP2019006154A JP 2019006154 A JP2019006154 A JP 2019006154A JP 2017120639 A JP2017120639 A JP 2017120639A JP 2017120639 A JP2017120639 A JP 2017120639A JP 2019006154 A JP2019006154 A JP 2019006154A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- tracking target
- sound
- sound source
- source direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 57
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 title claims description 31
- 238000003384 imaging method Methods 0.000 claims abstract description 108
- 238000012545 processing Methods 0.000 claims abstract description 54
- 230000007246 mechanism Effects 0.000 claims description 28
- 238000004891 communication Methods 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 26
- 238000012790 confirmation Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000010365 information processing Effects 0.000 description 14
- 239000000284 extract Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000003905 agrochemical Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000003337 fertilizer Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本開示は、所定の対象を追跡可能な飛行体、飛行制御システム、飛行体を制御するための飛行制御方法、プログラム及び記録媒体に関する。 The present disclosure relates to an aircraft capable of tracking a predetermined object, a flight control system, a flight control method for controlling the aircraft, a program, and a recording medium.
撮像装置を搭載し、空中を飛行しながら被写体を撮像する空中撮影が可能な飛行体(例えばUAV:Unmanned Aerial Vehicle)が知られている。この種の空中撮影に利用可能な飛行体において、主要な被写体となる人や乗り物等の所定の対象を目標として自動的に追跡する機能を持つものがある。 2. Description of the Related Art A flying body (for example, UAV: Unmanned Aerial Vehicle) that is equipped with an imaging device and is capable of performing aerial shooting that captures an image of a subject while flying in the air is known. Among the flying bodies that can be used for this kind of aerial photography, there is one that has a function of automatically tracking a predetermined target such as a person or a vehicle as a main subject.
飛行体が追跡動作を行っている際に、追跡対象の被写体の向きや距離、位置などの変化が大きい場合、追跡対象が他の被写体に隠れて遮断される場合など、追跡対象を見失って自動追跡に失敗してしまうことがある。このように追跡動作が中断した場合、飛行体を制御するための端末をユーザが操作して追跡対象を再度設定し直すことなどにより、追跡を再開する。 When the flying object is tracking, if there is a large change in the direction, distance, position, etc. of the subject to be tracked, or if the subject is hidden behind another object Sometimes tracking fails. When the tracking operation is interrupted in this way, the tracking is resumed by the user operating the terminal for controlling the flying object to reset the tracking target again.
自動追跡機能を有する飛行体の例として、例えば特許文献1には、俯瞰することができない状況においても目標物の追跡が可能な自律飛行移動体が開示されている。この従来例の自律飛行移動体は、ターゲットを認識できなくなった場合に、地図情報に基づいて認識できなくなった位置付近の経路を探索し、探索された経路に基づいてターゲットの追跡を実行するものである。
As an example of a flying object having an automatic tracking function, for example,
従来の追跡機能を有する飛行体では、追跡動作中に追跡対象を見失った場合、ユーザが飛行体を制御するための端末を用いて追跡対象を再度設定する等の操作が必要となる。追跡対象の再設定操作を行う際には、ユーザが端末操作と同時に飛行体の機体の状態を確認することができないため、追跡対象の設定と飛行体の操縦との同時操作は困難である。このように、従来の飛行体では、追跡対象の自動追跡に失敗した場合、追跡を続行するための操作性に課題がある。 In a flying object having a conventional tracking function, when the tracking object is lost during the tracking operation, an operation such as setting the tracking object again by using a terminal for controlling the flying object by the user is required. When performing the resetting operation of the tracking target, the user cannot confirm the state of the aircraft body at the same time as the terminal operation, and therefore it is difficult to simultaneously perform the tracking target setting and the flying vehicle maneuvering. As described above, the conventional aircraft has a problem in operability for continuing the tracking when the tracking of the tracking target fails.
一態様において、所定の追跡対象を撮像する撮像装置と、追跡対象を含む周囲の音を収音する収音装置と、追跡対象の追跡に関する処理を実行する制御部と、を有する飛行体であって、制御部は、撮像装置により撮像した撮像画像を用いて追跡対象を追跡し、収音装置により取得した音情報により追跡対象に該当する音源方向を推定し、音源方向の推定結果に基づいて撮像装置による撮影方向を調整する、飛行体である。 In one aspect, the vehicle includes an imaging device that captures an image of a predetermined tracking target, a sound collection device that collects surrounding sounds including the tracking target, and a control unit that executes processing related to tracking of the tracking target. The control unit tracks the tracking target using the captured image captured by the imaging device, estimates the sound source direction corresponding to the tracking target based on the sound information acquired by the sound collection device, and based on the estimation result of the sound source direction It is a flying body that adjusts the shooting direction of the imaging device.
制御部は、追跡対象の追跡において、撮像画像における追跡対象に関する画像の特徴値を算出し、画像の特徴値を比較して追跡対象を探索してよい。 In tracking the tracking target, the control unit may calculate a feature value of the image related to the tracking target in the captured image and compare the feature values of the images to search for the tracking target.
制御部は、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整してよい。 When the tracking of the tracking target fails, the control unit may acquire sound information emitted from the tracking target, estimate the sound source direction, and adjust the shooting direction according to the sound source direction.
制御部は、音情報における追跡対象に関する音の特徴値を算出し、音の特徴値によって追跡対象の音源方向を推定し、音源方向に応じて追跡対象を追跡してよい。 The control unit may calculate a sound feature value related to the tracking target in the sound information, estimate a sound source direction of the tracking target based on the sound feature value, and track the tracking target according to the sound source direction.
制御部は、追跡対象の追跡において、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定してよい。 In the tracking of the tracking target, the control unit may limit a region for searching for the tracking target in the captured image according to the estimated sound source direction.
制御部は、音源方向の推定において、収音装置により取得した音情報から追跡対象の音成分を抽出し、追跡対象の音成分について音源方向の推定処理を行ってよい。 In the estimation of the sound source direction, the control unit may extract a sound component to be tracked from sound information acquired by the sound collection device, and perform a sound source direction estimation process for the sound component to be tracked.
制御部は、撮影方向の調整において、飛行体の回転翼機構と、撮像装置を支持する支持機構との少なくとも一方の動きを制御してよい。 The control unit may control at least one movement of the rotating wing mechanism of the flying object and the support mechanism that supports the imaging device in the adjustment of the shooting direction.
一態様において、飛行体と、飛行体と通信を行う端末と、を有する飛行制御システムであって、飛行体は、所定の追跡対象を撮像する撮像装置と、追跡対象を含む周囲の音を収音する収音装置と、追跡対象の候補情報を端末に送信する通信部と、追跡対象の追跡に関する処理を実行するものであって、撮像装置により撮像した撮像画像を用いて追跡対象を追跡し、収音装置により取得した音情報により追跡対象に該当する音源方向を推定し、音源方向の推定結果に基づいて撮像装置による撮影方向を調整する、制御部と、を有し、端末は、追跡対象の候補情報を受信する通信部と、追跡対象の候補を表示する表示部と、追跡対象の設定に関する入力を行う操作部と、を有する、飛行制御システムである。 In one aspect, a flight control system comprising a flying object and a terminal that communicates with the flying object, wherein the flying object collects an imaging device that images a predetermined tracking target and ambient sounds including the tracking target. A sound collection device for sounding, a communication unit for transmitting tracking target candidate information to a terminal, and processing for tracking the tracking target, and tracking the tracking target using a captured image captured by the imaging device A control unit that estimates a sound source direction corresponding to a tracking target based on sound information acquired by the sound collection device, and adjusts a shooting direction by the imaging device based on an estimation result of the sound source direction. The flight control system includes a communication unit that receives target candidate information, a display unit that displays tracking target candidates, and an operation unit that performs input related to setting of the tracking target.
端末の表示部は、追跡対象の追跡を失敗した場合に、追跡失敗表示を行ってよい。 The display unit of the terminal may perform tracking failure display when tracking of the tracking target fails.
一態様において、所定の追跡対象を追跡する飛行体を制御するための飛行制御方法であって、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を有する、飛行制御方法である。 In one aspect, a flight control method for controlling a flying object that tracks a predetermined tracking target, the step of imaging the tracking target with an imaging device, and the collection of ambient sounds including the tracking target with a sound pickup device A step of tracking a tracking target using the picked-up captured image, a step of estimating a sound source direction corresponding to the tracking target based on collected sound information, and photographing by an imaging device based on the estimation result of the sound source direction Adjusting the direction, and a flight control method.
追跡対象を追跡するステップは、撮像画像における追跡対象に関する画像の特徴値を算出し、画像の特徴値を比較して追跡対象を探索するステップを含んでよい。 The step of tracking the tracking target may include a step of calculating a feature value of the image related to the tracking target in the captured image and searching for the tracking target by comparing the feature values of the image.
音源方向を推定するステップは、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定するステップを含み、撮影方向を調整するステップは、推定した音源方向に応じて撮影方向を調整するステップを含んでよい。 The step of estimating the sound source direction includes a step of estimating sound source direction by acquiring sound information emitted from the tracking target when tracking of the tracking target fails, and the step of adjusting the shooting direction is performed on the estimated sound source direction. Accordingly, a step of adjusting the photographing direction may be included.
音情報における追跡対象に関する音の特徴値を算出するステップを有し、追跡対象を追跡するステップは、音の特徴値によって追跡対象の音源方向を推定し、音源方向に応じて追跡対象を追跡するステップを含んでよい。 A step of calculating a sound feature value related to the tracking target in the sound information, and the step of tracking the tracking target estimates a sound source direction of the tracking target based on the sound feature value and tracks the tracking target according to the sound source direction. Steps may be included.
追跡対象を追跡するステップは、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定するステップを含んでよい。 The step of tracking the tracking target may include a step of limiting a region for searching the tracking target in the captured image according to the estimated sound source direction.
追跡対象を追跡するステップは、収音装置により取得した音情報から追跡対象の音成分を抽出し、追跡対象の音成分について音源方向の推定処理を行うステップを含んでよい。 The step of tracking the tracking target may include a step of extracting a sound component of the tracking target from the sound information acquired by the sound collecting device and performing a sound source direction estimation process on the tracking target sound component.
撮影方向を調整するステップは、飛行体の回転翼機構と、撮像装置を支持する支持機構との少なくとも一方の動きを制御するステップを含んでよい。 The step of adjusting the shooting direction may include a step of controlling the movement of at least one of the rotating wing mechanism of the flying object and the support mechanism that supports the imaging device.
飛行制御方法において、追跡対象の候補情報を飛行体と通信を行う端末に送信するステップと、追跡対象の候補情報を端末により受信するステップと、追跡対象の候補を表示部により表示するステップと、追跡対象の設定に関する入力を行うステップと、を有してよい。 In the flight control method, the step of transmitting the tracking target candidate information to a terminal that communicates with the flying object, the step of receiving the tracking target candidate information by the terminal, the step of displaying the tracking target candidate by a display unit, And making an input regarding the setting of the tracking target.
飛行制御方法において、追跡対象の追跡を失敗した場合に、表示部により追跡失敗表示を行うステップ、を有してよい。 The flight control method may include a step of displaying a tracking failure on the display unit when the tracking of the tracking target fails.
一態様において、プログラムは、所定の追跡対象を追跡する飛行体を制御するコンピュータに、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を実行させるための、プログラムである。 In one aspect, the program captures the tracking object with an imaging device on a computer that controls a flying object that tracks the predetermined tracking object, and collects ambient sounds including the tracking object with a sound collection device. , Tracking the tracking target using the captured image, estimating the sound source direction corresponding to the tracking target from the collected sound information, and adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction And a step for executing the program.
一態様において、記録媒体は、所定の追跡対象を追跡する飛行体を制御するコンピュータに、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な、記録媒体である。 In one aspect, the recording medium includes a step of capturing an image of the tracking target by an imaging device and a step of collecting a surrounding sound including the tracking target by a sound collecting device on a computer that controls a flying object that tracks the predetermined tracking target. Tracking the tracking target using the captured image, estimating the sound source direction corresponding to the tracking target from the collected sound information, and determining the shooting direction by the imaging device based on the estimation result of the sound source direction. A computer-readable recording medium having recorded thereon a program for executing the adjusting step.
なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the summary of the invention described above does not enumerate all the features of the present disclosure. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本開示を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。 Hereinafter, although this indication is explained through an embodiment of the invention, the following embodiment does not limit the invention concerning a claim. Not all combinations of features described in the embodiments are essential for the solution of the invention.
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。但し、それ以外の場合、一切の著作権を留保する。 The claims, the description, the drawings, and the abstract include matters subject to copyright protection. The copyright owner will not object to any number of copies of these documents as they appear in the JPO file or record. However, in other cases, all copyrights are reserved.
本開示に係る飛行制御方法は、飛行体の飛行を制御するための情報処理装置における各種の処理(ステップ)が規定されたものである。飛行体は、空中を移動する航空機(例えばドローン、ヘリコプター)を含む。飛行体は、無人飛行体(UAV:Unmanned Aerial Vehicle)であってもよい。飛行体は、空中撮影、物の運搬、或いは農薬、肥料、水等の散布作業等の飛行を伴う各種作業を行うためにあらかじめ設定された飛行経路に沿って飛行する。飛行体は、自動追跡動作を行う際、設定された追跡対象を追跡しながら飛行する。 In the flight control method according to the present disclosure, various processes (steps) in the information processing apparatus for controlling the flight of the flying object are defined. The flying object includes an aircraft (eg, drone, helicopter) that moves in the air. The flying vehicle may be an unmanned aerial vehicle (UAV). The flying object flies along a predetermined flight path in order to perform various operations involving flying such as aerial photography, transportation of objects, or spraying work of agricultural chemicals, fertilizers, water and the like. When performing the automatic tracking operation, the flying object flies while tracking the set tracking target.
本開示に係る情報処理装置は、コンピュータであって、例えば飛行体自体に情報処理装置が含まれてよい。本開示に係る情報処理装置は、飛行体の移動を含む各種処理の遠隔制御を指示するための送信機、又は送信機との間で情報やデータの入出力が可能に接続された端末装置、若しくは飛行体との間で情報やデータの入出力が可能に接続された端末装置など、各種の端末(プラットフォーム)を含む。端末は、例えばPC、タブレット端末、携帯端末などであってよい。 The information processing apparatus according to the present disclosure is a computer, and the information processing apparatus may be included in the flying object itself, for example. An information processing apparatus according to the present disclosure includes a transmitter for instructing remote control of various processes including movement of a flying object, or a terminal device connected to be able to input and output information and data with the transmitter, Alternatively, various terminals (platforms) such as a terminal device connected so as to be able to input and output information and data with the flying object are included. The terminal may be a PC, a tablet terminal, a portable terminal, or the like, for example.
本開示に係るプログラムは、情報処理装置に各種の処理(ステップ)を実行させるためのプログラムである。 The program according to the present disclosure is a program for causing an information processing apparatus to execute various processes (steps).
本開示に係る記録媒体は、プログラム(つまり、情報処理装置に各種の処理(ステップ)を実行させるためのプログラム)が記録されたものである。 The recording medium according to the present disclosure stores a program (that is, a program for causing an information processing apparatus to execute various processes (steps)).
本開示に係る飛行制御システムは、移動体の一例としての飛行体と、飛行体の動作又は処理を遠隔で制御するための端末(プラットフォーム)とを含む構成である。本開示に係る飛行制御システムは、飛行体単体で追跡対象を追跡して飛行する構成であってよい。 The flight control system according to the present disclosure includes a flying object as an example of a moving object and a terminal (platform) for remotely controlling the operation or processing of the flying object. The flight control system according to the present disclosure may be configured to track and track a tracking target with a single flying object.
以下に示す本開示に係る各実施形態において、飛行体として、無人飛行体(UAV)を例示する。本明細書に添付する図面では、無人飛行体を「UAV」と表記する。以下に示す各実施形態において、飛行体は、追跡対象を設定し、追跡対象に追従して位置を移動させながら飛行する。 In each embodiment according to the present disclosure described below, an unmanned aerial vehicle (UAV) is illustrated as a flying object. In the drawings attached to this specification, an unmanned air vehicle is denoted as “UAV”. In each embodiment described below, the flying object sets a tracking target and flies while moving the position following the tracking target.
以下に示す各実施形態において、情報処理装置は、飛行体において、追跡対象の特徴値として、画像情報、音情報などを含む特徴値情報を生成、取得、変更が可能である。情報処理装置は、飛行体において、飛行開始位置、飛行終了位置、飛行経路上の所定位置、飛行高度、飛行速度などのうち、少なくとも一つを含む飛行位置の情報を生成、取得、変更が可能である。端末に情報処理装置が含まれる場合、情報処理装置は飛行体と通信可能であり、追跡対象の特徴値情報、飛行体の飛行位置の情報を飛行体に伝送可能である。ここにいう「通信」とは、データ通信全般を含む広い概念であり、ケーブルなどにより有線接続する場合だけでなく、無線通信によって接続する場合も含まれる。また、情報処理装置が飛行体と直接通信する場合だけでなく、送信機又は記憶媒体を介して間接的に通信を行う場合も含まれる。 In each embodiment described below, the information processing apparatus can generate, acquire, and change feature value information including image information, sound information, and the like as a tracking target feature value in the flying object. The information processing device can generate, acquire, and change flight position information including at least one of the flight start position, flight end position, predetermined position on the flight path, flight altitude, flight speed, etc. It is. When the information processing device is included in the terminal, the information processing device can communicate with the flying object, and can transmit the characteristic value information of the tracking target and the flight position information of the flying object to the flying object. Here, “communication” is a broad concept including data communication in general, and includes not only a case where a wired connection is made by a cable or the like but also a case where a connection is made by wireless communication. In addition to the case where the information processing apparatus directly communicates with the flying object, the case where the information processing apparatus communicates indirectly via a transmitter or a storage medium is also included.
図1は、実施形態における飛行制御システム10の構成例を示す模式図である。飛行制御システム10は、無人飛行体100及び端末50を含む。無人飛行体100及び端末50は、有線通信又は無線通信(例えば無線LAN(Local Area Network)、又はBluetooth(登録商標))を用いて、互いに通信することが可能である。端末50は、例えば端末50を使用する人物(以下、「ユーザ」という)の両手で把持された状態で使用される。端末50は、例えば送信機、タブレット端末、携帯端末、PCなどであってよい。端末50は、送信機にタブレット端末又は携帯端末が装着され互いに通信可能に設けられた構成であってよい。
Drawing 1 is a mimetic diagram showing the example of composition of
図2は、無人飛行体100の外観の一例を示す図である。無人飛行体100は、撮像部の一例としての撮像装置220を備えて移動する移動体の一例である。移動体とは、無人飛行体100の他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。ここで、図2に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(図2のx軸参照)が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(図2のy軸参照)が定められ、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(図2のz軸)が定められる。
FIG. 2 is a diagram illustrating an example of the appearance of the
無人飛行体100は、UAV本体102と、回転翼機構210と、撮像装置220と、ジンバル230と、収音装置180とを含む構成である。無人飛行体100は、例えば端末50から送信される遠隔制御の指示を基に移動することができる。無人飛行体100の移動は、飛行を意味し、少なくとも上昇、降下、左旋回、右旋回、左水平移動、右水平移動の飛行が含まれる。
The
無人飛行体100は、複数の回転翼機構(プロペラ)210を備える。無人飛行体100は、例えば4つの回転翼機構210を備える。無人飛行体100は、これら回転翼機構210の回転を制御することにより無人飛行体100を移動させる。ただし、回転翼の数は、4つに限定されない。また、無人飛行体100は、回転翼を有さない固定翼機でよい。
The
撮像装置220は、所望の撮像範囲に含まれる被写体(例えば人物、車両など)を撮像するカメラである。撮像装置220は、支持機構の一例であるジンバル230に取り付けられ、ジンバル230の動きによって撮像範囲が調節される。
The
収音装置180は、被写体を含む撮像範囲の周辺の音を収音するマイクロホンである。収音装置180は、複数のマイクロホンを有するマイクアレイでよい。
The
次に、無人飛行体100の構成例について説明する。
Next, a configuration example of the
図3は、無人飛行体100のハードウェア構成の一例を示すブロック図である。無人飛行体100は、制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、収音装置180と、バッテリ190と、回転翼機構210と、撮像装置220と、ジンバル230と、GPS受信機240と、慣性計測装置250と、磁気コンパス260と、気圧高度計270と、超音波センサ280とを含む構成である。
FIG. 3 is a block diagram illustrating an example of a hardware configuration of the
制御部110は、プロセッサ、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。制御部110は、無人飛行体100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。制御部110は、無人飛行体100において飛行の制御に関する処理を実行する機能を有する。
The
制御部110は、メモリ160又はストレージ170に格納されたプログラムに従って無人飛行体100の飛行を制御する。また、制御部110は、通信インタフェース150を介して遠隔の端末50から受信した命令に従って、無人飛行体100の移動(つまり、飛行)を制御する。
The
制御部110は、回転翼機構210を制御することで、無人飛行体100の飛行を制御する。つまり、制御部110は、回転翼機構210を制御することにより、無人飛行体100の緯度、経度、及び高度を含む位置、並びに向きを制御する。制御部110は、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280のうちの少なくとも一つにより取得される位置情報に基づき、回転翼機構210を制御する。
The
制御部110は、例えば撮像装置220の撮像方向を示す情報として、ジンバル230から撮像装置220の姿勢の状態を示す姿勢情報を取得する。撮像装置220の姿勢の状態を示す情報は、ジンバル230のピッチ軸及びヨー軸の基準回転角度からの回転角度を示す。制御部110は、無人飛行体100の向きを示す情報を取得する。
The
制御部110は、撮像装置220及びジンバル230を制御する。制御部110は、撮像装置220の撮像方向又は画角を変更することによって、撮像装置220の撮像範囲を制御する。制御部110は、ジンバル230の回転機構を制御することで、ジンバル230に支持されている撮像装置220の撮像範囲を制御する。
The
制御部110は、撮像装置220により撮像された被写体の画像データ(以下、「撮像画像」と称する場合がある)を取得する。
The
制御部110は、収音装置180により収音された被写体及び周辺の音情報を取得する。
The
通信インタフェース150は、通信部の一例であり、端末50と通信する。通信インタフェース150は、端末50からの追跡対象、飛行経路等に関する各種の情報を受信する。通信インタフェース150は、端末50からの制御部110に対する各種の命令を受信する。
The
メモリ160は、記憶部の一例である。メモリ160は、制御部110が回転翼機構210、撮像装置220、ジンバル230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、通信インタフェース150、ストレージ170、及び収音装置180を制御するのに必要なプログラム等を格納する。メモリ160は、制御部110の処理時に使用される各種の情報やデータを保存する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人飛行体100の内部に設けられてよいし、無人飛行体100から取り外し可能に設けられてよい。メモリ160には、追跡対象の特徴値情報などを含む追跡情報を保存してよい。
The
ストレージ170は、記憶部の一例である。ストレージ170は、各種データ、情報を蓄積し、保持する。ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ170は、無人飛行体100の内部に設けられてよいし、無人飛行体100から取り外し可能に設けられてよい。
The
収音装置180は、複数のマイクロホンが列状に配置されたマイクアレイを含む。収音装置180は、例えば、2つ以上のマイクロホンと、各マイクロホンにて収音した音信号を処理する信号処理回路とを含んでよい。収音装置180は、追跡対象の音源方向の推定のために、追跡対象を含む周囲の音を収音し、複数のマイクロホンにてそれぞれ収音した追跡対象を含む被写体の音信号の情報を取得する。
The
バッテリ190は、無人飛行体100の各部の駆動源としての機能を有し、無人飛行体100の各部に必要な電源を供給する。
The
回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。回転翼機構210は、回転翼を回転させることにより、特定の方向の気流を生じさせ、無人飛行体100の飛行(上昇、下降、水平移動、旋回、傾斜等)を制御する。
The
撮像装置220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像画像は動画であってもよく、静止画であってよい。撮像装置220の撮像により得られた画像データは、撮像装置220が有するメモリ又はメモリ160、ストレージ170などに格納される。
The
ジンバル230は、撮像装置220を支持する支持機構の一例であり、少なくとも1つの軸を中心に撮像装置220を回転可能に支持する。ジンバル230は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置220を回転可能に支持してよい。ジンバル230は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置220を回転させることで、撮像装置220の撮像方向を変更してよい。
The
GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人飛行体100の位置)を算出する。GPS受信機240は、無人飛行体100の位置情報を制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりに制御部110により行われてよい。この場合、制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。
The
慣性計測装置(IMU:Inertial Measurement Unit)250は、無人飛行体100の姿勢を検出し、検出結果を制御部110に出力する。慣性計測装置250は、無人飛行体100の姿勢として、無人飛行体100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出する。
An inertial measurement unit (IMU) 250 detects the attitude of the
磁気コンパス260は、無人飛行体100の機首の方位を検出し、検出結果を制御部110に出力する。気圧高度計270は、無人飛行体100が飛行する高度を検出し、検出結果を制御部110に出力する。超音波センサ280は、超音波を照射し、地面や物体により反射された超音波を検出し、検出結果を制御部110に出力する。検出結果は、例えば無人飛行体100から地面までの距離(つまり、高度)を示す。検出結果は、例えば無人飛行体100から物体までの距離を示してよい。
The
次に、無人飛行体100の制御部110の機能の一例について説明する。
制御部110は、撮像装置220により撮像された撮像画像の画像データ中の被写体において、所定の追跡対象の追跡に関する処理を行う追跡部111と、収音装置180により取得された音情報のデータ(音データ)に基づいて所定の音源方向の推定に関する処理を行う音源方向推定部112とを含む。
Next, an example of the function of the
The
追跡部111は、設定された追跡対象を追跡するよう無人飛行体100を移動させ、追跡対象を撮像装置220にて撮像可能なように、回転翼機構210、撮像装置220及びジンバル230を制御する。追跡部111は、撮像装置220にて取得した撮像画像を用いて追跡対象を追跡する。追跡部111は、撮像装置220にて撮像した撮像画像において追跡対象の特徴値の算出、比較、更新を行い、追跡対象を探索する。追跡部111は、動画像の撮像画像において、以前のフレームの追跡対象の特徴値と現在のフレームの特徴値とを比較し、特徴値が一致する追跡対象を探索する。
The
音源方向推定部112は、収音装置180にて取得した音データから、追跡対象が発する音と環境音とを分離し、各マイクロホンにて取得した追跡対象の音の位相情報を取得し、追跡対象に該当する音源の方向を推定する。
The sound source
追跡部111は、推定された音源方向に基づいて、撮像装置220及びジンバル230を制御し、例えば音源方向に応じて追跡対象に向かうように撮像装置220の撮影方向を調整する。
The
次に、端末50の構成例について説明する。 Next, a configuration example of the terminal 50 will be described.
図4は、端末50のハードウェア構成の一例を示すブロック図である。端末50は、処理部51と、メモリ52と、無線通信部53と、表示部54と、操作部55と、インタフェース部56と、ストレージ57と、バッテリ58とを含む構成である。端末50は、無人飛行体100を遠隔制御するための指示を送信する操作端末の機能を持つ情報処理装置の一例である。端末50は、無人飛行体100の飛行に関する各種の情報やデータの入出力を行う設定端末の機能を持つ情報処理装置の一例である。なお、端末50は、送信機とタブレット端末又は携帯端末とが互いに接続された別体の構成であってよい。
FIG. 4 is a block diagram illustrating an example of a hardware configuration of the terminal 50. The terminal 50 includes a
処理部51は、プロセッサ(例えばCPU、MPU又はDSP)を用いて構成される。処理部51は、端末50の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
The
処理部51は、無線通信部53を介して、無人飛行体100からのデータや情報を取得してよい。処理部51は、インタフェース部56を介して、他の装置からのデータや情報を取得してよい。処理部51は、操作部55を介して入力されたデータや情報を取得してよい。処理部51は、メモリ52に保持されたデータや情報を取得してよい。処理部51は、データや情報を表示部54に送り、このデータや情報に基づく表示情報を表示部54に表示させてよい。処理部51は、データや情報をストレージ57に送り、このデータや情報を格納してよい。処理部51は、ストレージ57に格納されたデータや情報を取得してよい。
The
処理部51は、操作部55の操作入力に基づき、例えば追跡対象を含む画像領域の設定など、追跡対象の設定に関する設定入力を行ってよい。
Based on the operation input of the
処理部51は、操作部55の操作入力に基づき、無人飛行体100の移動を遠隔制御するための操作信号を生成してよい。処理部51は、生成した操作信号を移動制御用の命令として、無線通信部53を介して無人飛行体100に送信し、無人飛行体100を遠隔制御してよい。
The
処理部51は、表示部54に表示する設定画面、操作画面、通知画面、確認画面のうちの少なくとも一つの表示画面を生成してよい。
The
メモリ52は、記憶部の一例である。メモリ52は、例えば、処理部51の動作を規定するプログラムや設定値のデータが格納されたROM(Read Only Memory)と、処理部51の処理時に使用される各種の情報やデータを一時的に保存するRAM(Random Access Memory)とを有する。メモリ52のROMに格納されたプログラムや設定値のデータは、所定の記録媒体(例えばCD−ROM、DVD−ROM)にコピーされてよい。
The
無線通信部53は、通信部の一例であり、アンテナを介して、各種の無線通信方式により、無人飛行体100との間で通信し、情報やデータの送受信を行う。無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、近距離無線通信、又は公衆無線回線を介した通信を含んでよい。無線通信部53は、他の装置との間で通信を行って情報やデータを送受信してよい。
The
表示部54は、例えばLCD(Liquid Crystal Display)又は有機EL(ElectroLuminescence)ディスプレイを用いて構成され、表示画面において、処理部51から出力された各種の情報やデータを表示する。表示部54は、設定画面、操作画面、通知画面、確認画面のうちの少なくとも一つの表示画面を表示してよい。表示部54は、例えばLED(Light Emission Diode)を用いた表示ランプを有してよい。表示ランプは、例えば、無人飛行体100と端末50との無線の接続状態、無人飛行体100の起動状態、無人飛行体100又は端末50のバッテリの容量の残量のうち、少なくとも一つを表示してよい。
The
操作部55は、端末50を保持するユーザにより入力される操作指示、又はデータや情報を受け付ける。操作部55は、ジョイスティック、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。操作部55は、例えば、ユーザによる無人飛行体100の移動を遠隔で制御(例えば、無人飛行体100の前後移動、左右移動、上下移動、向き変更)するための操作において使用される。操作部55は、例えば、追跡対象に関する設定入力をする操作において使用される。操作部55は、例えば、追跡対象の確認、追跡開始の指示などの操作において使用される。
The
インタフェース部56は、端末50と他の装置との間の情報やデータの入出力を行う。インタフェース部56は、例えば端末50に設けられたUSBポート(不図示)でよい。インタフェース部56は、USBポート以外のインタフェースでもよい。
The
ストレージ57は、記憶部の一例である。ストレージ57は、各種データ、情報を蓄積し、保持する。ストレージ57は、フラッシュメモリ、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ57は、端末50の本体から取り外し可能に設けられてよい。
The
バッテリ58は、端末50の各部の駆動源としての機能を有し、端末50の各部に必要な電源を供給する。
The
次に、無人飛行体100による追跡動作について説明する。
Next, the tracking operation by the
(第1の実施形態)
図5は、無人飛行体により追跡対象を追跡する第1の実施形態の様子を模式的に示す図である。第1の実施形態では、人物を追跡対象として追跡して撮像する例を示す。無人飛行体100は、撮像装置220によって人物410を被写体として撮像し、撮像画像中の人物を追跡対象に設定する。無人飛行体100は、設定した追跡対象を継続して撮像するように、ジンバル230によって撮像装置220を回転させ、撮影方向を調整する。このとき、ジンバル230は、例えば、ヨー軸を中心とした水平方向Dh、ピッチ軸を中心とした垂直方向Dvに、それぞれ撮像装置220を回転させる。無人飛行体100は、追跡対象の人物410の移動に応じて、回転翼機構210を制御し、無人飛行体100の位置を追従させる。
(First embodiment)
FIG. 5 is a diagram schematically illustrating a state of the first embodiment in which a tracking target is tracked by an unmanned air vehicle. In the first embodiment, an example in which a person is tracked as a tracking target and captured is shown. The unmanned
例えば、追跡対象が大きく移動して撮像装置220の画角から外れるなど、撮像した画像データにおいて追跡対象を探索できず、追跡に失敗した場合、無人飛行体100は、収音装置180によって撮像領域周辺の音を収音し、追跡対象に該当する音源方向SDを推定する。このとき、追跡対象の人物410は、追跡失敗を認識した場合に無人飛行体100に対して呼びかけるなど、無人飛行体100に向けて音声を発する。無人飛行体100は、追跡対象が発する音を取得し、音源方向SDを推定することによって、追跡対象の方向を検知する。無人飛行体100は、推定した音源方向SDに基づき、ジンバル230を制御して撮像装置220の撮影方向を音源方向SDに向かうように、すなわち追跡対象の人物410に向かうように調整する。
For example, if the tracking target cannot be searched for in the captured image data because the tracking target has moved greatly and deviated from the angle of view of the
図6は、実施形態における追跡動作の初期設定に関する処理手順の一例を示すフローチャートである。図7は、実施形態における追跡動作の初期設定を行うための初期設定画面の一例を示す図である。 FIG. 6 is a flowchart illustrating an example of a processing procedure related to the initial setting of the tracking operation according to the embodiment. FIG. 7 is a diagram illustrating an example of an initial setting screen for performing initial setting of the tracking operation according to the embodiment.
無人飛行体100は、追跡動作の初期設定において、追跡対象を設定する。本例では、端末50を用いて追跡対象の設定を行う手順を示す。端末50は、ユーザによる撮像画像中の追跡対象範囲の操作指示を入力し、追跡対象範囲を設定する(S11)。このとき、端末50は、表示部54において、図7に示す一例のように、複数領域に分割した撮像画像310を有する設定画面300を表示する。ユーザが撮像画像310において追跡対象TG1を含む領域をタッチ操作等により指定すると、追跡対象範囲321を示す画像領域枠が表示され、ユーザが確認後に設定ボタン(SET)322をタッチ操作すると、端末50は、該当する画像領域を追跡対象範囲として設定する。端末50は、追跡対象範囲情報を無人飛行体100に送信し、無人飛行体100は、追跡対象範囲情報を受信入力して撮像画像における追跡対象範囲を設定する。
The
無人飛行体100は、撮像画像中の追跡対象範囲の画像データにおいて、追跡対象の画像の特徴値を算出する(S12)。追跡対象の画像データから算出する特徴値は、例えば、画像特徴量の一例であるSIFT(Scale-Invariant Feature Transform)を用いてよい。追跡対象の画像特徴量は、SIFTの他に、SURF(Speeded Up Robust Features)、GLOH(Gradient Location and Orientation Histogram)、FAST(Features from Accelerated Segment Test)などを用いてよい。追跡対象の特徴値は、追跡対象のみの画像の特徴値を算出してよいし、追跡対象を含む所定領域の画像の特徴値を算出してよい。なお、端末50において追跡対象の特徴値を算出して無人飛行体100に送信し、無人飛行体100が特徴値を取得してよい。
The
図8は、第1の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。自動追跡動作の処理は、無人飛行体100における制御部110の追跡部111及び音源方向推定部112によって主に実行してよい。無人飛行体100の制御部110は、撮像装置220によって所定の撮像領域を撮影し、撮像画像を取得する(S21)。制御部110は、撮像画像から追跡対象に対応する画像を抽出する(S22)。このとき、制御部110は、設定された追跡対象範囲に基づいて追跡対象を含む領域の画像を抽出する。そして、制御部110は、抽出した所定領域の画像において追跡対象を探索する(S23)。制御部110は、追跡対象の探索処理において、画像の特徴値の比較を行い、抽出した所定領域の画像の特徴値と以前に算出した追跡対象の特徴値とを比較し、一致するかどうか判定する。制御部110は、追跡対象の探索処理において、現在撮像した撮像画像における追跡対象の画像領域を用いて、追跡対象の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から追跡対象の特徴値と一致する領域を抽出して探索してよい。
FIG. 8 is a flowchart illustrating an example of the processing procedure of the automatic tracking operation according to the first embodiment. The processing of the automatic tracking operation may be mainly executed by the
制御部110は、追跡対象の特徴値が一致するか否かによって、追跡に失敗したかどうか判定する(S24)。追跡に成功した場合(S24:No)、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S21〜S24)。
The
追跡に失敗した場合(S24:Yes)、制御部110は、収音装置180によって収音した音声信号を受信し、撮像領域周辺の音データを取得する(S25)。制御部110は、取得した音データについて、複数の音源の音データを分離する(S26)。制御部110は、音源分離処理において、例えば、BSS(Blind Source Separation、ブラインド信号源分離)を用いて複数の音源からの音データを分離してよい。制御部110は、音源分離処理により、ノイズ等の環境音と、追跡対象に該当する被写体が発する音とを分離する。本例では、追跡対象の人物410が発した音声データを環境音から分離する。制御部110は、分離した複数の音データについて、追跡対象の音成分を主成分として抽出する(S27)。制御部110は、主成分の音データに関して、追跡対象の特徴値として音の特徴値を算出する。追跡対象の音データから算出する特徴値は、例えば、周波数特性、指向性の有無、エンベロープなどを用いてよい。
When tracking fails (S24: Yes), the
制御部110は、追跡対象に対応する主成分の音データについて、例えば音の特徴値によって、音源方向を推定する(S28)。制御部110は、音源方向の推定処理において、例えば、収音装置180のマイクアレイによって各マイクロホンにて取得した音データの位相情報を用いて、音源からの音の到来方向を推定する。音源方向の推定処理は、例えば、ビームフォーミング法などの遅延和アレイによって音響ビームを形成して空間的にスキャンさせることで音源位置を推定する方法、CSP(Cross-power Spectrum Phase analysis)法などの複数のマイクロホンにおける到来時間差を求めて遅延時間を算出することで音源定位を推定する方法、などを用いてよい。
For the main component sound data corresponding to the tracking target, the
制御部110は、音源方向の推定結果に基づき、追跡対象の方向を検知し、撮像装置220による撮影方向を調整する(S29)。このとき、制御部110は、撮像装置220とジンバル230の少なくとも一方の動きを制御し、追跡対象に向かうように撮像装置220の撮影方向を調整する。制御部110は、回転翼機構210を制御して無人飛行体100を移動、回転させ、撮影方向を調整してよい。そして、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S21〜S24)。
The
図9は、実施形態における追跡失敗時の処理手順の一例を示すシーケンス図である。図10は、実施形態における追跡失敗を通知する通知画面の一例を示す図である。図11は、実施形態における追跡対象の再設定時の確認画面の一例を示す図である。 FIG. 9 is a sequence diagram illustrating an example of a processing procedure when tracking fails in the embodiment. FIG. 10 is a diagram illustrating an example of a notification screen for notifying tracking failure in the embodiment. FIG. 11 is a diagram illustrating an example of a confirmation screen when the tracking target is reset in the embodiment.
追跡対象の追跡に失敗した場合、無人飛行体100及び端末50は、ユーザへの通知、再設定した追跡対象の確認などの処理を行ってよい。無人飛行体100は、自動追跡動作中に、追跡対象の探索に失敗したことを判定すると(S31)、端末50に対して、追跡状態情報の一例である追跡失敗を示す情報を送信する(S32)。端末50は、追跡失敗を示す追跡状態情報を受信すると、追跡状態表示の一例として、追跡失敗の状況をユーザに通知する追跡失敗表示を行う(S33)。このとき、端末50は、表示部54において、図10に示す一例のように、追跡失敗を通知する通知画面330を表示する。通知画面330には、撮像画像310において追跡失敗表示(MISSED)323が表示され、ユーザが視認可能である。端末50は、通知画面330の表示の他に、アラーム音等の音による通知、LED発光等の光による通知などを行ってよい。
If tracking of the tracking target fails, the
無人飛行体100は、図8に示した手順(S25〜S29)のように、音源方向の推定、撮影方向の調整の処理を実行し、追跡対象の再探索を行う(S34)。無人飛行体100は、追跡対象の探索において、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定し、追跡対象の候補を抽出してよい。無人飛行体100は、再探索により抽出した追跡対象の候補を示す情報を、追跡対象候補情報として端末50に送信する(S35)。端末50は、追跡対象候補情報を受信すると、追跡対象の確認のために追跡対象候補をユーザに示す追跡対象候補表示を行う(S36)。このとき、端末50は、表示部54において、図11に示す一例のように、追跡対象候補の確認を行う確認画面350を表示する。確認画面350には、撮像画像310において追跡対象TG1を囲む追跡対象枠324が表示され、追跡対象確認表示(TARGET?)325が表示される。ユーザが追跡対象の確認後に確認ボタン(OK)326をタッチ操作すると、端末50は、ユーザによる確認指示を入力し(S37)、確認応答を無人飛行体100に送信する(S38)。
The
無人飛行体100は、端末50からの確認応答を受信すると、該当する追跡対象を含む領域を新たな追跡対象範囲として設定し、追跡対象の特徴値を算出して更新する(S39)。無人飛行体100は、その後、自動追跡動作を継続する(S40)。
Upon receiving the confirmation response from the terminal 50, the
上述した第1の実施形態では、無人飛行体は、追跡対象に該当する音源方向を推定し、音源方向推定結果を利用して、追跡動作の補正を行う。実施形態において、無人飛行体は、追跡対象の追跡に失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整する。これにより、追跡対象に該当する音源方向に撮像装置を向けて、追跡対象を再度追跡可能なように継続して撮像でき、追跡結果を補正することができる。また、追跡動作時のロバスト性を向上できる。この場合、追跡対象を再設定する操作が不要になり、操作性を向上できる。 In the first embodiment described above, the unmanned air vehicle estimates the sound source direction corresponding to the tracking target, and corrects the tracking operation using the sound source direction estimation result. In the embodiment, when the tracking of the tracking target fails, the unmanned air vehicle obtains sound information emitted from the tracking target, estimates the sound source direction, and adjusts the shooting direction according to the sound source direction. Thereby, the imaging device can be directed toward the sound source direction corresponding to the tracking target, and the tracking target can be continuously captured so that the tracking target can be tracked again, and the tracking result can be corrected. In addition, the robustness during the tracking operation can be improved. In this case, an operation for resetting the tracking target becomes unnecessary, and operability can be improved.
無人飛行体は、初期設定において追跡対象を設定する場合、又は追跡失敗後に再度追跡対象を設定する場合、端末に追跡対象候補を表示し、ユーザによる確認後の指示操作を入力する。これにより、ユーザが追跡対象を正確かつ容易に確認して設定でき、操作性を向上できる。 When setting the tracking target in the initial setting or setting the tracking target again after the tracking failure, the unmanned air vehicle displays the tracking target candidate on the terminal and inputs an instruction operation after confirmation by the user. Thereby, the user can confirm and set the tracking target accurately and easily, and the operability can be improved.
(第2の実施形態)
図12は、無人飛行体により追跡対象を追跡する第2の実施形態の様子を模式的に示す図である。第2の実施形態では、車両等の移動体を追跡対象として追跡して撮像する例を示す。無人飛行体100は、撮像装置220によって車両420を被写体として撮像し、撮像画像中の車両を追跡対象に設定する。無人飛行体100は、設定した追跡対象を継続して撮像するように、ジンバル230によって撮像装置220を回転させ、撮影方向を調整する。このとき、ジンバル230は、例えば、ヨー軸を中心とした水平方向Dh、ピッチ軸を中心とした垂直方向Dvに、それぞれ撮像装置220を回転させる。無人飛行体100は、追跡対象の車両420の移動に応じて、回転翼機構210を制御し、無人飛行体100の位置を追従させる。
(Second Embodiment)
FIG. 12 is a diagram schematically illustrating a second embodiment in which a tracking target is tracked by an unmanned air vehicle. In the second embodiment, an example in which a moving body such as a vehicle is tracked as a tracking target and captured is shown. The
無人飛行体100は、追跡対象を追跡する際に、収音装置180によって撮像領域周辺の音を収音し、追跡対象に該当する音源方向SDを推定する。車両等の移動体は、移動の際にエンジン音、モータ音、タイヤ音、風切音など、各種の音を発生している。無人飛行体100は、移動体が発する音を取得し、音源方向SDを推定することによって、追跡対象の方向を検知する。無人飛行体100は、推定した音源方向SDに基づき、ジンバル230を制御して撮像装置220の撮影方向を音源方向SDに向かうように、すなわち追跡対象の車両420に向かうように調整する。
When the
無人飛行体100は、追跡動作の初期設定を行う際、図6に示した追跡対象の特徴値算出手順(S12)において、追跡対象に関する画像の特徴値と音の特徴値を算出する。画像の特徴値は、例えば画像特徴量の一例であるSIFTを用いてよい。音の特徴値は、例えば周波数特性などを用いてよい。
When performing the initial setting of the tracking operation, the
図13は、第2の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。自動追跡動作の処理は、無人飛行体100における制御部110の追跡部111及び音源方向推定部112によって主に実行してよい。無人飛行体100の制御部110は、撮像装置220によって所定の撮像領域を撮影し、撮像画像を取得する(S51)。制御部110は、撮像画像から追跡対象に対応する画像を抽出する(S52)。このとき、制御部110は、設定された追跡対象範囲に基づいて追跡対象を含む領域の画像を抽出する。
FIG. 13 is a flowchart illustrating an example of the processing procedure of the automatic tracking operation according to the second embodiment. The processing of the automatic tracking operation may be mainly executed by the
また、制御部110は、収音装置180によって収音した音声信号を受信し、撮像領域周辺の音データを取得する(S61)。制御部110は、取得した音データについて、複数の音源の音データを分離する(S62)。制御部110は、音源分離処理により、ノイズ等の環境音と、追跡対象に該当する被写体が発する音とを分離する。本例では、追跡対象の車両420が発した走行音等の音データを環境音から分離する。制御部110は、分離した複数の音データについて、追跡対象の音成分を主成分として抽出する(S63)。制御部110は、主成分の音データに関して、追跡対象の特徴値として音の特徴値を算出する。制御部110は、追跡対象に対応する主成分の音データについて、例えば音の特徴値によって、音源方向を推定する(S64)。制御部110は、音源方向の推定処理において、例えば、収音装置180のマイクアレイによって各マイクロホンにて取得した音データの位相情報を用いて、音源からの音の到来方向を推定する。
Further, the
制御部110は、抽出した所定領域の画像において追跡対象を探索する(S53)。制御部110は、追跡対象の探索処理において、画像の特徴値の比較を行い、抽出した所定領域の画像の特徴値と以前に算出した追跡対象の特徴値とを比較し、一致するかどうか判定する。このとき、制御部110は、音源方向の推定結果を用いて、撮像画像中の追跡対象を探索する領域を、音源方向に基づいて限定する。制御部110は、追跡対象の探索処理において、現在撮像した撮像画像における追跡対象の画像領域を用いて、追跡対象の画像の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から追跡対象の特徴値と一致する領域を抽出して探索してよい。制御部110は、追跡対象の探索処理において、現在取得した追跡対象の音データを用いて、追跡対象の音の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から音源方向に対応する所定領域を抽出して探索してよい。
The
制御部110は、追跡対象の特徴値が一致するか否かによって、追跡対象の同一性を判定する。制御部110は、追跡対象の特徴値の判定結果と音源方向の推定結果に基づき、撮影方向の調整が必要かどうか判定する(S54)。撮影方向の調整が必要である場合(S54:Yes)、制御部110は、音源方向の推定結果に基づき、追跡対象の方向を検知し、撮像装置220による撮影方向を調整する(S55)。このとき、制御部110は、撮像装置220とジンバル230の少なくとも一方の動きを制御し、追跡対象に向かうように撮像装置220の撮影方向を調整する。制御部110は、回転翼機構210を制御して無人飛行体100を移動、回転させ、撮影方向を調整してよい。そして、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S51〜S54、S61〜S64)。
The
上述した第2の実施形態では、無人飛行体は、追跡対象に該当する音源方向を推定し、音源方向推定結果を利用して、追跡対象を探索する。実施形態において、音源方向に応じて撮像画像における追跡対象を探索する領域を限定し、追跡対象の特徴値の算出、比較に関する画像処理を行う。これにより、追跡に関する処理量を削減できる。また、追跡動作時のロバスト性を向上できる。撮像画像中に追跡対象候補が複数存在する場合、音源方向によって正確に追跡対象を特定できる。また、音源方向推定結果を用いて撮影方向の調整し、追跡動作の補正を行うことができる。実施形態によれば、追跡対象の音源方向に応じて、追跡対象を見失うことなく撮像し、撮像画像中の追跡対象を的確に探索でき、追跡動作を継続できる。この場合、追跡対象を再設定する操作が不要になり、操作性を向上できる。 In the second embodiment described above, the unmanned air vehicle estimates the sound source direction corresponding to the tracking target, and searches for the tracking target using the sound source direction estimation result. In the embodiment, an area for searching for a tracking target in a captured image is limited according to a sound source direction, and image processing related to calculation and comparison of a tracking target feature value is performed. Thereby, the processing amount regarding tracking can be reduced. In addition, the robustness during the tracking operation can be improved. When there are a plurality of tracking target candidates in the captured image, the tracking target can be accurately specified by the sound source direction. Further, the tracking direction can be corrected by adjusting the shooting direction using the sound source direction estimation result. According to the embodiment, according to the sound source direction of the tracking target, an image can be captured without losing sight of the tracking target, the tracking target in the captured image can be accurately searched, and the tracking operation can be continued. In this case, an operation for resetting the tracking target becomes unnecessary, and operability can be improved.
本実施形態によれば、飛行体において撮像画像を用いて追跡対象を追跡する際に、追跡対象に該当する音源方向を推定し、推定した音源方向に基づいて撮像装置による撮影方向を調整できる。これにより、追跡対象に撮像装置を向けるようにでき、追跡結果を補正することができる。したがって、追跡対象を再設定する操作が不要になり、操作性を向上できる。 According to the present embodiment, when tracking a tracking target using a captured image in a flying object, a sound source direction corresponding to the tracking target can be estimated, and a shooting direction by the imaging device can be adjusted based on the estimated sound source direction. Thereby, the imaging device can be directed to the tracking target, and the tracking result can be corrected. Therefore, an operation for resetting the tracking target is unnecessary, and operability can be improved.
本実施形態によれば、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整することができる。これにより、追跡対象の追跡を失敗した場合であっても追跡対象に撮像装置を向けるように撮影方向を調整し、追跡結果を補正することができる。 According to this embodiment, when tracking of a tracking target fails, sound information emitted from the tracking target can be acquired to estimate the sound source direction, and the shooting direction can be adjusted according to the sound source direction. As a result, even when tracking of the tracking target fails, the shooting direction can be adjusted so that the imaging device is directed toward the tracking target, and the tracking result can be corrected.
本実施形態によれば、撮像画像を用いて追跡対象を追跡する際に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮像画像における追跡対象を探索する領域を限定できる。これにより、追跡結果を補正でき、追跡に関する処理量を削減でき、追跡動作時のロバスト性を向上できる。 According to this embodiment, when tracking a tracking target using a captured image, the sound information emitted from the tracking target is acquired to estimate the sound source direction, and the tracking target in the captured image is searched according to the sound source direction. Can be limited. As a result, the tracking result can be corrected, the amount of processing related to tracking can be reduced, and the robustness during the tracking operation can be improved.
以上、本開示について実施形態を用いて説明したが、本開示に係る発明の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。 As mentioned above, although this indication was explained using an embodiment, the technical scope of the invention concerning this indication is not limited to the range given in the embodiment mentioned above. It will be apparent to those skilled in the art that various modifications and improvements can be made to the embodiment described above. It is also apparent from the scope of the claims that the embodiment added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. ”And the like, and can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it does not mean that it is essential to carry out in this order. Absent.
10 飛行制御システム
50 端末
51 処理部
52 メモリ
53 無線通信部
54 表示部
55 操作部
56 インタフェース部
57 ストレージ
58 バッテリ
100 無人飛行体(UAV)
102 UAV本体
110 制御部
111 追跡部
112 音源方向推定部
150 通信インタフェース
160 メモリ
170 ストレージ
180 収音装置
190 バッテリ
210 回転翼機構
220 撮像装置
230 ジンバル
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
DESCRIPTION OF
102 UAV
Claims (20)
前記追跡対象を含む周囲の音を収音する収音装置と、
前記追跡対象の追跡に関する処理を実行する制御部と、を有する飛行体であって、
前記制御部は、
前記撮像装置により撮像した撮像画像を用いて前記追跡対象を追跡し、
前記収音装置により取得した音情報により前記追跡対象に該当する音源方向を推定し、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整する、
飛行体。 An imaging device for imaging a predetermined tracking target;
A sound collection device for collecting ambient sounds including the tracked object;
A control unit that executes processing related to tracking of the tracking target,
The controller is
Track the tracking target using a captured image captured by the imaging device,
Estimating the sound source direction corresponding to the tracking target from the sound information acquired by the sound collection device,
Adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction;
Flying body.
前記追跡対象の追跡において、
前記撮像画像における前記追跡対象に関する画像の特徴値を算出し、前記画像の特徴値を比較して前記追跡対象を探索する、
請求項1に記載の飛行体。 The controller is
In tracking the tracking target,
Calculating a feature value of an image related to the tracking target in the captured image, and searching for the tracking target by comparing the feature value of the image;
The flying object according to claim 1.
前記追跡対象の追跡を失敗した場合に、前記追跡対象が発する音情報を取得して音源方向を推定し、前記音源方向に応じて前記撮影方向を調整する、
請求項1又は2に記載の飛行体。 The controller is
When tracking of the tracking target fails, the sound information emitted by the tracking target is acquired to estimate the sound source direction, and the shooting direction is adjusted according to the sound source direction.
The flying object according to claim 1 or 2.
前記音情報における前記追跡対象に関する音の特徴値を算出し、
前記音の特徴値によって前記追跡対象の音源方向を推定し、前記音源方向に応じて前記追跡対象を追跡する、
請求項1又は2に記載の飛行体。 The controller is
Calculating a characteristic value of a sound related to the tracking target in the sound information;
Estimating the sound source direction of the tracking target according to the feature value of the sound, and tracking the tracking target according to the sound source direction;
The flying object according to claim 1 or 2.
前記追跡対象の追跡において、
前記推定した音源方向に応じて前記撮像画像における前記追跡対象を探索する領域を限定する、
請求項1〜4のいずれか一項に記載の飛行体。 The controller is
In tracking the tracking target,
Limiting the area to search for the tracking target in the captured image according to the estimated sound source direction;
The flying object according to any one of claims 1 to 4.
前記音源方向の推定において、
前記収音装置により取得した音情報から前記追跡対象の音成分を抽出し、前記追跡対象の音成分について音源方向の推定処理を行う、
請求項1〜5のいずれか一項に記載の飛行体。 The controller is
In the estimation of the sound source direction,
Extracting the tracking target sound component from the sound information acquired by the sound collection device, and performing a sound source direction estimation process for the tracking target sound component,
The flying object according to any one of claims 1 to 5.
前記撮影方向の調整において、
前記飛行体の回転翼機構と、前記撮像装置を支持する支持機構との少なくとも一方の動きを制御する、
請求項1〜6のいずれか一項に記載の飛行体。 The controller is
In adjusting the shooting direction,
Controlling the movement of at least one of the rotary wing mechanism of the flying object and the support mechanism for supporting the imaging device;
The flying object according to any one of claims 1 to 6.
前記飛行体は、
所定の追跡対象を撮像する撮像装置と、
前記追跡対象を含む周囲の音を収音する収音装置と、
前記追跡対象の候補情報を前記端末に送信する通信部と、
前記追跡対象の追跡に関する処理を実行するものであって、前記撮像装置により撮像した撮像画像を用いて前記追跡対象を追跡し、前記収音装置により取得した音情報により前記追跡対象に該当する音源方向を推定し、前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整する、制御部と、を有し、
前記端末は、
前記追跡対象の候補情報を受信する通信部と、
前記追跡対象の候補を表示する表示部と、
前記追跡対象の設定に関する入力を行う操作部と、を有する、
飛行制御システム。 A flight control system comprising a flying object and a terminal that communicates with the flying object,
The aircraft is
An imaging device for imaging a predetermined tracking target;
A sound collection device for collecting ambient sounds including the tracked object;
A communication unit for transmitting the tracking target candidate information to the terminal;
A sound source that performs processing related to tracking of the tracking target, tracks the tracking target using a captured image captured by the imaging device, and corresponds to the tracking target based on sound information acquired by the sound collecting device; A control unit that estimates a direction and adjusts a shooting direction by the imaging device based on an estimation result of the sound source direction;
The terminal
A communication unit for receiving the candidate information to be tracked;
A display unit for displaying the tracking target candidates;
An operation unit for performing input related to the setting of the tracking target,
Flight control system.
前記追跡対象の追跡を失敗した場合に、追跡失敗表示を行う、
請求項8に記載の飛行制御システム。 The display part of the terminal
When tracking of the tracking target fails, a tracking failure display is performed.
The flight control system according to claim 8.
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記収音した音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を有する、
飛行制御方法。 A flight control method for controlling an aircraft that tracks a predetermined tracking object,
Imaging the tracking object with an imaging device;
Collecting ambient sounds including the tracking target by a sound collecting device;
Tracking the tracking object using the imaged captured image;
Estimating a sound source direction corresponding to the tracking target based on the collected sound information;
Adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction,
Flight control method.
前記撮像画像における前記追跡対象に関する画像の特徴値を算出し、前記画像の特徴値を比較して前記追跡対象を探索する、
請求項10に記載の飛行制御方法。 The step of tracking the tracking object includes:
Calculating a feature value of an image related to the tracking target in the captured image, and searching for the tracking target by comparing the feature value of the image;
The flight control method according to claim 10.
前記追跡対象の追跡を失敗した場合に、前記追跡対象が発する音情報を取得して音源方向を推定し、
前記撮影方向を調整するステップは、
前記推定した音源方向に応じて前記撮影方向を調整する、
請求項10又は11に記載の飛行制御方法。 Estimating the sound source direction comprises:
If tracking of the tracking target fails, the sound information emitted by the tracking target is acquired to estimate the sound source direction,
The step of adjusting the shooting direction includes:
Adjusting the shooting direction according to the estimated sound source direction;
The flight control method according to claim 10 or 11.
前記追跡対象を追跡するステップは、
前記音の特徴値によって前記追跡対象の音源方向を推定し、前記音源方向に応じて前記追跡対象を追跡する、
請求項10又は11に記載の飛行制御方法。 Calculating a feature value of a sound related to the tracking target in the sound information,
The step of tracking the tracking object includes:
Estimating the sound source direction of the tracking target according to the feature value of the sound, and tracking the tracking target according to the sound source direction;
The flight control method according to claim 10 or 11.
前記推定した音源方向に応じて前記撮像画像における前記追跡対象を探索する領域を限定する、
請求項10〜13のいずれか一項に記載の飛行制御方法。 The step of tracking the tracking object includes:
Limiting the area to search for the tracking target in the captured image according to the estimated sound source direction;
The flight control method according to any one of claims 10 to 13.
前記収音装置により取得した音情報から前記追跡対象の音成分を抽出し、前記追跡対象の音成分について音源方向の推定処理を行う、
請求項10〜14のいずれか一項に記載の飛行制御方法。 The step of tracking the tracking object includes:
Extracting the tracking target sound component from the sound information acquired by the sound collection device, and performing a sound source direction estimation process for the tracking target sound component,
The flight control method according to any one of claims 10 to 14.
前記飛行体の回転翼機構と、前記撮像装置を支持する支持機構との少なくとも一方の動きを制御する、
請求項10〜15のいずれか一項に記載の飛行制御方法。 The step of adjusting the shooting direction includes:
Controlling the movement of at least one of the rotary wing mechanism of the flying object and the support mechanism for supporting the imaging device;
The flight control method according to any one of claims 10 to 15.
前記追跡対象の候補情報を前記端末により受信するステップと、
前記追跡対象の候補を表示部により表示するステップと、
前記追跡対象の設定に関する入力を行うステップと、を有する、
請求項10に記載の飛行制御方法。 Transmitting the tracking candidate information to a terminal that communicates with the aircraft;
Receiving the candidate information to be tracked by the terminal;
Displaying the tracking target candidates on a display unit;
Performing input relating to the setting of the tracking target,
The flight control method according to claim 10.
請求項17に記載の飛行制御方法。 When the tracking of the tracking target fails, the display unit displays a tracking failure display,
The flight control method according to claim 17.
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記収音した音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を実行させるための、
プログラム。 To a computer that controls a vehicle that tracks a predetermined tracking target,
Imaging the tracking object with an imaging device;
Collecting ambient sounds including the tracking target by a sound collecting device;
Tracking the tracking object using the imaged captured image;
Estimating a sound source direction corresponding to the tracking target based on the collected sound information;
Adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction,
program.
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記収音した音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な、
記録媒体。 To a computer that controls a vehicle that tracks a predetermined tracking target,
Imaging the tracking object with an imaging device;
Collecting ambient sounds including the tracking target by a sound collecting device;
Tracking the tracking object using the imaged captured image;
Estimating a sound source direction corresponding to the tracking target based on the collected sound information;
Adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction, and a computer-readable recording program for executing the program,
recoding media.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017120639A JP6912281B2 (en) | 2017-06-20 | 2017-06-20 | Aircraft, flight control systems, flight control methods, programs and recording media |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017120639A JP6912281B2 (en) | 2017-06-20 | 2017-06-20 | Aircraft, flight control systems, flight control methods, programs and recording media |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019006154A true JP2019006154A (en) | 2019-01-17 |
JP6912281B2 JP6912281B2 (en) | 2021-08-04 |
Family
ID=65027434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017120639A Active JP6912281B2 (en) | 2017-06-20 | 2017-06-20 | Aircraft, flight control systems, flight control methods, programs and recording media |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6912281B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020170510A1 (en) * | 2019-02-19 | 2020-08-27 | パナソニックIpマネジメント株式会社 | Unmanned aircraft, information processing method, and program |
WO2020230377A1 (en) * | 2019-05-15 | 2020-11-19 | パナソニックIpマネジメント株式会社 | Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system |
CN116027804A (en) * | 2022-12-30 | 2023-04-28 | 中国科学院长春光学精密机械与物理研究所 | Unmanned plane ground photoelectric measurement and control guiding device and guiding method |
JP7336621B1 (en) * | 2021-09-30 | 2023-08-31 | Jfeアドバンテック株式会社 | Sound wave receiving device, sound source azimuth determination device, and sound source azimuth determination method |
WO2023164814A1 (en) * | 2022-03-01 | 2023-09-07 | 深圳市大疆创新科技有限公司 | Media apparatus and control method and device therefor, and target tracking method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016101774A (en) * | 2014-11-27 | 2016-06-02 | みこらった株式会社 | Vertically taking off and flying table |
JP2016135625A (en) * | 2015-01-23 | 2016-07-28 | みこらった株式会社 | Levitation movable carriage |
JP2017068298A (en) * | 2015-09-28 | 2017-04-06 | 株式会社日立システムズ | Autonomous flying moving body and target tracking method |
-
2017
- 2017-06-20 JP JP2017120639A patent/JP6912281B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016101774A (en) * | 2014-11-27 | 2016-06-02 | みこらった株式会社 | Vertically taking off and flying table |
JP2016135625A (en) * | 2015-01-23 | 2016-07-28 | みこらった株式会社 | Levitation movable carriage |
JP2017068298A (en) * | 2015-09-28 | 2017-04-06 | 株式会社日立システムズ | Autonomous flying moving body and target tracking method |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020170510A1 (en) * | 2019-02-19 | 2020-08-27 | パナソニックIpマネジメント株式会社 | Unmanned aircraft, information processing method, and program |
JPWO2020170510A1 (en) * | 2019-02-19 | 2021-12-16 | パナソニックIpマネジメント株式会社 | Unmanned aircraft, information processing methods and programs |
US11928974B2 (en) | 2019-02-19 | 2024-03-12 | Panasonic Intellectual Property Management Co., Ltd. | Unmanned aircraft, information processing method, and recording medium |
WO2020230377A1 (en) * | 2019-05-15 | 2020-11-19 | パナソニックIpマネジメント株式会社 | Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system |
CN113453980A (en) * | 2019-05-15 | 2021-09-28 | 松下知识产权经营株式会社 | Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system |
CN113453980B (en) * | 2019-05-15 | 2024-03-29 | 松下知识产权经营株式会社 | Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system |
JP7457949B2 (en) | 2019-05-15 | 2024-03-29 | パナソニックIpマネジメント株式会社 | Information processing method, unmanned aerial vehicle and unmanned aerial vehicle control system |
JP7336621B1 (en) * | 2021-09-30 | 2023-08-31 | Jfeアドバンテック株式会社 | Sound wave receiving device, sound source azimuth determination device, and sound source azimuth determination method |
WO2023164814A1 (en) * | 2022-03-01 | 2023-09-07 | 深圳市大疆创新科技有限公司 | Media apparatus and control method and device therefor, and target tracking method and device |
CN116027804A (en) * | 2022-12-30 | 2023-04-28 | 中国科学院长春光学精密机械与物理研究所 | Unmanned plane ground photoelectric measurement and control guiding device and guiding method |
CN116027804B (en) * | 2022-12-30 | 2024-02-13 | 中国科学院长春光学精密机械与物理研究所 | Unmanned plane ground photoelectric measurement and control guiding device and guiding method |
Also Published As
Publication number | Publication date |
---|---|
JP6912281B2 (en) | 2021-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6912281B2 (en) | Aircraft, flight control systems, flight control methods, programs and recording media | |
US9891621B2 (en) | Control of an unmanned aerial vehicle through multi-touch interactive visualization | |
JP6899846B2 (en) | Flight path display methods, mobile platforms, flight systems, recording media and programs | |
JP6803800B2 (en) | Information processing device, aerial photography route generation method, aerial photography route generation system, program, and recording medium | |
JP2018146546A (en) | Information processing system, information processing device, and information processing method | |
US11531340B2 (en) | Flying body, living body detection system, living body detection method, program and recording medium | |
JP6765512B2 (en) | Flight path generation method, information processing device, flight path generation system, program and recording medium | |
KR20180064253A (en) | Flight controlling method and electronic device supporting the same | |
JP6943684B2 (en) | Communication relay method, relay air vehicle, program and recording medium | |
US20200064133A1 (en) | Information processing device, aerial photography route generation method, aerial photography route generation system, program, and storage medium | |
US20200097027A1 (en) | Method and apparatus for controlling an unmanned aerial vehicle and an unmanned aerial vehicle system | |
US12024284B2 (en) | Information processing device, information processing method, and recording medium | |
US11443640B2 (en) | Ruggedized autonomous helicopter platform | |
JP2018070010A (en) | Unmanned aircraft controlling system, controlling method and program thereof | |
JP2018070011A (en) | Unmanned aircraft controlling system, controlling method and program thereof | |
CN111213107B (en) | Information processing device, imaging control method, program, and recording medium | |
CN111344650B (en) | Information processing device, flight path generation method, program, and recording medium | |
WO2017203646A1 (en) | Image capture control device, shadow position specification device, image capture system, mobile object, image capture control method, shadow position specification method, and program | |
US12007763B2 (en) | Magic wand interface and other user interaction paradigms for a flying digital assistant | |
JP2018160196A (en) | Unmanned aerial vehicle control system, control method of unmanned aerial vehicle control system, and program | |
CN114586335A (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2018070012A (en) | Unmanned aircraft controlling system, controlling method and program thereof | |
JP6974290B2 (en) | Position estimation device, position estimation method, program, and recording medium | |
JP7020813B2 (en) | Mobile control system and program | |
JP2013096934A (en) | Target position detection device, target position detection method for use in the same, and target position detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200923 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210708 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6912281 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |