Nothing Special   »   [go: up one dir, main page]

JP6912281B2 - Aircraft, flight control systems, flight control methods, programs and recording media - Google Patents

Aircraft, flight control systems, flight control methods, programs and recording media Download PDF

Info

Publication number
JP6912281B2
JP6912281B2 JP2017120639A JP2017120639A JP6912281B2 JP 6912281 B2 JP6912281 B2 JP 6912281B2 JP 2017120639 A JP2017120639 A JP 2017120639A JP 2017120639 A JP2017120639 A JP 2017120639A JP 6912281 B2 JP6912281 B2 JP 6912281B2
Authority
JP
Japan
Prior art keywords
tracking target
tracking
sound
sound source
source direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017120639A
Other languages
Japanese (ja)
Other versions
JP2019006154A (en
Inventor
磊 顧
磊 顧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2017120639A priority Critical patent/JP6912281B2/en
Publication of JP2019006154A publication Critical patent/JP2019006154A/en
Application granted granted Critical
Publication of JP6912281B2 publication Critical patent/JP6912281B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本開示は、所定の対象を追跡可能な飛行体、飛行制御システム、飛行体を制御するための飛行制御方法、プログラム及び記録媒体に関する。 The present disclosure relates to a flying object capable of tracking a predetermined object, a flight control system, a flight control method for controlling the flying object, a program, and a recording medium.

撮像装置を搭載し、空中を飛行しながら被写体を撮像する空中撮影が可能な飛行体(例えばUAV:Unmanned Aerial Vehicle)が知られている。この種の空中撮影に利用可能な飛行体において、主要な被写体となる人や乗り物等の所定の対象を目標として自動的に追跡する機能を持つものがある。 There is known an air vehicle (for example, UAV: Unmanned Aerial Vehicle) which is equipped with an image pickup device and can take an aerial image of a subject while flying in the air. Some of the flying objects that can be used for this type of aerial photography have a function of automatically tracking a predetermined target such as a person or a vehicle, which is the main subject.

飛行体が追跡動作を行っている際に、追跡対象の被写体の向きや距離、位置などの変化が大きい場合、追跡対象が他の被写体に隠れて遮断される場合など、追跡対象を見失って自動追跡に失敗してしまうことがある。このように追跡動作が中断した場合、飛行体を制御するための端末をユーザが操作して追跡対象を再度設定し直すことなどにより、追跡を再開する。 When the flying object is performing a tracking operation, the tracking target is automatically lost and lost, such as when the direction, distance, position, etc. of the subject to be tracked change significantly, or when the tracking target is hidden by another subject and blocked. Tracking may fail. When the tracking operation is interrupted in this way, the tracking is restarted by the user operating the terminal for controlling the flying object and resetting the tracking target.

自動追跡機能を有する飛行体の例として、例えば特許文献1には、俯瞰することができない状況においても目標物の追跡が可能な自律飛行移動体が開示されている。この従来例の自律飛行移動体は、ターゲットを認識できなくなった場合に、地図情報に基づいて認識できなくなった位置付近の経路を探索し、探索された経路に基づいてターゲットの追跡を実行するものである。 As an example of an air vehicle having an automatic tracking function, for example, Patent Document 1 discloses an autonomous flying mobile body capable of tracking a target even in a situation where a bird's-eye view cannot be obtained. In this conventional autonomous flying vehicle, when the target cannot be recognized, the route near the unrecognizable position is searched based on the map information, and the target is tracked based on the searched route. Is.

特開2017−068298号公報Japanese Unexamined Patent Publication No. 2017-068298

従来の追跡機能を有する飛行体では、追跡動作中に追跡対象を見失った場合、ユーザが飛行体を制御するための端末を用いて追跡対象を再度設定する等の操作が必要となる。追跡対象の再設定操作を行う際には、ユーザが端末操作と同時に飛行体の機体の状態を確認することができないため、追跡対象の設定と飛行体の操縦との同時操作は困難である。このように、従来の飛行体では、追跡対象の自動追跡に失敗した場合、追跡を続行するための操作性に課題がある。 In a conventional flying object having a tracking function, if the tracking target is lost during the tracking operation, it is necessary for the user to perform an operation such as resetting the tracking target using a terminal for controlling the flying object. When resetting the tracking target, the user cannot confirm the state of the aircraft of the flying object at the same time as operating the terminal, so that it is difficult to set the tracking target and operate the flying object at the same time. As described above, in the conventional air vehicle, when the automatic tracking of the tracking target fails, there is a problem in the operability for continuing the tracking.

一態様において、所定の追跡対象を撮像する撮像装置と、追跡対象を含む周囲の音を収音する収音装置と、追跡対象の追跡に関する処理を実行する制御部と、を有する飛行体であって、制御部は、撮像装置により撮像した撮像画像を用いて追跡対象を追跡し、収音装置により取得した音情報により追跡対象に該当する音源方向を推定し、音源方向の推定結果に基づいて撮像装置による撮影方向を調整する、飛行体である。 In one aspect, it is an air vehicle having an imaging device that images a predetermined tracking target, a sound collecting device that collects ambient sounds including the tracking target, and a control unit that executes processing related to tracking the tracking target. The control unit tracks the tracking target using the image captured by the imaging device, estimates the sound source direction corresponding to the tracking target from the sound information acquired by the sound collecting device, and based on the estimation result of the sound source direction. It is a flying object that adjusts the shooting direction by the image pickup device.

制御部は、追跡対象の追跡において、撮像画像における追跡対象に関する画像の特徴値を算出し、画像の特徴値を比較して追跡対象を探索してよい。 In tracking the tracking target, the control unit may calculate the feature value of the image related to the tracking target in the captured image, compare the feature values of the images, and search for the tracking target.

制御部は、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整してよい。 When the tracking of the tracking target fails, the control unit may acquire the sound information emitted by the tracking target, estimate the sound source direction, and adjust the shooting direction according to the sound source direction.

制御部は、音情報における追跡対象に関する音の特徴値を算出し、音の特徴値によって追跡対象の音源方向を推定し、音源方向に応じて追跡対象を追跡してよい。 The control unit may calculate the characteristic value of the sound related to the tracking target in the sound information, estimate the sound source direction of the tracking target from the characteristic value of the sound, and track the tracking target according to the sound source direction.

制御部は、追跡対象の追跡において、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定してよい。 In tracking the tracking target, the control unit may limit the area for searching the tracking target in the captured image according to the estimated sound source direction.

制御部は、音源方向の推定において、収音装置により取得した音情報から追跡対象の音成分を抽出し、追跡対象の音成分について音源方向の推定処理を行ってよい。 In estimating the sound source direction, the control unit may extract the sound component to be tracked from the sound information acquired by the sound collecting device and perform the sound source direction estimation process for the sound component to be tracked.

制御部は、撮影方向の調整において、飛行体の回転翼機構と、撮像装置を支持する支持機構との少なくとも一方の動きを制御してよい。 The control unit may control the movement of at least one of the rotor blade mechanism of the flying object and the support mechanism that supports the image pickup device in adjusting the photographing direction.

一態様において、飛行体と、飛行体と通信を行う端末と、を有する飛行制御システムであって、飛行体は、所定の追跡対象を撮像する撮像装置と、追跡対象を含む周囲の音を収音する収音装置と、追跡対象の候補情報を端末に送信する通信部と、追跡対象の追跡に関する処理を実行するものであって、撮像装置により撮像した撮像画像を用いて追跡対象を追跡し、収音装置により取得した音情報により追跡対象に該当する音源方向を推定し、音源方向の推定結果に基づいて撮像装置による撮影方向を調整する、制御部と、を有し、端末は、追跡対象の候補情報を受信する通信部と、追跡対象の候補を表示する表示部と、追跡対象の設定に関する入力を行う操作部と、を有する、飛行制御システムである。 In one aspect, a flight control system comprising an air vehicle and a terminal that communicates with the air vehicle, wherein the air vehicle collects an imaging device that captures a predetermined tracking target and ambient sound including the tracking target. A sound collecting device that makes a sound, a communication unit that transmits candidate information of a tracking target to a terminal, and a process related to tracking the tracking target are executed, and the tracking target is tracked using an image captured by the imaging device. The terminal has a control unit that estimates the sound source direction corresponding to the tracking target from the sound information acquired by the sound collecting device and adjusts the shooting direction by the imaging device based on the estimation result of the sound source direction. It is a flight control system having a communication unit for receiving target candidate information, a display unit for displaying tracking target candidates, and an operation unit for inputting information regarding tracking target settings.

端末の表示部は、追跡対象の追跡を失敗した場合に、追跡失敗表示を行ってよい。 The display unit of the terminal may display the tracking failure when the tracking of the tracking target fails.

一態様において、所定の追跡対象を追跡する飛行体を制御するための飛行制御方法であって、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を有する、飛行制御方法である。 In one aspect, it is a flight control method for controlling an air vehicle that tracks a predetermined tracking target, in which a step of imaging the tracking target by an imaging device and a sound collecting device for surrounding sounds including the tracking target are picked up. A step of tracking the tracking target using the captured image, a step of estimating the sound source direction corresponding to the tracking target based on the collected sound information, and a shooting by the imaging device based on the estimation result of the sound source direction. It is a flight control method having a step of adjusting a direction.

追跡対象を追跡するステップは、撮像画像における追跡対象に関する画像の特徴値を算出し、画像の特徴値を比較して追跡対象を探索するステップを含んでよい。 The step of tracking the tracking target may include a step of calculating the feature value of the image related to the tracking target in the captured image, comparing the feature values of the images, and searching for the tracking target.

音源方向を推定するステップは、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定するステップを含み、撮影方向を調整するステップは、推定した音源方向に応じて撮影方向を調整するステップを含んでよい。 The step of estimating the sound source direction includes a step of acquiring the sound information emitted by the tracking target and estimating the sound source direction when the tracking of the tracking target fails, and the step of adjusting the shooting direction is in the estimated sound source direction. It may include a step of adjusting the shooting direction accordingly.

音情報における追跡対象に関する音の特徴値を算出するステップを有し、追跡対象を追跡するステップは、音の特徴値によって追跡対象の音源方向を推定し、音源方向に応じて追跡対象を追跡するステップを含んでよい。 The step of calculating the characteristic value of the sound regarding the tracking target in the sound information, and the step of tracking the tracking target estimates the sound source direction of the tracking target from the sound characteristic value and tracks the tracking target according to the sound source direction. May include steps.

追跡対象を追跡するステップは、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定するステップを含んでよい。 The step of tracking the tracking target may include a step of limiting the region for searching the tracking target in the captured image according to the estimated sound source direction.

追跡対象を追跡するステップは、収音装置により取得した音情報から追跡対象の音成分を抽出し、追跡対象の音成分について音源方向の推定処理を行うステップを含んでよい。 The step of tracking the tracking target may include a step of extracting the sound component of the tracking target from the sound information acquired by the sound collecting device and performing an estimation process of the sound source direction for the sound component of the tracking target.

撮影方向を調整するステップは、飛行体の回転翼機構と、撮像装置を支持する支持機構との少なくとも一方の動きを制御するステップを含んでよい。 The step of adjusting the imaging direction may include a step of controlling the movement of at least one of the rotor blade mechanism of the flying object and the support mechanism supporting the image pickup device.

飛行制御方法において、追跡対象の候補情報を飛行体と通信を行う端末に送信するステップと、追跡対象の候補情報を端末により受信するステップと、追跡対象の候補を表示部により表示するステップと、追跡対象の設定に関する入力を行うステップと、を有してよい。 In the flight control method, a step of transmitting candidate information of a tracking target to a terminal communicating with an air vehicle, a step of receiving candidate information of a tracking target by the terminal, and a step of displaying the candidate of the tracking target by a display unit. It may have a step of making input regarding the setting of the tracking target.

飛行制御方法において、追跡対象の追跡を失敗した場合に、表示部により追跡失敗表示を行うステップ、を有してよい。 In the flight control method, there may be a step of displaying the tracking failure by the display unit when the tracking of the tracking target fails.

一態様において、プログラムは、所定の追跡対象を追跡する飛行体を制御するコンピュータに、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を実行させるための、プログラムである。 In one aspect, the program includes a step of capturing the tracked object with an image pickup device and a step of picking up ambient sound including the tracked object by a sound picking device on a computer controlling an air vehicle that tracks a predetermined tracking target. , The step of tracking the tracking target using the captured image, the step of estimating the sound source direction corresponding to the tracking target from the collected sound information, and adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction. It is a program to execute the steps to be performed.

一態様において、記録媒体は、所定の追跡対象を追跡する飛行体を制御するコンピュータに、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な、記録媒体である。 In one aspect, the recording medium is a step of imaging the tracked object by the imaging device on a computer controlling the flying object that tracks the predetermined tracked object, and a step of collecting the ambient sound including the tracked object by the sound collecting device. The step of tracking the tracking target using the captured image, the step of estimating the sound source direction corresponding to the tracking target from the collected sound information, and the shooting direction by the imaging device based on the estimation result of the sound source direction. A computer-readable, recording medium that records the steps to adjust and the program to run it.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the features of the present disclosure. Sub-combinations of these feature groups can also be inventions.

実施形態における飛行制御システムの構成例を示す模式図である。It is a schematic diagram which shows the structural example of the flight control system in embodiment. 無人飛行体の外観の一例を示す図である。It is a figure which shows an example of the appearance of an unmanned flying object. 無人飛行体のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of an unmanned air vehicle. 端末のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware configuration of a terminal. 無人飛行体により追跡対象を追跡する第1の実施形態の様子を模式的に示す図である。It is a figure which shows typically the state of the 1st Embodiment which tracks a tracking object by an unmanned flying object. 実施形態における追跡動作の初期設定に関する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure about the initial setting of the tracking operation in an embodiment. 実施形態における追跡動作の初期設定を行うための初期設定画面の一例を示す図である。It is a figure which shows an example of the initial setting screen for performing the initial setting of the tracking operation in an embodiment. 第1の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of the automatic tracking operation in 1st Embodiment. 実施形態における追跡失敗時の処理手順の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the processing procedure at the time of tracking failure in an embodiment. 実施形態における追跡失敗を通知する通知画面の一例を示す図である。It is a figure which shows an example of the notification screen which notifies the tracking failure in an embodiment. 実施形態における追跡対象の再設定時の確認画面の一例を示す図である。It is a figure which shows an example of the confirmation screen at the time of resetting the tracking target in an embodiment. 無人飛行体により追跡対象を追跡する第2の実施形態の様子を模式的に示す図である。It is a figure which shows typically the state of the 2nd Embodiment which tracks a tracking object by an unmanned flying object. 第2の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of the automatic tracking operation in 2nd Embodiment.

以下、発明の実施の形態を通じて本開示を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。 Hereinafter, the present disclosure will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of features described in the embodiments are essential to the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。但し、それ以外の場合、一切の著作権を留保する。 The claims, description, drawings, and abstracts include matters that are subject to copyright protection. The copyright holder will not object to any person's reproduction of these documents as long as they appear in the Patent Office files or records. However, in other cases, all copyrights are reserved.

本開示に係る飛行制御方法は、飛行体の飛行を制御するための情報処理装置における各種の処理(ステップ)が規定されたものである。飛行体は、空中を移動する航空機(例えばドローン、ヘリコプター)を含む。飛行体は、無人飛行体(UAV:Unmanned Aerial Vehicle)であってもよい。飛行体は、空中撮影、物の運搬、或いは農薬、肥料、水等の散布作業等の飛行を伴う各種作業を行うためにあらかじめ設定された飛行経路に沿って飛行する。飛行体は、自動追跡動作を行う際、設定された追跡対象を追跡しながら飛行する。 The flight control method according to the present disclosure defines various processes (steps) in the information processing device for controlling the flight of the flying object. Aircraft include aircraft moving in the air (eg, drones, helicopters). The air vehicle may be an unmanned aerial vehicle (UAV). The flying object flies along a preset flight path for performing various operations involving flight such as aerial photography, transportation of objects, or spraying of pesticides, fertilizers, water, and the like. When performing the automatic tracking operation, the flying object flies while tracking the set tracking target.

本開示に係る情報処理装置は、コンピュータであって、例えば飛行体自体に情報処理装置が含まれてよい。本開示に係る情報処理装置は、飛行体の移動を含む各種処理の遠隔制御を指示するための送信機、又は送信機との間で情報やデータの入出力が可能に接続された端末装置、若しくは飛行体との間で情報やデータの入出力が可能に接続された端末装置など、各種の端末(プラットフォーム)を含む。端末は、例えばPC、タブレット端末、携帯端末などであってよい。 The information processing device according to the present disclosure is a computer, and the information processing device may be included in the flying object itself, for example. The information processing device according to the present disclosure is a transmitter for instructing remote control of various processes including movement of an air vehicle, or a terminal device connected to the transmitter so that information and data can be input and output. Alternatively, it includes various terminals (platforms) such as terminal devices connected to the aircraft so that information and data can be input and output. The terminal may be, for example, a PC, a tablet terminal, a mobile terminal, or the like.

本開示に係るプログラムは、情報処理装置に各種の処理(ステップ)を実行させるためのプログラムである。 The program according to the present disclosure is a program for causing an information processing apparatus to execute various processes (steps).

本開示に係る記録媒体は、プログラム(つまり、情報処理装置に各種の処理(ステップ)を実行させるためのプログラム)が記録されたものである。 The recording medium according to the present disclosure is one in which a program (that is, a program for causing an information processing apparatus to execute various processes (steps)) is recorded.

本開示に係る飛行制御システムは、移動体の一例としての飛行体と、飛行体の動作又は処理を遠隔で制御するための端末(プラットフォーム)とを含む構成である。本開示に係る飛行制御システムは、飛行体単体で追跡対象を追跡して飛行する構成であってよい。 The flight control system according to the present disclosure includes a flying object as an example of a moving object and a terminal (platform) for remotely controlling the operation or processing of the flying object. The flight control system according to the present disclosure may be configured to track and fly a tracking target by itself.

以下に示す本開示に係る各実施形態において、飛行体として、無人飛行体(UAV)を例示する。本明細書に添付する図面では、無人飛行体を「UAV」と表記する。以下に示す各実施形態において、飛行体は、追跡対象を設定し、追跡対象に追従して位置を移動させながら飛行する。 In each embodiment according to the present disclosure shown below, an unmanned aerial vehicle (UAV) is exemplified as the flying object. In the drawings attached herein, the unmanned aerial vehicle is referred to as "UAV". In each of the following embodiments, the flying object sets a tracking target and flies while moving the position following the tracking target.

以下に示す各実施形態において、情報処理装置は、飛行体において、追跡対象の特徴値として、画像情報、音情報などを含む特徴値情報を生成、取得、変更が可能である。情報処理装置は、飛行体において、飛行開始位置、飛行終了位置、飛行経路上の所定位置、飛行高度、飛行速度などのうち、少なくとも一つを含む飛行位置の情報を生成、取得、変更が可能である。端末に情報処理装置が含まれる場合、情報処理装置は飛行体と通信可能であり、追跡対象の特徴値情報、飛行体の飛行位置の情報を飛行体に伝送可能である。ここにいう「通信」とは、データ通信全般を含む広い概念であり、ケーブルなどにより有線接続する場合だけでなく、無線通信によって接続する場合も含まれる。また、情報処理装置が飛行体と直接通信する場合だけでなく、送信機又は記憶媒体を介して間接的に通信を行う場合も含まれる。 In each of the following embodiments, the information processing apparatus can generate, acquire, and change feature value information including image information, sound information, and the like as feature values to be tracked in the flying object. The information processing device can generate, acquire, and change flight position information including at least one of a flight start position, a flight end position, a predetermined position on a flight path, a flight altitude, and a flight speed in an air vehicle. Is. When the terminal includes an information processing device, the information processing device can communicate with the flying object, and can transmit the feature value information of the tracking target and the flight position information of the flying object to the flying object. The term "communication" as used herein is a broad concept including data communication in general, and includes not only the case of wired connection by a cable or the like but also the case of wireless communication. Further, it includes not only the case where the information processing device directly communicates with the flying object but also the case where the information processing device indirectly communicates via the transmitter or the storage medium.

図1は、実施形態における飛行制御システム10の構成例を示す模式図である。飛行制御システム10は、無人飛行体100及び端末50を含む。無人飛行体100及び端末50は、有線通信又は無線通信(例えば無線LAN(Local Area Network)、又はBluetooth(登録商標))を用いて、互いに通信することが可能である。端末50は、例えば端末50を使用する人物(以下、「ユーザ」という)の両手で把持された状態で使用される。端末50は、例えば送信機、タブレット端末、携帯端末、PCなどであってよい。端末50は、送信機にタブレット端末又は携帯端末が装着され互いに通信可能に設けられた構成であってよい。 FIG. 1 is a schematic diagram showing a configuration example of the flight control system 10 according to the embodiment. The flight control system 10 includes an unmanned aircraft 100 and a terminal 50. The unmanned aircraft 100 and the terminal 50 can communicate with each other using wired communication or wireless communication (for example, wireless LAN (Local Area Network) or Bluetooth (registered trademark)). The terminal 50 is used, for example, in a state of being held by both hands of a person (hereinafter, referred to as “user”) who uses the terminal 50. The terminal 50 may be, for example, a transmitter, a tablet terminal, a mobile terminal, a PC, or the like. The terminal 50 may have a configuration in which a tablet terminal or a mobile terminal is attached to the transmitter and is provided so as to be able to communicate with each other.

図2は、無人飛行体100の外観の一例を示す図である。無人飛行体100は、撮像部の一例としての撮像装置220を備えて移動する移動体の一例である。移動体とは、無人飛行体100の他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。ここで、図2に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(図2のx軸参照)が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(図2のy軸参照)が定められ、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(図2のz軸)が定められる。 FIG. 2 is a diagram showing an example of the appearance of the unmanned aircraft 100. The unmanned flying object 100 is an example of a moving object provided with an imaging device 220 as an example of an imaging unit. The moving body is a concept including an unmanned flying object 100, other aircraft moving in the air, a vehicle moving on the ground, a ship moving on the water, and the like. Here, as shown in FIG. 2, it is assumed that the roll axis (see the x-axis in FIG. 2) is defined in the direction parallel to the ground and along the moving direction STV0. In this case, the pitch axis (see the y-axis in FIG. 2) is defined in the direction parallel to the ground and perpendicular to the roll axis, and further, the yaw axis is perpendicular to the ground and perpendicular to the roll axis and the pitch axis. (Z-axis in FIG. 2) is defined.

無人飛行体100は、UAV本体102と、回転翼機構210と、撮像装置220と、ジンバル230と、収音装置180とを含む構成である。無人飛行体100は、例えば端末50から送信される遠隔制御の指示を基に移動することができる。無人飛行体100の移動は、飛行を意味し、少なくとも上昇、降下、左旋回、右旋回、左水平移動、右水平移動の飛行が含まれる。 The unmanned aerial vehicle 100 includes a UAV main body 102, a rotary wing mechanism 210, an imaging device 220, a gimbal 230, and a sound collecting device 180. The unmanned aircraft 100 can move based on, for example, a remote control instruction transmitted from the terminal 50. The movement of the unmanned vehicle 100 means flight, and includes at least ascending, descending, left-turning, right-turning, left-horizontal movement, and right-horizontal movement.

無人飛行体100は、複数の回転翼機構(プロペラ)210を備える。無人飛行体100は、例えば4つの回転翼機構210を備える。無人飛行体100は、これら回転翼機構210の回転を制御することにより無人飛行体100を移動させる。ただし、回転翼の数は、4つに限定されない。また、無人飛行体100は、回転翼を有さない固定翼機でよい。 The unmanned aircraft 100 includes a plurality of rotary wing mechanisms (propellers) 210. The unmanned aircraft 100 includes, for example, four rotor mechanisms 210. The unmanned aviation body 100 moves the unmanned aviation body 100 by controlling the rotation of these rotor blade mechanisms 210. However, the number of rotor blades is not limited to four. Further, the unmanned aircraft 100 may be a fixed-wing aircraft having no rotary wings.

撮像装置220は、所望の撮像範囲に含まれる被写体(例えば人物、車両など)を撮像するカメラである。撮像装置220は、支持機構の一例であるジンバル230に取り付けられ、ジンバル230の動きによって撮像範囲が調節される。 The image pickup apparatus 220 is a camera that captures a subject (for example, a person, a vehicle, etc.) included in a desired imaging range. The imaging device 220 is attached to a gimbal 230, which is an example of a support mechanism, and the imaging range is adjusted by the movement of the gimbal 230.

収音装置180は、被写体を含む撮像範囲の周辺の音を収音するマイクロホンである。収音装置180は、複数のマイクロホンを有するマイクアレイでよい。 The sound collecting device 180 is a microphone that collects sound around the imaging range including the subject. The sound collecting device 180 may be a microphone array having a plurality of microphones.

次に、無人飛行体100の構成例について説明する。 Next, a configuration example of the unmanned aircraft 100 will be described.

図3は、無人飛行体100のハードウェア構成の一例を示すブロック図である。無人飛行体100は、制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、収音装置180と、バッテリ190と、回転翼機構210と、撮像装置220と、ジンバル230と、GPS受信機240と、慣性計測装置250と、磁気コンパス260と、気圧高度計270と、超音波センサ280とを含む構成である。 FIG. 3 is a block diagram showing an example of the hardware configuration of the unmanned aircraft 100. The unmanned aircraft 100 includes a control unit 110, a communication interface 150, a memory 160, a storage 170, a sound collecting device 180, a battery 190, a rotary wing mechanism 210, an imaging device 220, a gimbal 230, and a GPS. The configuration includes a receiver 240, an inertial measurement unit 250, a magnetic compass 260, a barometric altimeter 270, and an ultrasonic sensor 280.

制御部110は、プロセッサ、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。制御部110は、無人飛行体100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。制御部110は、無人飛行体100において飛行の制御に関する処理を実行する機能を有する。 The control unit 110 is configured by using a processor, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor). The control unit 110 performs signal processing for controlling the operation of each part of the unmanned aircraft 100, data input / output processing with and from other parts, data calculation processing, and data storage processing. The control unit 110 has a function of executing a process related to flight control in the unmanned aircraft 100.

制御部110は、メモリ160又はストレージ170に格納されたプログラムに従って無人飛行体100の飛行を制御する。また、制御部110は、通信インタフェース150を介して遠隔の端末50から受信した命令に従って、無人飛行体100の移動(つまり、飛行)を制御する。 The control unit 110 controls the flight of the unmanned vehicle 100 according to a program stored in the memory 160 or the storage 170. Further, the control unit 110 controls the movement (that is, flight) of the unmanned vehicle 100 according to a command received from the remote terminal 50 via the communication interface 150.

制御部110は、回転翼機構210を制御することで、無人飛行体100の飛行を制御する。つまり、制御部110は、回転翼機構210を制御することにより、無人飛行体100の緯度、経度、及び高度を含む位置、並びに向きを制御する。制御部110は、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280のうちの少なくとも一つにより取得される位置情報に基づき、回転翼機構210を制御する。 The control unit 110 controls the flight of the unmanned vehicle 100 by controlling the rotary wing mechanism 210. That is, the control unit 110 controls the position and orientation of the unmanned aircraft 100 including the latitude, longitude, and altitude by controlling the rotary wing mechanism 210. The control unit 110 controls the rotor mechanism 210 based on the position information acquired by at least one of the GPS receiver 240, the inertial measurement unit 250, the magnetic compass 260, the barometric altimeter 270, and the ultrasonic sensor 280.

制御部110は、例えば撮像装置220の撮像方向を示す情報として、ジンバル230から撮像装置220の姿勢の状態を示す姿勢情報を取得する。撮像装置220の姿勢の状態を示す情報は、ジンバル230のピッチ軸及びヨー軸の基準回転角度からの回転角度を示す。制御部110は、無人飛行体100の向きを示す情報を取得する。 For example, the control unit 110 acquires posture information indicating the posture state of the image pickup device 220 from the gimbal 230 as information indicating the image pickup direction of the image pickup device 220. The information indicating the posture state of the image pickup apparatus 220 indicates the rotation angle of the gimbal 230 from the reference rotation angle of the pitch axis and the yaw axis. The control unit 110 acquires information indicating the direction of the unmanned aircraft 100.

制御部110は、撮像装置220及びジンバル230を制御する。制御部110は、撮像装置220の撮像方向又は画角を変更することによって、撮像装置220の撮像範囲を制御する。制御部110は、ジンバル230の回転機構を制御することで、ジンバル230に支持されている撮像装置220の撮像範囲を制御する。 The control unit 110 controls the image pickup device 220 and the gimbal 230. The control unit 110 controls the imaging range of the imaging device 220 by changing the imaging direction or the angle of view of the imaging device 220. The control unit 110 controls the imaging range of the imaging device 220 supported by the gimbal 230 by controlling the rotation mechanism of the gimbal 230.

制御部110は、撮像装置220により撮像された被写体の画像データ(以下、「撮像画像」と称する場合がある)を取得する。 The control unit 110 acquires image data (hereinafter, may be referred to as “captured image”) of the subject captured by the image pickup device 220.

制御部110は、収音装置180により収音された被写体及び周辺の音情報を取得する。 The control unit 110 acquires sound information of the subject and its surroundings collected by the sound collecting device 180.

通信インタフェース150は、通信部の一例であり、端末50と通信する。通信インタフェース150は、端末50からの追跡対象、飛行経路等に関する各種の情報を受信する。通信インタフェース150は、端末50からの制御部110に対する各種の命令を受信する。 The communication interface 150 is an example of a communication unit and communicates with the terminal 50. The communication interface 150 receives various information about the tracking target, the flight path, and the like from the terminal 50. The communication interface 150 receives various commands from the terminal 50 to the control unit 110.

メモリ160は、記憶部の一例である。メモリ160は、制御部110が回転翼機構210、撮像装置220、ジンバル230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、通信インタフェース150、ストレージ170、及び収音装置180を制御するのに必要なプログラム等を格納する。メモリ160は、制御部110の処理時に使用される各種の情報やデータを保存する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人飛行体100の内部に設けられてよいし、無人飛行体100から取り外し可能に設けられてよい。メモリ160には、追跡対象の特徴値情報などを含む追跡情報を保存してよい。 The memory 160 is an example of a storage unit. The memory 160 has a rotary wing mechanism 210, an image pickup device 220, a gimbal 230, a GPS receiver 240, an inertial measurement unit 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, a communication interface 150, and a storage 170. The program and the like necessary for controlling the sound collecting device 180 are stored. The memory 160 stores various information and data used at the time of processing by the control unit 110. The memory 160 may be a computer-readable recording medium, and may be a SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and an EEPROM. It may include at least one flash memory such as a USB memory. The memory 160 may be provided inside the unmanned vehicle 100 or may be detachably provided from the unmanned vehicle 100. Tracking information including feature value information to be tracked may be stored in the memory 160.

ストレージ170は、記憶部の一例である。ストレージ170は、各種データ、情報を蓄積し、保持する。ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ170は、無人飛行体100の内部に設けられてよいし、無人飛行体100から取り外し可能に設けられてよい。 The storage 170 is an example of a storage unit. The storage 170 stores and holds various data and information. The storage 170 may be an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, a USB memory, or the like. The storage 170 may be provided inside the unmanned vehicle 100 or may be detachably provided from the unmanned vehicle 100.

収音装置180は、複数のマイクロホンが列状に配置されたマイクアレイを含む。収音装置180は、例えば、2つ以上のマイクロホンと、各マイクロホンにて収音した音信号を処理する信号処理回路とを含んでよい。収音装置180は、追跡対象の音源方向の推定のために、追跡対象を含む周囲の音を収音し、複数のマイクロホンにてそれぞれ収音した追跡対象を含む被写体の音信号の情報を取得する。 The sound collecting device 180 includes a microphone array in which a plurality of microphones are arranged in a row. The sound collecting device 180 may include, for example, two or more microphones and a signal processing circuit for processing the sound signal picked up by each microphone. The sound collecting device 180 collects the surrounding sound including the tracking target in order to estimate the sound source direction of the tracking target, and acquires the information of the sound signal of the subject including the tracking target collected by each of a plurality of microphones. do.

バッテリ190は、無人飛行体100の各部の駆動源としての機能を有し、無人飛行体100の各部に必要な電源を供給する。 The battery 190 has a function as a drive source for each part of the unmanned vehicle 100, and supplies necessary power to each part of the unmanned vehicle 100.

回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。回転翼機構210は、回転翼を回転させることにより、特定の方向の気流を生じさせ、無人飛行体100の飛行(上昇、下降、水平移動、旋回、傾斜等)を制御する。 The rotary blade mechanism 210 has a plurality of rotary blades and a plurality of drive motors for rotating the plurality of rotary blades. The rotary wing mechanism 210 generates an air flow in a specific direction by rotating the rotary wing, and controls the flight (up, down, horizontal movement, turning, inclination, etc.) of the unmanned vehicle 100.

撮像装置220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像画像は動画であってもよく、静止画であってよい。撮像装置220の撮像により得られた画像データは、撮像装置220が有するメモリ又はメモリ160、ストレージ170などに格納される。 The image pickup apparatus 220 captures a subject in a desired imaging range and generates data of the captured image. The captured image may be a moving image or a still image. The image data obtained by the imaging of the imaging device 220 is stored in a memory or memory 160 of the imaging device 220, a storage 170, or the like.

ジンバル230は、撮像装置220を支持する支持機構の一例であり、少なくとも1つの軸を中心に撮像装置220を回転可能に支持する。ジンバル230は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置220を回転可能に支持してよい。ジンバル230は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置220を回転させることで、撮像装置220の撮像方向を変更してよい。 The gimbal 230 is an example of a support mechanism that supports the image pickup device 220, and supports the image pickup device 220 rotatably around at least one axis. The gimbal 230 may rotatably support the image pickup device 220 about the yaw axis, the pitch axis, and the roll axis. The gimbal 230 may change the imaging direction of the imaging device 220 by rotating the imaging device 220 around at least one of the yaw axis, the pitch axis, and the roll axis.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人飛行体100の位置)を算出する。GPS受信機240は、無人飛行体100の位置情報を制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりに制御部110により行われてよい。この場合、制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。 The GPS receiver 240 receives a plurality of signals indicating the time transmitted from the plurality of navigation satellites (that is, GPS satellites) and the position (coordinates) of each GPS satellite. The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned aircraft 100) based on the plurality of received signals. The GPS receiver 240 outputs the position information of the unmanned aircraft 100 to the control unit 110. The position information of the GPS receiver 240 may be calculated by the control unit 110 instead of the GPS receiver 240. In this case, information indicating the time included in the plurality of signals received by the GPS receiver 240 and the position of each GPS satellite is input to the control unit 110.

慣性計測装置(IMU:Inertial Measurement Unit)250は、無人飛行体100の姿勢を検出し、検出結果を制御部110に出力する。慣性計測装置250は、無人飛行体100の姿勢として、無人飛行体100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出する。 The inertial measurement unit (IMU) 250 detects the attitude of the unmanned aircraft 100 and outputs the detection result to the control unit 110. The inertial measurement unit 250 determines the posture of the unmanned vehicle 100 as the acceleration in the front-back, left-right, and up-down directions of the unmanned vehicle 100 and the angular velocities in the three axes of the pitch axis, the roll axis, and the yaw axis. To detect.

磁気コンパス260は、無人飛行体100の機首の方位を検出し、検出結果を制御部110に出力する。気圧高度計270は、無人飛行体100が飛行する高度を検出し、検出結果を制御部110に出力する。超音波センサ280は、超音波を照射し、地面や物体により反射された超音波を検出し、検出結果を制御部110に出力する。検出結果は、例えば無人飛行体100から地面までの距離(つまり、高度)を示す。検出結果は、例えば無人飛行体100から物体までの距離を示してよい。 The magnetic compass 260 detects the direction of the nose of the unmanned aircraft 100 and outputs the detection result to the control unit 110. The barometric altimeter 270 detects the altitude at which the unmanned vehicle 100 flies and outputs the detection result to the control unit 110. The ultrasonic sensor 280 irradiates ultrasonic waves, detects ultrasonic waves reflected by the ground or an object, and outputs the detection result to the control unit 110. The detection result indicates, for example, the distance (that is, altitude) from the unmanned aircraft 100 to the ground. The detection result may indicate, for example, the distance from the unmanned flying object 100 to the object.

次に、無人飛行体100の制御部110の機能の一例について説明する。
制御部110は、撮像装置220により撮像された撮像画像の画像データ中の被写体において、所定の追跡対象の追跡に関する処理を行う追跡部111と、収音装置180により取得された音情報のデータ(音データ)に基づいて所定の音源方向の推定に関する処理を行う音源方向推定部112とを含む。
Next, an example of the function of the control unit 110 of the unmanned aircraft 100 will be described.
The control unit 110 has a tracking unit 111 that performs processing related to tracking a predetermined tracking target in the image data of the captured image captured by the imaging device 220, and sound information data (sound information data acquired by the sound collecting device 180). It includes a sound source direction estimation unit 112 that performs processing related to estimation of a predetermined sound source direction based on (sound data).

追跡部111は、設定された追跡対象を追跡するよう無人飛行体100を移動させ、追跡対象を撮像装置220にて撮像可能なように、回転翼機構210、撮像装置220及びジンバル230を制御する。追跡部111は、撮像装置220にて取得した撮像画像を用いて追跡対象を追跡する。追跡部111は、撮像装置220にて撮像した撮像画像において追跡対象の特徴値の算出、比較、更新を行い、追跡対象を探索する。追跡部111は、動画像の撮像画像において、以前のフレームの追跡対象の特徴値と現在のフレームの特徴値とを比較し、特徴値が一致する追跡対象を探索する。 The tracking unit 111 moves the unmanned aircraft 100 to track the set tracking target, and controls the rotary wing mechanism 210, the imaging device 220, and the gimbal 230 so that the tracking target can be imaged by the imaging device 220. .. The tracking unit 111 tracks the tracking target using the captured image acquired by the imaging device 220. The tracking unit 111 calculates, compares, and updates the feature values of the tracking target in the captured image captured by the imaging device 220, and searches for the tracking target. The tracking unit 111 compares the feature value of the tracking target of the previous frame with the feature value of the current frame in the captured image of the moving image, and searches for the tracking target having the same feature value.

音源方向推定部112は、収音装置180にて取得した音データから、追跡対象が発する音と環境音とを分離し、各マイクロホンにて取得した追跡対象の音の位相情報を取得し、追跡対象に該当する音源の方向を推定する。 The sound source direction estimation unit 112 separates the sound emitted by the tracking target and the environmental sound from the sound data acquired by the sound collecting device 180, acquires the phase information of the sound of the tracking target acquired by each microphone, and tracks the sound. Estimate the direction of the sound source corresponding to the target.

追跡部111は、推定された音源方向に基づいて、撮像装置220及びジンバル230を制御し、例えば音源方向に応じて追跡対象に向かうように撮像装置220の撮影方向を調整する。 The tracking unit 111 controls the image pickup device 220 and the gimbal 230 based on the estimated sound source direction, and adjusts the imaging direction of the image pickup device 220 so as to move toward the tracking target according to, for example, the sound source direction.

次に、端末50の構成例について説明する。 Next, a configuration example of the terminal 50 will be described.

図4は、端末50のハードウェア構成の一例を示すブロック図である。端末50は、処理部51と、メモリ52と、無線通信部53と、表示部54と、操作部55と、インタフェース部56と、ストレージ57と、バッテリ58とを含む構成である。端末50は、無人飛行体100を遠隔制御するための指示を送信する操作端末の機能を持つ情報処理装置の一例である。端末50は、無人飛行体100の飛行に関する各種の情報やデータの入出力を行う設定端末の機能を持つ情報処理装置の一例である。なお、端末50は、送信機とタブレット端末又は携帯端末とが互いに接続された別体の構成であってよい。 FIG. 4 is a block diagram showing an example of the hardware configuration of the terminal 50. The terminal 50 includes a processing unit 51, a memory 52, a wireless communication unit 53, a display unit 54, an operation unit 55, an interface unit 56, a storage 57, and a battery 58. The terminal 50 is an example of an information processing device having a function of an operation terminal for transmitting an instruction for remotely controlling the unmanned aircraft 100. The terminal 50 is an example of an information processing device having a function of a setting terminal that inputs / outputs various information and data related to the flight of the unmanned vehicle 100. The terminal 50 may have a separate configuration in which the transmitter and the tablet terminal or mobile terminal are connected to each other.

処理部51は、プロセッサ(例えばCPU、MPU又はDSP)を用いて構成される。処理部51は、端末50の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。 The processing unit 51 is configured by using a processor (for example, CPU, MPU or DSP). The processing unit 51 performs signal processing for controlling the operation of each unit of the terminal 50 in a centralized manner, data input / output processing with each other unit, data calculation processing, and data storage processing.

処理部51は、無線通信部53を介して、無人飛行体100からのデータや情報を取得してよい。処理部51は、インタフェース部56を介して、他の装置からのデータや情報を取得してよい。処理部51は、操作部55を介して入力されたデータや情報を取得してよい。処理部51は、メモリ52に保持されたデータや情報を取得してよい。処理部51は、データや情報を表示部54に送り、このデータや情報に基づく表示情報を表示部54に表示させてよい。処理部51は、データや情報をストレージ57に送り、このデータや情報を格納してよい。処理部51は、ストレージ57に格納されたデータや情報を取得してよい。 The processing unit 51 may acquire data and information from the unmanned aircraft 100 via the wireless communication unit 53. The processing unit 51 may acquire data or information from another device via the interface unit 56. The processing unit 51 may acquire data or information input via the operation unit 55. The processing unit 51 may acquire data and information held in the memory 52. The processing unit 51 may send data or information to the display unit 54 and display the display information based on the data or information on the display unit 54. The processing unit 51 may send data or information to the storage 57 and store the data or information. The processing unit 51 may acquire data and information stored in the storage 57.

処理部51は、操作部55の操作入力に基づき、例えば追跡対象を含む画像領域の設定など、追跡対象の設定に関する設定入力を行ってよい。 Based on the operation input of the operation unit 55, the processing unit 51 may input settings related to the setting of the tracking target, such as the setting of the image area including the tracking target.

処理部51は、操作部55の操作入力に基づき、無人飛行体100の移動を遠隔制御するための操作信号を生成してよい。処理部51は、生成した操作信号を移動制御用の命令として、無線通信部53を介して無人飛行体100に送信し、無人飛行体100を遠隔制御してよい。 The processing unit 51 may generate an operation signal for remotely controlling the movement of the unmanned aircraft 100 based on the operation input of the operation unit 55. The processing unit 51 may transmit the generated operation signal as a movement control command to the unmanned vehicle 100 via the wireless communication unit 53 to remotely control the unmanned vehicle 100.

処理部51は、表示部54に表示する設定画面、操作画面、通知画面、確認画面のうちの少なくとも一つの表示画面を生成してよい。 The processing unit 51 may generate at least one display screen of a setting screen, an operation screen, a notification screen, and a confirmation screen to be displayed on the display unit 54.

メモリ52は、記憶部の一例である。メモリ52は、例えば、処理部51の動作を規定するプログラムや設定値のデータが格納されたROM(Read Only Memory)と、処理部51の処理時に使用される各種の情報やデータを一時的に保存するRAM(Random Access Memory)とを有する。メモリ52のROMに格納されたプログラムや設定値のデータは、所定の記録媒体(例えばCD−ROM、DVD−ROM)にコピーされてよい。 The memory 52 is an example of a storage unit. The memory 52 temporarily stores, for example, a ROM (Read Only Memory) in which data of a program or set value that defines the operation of the processing unit 51 is stored, and various information and data used during processing of the processing unit 51. It has a RAM (Random Access Memory) for storing. The program and set value data stored in the ROM of the memory 52 may be copied to a predetermined recording medium (for example, CD-ROM, DVD-ROM).

無線通信部53は、通信部の一例であり、アンテナを介して、各種の無線通信方式により、無人飛行体100との間で通信し、情報やデータの送受信を行う。無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、近距離無線通信、又は公衆無線回線を介した通信を含んでよい。無線通信部53は、他の装置との間で通信を行って情報やデータを送受信してよい。 The wireless communication unit 53 is an example of a communication unit, and communicates with the unmanned aircraft 100 by various wireless communication methods via an antenna to transmit / receive information and data. The wireless communication method may include, for example, wireless LAN, Bluetooth®, short-range wireless communication, or communication via a public wireless line. The wireless communication unit 53 may communicate with other devices to send and receive information and data.

表示部54は、例えばLCD(Liquid Crystal Display)又は有機EL(ElectroLuminescence)ディスプレイを用いて構成され、表示画面において、処理部51から出力された各種の情報やデータを表示する。表示部54は、設定画面、操作画面、通知画面、確認画面のうちの少なくとも一つの表示画面を表示してよい。表示部54は、例えばLED(Light Emission Diode)を用いた表示ランプを有してよい。表示ランプは、例えば、無人飛行体100と端末50との無線の接続状態、無人飛行体100の起動状態、無人飛行体100又は端末50のバッテリの容量の残量のうち、少なくとも一つを表示してよい。 The display unit 54 is configured by using, for example, an LCD (Liquid Crystal Display) or an organic EL (ElectroLuminescence) display, and displays various information and data output from the processing unit 51 on the display screen. The display unit 54 may display at least one display screen of the setting screen, the operation screen, the notification screen, and the confirmation screen. The display unit 54 may have, for example, an indicator lamp using an LED (Light Emission Diode). The indicator lamp displays, for example, at least one of the wireless connection state between the unmanned vehicle 100 and the terminal 50, the activation state of the unmanned vehicle 100, and the remaining capacity of the battery of the unmanned vehicle 100 or the terminal 50. You can do it.

操作部55は、端末50を保持するユーザにより入力される操作指示、又はデータや情報を受け付ける。操作部55は、ジョイスティック、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。操作部55は、例えば、ユーザによる無人飛行体100の移動を遠隔で制御(例えば、無人飛行体100の前後移動、左右移動、上下移動、向き変更)するための操作において使用される。操作部55は、例えば、追跡対象に関する設定入力をする操作において使用される。操作部55は、例えば、追跡対象の確認、追跡開始の指示などの操作において使用される。 The operation unit 55 receives operation instructions, data, or information input by the user holding the terminal 50. The operation unit 55 may include a joystick, buttons, keys, a touch panel, a microphone, and the like. The operation unit 55 is used, for example, in an operation for remotely controlling the movement of the unmanned flying object 100 by the user (for example, moving the unmanned flying object 100 back and forth, moving left and right, moving up and down, and changing the direction). The operation unit 55 is used, for example, in an operation of inputting a setting related to a tracking target. The operation unit 55 is used, for example, in operations such as confirmation of a tracking target and an instruction to start tracking.

インタフェース部56は、端末50と他の装置との間の情報やデータの入出力を行う。インタフェース部56は、例えば端末50に設けられたUSBポート(不図示)でよい。インタフェース部56は、USBポート以外のインタフェースでもよい。 The interface unit 56 inputs and outputs information and data between the terminal 50 and other devices. The interface unit 56 may be, for example, a USB port (not shown) provided in the terminal 50. The interface unit 56 may be an interface other than the USB port.

ストレージ57は、記憶部の一例である。ストレージ57は、各種データ、情報を蓄積し、保持する。ストレージ57は、フラッシュメモリ、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ57は、端末50の本体から取り外し可能に設けられてよい。 The storage 57 is an example of a storage unit. The storage 57 stores and holds various data and information. The storage 57 may be a flash memory, an SSD (Solid State Drive), a memory card, a USB memory, or the like. The storage 57 may be provided so as to be removable from the main body of the terminal 50.

バッテリ58は、端末50の各部の駆動源としての機能を有し、端末50の各部に必要な電源を供給する。 The battery 58 has a function as a drive source for each part of the terminal 50, and supplies necessary power to each part of the terminal 50.

次に、無人飛行体100による追跡動作について説明する。 Next, the tracking operation by the unmanned aircraft 100 will be described.

(第1の実施形態)
図5は、無人飛行体により追跡対象を追跡する第1の実施形態の様子を模式的に示す図である。第1の実施形態では、人物を追跡対象として追跡して撮像する例を示す。無人飛行体100は、撮像装置220によって人物410を被写体として撮像し、撮像画像中の人物を追跡対象に設定する。無人飛行体100は、設定した追跡対象を継続して撮像するように、ジンバル230によって撮像装置220を回転させ、撮影方向を調整する。このとき、ジンバル230は、例えば、ヨー軸を中心とした水平方向Dh、ピッチ軸を中心とした垂直方向Dvに、それぞれ撮像装置220を回転させる。無人飛行体100は、追跡対象の人物410の移動に応じて、回転翼機構210を制御し、無人飛行体100の位置を追従させる。
(First Embodiment)
FIG. 5 is a diagram schematically showing a state of the first embodiment in which a tracking target is tracked by an unmanned flying object. The first embodiment shows an example in which a person is tracked and imaged as a tracking target. The unmanned flying object 100 images a person 410 as a subject by the image pickup device 220, and sets the person in the captured image as a tracking target. The unmanned aircraft 100 adjusts the imaging direction by rotating the imaging device 220 by the gimbal 230 so that the set tracking target is continuously imaged. At this time, the gimbal 230 rotates the image pickup device 220 in the horizontal direction Dh centered on the yaw axis and in the vertical direction Dv centered on the pitch axis, respectively. The unmanned vehicle 100 controls the rotary wing mechanism 210 according to the movement of the person 410 to be tracked, and makes the position of the unmanned vehicle 100 follow.

例えば、追跡対象が大きく移動して撮像装置220の画角から外れるなど、撮像した画像データにおいて追跡対象を探索できず、追跡に失敗した場合、無人飛行体100は、収音装置180によって撮像領域周辺の音を収音し、追跡対象に該当する音源方向SDを推定する。このとき、追跡対象の人物410は、追跡失敗を認識した場合に無人飛行体100に対して呼びかけるなど、無人飛行体100に向けて音声を発する。無人飛行体100は、追跡対象が発する音を取得し、音源方向SDを推定することによって、追跡対象の方向を検知する。無人飛行体100は、推定した音源方向SDに基づき、ジンバル230を制御して撮像装置220の撮影方向を音源方向SDに向かうように、すなわち追跡対象の人物410に向かうように調整する。 For example, if the tracking target cannot be searched for in the captured image data and the tracking fails, for example, the tracking target moves significantly and deviates from the angle of view of the image pickup device 220, the unmanned vehicle 100 is subjected to the sound collection device 180 to capture the image area. The surrounding sound is picked up, and the sound source direction SD corresponding to the tracking target is estimated. At this time, the person 410 to be tracked emits a voice toward the unmanned flying object 100, such as calling to the unmanned flying object 100 when the tracking failure is recognized. The unmanned aircraft 100 detects the direction of the tracking target by acquiring the sound emitted by the tracking target and estimating the sound source direction SD. Based on the estimated sound source direction SD, the unmanned aircraft 100 controls the gimbal 230 to adjust the shooting direction of the image pickup apparatus 220 toward the sound source direction SD, that is, toward the person 410 to be tracked.

図6は、実施形態における追跡動作の初期設定に関する処理手順の一例を示すフローチャートである。図7は、実施形態における追跡動作の初期設定を行うための初期設定画面の一例を示す図である。 FIG. 6 is a flowchart showing an example of a processing procedure related to the initial setting of the tracking operation in the embodiment. FIG. 7 is a diagram showing an example of an initial setting screen for initializing the tracking operation in the embodiment.

無人飛行体100は、追跡動作の初期設定において、追跡対象を設定する。本例では、端末50を用いて追跡対象の設定を行う手順を示す。端末50は、ユーザによる撮像画像中の追跡対象範囲の操作指示を入力し、追跡対象範囲を設定する(S11)。このとき、端末50は、表示部54において、図7に示す一例のように、複数領域に分割した撮像画像310を有する設定画面300を表示する。ユーザが撮像画像310において追跡対象TG1を含む領域をタッチ操作等により指定すると、追跡対象範囲321を示す画像領域枠が表示され、ユーザが確認後に設定ボタン(SET)322をタッチ操作すると、端末50は、該当する画像領域を追跡対象範囲として設定する。端末50は、追跡対象範囲情報を無人飛行体100に送信し、無人飛行体100は、追跡対象範囲情報を受信入力して撮像画像における追跡対象範囲を設定する。 The unmanned aircraft 100 sets a tracking target in the initial setting of the tracking operation. In this example, the procedure for setting the tracking target using the terminal 50 is shown. The terminal 50 inputs an operation instruction of the tracking target range in the captured image by the user, and sets the tracking target range (S11). At this time, the terminal 50 displays the setting screen 300 having the captured image 310 divided into a plurality of regions on the display unit 54 as in the example shown in FIG. When the user specifies the area including the tracking target TG1 in the captured image 310 by a touch operation or the like, an image area frame indicating the tracking target range 321 is displayed, and when the user touches the setting button (SET) 322 after confirmation, the terminal 50 Sets the corresponding image area as the tracking target range. The terminal 50 transmits the tracking target range information to the unmanned aviation body 100, and the unmanned aviation body 100 receives and inputs the tracking target range information to set the tracking target range in the captured image.

無人飛行体100は、撮像画像中の追跡対象範囲の画像データにおいて、追跡対象の画像の特徴値を算出する(S12)。追跡対象の画像データから算出する特徴値は、例えば、画像特徴量の一例であるSIFT(Scale-Invariant Feature Transform)を用いてよい。追跡対象の画像特徴量は、SIFTの他に、SURF(Speeded Up Robust Features)、GLOH(Gradient Location and Orientation Histogram)、FAST(Features from Accelerated Segment Test)などを用いてよい。追跡対象の特徴値は、追跡対象のみの画像の特徴値を算出してよいし、追跡対象を含む所定領域の画像の特徴値を算出してよい。なお、端末50において追跡対象の特徴値を算出して無人飛行体100に送信し、無人飛行体100が特徴値を取得してよい。 The unmanned vehicle 100 calculates the feature value of the image to be tracked in the image data of the range to be tracked in the captured image (S12). As the feature value calculated from the image data to be tracked, for example, SIFT (Scale-Invariant Feature Transform), which is an example of the image feature amount, may be used. In addition to SIFT, SURF (Speeded Up Robust Features), GLOH (Gradient Location and Orientation Histogram), FAST (Features from Accelerated Segment Test), or the like may be used as the image feature amount to be tracked. As the feature value of the tracking target, the feature value of the image of only the tracking target may be calculated, or the feature value of the image of a predetermined region including the tracking target may be calculated. The feature value of the tracking target may be calculated by the terminal 50 and transmitted to the unmanned vehicle 100, and the feature value may be acquired by the unmanned vehicle 100.

図8は、第1の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。自動追跡動作の処理は、無人飛行体100における制御部110の追跡部111及び音源方向推定部112によって主に実行してよい。無人飛行体100の制御部110は、撮像装置220によって所定の撮像領域を撮影し、撮像画像を取得する(S21)。制御部110は、撮像画像から追跡対象に対応する画像を抽出する(S22)。このとき、制御部110は、設定された追跡対象範囲に基づいて追跡対象を含む領域の画像を抽出する。そして、制御部110は、抽出した所定領域の画像において追跡対象を探索する(S23)。制御部110は、追跡対象の探索処理において、画像の特徴値の比較を行い、抽出した所定領域の画像の特徴値と以前に算出した追跡対象の特徴値とを比較し、一致するかどうか判定する。制御部110は、追跡対象の探索処理において、現在撮像した撮像画像における追跡対象の画像領域を用いて、追跡対象の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から追跡対象の特徴値と一致する領域を抽出して探索してよい。 FIG. 8 is a flowchart showing an example of the processing procedure of the automatic tracking operation in the first embodiment. The processing of the automatic tracking operation may be mainly executed by the tracking unit 111 and the sound source direction estimation unit 112 of the control unit 110 in the unmanned aircraft 100. The control unit 110 of the unmanned aircraft 100 captures a predetermined imaging region by the imaging device 220 and acquires an captured image (S21). The control unit 110 extracts an image corresponding to the tracking target from the captured image (S22). At this time, the control unit 110 extracts an image of the region including the tracking target based on the set tracking target range. Then, the control unit 110 searches for a tracking target in the extracted image of the predetermined region (S23). In the tracking target search process, the control unit 110 compares the feature values of the images, compares the feature values of the extracted image of the predetermined region with the previously calculated feature values of the tracking target, and determines whether or not they match. do. In the tracking target search process, the control unit 110 may update the feature value of the tracking target by using the image area of the tracking target in the captured image currently captured. The control unit 110 may extract and search for a region that matches the feature value of the tracking target from the entire region of the captured image.

制御部110は、追跡対象の特徴値が一致するか否かによって、追跡に失敗したかどうか判定する(S24)。追跡に成功した場合(S24:No)、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S21〜S24)。 The control unit 110 determines whether or not the tracking has failed depending on whether or not the feature values of the tracking targets match (S24). When the tracking is successful (S24: No), the control unit 110 repeatedly executes the search process of the tracking target in the captured image (S21 to S24).

追跡に失敗した場合(S24:Yes)、制御部110は、収音装置180によって収音した音声信号を受信し、撮像領域周辺の音データを取得する(S25)。制御部110は、取得した音データについて、複数の音源の音データを分離する(S26)。制御部110は、音源分離処理において、例えば、BSS(Blind Source Separation、ブラインド信号源分離)を用いて複数の音源からの音データを分離してよい。制御部110は、音源分離処理により、ノイズ等の環境音と、追跡対象に該当する被写体が発する音とを分離する。本例では、追跡対象の人物410が発した音声データを環境音から分離する。制御部110は、分離した複数の音データについて、追跡対象の音成分を主成分として抽出する(S27)。制御部110は、主成分の音データに関して、追跡対象の特徴値として音の特徴値を算出する。追跡対象の音データから算出する特徴値は、例えば、周波数特性、指向性の有無、エンベロープなどを用いてよい。 When the tracking fails (S24: Yes), the control unit 110 receives the sound signal picked up by the sound collecting device 180 and acquires the sound data around the imaging region (S25). The control unit 110 separates the sound data of a plurality of sound sources from the acquired sound data (S26). In the sound source separation process, the control unit 110 may separate sound data from a plurality of sound sources by using, for example, BSS (Blind Source Separation). The control unit 110 separates environmental sounds such as noise from sounds emitted by a subject corresponding to the tracking target by sound source separation processing. In this example, the voice data emitted by the person 410 to be tracked is separated from the environmental sound. The control unit 110 extracts the separated sound data with the sound component to be tracked as the main component (S27). The control unit 110 calculates the sound feature value as the feature value to be tracked with respect to the sound data of the principal component. For the feature value calculated from the sound data to be tracked, for example, frequency characteristics, presence / absence of directivity, envelope, and the like may be used.

制御部110は、追跡対象に対応する主成分の音データについて、例えば音の特徴値によって、音源方向を推定する(S28)。制御部110は、音源方向の推定処理において、例えば、収音装置180のマイクアレイによって各マイクロホンにて取得した音データの位相情報を用いて、音源からの音の到来方向を推定する。音源方向の推定処理は、例えば、ビームフォーミング法などの遅延和アレイによって音響ビームを形成して空間的にスキャンさせることで音源位置を推定する方法、CSP(Cross-power Spectrum Phase analysis)法などの複数のマイクロホンにおける到来時間差を求めて遅延時間を算出することで音源定位を推定する方法、などを用いてよい。 The control unit 110 estimates the sound source direction of the sound data of the principal component corresponding to the tracking target, for example, from the characteristic value of the sound (S28). In the sound source direction estimation process, the control unit 110 estimates the arrival direction of the sound from the sound source by using, for example, the phase information of the sound data acquired by each microphone by the microphone array of the sound collecting device 180. The sound source direction estimation process includes, for example, a method of estimating the sound source position by forming an acoustic beam by a delay sum array such as a beamforming method and spatially scanning the sound beam, a CSP (Cross-power Spectrum Phase analysis) method, and the like. A method of estimating sound source localization by calculating the delay time by obtaining the arrival time difference between a plurality of microphones may be used.

制御部110は、音源方向の推定結果に基づき、追跡対象の方向を検知し、撮像装置220による撮影方向を調整する(S29)。このとき、制御部110は、撮像装置220とジンバル230の少なくとも一方の動きを制御し、追跡対象に向かうように撮像装置220の撮影方向を調整する。制御部110は、回転翼機構210を制御して無人飛行体100を移動、回転させ、撮影方向を調整してよい。そして、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S21〜S24)。 The control unit 110 detects the direction of the tracking target based on the estimation result of the sound source direction, and adjusts the shooting direction by the imaging device 220 (S29). At this time, the control unit 110 controls the movement of at least one of the image pickup device 220 and the gimbal 230, and adjusts the imaging direction of the image pickup device 220 so as to move toward the tracking target. The control unit 110 may control the rotary wing mechanism 210 to move and rotate the unmanned vehicle 100 to adjust the photographing direction. Then, the control unit 110 repeatedly executes the search process for the tracking target in the captured image (S21 to S24).

図9は、実施形態における追跡失敗時の処理手順の一例を示すシーケンス図である。図10は、実施形態における追跡失敗を通知する通知画面の一例を示す図である。図11は、実施形態における追跡対象の再設定時の確認画面の一例を示す図である。 FIG. 9 is a sequence diagram showing an example of a processing procedure at the time of tracking failure in the embodiment. FIG. 10 is a diagram showing an example of a notification screen for notifying a tracking failure in the embodiment. FIG. 11 is a diagram showing an example of a confirmation screen at the time of resetting the tracking target in the embodiment.

追跡対象の追跡に失敗した場合、無人飛行体100及び端末50は、ユーザへの通知、再設定した追跡対象の確認などの処理を行ってよい。無人飛行体100は、自動追跡動作中に、追跡対象の探索に失敗したことを判定すると(S31)、端末50に対して、追跡状態情報の一例である追跡失敗を示す情報を送信する(S32)。端末50は、追跡失敗を示す追跡状態情報を受信すると、追跡状態表示の一例として、追跡失敗の状況をユーザに通知する追跡失敗表示を行う(S33)。このとき、端末50は、表示部54において、図10に示す一例のように、追跡失敗を通知する通知画面330を表示する。通知画面330には、撮像画像310において追跡失敗表示(MISSED)323が表示され、ユーザが視認可能である。端末50は、通知画面330の表示の他に、アラーム音等の音による通知、LED発光等の光による通知などを行ってよい。 When the tracking of the tracking target fails, the unmanned aircraft 100 and the terminal 50 may perform processing such as notifying the user and confirming the reset tracking target. When the unmanned aircraft 100 determines that the search for the tracking target has failed during the automatic tracking operation (S31), the unmanned aircraft 100 transmits information indicating the tracking failure, which is an example of the tracking status information, to the terminal 50 (S32). ). When the terminal 50 receives the tracking status information indicating the tracking failure, the terminal 50 performs the tracking failure display for notifying the user of the tracking failure status as an example of the tracking status display (S33). At this time, the terminal 50 displays the notification screen 330 for notifying the tracking failure on the display unit 54, as in the example shown in FIG. On the notification screen 330, the tracking failure display (MISSED) 323 is displayed on the captured image 310 and can be visually recognized by the user. In addition to the display of the notification screen 330, the terminal 50 may perform notification by sound such as an alarm sound, notification by light such as LED light emission, and the like.

無人飛行体100は、図8に示した手順(S25〜S29)のように、音源方向の推定、撮影方向の調整の処理を実行し、追跡対象の再探索を行う(S34)。無人飛行体100は、追跡対象の探索において、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定し、追跡対象の候補を抽出してよい。無人飛行体100は、再探索により抽出した追跡対象の候補を示す情報を、追跡対象候補情報として端末50に送信する(S35)。端末50は、追跡対象候補情報を受信すると、追跡対象の確認のために追跡対象候補をユーザに示す追跡対象候補表示を行う(S36)。このとき、端末50は、表示部54において、図11に示す一例のように、追跡対象候補の確認を行う確認画面350を表示する。確認画面350には、撮像画像310において追跡対象TG1を囲む追跡対象枠324が表示され、追跡対象確認表示(TARGET?)325が表示される。ユーザが追跡対象の確認後に確認ボタン(OK)326をタッチ操作すると、端末50は、ユーザによる確認指示を入力し(S37)、確認応答を無人飛行体100に送信する(S38)。 The unmanned aircraft 100 executes the processing of estimating the sound source direction and adjusting the shooting direction as in the procedure (S25 to S29) shown in FIG. 8, and re-searches the tracking target (S34). In the search for the tracking target, the unmanned vehicle 100 may limit the area for searching the tracking target in the captured image according to the estimated sound source direction, and extract candidates for the tracking target. The unmanned aircraft 100 transmits the information indicating the tracking target candidate extracted by the re-search to the terminal 50 as the tracking target candidate information (S35). When the terminal 50 receives the tracking target candidate information, the terminal 50 displays the tracking target candidate indicating the tracking target candidate to the user in order to confirm the tracking target (S36). At this time, the terminal 50 displays a confirmation screen 350 on the display unit 54 for confirming the tracking target candidate as in the example shown in FIG. On the confirmation screen 350, the tracking target frame 324 surrounding the tracking target TG1 in the captured image 310 is displayed, and the tracking target confirmation display (TARGET?) 325 is displayed. When the user touches the confirmation button (OK) 326 after confirming the tracking target, the terminal 50 inputs the confirmation instruction by the user (S37) and transmits the confirmation response to the unmanned aircraft 100 (S38).

無人飛行体100は、端末50からの確認応答を受信すると、該当する追跡対象を含む領域を新たな追跡対象範囲として設定し、追跡対象の特徴値を算出して更新する(S39)。無人飛行体100は、その後、自動追跡動作を継続する(S40)。 Upon receiving the confirmation response from the terminal 50, the unmanned aircraft 100 sets an area including the corresponding tracking target as a new tracking target range, calculates and updates the feature value of the tracking target (S39). The unmanned aircraft 100 then continues the automatic tracking operation (S40).

上述した第1の実施形態では、無人飛行体は、追跡対象に該当する音源方向を推定し、音源方向推定結果を利用して、追跡動作の補正を行う。実施形態において、無人飛行体は、追跡対象の追跡に失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整する。これにより、追跡対象に該当する音源方向に撮像装置を向けて、追跡対象を再度追跡可能なように継続して撮像でき、追跡結果を補正することができる。また、追跡動作時のロバスト性を向上できる。この場合、追跡対象を再設定する操作が不要になり、操作性を向上できる。 In the first embodiment described above, the unmanned aircraft estimates the sound source direction corresponding to the tracking target, and corrects the tracking operation by using the sound source direction estimation result. In the embodiment, when the tracking target fails to be tracked, the unmanned aircraft acquires the sound information emitted by the tracking target, estimates the sound source direction, and adjusts the shooting direction according to the sound source direction. As a result, the imaging device can be directed toward the sound source corresponding to the tracking target, and the tracking target can be continuously imaged so that the tracking target can be tracked again, and the tracking result can be corrected. In addition, robustness during tracking operation can be improved. In this case, the operation of resetting the tracking target becomes unnecessary, and the operability can be improved.

無人飛行体は、初期設定において追跡対象を設定する場合、又は追跡失敗後に再度追跡対象を設定する場合、端末に追跡対象候補を表示し、ユーザによる確認後の指示操作を入力する。これにより、ユーザが追跡対象を正確かつ容易に確認して設定でき、操作性を向上できる。 When the tracking target is set in the initial setting, or when the tracking target is set again after the tracking failure, the unmanned aircraft displays the tracking target candidate on the terminal and inputs the instruction operation after confirmation by the user. As a result, the user can accurately and easily confirm and set the tracking target, and the operability can be improved.

(第2の実施形態)
図12は、無人飛行体により追跡対象を追跡する第2の実施形態の様子を模式的に示す図である。第2の実施形態では、車両等の移動体を追跡対象として追跡して撮像する例を示す。無人飛行体100は、撮像装置220によって車両420を被写体として撮像し、撮像画像中の車両を追跡対象に設定する。無人飛行体100は、設定した追跡対象を継続して撮像するように、ジンバル230によって撮像装置220を回転させ、撮影方向を調整する。このとき、ジンバル230は、例えば、ヨー軸を中心とした水平方向Dh、ピッチ軸を中心とした垂直方向Dvに、それぞれ撮像装置220を回転させる。無人飛行体100は、追跡対象の車両420の移動に応じて、回転翼機構210を制御し、無人飛行体100の位置を追従させる。
(Second Embodiment)
FIG. 12 is a diagram schematically showing a state of a second embodiment in which a tracking target is tracked by an unmanned flying object. The second embodiment shows an example in which a moving object such as a vehicle is tracked and imaged as a tracking target. The unmanned vehicle 100 takes an image of the vehicle 420 as a subject by the image pickup device 220, and sets the vehicle in the captured image as a tracking target. The unmanned aircraft 100 adjusts the imaging direction by rotating the imaging device 220 by the gimbal 230 so that the set tracking target is continuously imaged. At this time, the gimbal 230 rotates the image pickup device 220 in the horizontal direction Dh centered on the yaw axis and in the vertical direction Dv centered on the pitch axis, respectively. The unmanned vehicle 100 controls the rotary wing mechanism 210 according to the movement of the vehicle 420 to be tracked, and makes the position of the unmanned vehicle 100 follow.

無人飛行体100は、追跡対象を追跡する際に、収音装置180によって撮像領域周辺の音を収音し、追跡対象に該当する音源方向SDを推定する。車両等の移動体は、移動の際にエンジン音、モータ音、タイヤ音、風切音など、各種の音を発生している。無人飛行体100は、移動体が発する音を取得し、音源方向SDを推定することによって、追跡対象の方向を検知する。無人飛行体100は、推定した音源方向SDに基づき、ジンバル230を制御して撮像装置220の撮影方向を音源方向SDに向かうように、すなわち追跡対象の車両420に向かうように調整する。 When the unmanned aircraft 100 tracks the tracking target, the sound collecting device 180 collects the sound around the imaging region and estimates the sound source direction SD corresponding to the tracking target. A moving body such as a vehicle generates various sounds such as an engine sound, a motor sound, a tire sound, and a wind noise when moving. The unmanned flying object 100 detects the direction of the tracking target by acquiring the sound emitted by the moving body and estimating the sound source direction SD. Based on the estimated sound source direction SD, the unmanned vehicle 100 controls the gimbal 230 to adjust the shooting direction of the image pickup device 220 toward the sound source direction SD, that is, toward the vehicle 420 to be tracked.

無人飛行体100は、追跡動作の初期設定を行う際、図6に示した追跡対象の特徴値算出手順(S12)において、追跡対象に関する画像の特徴値と音の特徴値を算出する。画像の特徴値は、例えば画像特徴量の一例であるSIFTを用いてよい。音の特徴値は、例えば周波数特性などを用いてよい。 When the unmanned aircraft 100 performs the initial setting of the tracking operation, the feature value of the image and the feature value of the sound related to the tracking target are calculated in the feature value calculation procedure (S12) of the tracking target shown in FIG. As the feature value of the image, for example, SIFT, which is an example of the image feature amount, may be used. For the characteristic value of the sound, for example, a frequency characteristic or the like may be used.

図13は、第2の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。自動追跡動作の処理は、無人飛行体100における制御部110の追跡部111及び音源方向推定部112によって主に実行してよい。無人飛行体100の制御部110は、撮像装置220によって所定の撮像領域を撮影し、撮像画像を取得する(S51)。制御部110は、撮像画像から追跡対象に対応する画像を抽出する(S52)。このとき、制御部110は、設定された追跡対象範囲に基づいて追跡対象を含む領域の画像を抽出する。 FIG. 13 is a flowchart showing an example of the processing procedure of the automatic tracking operation in the second embodiment. The processing of the automatic tracking operation may be mainly executed by the tracking unit 111 and the sound source direction estimation unit 112 of the control unit 110 in the unmanned aircraft 100. The control unit 110 of the unmanned aircraft 100 captures a predetermined imaging region by the imaging device 220 and acquires an captured image (S51). The control unit 110 extracts an image corresponding to the tracking target from the captured image (S52). At this time, the control unit 110 extracts an image of the region including the tracking target based on the set tracking target range.

また、制御部110は、収音装置180によって収音した音声信号を受信し、撮像領域周辺の音データを取得する(S61)。制御部110は、取得した音データについて、複数の音源の音データを分離する(S62)。制御部110は、音源分離処理により、ノイズ等の環境音と、追跡対象に該当する被写体が発する音とを分離する。本例では、追跡対象の車両420が発した走行音等の音データを環境音から分離する。制御部110は、分離した複数の音データについて、追跡対象の音成分を主成分として抽出する(S63)。制御部110は、主成分の音データに関して、追跡対象の特徴値として音の特徴値を算出する。制御部110は、追跡対象に対応する主成分の音データについて、例えば音の特徴値によって、音源方向を推定する(S64)。制御部110は、音源方向の推定処理において、例えば、収音装置180のマイクアレイによって各マイクロホンにて取得した音データの位相情報を用いて、音源からの音の到来方向を推定する。 Further, the control unit 110 receives the audio signal collected by the sound collecting device 180 and acquires the sound data around the imaging region (S61). The control unit 110 separates the sound data of a plurality of sound sources from the acquired sound data (S62). The control unit 110 separates environmental sounds such as noise from sounds emitted by a subject corresponding to the tracking target by sound source separation processing. In this example, sound data such as running sound emitted by the vehicle 420 to be tracked is separated from the environmental sound. The control unit 110 extracts the separated sound data with the sound component to be tracked as the main component (S63). The control unit 110 calculates the sound feature value as the feature value to be tracked with respect to the sound data of the principal component. The control unit 110 estimates the sound source direction of the sound data of the principal component corresponding to the tracking target, for example, from the characteristic value of the sound (S64). In the sound source direction estimation process, the control unit 110 estimates the arrival direction of the sound from the sound source by using, for example, the phase information of the sound data acquired by each microphone by the microphone array of the sound collecting device 180.

制御部110は、抽出した所定領域の画像において追跡対象を探索する(S53)。制御部110は、追跡対象の探索処理において、画像の特徴値の比較を行い、抽出した所定領域の画像の特徴値と以前に算出した追跡対象の特徴値とを比較し、一致するかどうか判定する。このとき、制御部110は、音源方向の推定結果を用いて、撮像画像中の追跡対象を探索する領域を、音源方向に基づいて限定する。制御部110は、追跡対象の探索処理において、現在撮像した撮像画像における追跡対象の画像領域を用いて、追跡対象の画像の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から追跡対象の特徴値と一致する領域を抽出して探索してよい。制御部110は、追跡対象の探索処理において、現在取得した追跡対象の音データを用いて、追跡対象の音の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から音源方向に対応する所定領域を抽出して探索してよい。 The control unit 110 searches for a tracking target in the extracted image of a predetermined area (S53). In the tracking target search process, the control unit 110 compares the feature values of the images, compares the feature values of the extracted image of the predetermined region with the previously calculated feature values of the tracking target, and determines whether or not they match. do. At this time, the control unit 110 uses the estimation result of the sound source direction to limit the region for searching the tracking target in the captured image based on the sound source direction. In the tracking target search process, the control unit 110 may update the feature value of the tracking target image by using the tracking target image area in the currently captured captured image. The control unit 110 may extract and search for a region that matches the feature value of the tracking target from the entire region of the captured image. In the tracking target search process, the control unit 110 may update the characteristic value of the tracking target sound by using the currently acquired tracking target sound data. The control unit 110 may search by extracting a predetermined region corresponding to the sound source direction from the entire region of the captured image.

制御部110は、追跡対象の特徴値が一致するか否かによって、追跡対象の同一性を判定する。制御部110は、追跡対象の特徴値の判定結果と音源方向の推定結果に基づき、撮影方向の調整が必要かどうか判定する(S54)。撮影方向の調整が必要である場合(S54:Yes)、制御部110は、音源方向の推定結果に基づき、追跡対象の方向を検知し、撮像装置220による撮影方向を調整する(S55)。このとき、制御部110は、撮像装置220とジンバル230の少なくとも一方の動きを制御し、追跡対象に向かうように撮像装置220の撮影方向を調整する。制御部110は、回転翼機構210を制御して無人飛行体100を移動、回転させ、撮影方向を調整してよい。そして、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S51〜S54、S61〜S64)。 The control unit 110 determines the identity of the tracking target depending on whether or not the feature values of the tracking target match. The control unit 110 determines whether or not adjustment of the shooting direction is necessary based on the determination result of the feature value of the tracking target and the estimation result of the sound source direction (S54). When it is necessary to adjust the shooting direction (S54: Yes), the control unit 110 detects the direction of the tracking target based on the estimation result of the sound source direction, and adjusts the shooting direction by the imaging device 220 (S55). At this time, the control unit 110 controls the movement of at least one of the image pickup device 220 and the gimbal 230, and adjusts the imaging direction of the image pickup device 220 so as to move toward the tracking target. The control unit 110 may control the rotary wing mechanism 210 to move and rotate the unmanned vehicle 100 to adjust the photographing direction. Then, the control unit 110 repeatedly executes the search process for the tracking target in the captured image (S51 to S54, S61 to S64).

上述した第2の実施形態では、無人飛行体は、追跡対象に該当する音源方向を推定し、音源方向推定結果を利用して、追跡対象を探索する。実施形態において、音源方向に応じて撮像画像における追跡対象を探索する領域を限定し、追跡対象の特徴値の算出、比較に関する画像処理を行う。これにより、追跡に関する処理量を削減できる。また、追跡動作時のロバスト性を向上できる。撮像画像中に追跡対象候補が複数存在する場合、音源方向によって正確に追跡対象を特定できる。また、音源方向推定結果を用いて撮影方向の調整し、追跡動作の補正を行うことができる。実施形態によれば、追跡対象の音源方向に応じて、追跡対象を見失うことなく撮像し、撮像画像中の追跡対象を的確に探索でき、追跡動作を継続できる。この場合、追跡対象を再設定する操作が不要になり、操作性を向上できる。 In the second embodiment described above, the unmanned vehicle estimates the sound source direction corresponding to the tracking target, and uses the sound source direction estimation result to search for the tracking target. In the embodiment, the area for searching the tracking target in the captured image is limited according to the sound source direction, and image processing related to calculation and comparison of feature values of the tracking target is performed. As a result, the amount of processing related to tracking can be reduced. In addition, robustness during tracking operation can be improved. When there are a plurality of tracking target candidates in the captured image, the tracking target can be accurately specified depending on the sound source direction. In addition, the shooting direction can be adjusted using the sound source direction estimation result, and the tracking operation can be corrected. According to the embodiment, according to the direction of the sound source of the tracking target, the tracking target can be imaged without losing sight of the tracking target, the tracking target in the captured image can be accurately searched, and the tracking operation can be continued. In this case, the operation of resetting the tracking target becomes unnecessary, and the operability can be improved.

本実施形態によれば、飛行体において撮像画像を用いて追跡対象を追跡する際に、追跡対象に該当する音源方向を推定し、推定した音源方向に基づいて撮像装置による撮影方向を調整できる。これにより、追跡対象に撮像装置を向けるようにでき、追跡結果を補正することができる。したがって、追跡対象を再設定する操作が不要になり、操作性を向上できる。 According to the present embodiment, when tracking a tracking target using a captured image in a flying object, the sound source direction corresponding to the tracking target can be estimated, and the shooting direction by the imaging device can be adjusted based on the estimated sound source direction. As a result, the imaging device can be directed to the tracking target, and the tracking result can be corrected. Therefore, the operation of resetting the tracking target becomes unnecessary, and the operability can be improved.

本実施形態によれば、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整することができる。これにより、追跡対象の追跡を失敗した場合であっても追跡対象に撮像装置を向けるように撮影方向を調整し、追跡結果を補正することができる。 According to the present embodiment, when the tracking of the tracking target fails, the sound information emitted by the tracking target can be acquired, the sound source direction can be estimated, and the shooting direction can be adjusted according to the sound source direction. As a result, even if the tracking of the tracking target fails, the imaging direction can be adjusted so that the imaging device is directed to the tracking target, and the tracking result can be corrected.

本実施形態によれば、撮像画像を用いて追跡対象を追跡する際に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮像画像における追跡対象を探索する領域を限定できる。これにより、追跡結果を補正でき、追跡に関する処理量を削減でき、追跡動作時のロバスト性を向上できる。 According to the present embodiment, when tracking a tracking target using a captured image, an area in which sound information emitted by the tracking target is acquired, the sound source direction is estimated, and the tracking target in the captured image is searched according to the sound source direction. Can be limited. As a result, the tracking result can be corrected, the amount of processing related to tracking can be reduced, and the robustness during the tracking operation can be improved.

以上、本開示について実施形態を用いて説明したが、本開示に係る発明の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。 Although the present disclosure has been described above using the embodiments, the technical scope of the invention according to the present disclosure is not limited to the scope described in the above-described embodiments. It will be apparent to those skilled in the art to make various changes or improvements to the embodiments described above. It is clear from the description of the claims that the form with such changes or improvements may be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, the specification, and the drawing is particularly "before" and "prior to". As long as the output of the previous process is not used in the subsequent process, it can be realized in any order. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it does not mean that it is essential to carry out in this order. do not have.

10 飛行制御システム
50 端末
51 処理部
52 メモリ
53 無線通信部
54 表示部
55 操作部
56 インタフェース部
57 ストレージ
58 バッテリ
100 無人飛行体(UAV)
102 UAV本体
110 制御部
111 追跡部
112 音源方向推定部
150 通信インタフェース
160 メモリ
170 ストレージ
180 収音装置
190 バッテリ
210 回転翼機構
220 撮像装置
230 ジンバル
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
10 Flight control system 50 Terminal 51 Processing unit 52 Memory 53 Wireless communication unit 54 Display unit 55 Operation unit 56 Interface unit 57 Storage 58 Battery 100 Unmanned aerial vehicle (UAV)
102 UAV main unit 110 Control unit 111 Tracking unit 112 Sound source direction estimation unit 150 Communication interface 160 Memory 170 Storage 180 Sound pickup device 190 Battery 210 Rotating wing mechanism 220 Imaging device 230 Gimbal 240 GPS receiver 250 Inertial measurement unit 260 Magnetic compass 270 Atmospheric altimeter 280 ultrasonic sensor

Claims (18)

所定の追跡対象を撮像する撮像装置と、
前記追跡対象を含む周囲の音を収音する収音装置と、
前記追跡対象の追跡に関する処理を実行する制御部と、を有する飛行体であって、
前記制御部は、
前記撮像装置により撮像した撮像画像を用いて前記追跡対象を追跡し、
前記収音装置により取得した前記追跡対象が発する音情報により前記追跡対象に該当する音源方向を推定し、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整
前記制御部は、
前記追跡対象の追跡を失敗した場合に、前記追跡対象が発する音情報を取得して音源方向を推定し、前記音源方向に応じて前記撮影方向を調整する、
飛行体。
An imaging device that captures a predetermined tracking target, and
A sound collecting device that collects ambient sound including the tracking target, and
An air vehicle having a control unit that executes processing related to tracking the tracking target.
The control unit
The tracking target is tracked using the captured image captured by the imaging device, and the tracking target is tracked.
The sound source direction corresponding to the tracking target is estimated from the sound information emitted by the tracking target acquired by the sound collecting device, and the sound source direction corresponding to the tracking target is estimated.
On the basis of the sound source direction estimation results by adjusting the imaging direction of the imaging device,
The control unit
When the tracking of the tracking target fails, the sound information emitted by the tracking target is acquired, the sound source direction is estimated, and the shooting direction is adjusted according to the sound source direction.
Aircraft.
前記制御部は、
前記追跡対象の追跡において、
前記撮像画像における前記追跡対象に関する画像の特徴値を算出し、前記画像の特徴値を比較して前記追跡対象を探索する、
請求項1に記載の飛行体。
The control unit
In the tracking of the tracking target,
The feature value of the image related to the tracking target in the captured image is calculated, and the feature value of the image is compared to search for the tracking target.
The flying object according to claim 1.
前記制御部は、
前記音情報における前記追跡対象に関する音の特徴値を算出し、
前記音の特徴値によって前記追跡対象の音源方向を推定し、前記音源方向に応じて前記追跡対象を追跡する、
請求項1又は2に記載の飛行体。
The control unit
Calculate the characteristic value of the sound related to the tracking target in the sound information,
The sound source direction of the tracking target is estimated from the characteristic value of the sound, and the tracking target is tracked according to the sound source direction.
The flying object according to claim 1 or 2.
前記制御部は、
前記追跡対象の追跡において、
前記推定した音源方向に応じて前記撮像画像における前記追跡対象を探索する領域を限定する、
請求項1〜のいずれか一項に記載の飛行体。
The control unit
In the tracking of the tracking target,
The region for searching the tracking target in the captured image is limited according to the estimated sound source direction.
The flying object according to any one of claims 1 to 3.
前記制御部は、
前記音源方向の推定において、
前記収音装置により取得した音情報から前記追跡対象の音成分を抽出し、前記追跡対象の音成分について音源方向の推定処理を行う、
請求項1〜のいずれか一項に記載の飛行体。
The control unit
In the estimation of the sound source direction,
The sound component of the tracking target is extracted from the sound information acquired by the sound collecting device, and the sound component of the tracking target is estimated in the sound source direction.
The flying object according to any one of claims 1 to 4.
前記制御部は、
前記撮影方向の調整において、
前記飛行体の回転翼機構と、前記撮像装置を支持する支持機構との少なくとも一方の動きを制御する、
請求項1〜のいずれか一項に記載の飛行体。
The control unit
In the adjustment of the shooting direction,
Controlling the movement of at least one of the rotor blade mechanism of the flying object and the support mechanism supporting the image pickup device.
The flying object according to any one of claims 1 to 5.
飛行体と、前記飛行体と通信を行う端末と、を有する飛行制御システムであって、
前記飛行体は、
所定の追跡対象を撮像する撮像装置と、
前記追跡対象を含む周囲の音を収音する収音装置と、
前記追跡対象の候補情報を前記端末に送信する通信部と、
前記追跡対象の追跡に関する処理を実行するものであって、前記撮像装置により撮像した撮像画像を用いて前記追跡対象を追跡し、前記追跡対象の追跡を失敗した場合に、前記収音装置により取得した前記追跡対象が発する音情報により前記追跡対象に該当する音源方向を推定し、前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整する、制御部と、を有し、
前記端末は、
前記追跡対象の候補情報を受信する通信部と、
前記追跡対象の候補を表示する表示部と、
前記追跡対象の設定に関する入力を行う操作部と、を有する、
飛行制御システム。
A flight control system having an air vehicle and a terminal that communicates with the air vehicle.
The flying object
An imaging device that captures a predetermined tracking target, and
A sound collecting device that collects ambient sound including the tracking target, and
A communication unit that transmits the candidate information of the tracking target to the terminal, and
The process related to the tracking of the tracking target is executed, the tracking target is tracked using the image captured by the imaging device , and when the tracking of the tracking target fails, the sound collecting device acquires the tracking target. It has a control unit that estimates the sound source direction corresponding to the tracking target from the sound information emitted by the tracking target, and adjusts the shooting direction by the imaging device based on the estimation result of the sound source direction.
The terminal
A communication unit that receives the candidate information to be tracked, and
A display unit that displays the candidates to be tracked, and
It has an operation unit for inputting the setting of the tracking target.
Flight control system.
前記端末の表示部は、
前記追跡対象の追跡を失敗した場合に、追跡失敗表示を行う、
請求項に記載の飛行制御システム。
The display unit of the terminal is
When the tracking of the tracking target fails, the tracking failure display is displayed.
The flight control system according to claim 7.
所定の追跡対象を追跡する飛行体を制御するための飛行制御方法であって、
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記収音した前記追跡対象が発する音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を有
前記音源方向を推定するステップは、
前記追跡対象の追跡を失敗した場合に、前記追跡対象が発する音情報を取得して音源方向を推定し、
前記撮影方向を調整するステップは、
前記推定した音源方向に応じて前記撮影方向を調整する、
飛行制御方法。
A flight control method for controlling an air vehicle that tracks a predetermined tracking target.
A step of imaging the tracking object with an imaging device,
A step of collecting the surrounding sound including the tracking target by the sound collecting device, and
A step of tracking the tracking target using the captured image, and
A step of estimating the sound source direction corresponding to the tracking target from the sound information emitted by the tracking target that has collected the sound, and a step of estimating the sound source direction corresponding to the tracking target.
Have a, and adjusting the imaging direction of the imaging device based on the sound source direction estimation result,
The step of estimating the sound source direction is
When the tracking of the tracking target fails, the sound information emitted by the tracking target is acquired to estimate the sound source direction, and the sound source direction is estimated.
The step of adjusting the shooting direction is
The shooting direction is adjusted according to the estimated sound source direction.
Flight control method.
前記追跡対象を追跡するステップは、
前記撮像画像における前記追跡対象に関する画像の特徴値を算出し、前記画像の特徴値を比較して前記追跡対象を探索する、
請求項に記載の飛行制御方法。
The step of tracking the tracking target is
The feature value of the image related to the tracking target in the captured image is calculated, and the feature value of the image is compared to search for the tracking target.
The flight control method according to claim 9.
前記音情報における前記追跡対象に関する音の特徴値を算出するステップを有し、
前記追跡対象を追跡するステップは、
前記音の特徴値によって前記追跡対象の音源方向を推定し、前記音源方向に応じて前記追跡対象を追跡する、
請求項又は10に記載の飛行制御方法。
It has a step of calculating a characteristic value of a sound related to the tracking target in the sound information.
The step of tracking the tracking target is
The sound source direction of the tracking target is estimated from the characteristic value of the sound, and the tracking target is tracked according to the sound source direction.
The flight control method according to claim 9 or 10.
前記追跡対象を追跡するステップは、
前記推定した音源方向に応じて前記撮像画像における前記追跡対象を探索する領域を限定する、
請求項11のいずれか一項に記載の飛行制御方法。
The step of tracking the tracking target is
The region for searching the tracking target in the captured image is limited according to the estimated sound source direction.
The flight control method according to any one of claims 9 to 11.
前記追跡対象を追跡するステップは、
前記収音装置により取得した音情報から前記追跡対象の音成分を抽出し、前記追跡対象の音成分について音源方向の推定処理を行う、
請求項12のいずれか一項に記載の飛行制御方法。
The step of tracking the tracking target is
The sound component of the tracking target is extracted from the sound information acquired by the sound collecting device, and the sound component of the tracking target is estimated in the sound source direction.
The flight control method according to any one of claims 9 to 12.
前記撮影方向を調整するステップは、
前記飛行体の回転翼機構と、前記撮像装置を支持する支持機構との少なくとも一方の動きを制御する、
請求項13のいずれか一項に記載の飛行制御方法。
The step of adjusting the shooting direction is
Controlling the movement of at least one of the rotor blade mechanism of the flying object and the support mechanism supporting the image pickup device.
The flight control method according to any one of claims 9 to 13.
前記追跡対象の候補情報を前記飛行体と通信を行う端末に送信するステップと、
前記追跡対象の候補情報を前記端末により受信するステップと、
前記追跡対象の候補を表示部により表示するステップと、
前記追跡対象の設定に関する入力を行うステップと、を有する、
請求項に記載の飛行制御方法。
A step of transmitting the candidate information of the tracking target to a terminal communicating with the flying object, and
A step of receiving the candidate information of the tracking target by the terminal, and
A step of displaying the candidate to be tracked by the display unit, and
It has a step of inputting the setting of the tracking target.
The flight control method according to claim 9.
前記追跡対象の追跡を失敗した場合に、前記表示部により追跡失敗表示を行うステップ、を有する、
請求項15に記載の飛行制御方法。
When the tracking of the tracking target fails, the display unit has a step of displaying the tracking failure.
The flight control method according to claim 15.
所定の追跡対象を追跡する飛行体を制御するコンピュータに、
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記追跡対象の追跡を失敗した場合に、前記収音した前記追跡対象が発する音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を実行させるための、
プログラム。
To a computer that controls an air vehicle that tracks a given tracking target,
A step of imaging the tracking object with an imaging device,
A step of collecting the surrounding sound including the tracking target by the sound collecting device, and
A step of tracking the tracking target using the captured image, and
When the tracking of the tracking target fails , the step of estimating the sound source direction corresponding to the tracking target from the sound information emitted by the tracking target that has collected the sound, and the step of estimating the sound source direction corresponding to the tracking target.
To execute the step of adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction.
program.
所定の追跡対象を追跡する飛行体を制御するコンピュータに、
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記追跡対象の追跡を失敗した場合に、前記収音した前記追跡対象が発する音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な、
記録媒体。
To a computer that controls an air vehicle that tracks a given tracking target,
A step of imaging the tracking object with an imaging device,
A step of collecting the surrounding sound including the tracking target by the sound collecting device, and
A step of tracking the tracking target using the captured image, and
When the tracking of the tracking target fails , the step of estimating the sound source direction corresponding to the tracking target from the sound information emitted by the tracking target that has collected the sound, and the step of estimating the sound source direction corresponding to the tracking target.
A computer-readable computer that records a program for adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction and executing the step.
recoding media.
JP2017120639A 2017-06-20 2017-06-20 Aircraft, flight control systems, flight control methods, programs and recording media Active JP6912281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017120639A JP6912281B2 (en) 2017-06-20 2017-06-20 Aircraft, flight control systems, flight control methods, programs and recording media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017120639A JP6912281B2 (en) 2017-06-20 2017-06-20 Aircraft, flight control systems, flight control methods, programs and recording media

Publications (2)

Publication Number Publication Date
JP2019006154A JP2019006154A (en) 2019-01-17
JP6912281B2 true JP6912281B2 (en) 2021-08-04

Family

ID=65027434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017120639A Active JP6912281B2 (en) 2017-06-20 2017-06-20 Aircraft, flight control systems, flight control methods, programs and recording media

Country Status (1)

Country Link
JP (1) JP6912281B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7442147B2 (en) 2019-02-19 2024-03-04 パナソニックIpマネジメント株式会社 Unmanned aerial vehicles, information processing methods and programs
CN113453980B (en) * 2019-05-15 2024-03-29 松下知识产权经营株式会社 Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system
CN117999471A (en) * 2021-09-30 2024-05-07 杰富意先进技术株式会社 Acoustic wave receiving device, acoustic source azimuth calibration device and acoustic source azimuth calibration method
WO2023164814A1 (en) * 2022-03-01 2023-09-07 深圳市大疆创新科技有限公司 Media apparatus and control method and device therefor, and target tracking method and device
CN116027804B (en) * 2022-12-30 2024-02-13 中国科学院长春光学精密机械与物理研究所 Unmanned plane ground photoelectric measurement and control guiding device and guiding method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6470024B2 (en) * 2014-11-27 2019-02-13 みこらった株式会社 Levitating platform
JP6551824B2 (en) * 2015-01-23 2019-07-31 みこらった株式会社 Floating platform
JP6680498B2 (en) * 2015-09-28 2020-04-15 株式会社日立システムズ Autonomous flying vehicle, target tracking method

Also Published As

Publication number Publication date
JP2019006154A (en) 2019-01-17

Similar Documents

Publication Publication Date Title
JP6912281B2 (en) Aircraft, flight control systems, flight control methods, programs and recording media
US11573562B2 (en) Magic wand interface and other user interaction paradigms for a flying digital assistant
JP6878567B2 (en) 3D shape estimation methods, flying objects, mobile platforms, programs and recording media
JP6803800B2 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and recording medium
JP6899846B2 (en) Flight path display methods, mobile platforms, flight systems, recording media and programs
US20200097027A1 (en) Method and apparatus for controlling an unmanned aerial vehicle and an unmanned aerial vehicle system
JP6817422B2 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and recording medium
US12024284B2 (en) Information processing device, information processing method, and recording medium
US20190116309A1 (en) Overhead line image capturing system and overhead line image capturing method
JPWO2018193574A1 (en) Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium
JP2019040514A (en) Communication relay method, relay flying body, program and recording medium
JP2018070011A (en) Unmanned aircraft controlling system, controlling method and program thereof
CN111213107B (en) Information processing device, imaging control method, program, and recording medium
CN111344650B (en) Information processing device, flight path generation method, program, and recording medium
WO2017203646A1 (en) Image capture control device, shadow position specification device, image capture system, mobile object, image capture control method, shadow position specification method, and program
US12007763B2 (en) Magic wand interface and other user interaction paradigms for a flying digital assistant
CN105807783A (en) Flight camera
JP2020135327A (en) Flight body system, flight body, position measuring method and program
JP2023095030A (en) Abnormality detecting system and abnormality detecting method
CN114586335A (en) Image processing apparatus, image processing method, program, and recording medium
JP6974290B2 (en) Position estimation device, position estimation method, program, and recording medium
JP2018070012A (en) Unmanned aircraft controlling system, controlling method and program thereof
JP2013096934A (en) Target position detection device, target position detection method for use in the same, and target position detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210708

R150 Certificate of patent or registration of utility model

Ref document number: 6912281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150