Nothing Special   »   [go: up one dir, main page]

JP7538280B1 - Air traffic control support device, air traffic control support method, and air traffic control support program - Google Patents

Air traffic control support device, air traffic control support method, and air traffic control support program Download PDF

Info

Publication number
JP7538280B1
JP7538280B1 JP2023061053A JP2023061053A JP7538280B1 JP 7538280 B1 JP7538280 B1 JP 7538280B1 JP 2023061053 A JP2023061053 A JP 2023061053A JP 2023061053 A JP2023061053 A JP 2023061053A JP 7538280 B1 JP7538280 B1 JP 7538280B1
Authority
JP
Japan
Prior art keywords
range
line
sight
gaze
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023061053A
Other languages
Japanese (ja)
Other versions
JP2024148183A (en
Inventor
潤季 榎本
雅之 田村
周嶺 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2023061053A priority Critical patent/JP7538280B1/en
Application granted granted Critical
Publication of JP7538280B1 publication Critical patent/JP7538280B1/en
Publication of JP2024148183A publication Critical patent/JP2024148183A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】管制官が表示装置に表示されている内容を読み間違えることに起因した、意図せぬ管制指示を防止可能な構成を実現できるようにする。【解決手段】視線取得部34は、移動体を映した表示装置における管制官が見ている視線位置を示す視線情報を取得する。視線評価部35は、管制対象の移動体に対して指示をした時点を基準とする基準期間における、表示装置の表示領域における管制対象の移動体が表示された位置と、視線情報が示す前記視線位置とから、管制対象の移動体に対する視線評価値を計算する。【選択図】図1[Problem] To realize a configuration capable of preventing unintended control instructions caused by a controller misreading the contents displayed on a display device. [Solution] A line-of-sight acquisition unit 34 acquires line-of-sight information indicating the line-of-sight position of the controller on a display device showing a moving object. A line-of-sight evaluation unit 35 calculates a line-of-sight evaluation value for the moving object to be controlled from the position where the moving object to be controlled is displayed in the display area of the display device and the line-of-sight position indicated by the line-of-sight information during a reference period based on the time when an instruction was given to the moving object to be controlled. [Selected Figure] Figure 1

Description

本開示は、空港における管制業務を支援する技術に関する。 This disclosure relates to technology that supports air traffic control operations at airports.

空港において航空機の管制業務を行う管制官は、表示装置に表示されている空域及び空港内飛行場の航空機の運航状況と外部要因とをもとに、無線通信によってパイロットに管制指示を送っている。外部要因としては、天候、他の空港及び空域の運用状態、パイロットからの要求に対する応答等がある。
この際、管制官が表示装置に表示されている内容を読み間違える又は言い間違えることにより、意図せぬ管制指示をパイロットに伝えてしまうことがある。この対策としてパイロットは指示内容を復唱確認する。しかし、管制官の認識が改善されないまま、パイロットが指示に従い、事故回避のための運航状況の乱れによる運航遅延につながる可能性がある。
Air traffic controllers at airports send control instructions to pilots via radio communication based on the airspace and aircraft operating status at the airport that are displayed on display devices, as well as external factors such as weather, the operational status of other airports and airspace, and responses to requests from pilots.
In this case, the controller may misread or mispronounce the contents displayed on the display screen, resulting in unintended control instructions being conveyed to the pilot. As a countermeasure, the pilot repeats the contents of the instructions to confirm. However, if the controller's understanding is not improved and the pilot follows the instructions, there is a possibility that flight delays will occur due to disruptions to flight conditions to avoid accidents.

特許文献1には、訓練管制官がパイロットの援助無しに訓練を行うための管制官訓練装置についての記載がある。この管制官訓練装置は、訓練管制官の指示音声を認識し、認識した音声に基づきパイロットからの応答用の音声を生成する。また、この管制官訓練装置は、指示音声に従うと航空機間の間隔が安全確保できない間隔になってしまう場合にアラームを発する。 Patent Document 1 describes a controller training device that allows training controllers to train without the assistance of pilots. This controller training device recognizes the training controller's voice instructions and generates a voice response from the pilot based on the recognized voice. This controller training device also issues an alarm if following the voice instructions would result in an unsafe separation between aircraft.

特開2000-347558号公報JP 2000-347558 A

特許文献1に記載された技術では、管制官が表示装置に表示されている内容を読み間違えることに起因した、意図せぬ管制指示を防止することは難しい。
本開示は、管制官が表示装置に表示されている内容を読み間違えることに起因した、意図せぬ管制指示を防止可能な構成を実現できるようにすることを目的とする。
With the technology described in Patent Document 1, it is difficult to prevent unintended air traffic control instructions caused by an air traffic controller misreading the content displayed on the display device.
An object of the present disclosure is to realize a configuration capable of preventing unintended control instructions caused by a controller misreading the content displayed on a display device.

本開示に係る管制支援装置は、
航空機を映した表示装置における管制官が見ている視線位置を示す視線情報を取得する視線取得部と、
管制対象の航空機に対して指示をした時点を基準とする基準期間における、表示装置の表示領域における前記管制対象の航空機が表示された位置と、前記視線取得部によって取得された前記視線情報が示す前記視線位置とから、前記管制対象の航空機に対する視線評価値を計算する視線評価部と
を備える。
The air traffic control assistance device according to the present disclosure includes:
a line-of-sight acquisition unit that acquires line-of-sight information indicating a line-of-sight position of a controller on a display device showing an aircraft;
The system is equipped with a gaze evaluation unit that calculates a gaze evaluation value for the aircraft to be controlled from the position at which the aircraft to be controlled is displayed in the display area of the display device during a reference period based on the time when instructions were given to the aircraft to be controlled, and the gaze position indicated by the gaze information acquired by the gaze acquisition unit.

本開示では、基準期間における管制官の視線位置と管制対象の航空機が表示された位置とから視線評価値を計算する。これにより、誤った航空機を見ているといった管制対象の航空機を十分に見ていない状態を特定することができる。これを利用することにより、表示装置に表示されている内容を読み間違えることに起因した、意図せぬ管制指示を防止可能な構成を実現することができる。 In the present disclosure, a gaze evaluation value is calculated from the gaze position of the controller during a reference period and the position where the aircraft to be controlled is displayed. This makes it possible to identify a state in which the controller is not looking sufficiently at the aircraft to be controlled, such as when the controller is looking at the wrong aircraft. By utilizing this, it is possible to realize a configuration that can prevent unintended control instructions caused by misreading the content displayed on the display device.

実施の形態1に係る管制支援装置10の構成図。FIG. 1 is a configuration diagram of a control assistance device 10 according to a first embodiment. 実施の形態1に係る管制支援装置10のハードウェア構成図。FIG. 2 is a hardware configuration diagram of the air traffic control assistance device 10 according to the first embodiment. TAPSを用いた管制指示の流れの説明図。FIG. 1 is an explanatory diagram of the flow of air traffic control instructions using TAPS. 実施の形態1に係る管制支援装置10の全体的な処理の流れを示すフローチャート。4 is a flowchart showing the overall processing flow of the air traffic control assistance device 10 according to the first embodiment. 実施の形態1に係る管制指示処理のフローチャート。4 is a flowchart of a control instruction process according to the first embodiment. 実施の形態1に係る視線処理のフローチャート。4 is a flowchart of gaze processing according to the first embodiment. 実施の形態1に係る視線特定方法の説明図。4 is an explanatory diagram of a line-of-sight identification method according to the first embodiment; 実施の形態1に係る識別範囲61と視線範囲62と外部範囲63との説明図。6 is an explanatory diagram of an identification range 61, a line of sight range 62, and an external range 63 according to the first embodiment. 実施の形態1に係る範囲特定処理の説明図。FIG. 4 is an explanatory diagram of a range specification process according to the first embodiment. 実施の形態1に係る基準期間の説明図。FIG. 4 is an explanatory diagram of a reference period according to the first embodiment. 実施の形態1に係る総合評価処理のフローチャート。13 is a flowchart of a comprehensive evaluation process according to the first embodiment.

実施の形態1.
***構成の説明***
実施の形態1では、管制対象の移動体は航空機であるとして説明する。しかし、管制対象の移動体は、航空機に限らず、ドローン、小型飛行機、船舶といった他の種別の移動体であってもよい。実施の形態1では、管制対象の移動体が航空機であるため、管制対象の航空機の操縦者をパイロットと呼ぶ。
Embodiment 1.
***Configuration Description***
In the first embodiment, the mobile object to be controlled is described as an aircraft. However, the mobile object to be controlled is not limited to an aircraft, and may be other types of mobile objects such as a drone, a small plane, or a ship. In the first embodiment, since the mobile object to be controlled is an aircraft, the operator of the aircraft to be controlled is called a pilot.

図1を参照して、実施の形態1に係る管制支援装置10の構成を説明する。
管制支援装置10は、機能構成要素として、管制指示処理部21と、視線処理部22と、総合評価部23とを備える。管制指示処理部21は、管制官の音声による航空機への指示を評価する。視線処理部22は、音声による航空機への指示の際の管制官の視線を評価する。総合評価部23は、管制指示を総合的に評価する。
The configuration of a traffic control assistance device 10 according to the first embodiment will be described with reference to FIG.
The air traffic control assistance device 10 includes, as functional components, an air traffic control instruction processing unit 21, a line of sight processing unit 22, and a comprehensive evaluation unit 23. The air traffic control instruction processing unit 21 evaluates the air traffic controller's voice instructions to the aircraft. The line of sight processing unit 22 evaluates the air traffic controller's line of sight when giving voice instructions to the aircraft. The comprehensive evaluation unit 23 comprehensively evaluates the air traffic control instructions.

管制指示処理部21は、音声取得部31と、音声解析部32と、音声評価部33との機能を備える。管制指示処理部21は、無線情報41を入力とし、内部の入出力情報として、指示音声42と、復唱音声43と、音声解釈情報44とを利用する。 The air traffic control instruction processing unit 21 has the functions of a voice acquisition unit 31, a voice analysis unit 32, and a voice evaluation unit 33. The air traffic control instruction processing unit 21 receives radio information 41 as input, and uses instruction voice 42, repetition voice 43, and voice interpretation information 44 as internal input/output information.

視線処理部22は、視線取得部34と、視線評価部35との機能を備える。視線評価部35は、範囲特定部36と、評価値計算部37との機能を備える。視線処理部22は、視線情報45を入力とし、内部の入出力情報として、計算用パラメータ46と、視線評価値47とを利用する。また、視線処理部22は、TAPSに記憶された航空機位置情報51及び範囲情報52を利用する。TAPSは、空港管制処理システムであり、Trajectorized Airport Traffic Data Processing Systemの略である。 The line of sight processing unit 22 has the functions of a line of sight acquisition unit 34 and a line of sight evaluation unit 35. The line of sight evaluation unit 35 has the functions of a range determination unit 36 and an evaluation value calculation unit 37. The line of sight processing unit 22 receives line of sight information 45 as an input, and uses calculation parameters 46 and line of sight evaluation value 47 as internal input/output information. The line of sight processing unit 22 also uses aircraft position information 51 and range information 52 stored in TAPS. TAPS is an airport control processing system, and is an abbreviation for Trajectorized Airport Traffic Data Processing System.

総合評価部23は、管制評価部38の機能を備える。総合評価部23は、音声解釈情報44と視線評価値47とを入力とし、管制評価情報48を出力する。また、総合評価部23は、TAPSに記憶された管制指示情報53を利用する。管制評価情報48は、例えば、TAPSに書き込まれる。 The overall evaluation unit 23 has the functions of the control evaluation unit 38. The overall evaluation unit 23 receives the voice interpretation information 44 and the line of sight evaluation value 47 as input, and outputs the control evaluation information 48. The overall evaluation unit 23 also uses the control instruction information 53 stored in the TAPS. The control evaluation information 48 is written to the TAPS, for example.

図2を参照して、実施の形態1に係る管制支援装置10のハードウェア構成を説明する。
管制支援装置10は、コンピュータである。
管制支援装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
The hardware configuration of the air traffic control assistance device 10 according to the first embodiment will be described with reference to FIG.
The air traffic control assistance device 10 is a computer.
The air traffic control assistance device 10 includes the following hardware components: a processor 11, a memory 12, a storage 13, and a communication interface 14. The processor 11 is connected to other hardware components via signal lines and controls the other hardware components.

プロセッサ11は、プロセッシングを行うICである。ICはIntegrated Circuitの略である。プロセッサ11は、具体例としては、CPU、DSP、GPUである。CPUは、Central Processing Unitの略である。DSPは、Digital Signal Processorの略である。GPUは、Graphics Processing Unitの略である。 The processor 11 is an IC that performs processing. IC stands for Integrated Circuit. Specific examples of the processor 11 include a CPU, a DSP, and a GPU. CPU stands for Central Processing Unit. DSP stands for Digital Signal Processor. GPU stands for Graphics Processing Unit.

メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM、DRAMである。SRAMは、Static Random Access Memoryの略である。DRAMは、Dynamic Random Access Memoryの略である。 Memory 12 is a storage device that temporarily stores data. Specific examples of memory 12 include SRAM and DRAM. SRAM stands for Static Random Access Memory. DRAM stands for Dynamic Random Access Memory.

ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDDである。HDDは、Hard Disk Driveの略である。また、ストレージ13は、SD(登録商標)メモリカード、CompactFlash(登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、Blu-ray(登録商標)ディスク、DVDといった可搬記録媒体であってもよい。SDは、Secure Digitalの略である。DVDは、Digital Versatile Diskの略である。 Storage 13 is a storage device that stores data. A specific example of storage 13 is a HDD. HDD is an abbreviation for Hard Disk Drive. Storage 13 may also be a portable recording medium such as an SD (registered trademark) memory card, CompactFlash (registered trademark), NAND flash, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD. SD is an abbreviation for Secure Digital. DVD is an abbreviation for Digital Versatile Disk.

通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB、HDMI(登録商標)のポートである。USBは、Universal Serial Busの略である。HDMIは、High-Definition Multimedia Interfaceの略である。 The communication interface 14 is an interface for communicating with external devices. Specific examples of the communication interface 14 are Ethernet (registered trademark), USB, and HDMI (registered trademark) ports. USB is an abbreviation for Universal Serial Bus. HDMI is an abbreviation for High-Definition Multimedia Interface.

管制支援装置10の各機能はソフトウェアにより実現される。ストレージ13には、管制支援装置10の各機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、管制支援装置10の各機能構成要素の機能が実現される。 Each function of the air traffic control assistance device 10 is realized by software. The storage 13 stores programs that realize each function of the air traffic control assistance device 10. These programs are loaded into the memory 12 by the processor 11 and executed by the processor 11. This realizes the functions of each functional component of the air traffic control assistance device 10.

ストレージ13には、管制支援装置10の内部の入出力情報が記憶される。なお、管制支援装置10の内部の入出力情報は、ストレージ13ではなく、管制支援装置10の外部の記憶装置に書き込まれてもよい。 The storage 13 stores input/output information within the air traffic control assistance device 10. Note that the input/output information within the air traffic control assistance device 10 may be written to a storage device external to the air traffic control assistance device 10, rather than to the storage 13.

図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。 In FIG. 1, only one processor 11 is shown. However, there may be multiple processors 11, and the multiple processors 11 may cooperate to execute programs that realize the respective functions.

***動作の説明***
図3から図11を参照して、実施の形態1に係る管制支援装置10の動作を説明する。
実施の形態1に係る管制支援装置10の動作手順は、実施の形態1に係る管制支援方法に相当する。また、実施の形態1に係る管制支援装置10の動作を実現するプログラムは、実施の形態1に係る管制支援プログラムに相当する。
*** Operation Description ***
The operation of the air traffic control assistance device 10 according to the first embodiment will be described with reference to FIG. 3 to FIG.
The operation procedure of the air traffic control assistance device 10 according to the embodiment 1 corresponds to the air traffic control assistance method according to the embodiment 1. Moreover, the program for realizing the operation of the air traffic control assistance device 10 according to the embodiment 1 corresponds to the air traffic control assistance program according to the embodiment 1.

図3を参照して、TAPSを用いた管制指示の流れを説明する。
(1)管制官がTAPSの表示装置における管制対象の航空機を目視で識別する。
(2)管制対象の航空機が飛行する空域と要求する管制業務によって定められた周波数に接続し、管制官に管制指示を仰ぐ。管制官は、管制対象の航空機のパイロットに指示内容を音声で伝える。
(3)管制対象の航空機のパイロットが指示内容を復唱する。管制官は、復唱された内容により、指示内容がパイロットに正しく伝わっていることを確認する。
(4)管制官が指示内容をTAPSに入力する。
(5)管制官が他システムに指示内容が正しく反映されたことを確認する。
(6)管制官が管制対象の航空機が指示に従って移動することを確認する。
その後、(1)に戻る。
The flow of control instructions using TAPS will be described with reference to FIG.
(1) The controller visually identifies the aircraft to be controlled on the TAPS display.
(2) The aircraft connects to a frequency determined by the airspace it flies in and the control services it requires, and asks the controller for control instructions. The controller then verbally transmits the instructions to the pilot of the aircraft.
(3) The pilot of the controlled aircraft repeats back the instructions. The controller uses the repeat to verify that the instructions were correctly conveyed to the pilot.
(4) The controller enters the instructions into TAPS.
(5) The controller verifies that the instructions have been correctly reflected in other systems.
(6) The controller verifies that the aircraft under control is moving in accordance with instructions.
Then, return to (1).

図4を参照して、実施の形態1に係る管制支援装置10の全体的な処理の流れを説明する。
(ステップS1:管制指示処理)
管制指示処理部21は、管制対象の航空機に対して管制官が発話による指示をした指示音声42と、指示音声42に対してパイロットが発話した復唱音声43とを分析する。指示音声42は、図3における(2)の音声である。復唱音声43は、図3における(3)の音声である。これにより、管制指示処理部21は、管制官の音声による航空機への指示を評価する。
The overall process flow of the air traffic control assistance device 10 according to the first embodiment will be described with reference to FIG.
(Step S1: Air traffic control instruction processing)
The air traffic control instruction processing unit 21 analyzes the instruction voice 42 that the air traffic controller gives to the aircraft under control, and the repeat voice 43 that the pilot gives in response to the instruction voice 42. The instruction voice 42 is the voice (2) in Fig. 3. The repeat voice 43 is the voice (3) in Fig. 3. In this way, the air traffic control instruction processing unit 21 evaluates the controller's vocal instructions to the aircraft.

(ステップS2:視線処理)
視線処理部22は、航空機を映した表示装置における管制官が見ている視線位置と、表示装置の表示領域における管制対象の航空機が表示された位置との間の関係を分析する。これにより、視線処理部22は、音声による航空機への指示の際の管制官の視線を評価する。
(Step S2: Gaze Processing)
The line-of-sight processing unit 22 analyzes the relationship between the controller's line-of-sight position on the display device showing the aircraft and the position where the aircraft to be controlled is displayed in the display area of the display device. In this way, the line-of-sight processing unit 22 evaluates the controller's line of sight when giving voice instructions to the aircraft.

(ステップS3:総合評価処理)
総合評価部23は、ステップS1の処理結果と、ステップS2の処理結果と、TAPSに入力された管制指示情報53とから、管制指示を総合的に評価する。総合評価部23は、必要に応じて、管制官に通知を行い、注意を喚起する。TAPSに入力された管制指示情報53は、図3における(4)で入力された指示内容である。
(Step S3: Overall evaluation process)
The overall evaluation unit 23 comprehensively evaluates the air traffic control instructions based on the processing results of steps S1 and S2, and the air traffic control instruction information 53 input to the TAPS. The overall evaluation unit 23 notifies the air traffic controller and calls his/her attention as necessary. The air traffic control instruction information 53 input to the TAPS is the instruction content input in (4) in FIG. 3.

図5を参照して、実施の形態1に係る管制指示処理(図4のステップS1)を説明する。
(ステップS11:音声取得処理)
音声取得部31は、無線情報41を取得する。無線情報41は、管制官と、管制対象の航空機のパイロットとの音声情報である。
図3における(2)で管制官は、管制対象の航空機の識別情報と、指示内容とを音声でパイロットに伝える。図3における(3)でパイロットは、管制官の指示内容を認識した後で、内容確認のために航空機の識別情報と指示内容とを復唱する。無線情報41には、図3における(2)で管制対象の航空機に対して管制官が発話による指示をした指示音声42と、図3における(3)で指示音声42に対してパイロットが発話した復唱音声43とが含まれる。
The air traffic control instruction process (step S1 in FIG. 4) according to the first embodiment will be described with reference to FIG.
(Step S11: Audio acquisition process)
The voice acquisition unit 31 acquires radio information 41. The radio information 41 is voice information between a controller and a pilot of an aircraft to be controlled.
In (2) of Fig. 3, the controller verbally communicates the identification information of the aircraft to be controlled and the instructions to the pilot. In (3) of Fig. 3, the pilot, after recognizing the instructions of the controller, repeats the identification information of the aircraft and the instructions to confirm the contents. The radio information 41 includes command voice 42, which is the spoken instruction given by the controller to the aircraft to be controlled in (2) of Fig. 3, and repeat voice 43, which is the pilot's response to command voice 42 in (3) of Fig. 3.

(ステップS12:音声解析処理)
音声解析部32は、無線情報41から指示音声42と復唱音声43とをそれぞれ抽出する。音声解析部32は、指示音声42と復唱音声43とのそれぞれから、航空機の識別情報と、指示内容とを特定する。例えば、音声解析部32は、ニューラルネットワークを用いた学習済モデルに対して、指示音声42と復唱音声43とのそれぞれを入力することにより、航空機の識別情報と、指示内容とを特定する。
(Step S12: Voice analysis process)
The voice analysis unit 32 extracts the instruction voice 42 and the repetition voice 43 from the wireless information 41. The voice analysis unit 32 identifies the identification information of the aircraft and the instruction content from the instruction voice 42 and the repetition voice 43. For example, the voice analysis unit 32 inputs the instruction voice 42 and the repetition voice 43 into a trained model using a neural network, thereby identifying the identification information of the aircraft and the instruction content.

(ステップS13:音声評価処理)
音声評価部33は、ステップS12で抽出された指示音声42と復唱音声43との内容の一致度を評価する。
具体的には、音声評価部33は、指示音声42から特定される航空機及び指示内容と、復唱音声43から特定される航空機及び指示内容との一致度を評価する。つまり、音声評価部33は、ステップS12で指示音声42から特定された航空機と、ステップS12で復唱音声43から特定された航空機とが一致しているか否かを判定する。また、音声評価部33は、ステップS12で指示音声42から特定された指示内容と、ステップS12で復唱音声43から特定された指示内容とが一致しているか否かを判定する。音声評価部33は、指示音声42と復唱音声43との間で、航空機が一致したか否かと、指示内容が一致したか否かとを示す音声解釈情報44を生成する。
(Step S13: Audio evaluation process)
The voice evaluation unit 33 evaluates the degree of agreement between the instruction voice 42 and the repetition voice 43 extracted in step S12.
Specifically, the voice evaluation unit 33 evaluates the degree of agreement between the aircraft and instruction content identified from the command voice 42 and the aircraft and instruction content identified from the repeat voice 43. That is, the voice evaluation unit 33 determines whether or not the aircraft identified from the command voice 42 in step S12 matches the aircraft identified from the repeat voice 43 in step S12. The voice evaluation unit 33 also determines whether or not the instruction content identified from the command voice 42 in step S12 matches the instruction content identified from the repeat voice 43 in step S12. The voice evaluation unit 33 generates voice interpretation information 44 indicating whether or not the aircraft and the instruction content match between the command voice 42 and the repeat voice 43.

(ステップS14:注意喚起処理)
音声評価部33は、指示音声42と復唱音声43との間で、航空機と指示内容との少なくともいずれかが不一致である場合には、管制官に対して通知を行い、注意を喚起する。例えば、音声評価部33は、航空機が不一致である場合には、航空機が不一致であることを示す情報を表示装置に表示する。同様に、音声評価部33は、指示内容が不一致である場合には、指示内容が不一致であることを示す情報を表示装置に表示する。
(Step S14: Attention calling process)
The voice evaluation unit 33 notifies the air traffic controller and calls his/her attention when there is a mismatch in at least one of the aircraft and the instruction content between the instruction voice 42 and the read-back voice 43. For example, when there is a mismatch in the aircraft, the voice evaluation unit 33 displays information indicating that the aircraft do not match on the display device. Similarly, when there is a mismatch in the instruction content, the voice evaluation unit 33 displays information indicating that the instruction content does not match on the display device.

図6を参照して、実施の形態1に係る視線処理(図4のステップS2)を説明する。
(ステップS21:視線取得処理)
視線取得部34は、航空機を映した表示装置における管制官が見ている視線位置を示す視線情報45を取得する。図7に示すように、表示装置の付近に設置されたカメラによって管制官を撮影することにより、管制官が見ている視線位置を特定することが可能である。
具体的には、視線取得部34は、管制対象の航空機に対して指示をした時点を基準とする基準期間における視線位置の履歴を示す視線情報45を取得する。つまり、視線情報45には、基準期間における単位時間毎の視線位置が含まれる。ここで、単位時間は、例えば0.1秒といった短い時間である。
基準期間は、管制対象の航空機に対して指示をする前の指示前期間と、指示をしている指示中期間と、指示をした後の指示後期間とを含む。指示中期間は、管制官と管制対象の航空機のパイロットとが無線通信により会話している期間である。つまり、指示中期間は、管制官が指示内容を発話し、パイロットが指示内容を復唱している期間である。指示前期間は、指示中期間の前の一定時間(例えば60秒)である。指示後期間は、指示中期間の後の一定時間(例えば60秒)である。
The line-of-sight processing (step S2 in FIG. 4) according to the first embodiment will be described with reference to FIG.
(Step S21: line of sight acquisition process)
The line-of-sight acquisition unit 34 acquires line-of-sight information 45 indicating the line-of-sight position of the air traffic controller on the display device showing the aircraft. As shown in Fig. 7, by photographing the air traffic controller with a camera installed near the display device, it is possible to identify the line-of-sight position of the air traffic controller.
Specifically, the line-of-sight acquisition unit 34 acquires line-of-sight information 45 indicating a history of line-of-sight positions during a reference period based on the time when an instruction was given to an aircraft under control. That is, the line-of-sight information 45 includes the line-of-sight positions for each unit time during the reference period. Here, the unit time is a short time such as 0.1 seconds.
The reference period includes a pre-instruction period before instructions are given to the controlled aircraft, an instruction period during which instructions are given, and a post-instruction period after instructions are given. The instruction period is a period during which the controller and the pilot of the controlled aircraft are conversing via radio communication. In other words, the instruction period is a period during which the controller speaks instructions and the pilot repeats them. The pre-instruction period is a fixed time (e.g., 60 seconds) before the instruction period. The post-instruction period is a fixed time (e.g., 60 seconds) after the instruction period.

ステップS22及びステップS23で、視線評価部35は、管制対象の航空機に対する視線評価値を計算する。視線評価部35は、管制対象の航空機に対して指示をした時点を基準とする基準期間における、表示装置の表示領域における管制対象の航空機が表示された位置と、視線情報45が示す視線位置とから、管制対象の航空機に対する視線評価値を計算する。 In steps S22 and S23, the line-of-sight evaluation unit 35 calculates a line-of-sight evaluation value for the aircraft to be controlled. The line-of-sight evaluation unit 35 calculates a line-of-sight evaluation value for the aircraft to be controlled from the position where the aircraft to be controlled is displayed in the display area of the display device and the line-of-sight position indicated by the line-of-sight information 45 during a reference period based on the time when instructions were given to the aircraft to be controlled.

(ステップS22:範囲特定処理)
範囲特定部36は、基準期間において、ステップS21で取得された視線情報45が示す視線位置が、管制対象の航空機が表示された位置に対してどの範囲にあったかを特定する。図8及び図9を参照して具体的に説明する。
(Step S22: Range Identification Processing)
The range specifying unit 36 specifies the range in which the line-of-sight position indicated by the line-of-sight information 45 acquired in step S21 was located relative to the position where the aircraft to be controlled was displayed during the reference period. This will be specifically described with reference to Figs. 8 and 9.

図8に示すように、表示装置の表示領域が複数の分割領域に分割される。図8では、表示領域が格子状に複数の分割領域に分割されている。そして、管制対象の航空機が表示された位置に基づき、複数の分割領域が識別範囲61と視線範囲62と外部範囲63との3つに分類される。
識別範囲61は、管制対象の航空機が表示された位置を含む分割領域である。識別範囲61は、その範囲に視線位置があれば、管制対象の航空機を識別可能と考えられる範囲である。視線範囲62は、識別範囲の周囲の分割領域である。視線範囲62は、その範囲に視線位置があれば、管制対象の航空機が見えていると考えられる範囲である。外部範囲63は、識別範囲61及び視線範囲62以外の分割領域である。
識別範囲61には範囲重みEa、視線範囲62には範囲重みEb、外部範囲63には範囲重みEcが割り当てられており、計算用パラメータ46に設定されている。ここで、範囲重みEa>範囲重みEb>範囲重みEcである。
The display area of the display device is divided into a plurality of divided areas as shown in Fig. 8. In Fig. 8, the display area is divided into a plurality of divided areas in a lattice pattern. Then, the plurality of divided areas are classified into three areas, an identification range 61, a line-of-sight range 62, and an external range 63, based on the position where the aircraft to be controlled is displayed.
The identification range 61 is a divided area including the position where the controlled aircraft is displayed. The identification range 61 is a range within which it is considered possible to identify a controlled aircraft if the line of sight is within that range. The line of sight range 62 is a divided area surrounding the identification range. The line of sight range 62 is a range within which it is considered possible to see a controlled aircraft if the line of sight is within that range. The external range 63 is a divided area other than the identification range 61 and the line of sight range 62.
A range weight Ea is assigned to the identification range 61, a range weight Eb to the line of sight range 62, and a range weight Ec to the external range 63, and these are set in the calculation parameters 46. Here, range weight Ea>range weight Eb>range weight Ec.

図9に示すように、範囲特定部36は、航空機位置情報51及び範囲情報52を参照して、基準期間における単位時間毎に、識別範囲61と視線範囲62と外部範囲63とを設定する。航空機位置情報51は、管制対象の航空機の表示領域における座標を示す。範囲情報52は、各分割領域の座標範囲を示す。範囲特定部36は、範囲情報52を参照して、航空機位置情報51が示す座標を含む分割領域を識別範囲61に設定する。範囲特定部36は、識別範囲61の周囲の分割領域を視線範囲62に設定する。範囲特定部36は、その他の分割領域を外部範囲63に設定する。
時間の経過とともに、管制対象の航空機の表示領域における座標は変化する。そのため、どの分割領域が識別範囲61と視線範囲62と外部範囲63とになるかも変化する。
As shown in FIG. 9 , the range identification unit 36 refers to the aircraft position information 51 and the range information 52 and sets an identification range 61, a line of sight range 62, and an external range 63 for each unit time in a reference period. The aircraft position information 51 indicates the coordinates in the display area of the aircraft to be controlled. The range information 52 indicates the coordinate range of each divided area. The range identification unit 36 refers to the range information 52 and sets the divided area including the coordinates indicated by the aircraft position information 51 as the identification range 61. The range identification unit 36 sets the divided areas surrounding the identification range 61 as the line of sight range 62. The range identification unit 36 sets the other divided areas as the external range 63.
As time passes, the coordinates in the display area of the aircraft to be controlled change, and therefore which divided areas become the identification range 61, the line-of-sight range 62, and the external range 63 also change.

範囲特定部36は、基準期間における単位時間毎に、視線情報45が示す視線位置が識別範囲61と視線範囲62と外部範囲63とのどの範囲にあるかを特定する。これにより、範囲特定部36は、指示前期間と指示中期間と指示後期間とのそれぞれについて、識別範囲61と視線範囲62と外部範囲63とのそれぞれに視線位置があった割合を特定する。
ここでは、指示前期間に視線位置が識別範囲61にあった割合をEα1とする。指示前期間に視線位置が視線範囲62にあった割合をEβ1とする。指示前期間に視線位置が外部範囲63にあった割合をEγ1とする。指示中期間に視線位置が識別範囲61にあった割合をEα2とする。指示中期間に視線位置が視線範囲62にあった割合をEβ2とする。指示中期間に視線位置が外部範囲63にあった割合をEγ2とする。指示後期間に視線位置が識別範囲61にあった割合をEα3とする。指示後期間に視線位置が視線範囲62にあった割合をEβ3とする。指示後期間に視線位置が外部範囲63にあった割合をEγ3とする。
Range specifying unit 36 specifies, for each unit time in the reference period, in which of identification range 61, line of sight range 62, and external range 63 the gaze position indicated by gaze information 45 is located. In this way, range specifying unit 36 specifies the percentage of the gaze position within identification range 61, line of sight range 62, and external range 63 for each of the pre-pointing period, during-pointing period, and post-pointing period.
Here, the percentage of the gaze position that was in the identification range 61 during the pre-pointing period is Eα1. The percentage of the gaze position that was in the line-of-sight range 62 during the pre-pointing period is Eβ1. The percentage of the gaze position that was in the external range 63 during the pre-pointing period is Eγ1. The percentage of the gaze position that was in the identification range 61 during the during pointing period is Eα2. The percentage of the gaze position that was in the line-of-sight range 62 during the during pointing period is Eβ2. The percentage of the gaze position that was in the external range 63 during the during pointing period is Eγ2. The percentage of the gaze position that was in the identification range 61 during the post-pointing period is Eα3. The percentage of the gaze position that was in the line-of-sight range 62 during the post-pointing period is Eβ3. The percentage of the gaze position that was in the external range 63 during the post-pointing period is Eγ3.

(ステップS23:評価値計算処理)
評価値計算部37は、ステップS22で特定された範囲から、視線評価値47を計算する。ここでは、評価値計算部37は、ステップS22で特定された、指示前期間と指示中期間と指示後期間とのそれぞれについての識別範囲61と視線範囲62と外部範囲63とのそれぞれに視線位置があった割合から、視線評価値47を計算する。
(Step S23: Evaluation value calculation process)
Evaluation value calculation unit 37 calculates gaze evaluation value 47 from the ranges specified in step S22. Here, evaluation value calculation unit 37 calculates gaze evaluation value 47 from the proportion of gaze positions within identification range 61, gaze range 62, and external range 63 for each of the pre-pointing period, during-pointing period, and post-pointing period specified in step S22.

具体的には、評価値計算部37は次のように視線評価値47を計算する。
指示前期間と指示中期間と指示後期間とのそれぞれに期間重みが割り当てられており、計算用パラメータ46に設定されている。ここでは、指示前期間に割り当てられた期間重みをTa、指示中期間に割り当てられた期間重みをTb、指示後期間に割り当てられた期間重みをTcとする。
そして、評価値計算部37は、数1に示すように、指示前期間についての評価値Va1と、指示中期間についての評価値Va2と、指示後期間についての評価値Va3とを計算する。数1で指示前期間は、時刻t1から時刻t2までである。指示中期間は、時刻t2から時刻t3までである。指示後期間は、時刻t3から時刻t4までである。評価値計算部37は、数2に示すように、評価値Va1と評価値Va2と評価値Va3との和を、視線評価値47(=Va)として計算する。

Figure 0007538280000002
Figure 0007538280000003
Specifically, the evaluation value calculation unit 37 calculates the line-of-sight evaluation value 47 as follows.
A period weight is assigned to each of the pre-instruction period, the mid-instruction period, and the post-instruction period, and is set in the calculation parameters 46. Here, the period weight assigned to the pre-instruction period is Ta, the period weight assigned to the mid-instruction period is Tb, and the period weight assigned to the post-instruction period is Tc.
Then, evaluation value calculation unit 37 calculates evaluation value Va1 for the pre-instruction period, evaluation value Va2 for the during-instruction period, and evaluation value Va3 for the post-instruction period, as shown in Equation 1. In Equation 1, the pre-instruction period is from time t1 to time t2. The during-instruction period is from time t2 to time t3. The post-instruction period is from time t3 to time t4. Evaluation value calculation unit 37 calculates the sum of evaluation value Va1, evaluation value Va2, and evaluation value Va3 as gaze evaluation value 47 (=Va), as shown in Equation 2.
Figure 0007538280000002
Figure 0007538280000003

つまり、評価値計算部37は、以下のように評価値Va1を計算する。
まず、評価値計算部37は、指示前期間において視線位置が識別範囲61にあった割合Eα1に、識別範囲61の重みEaを乗じた値v11を計算する。評価値計算部37は、指示前期間において視線位置が視線範囲62にあった割合Eβ1に、視線範囲の重みEbを乗じた値v12を計算する。評価値計算部37は、指示前期間において視線位置が外部範囲63にあった割合Eγ1に、視線範囲の重みEcを乗じた値v13を計算する。そして、評価値計算部37は、値v11と値v12と値v13との合計値に対して、指示前期間の重みである期間重みTaを乗じて、指示前期間分積分することにより、指示前評価値Va1を計算する。
That is, the evaluation value calculation unit 37 calculates the evaluation value Va1 as follows.
First, evaluation value calculation unit 37 calculates value v11 by multiplying proportion Eα1 of the gaze position within identification range 61 during the pre-pointing period by weight Ea of identification range 61. Evaluation value calculation unit 37 calculates value v12 by multiplying proportion Eβ1 of the gaze position within line-of-sight range 62 during the pre-pointing period by weight Eb of the gaze range. Evaluation value calculation unit 37 calculates value v13 by multiplying proportion Eγ1 of the gaze position within external range 63 during the pre-pointing period by weight Ec of the gaze range. Then, evaluation value calculation unit 37 multiplies the sum of values v11, v12, and v13 by period weight Ta, which is the weight of the pre-pointing period, and integrates the result over the pre-pointing period to calculate pre-pointing evaluation value Va1.

同様に、評価値計算部37は、以下のように評価値Va2を計算する。
まず、評価値計算部37は、指示中期間において視線位置が識別範囲61にあった割合Eα2に、識別範囲61の重みEaを乗じた値v21を計算する。評価値計算部37は、指示中期間において視線位置が視線範囲62にあった割合Eβ2に、視線範囲の重みEbを乗じた値v22を計算する。評価値計算部37は、指示中期間において視線位置が外部範囲63にあった割合Eγ2に、視線範囲の重みEcを乗じた値v23を計算する。そして、評価値計算部37は、値v21と値v22と値v23との合計値に対して、指示中期間の重みである期間重みTbを乗じて、指示中期間分積分することにより、指示中評価値Va2を計算する。
Similarly, the evaluation value calculation unit 37 calculates the evaluation value Va2 as follows.
First, evaluation value calculation unit 37 calculates value v21 by multiplying proportion Eα2 of the gaze position within identification range 61 during the designation period by weight Ea of identification range 61. Evaluation value calculation unit 37 calculates value v22 by multiplying proportion Eβ2 of the gaze position within line-of-sight range 62 during the designation period by weight Eb of the line-of-sight range. Evaluation value calculation unit 37 calculates value v23 by multiplying proportion Eγ2 of the gaze position within external range 63 during the designation period by weight Ec of the line-of-sight range. Then, evaluation value calculation unit 37 multiplies the sum of values v21, v22, and v23 by period weight Tb, which is the weight for the designation period, and integrates the result over the designation period to calculate designation evaluation value Va2.

同様に、評価値計算部37は、以下のように評価値Va3を計算する。
まず、評価値計算部37は、指示後期間において視線位置が識別範囲61にあった割合Eα3に、識別範囲61の重みEaを乗じた値v31を計算する。評価値計算部37は、指示後期間において視線位置が視線範囲62にあった割合Eβ3に、視線範囲の重みEbを乗じた値v32を計算する。評価値計算部37は、指示後期間において視線位置が外部範囲63にあった割合Eγ3に、視線範囲の重みEcを乗じた値v33を計算する。そして、評価値計算部37は、値v31と値v32と値v33との合計値に対して、指示後期間の重みである期間重みTcを乗じて、指示後期間分積分することにより、指示後評価値Va3を計算する。
Similarly, the evaluation value calculation unit 37 calculates the evaluation value Va3 as follows.
First, evaluation value calculation unit 37 calculates value v31 by multiplying proportion Eα3 of the gaze position within identification range 61 during the post-pointing period by weight Ea of identification range 61. Evaluation value calculation unit 37 calculates value v32 by multiplying proportion Eβ3 of the gaze position within gaze range 62 during the post-pointing period by weight Eb of the gaze range. Evaluation value calculation unit 37 calculates value v33 by multiplying proportion Eγ3 of the gaze position within external range 63 during the post-pointing period by weight Ec of the gaze range. Then, evaluation value calculation unit 37 multiplies the sum of values v31, v32, and v33 by period weight Tc, which is the weight for the post-pointing period, and integrates the result for the post-pointing period to calculate post-pointing evaluation value Va3.

なお、積分を行うのは、期間の長さを評価値に反映するためである。指示中期間については、毎回期間が異なる。そのため、期間の長さに応じて適切に視線評価値47を計算するために、期間の長さ分の積分を行っている。積分を行うことに代えて、期間の長さに応じた係数を乗じるようにしてもよい。 The reason for performing the integration is to reflect the length of the period in the evaluation value. The duration of the indication period is different each time. Therefore, in order to calculate the gaze evaluation value 47 appropriately according to the length of the period, an integration is performed for the length of the period. Instead of performing the integration, it is also possible to multiply by a coefficient according to the length of the period.

ここで、視線処理部22は、指示の瞬間における視線位置ではなく、指示中期間の前後を含む基準期間における視線位置を用いて、視線評価値47を計算した。
これは、管制官は、複数の航空機間の調整を行うため、複数の航空機に対して並行して指示を行うという管制官の業務の特性を考慮したためである。つまり、管制官と航空機との関係が1対1にならない可能性があるためである。例えば、ある航空機に対して指示しているときに、その航空機との関係を調整する他の航空機を見ているような場合も想定されるためである。
Here, the gaze processing unit 22 calculates the gaze evaluation value 47 using the gaze position in a reference period including before and after the during-pointing period, rather than the gaze position at the moment of pointing.
This is because it takes into consideration the nature of the controller's work, which involves giving instructions to multiple aircraft in parallel in order to coordinate between them. In other words, the relationship between the controller and the aircraft may not be one-to-one. For example, it is possible that while giving instructions to a certain aircraft, the controller may be looking at another aircraft that is coordinating its relationship with that aircraft.

このように、管制官は複数の航空機を同時に管制する。そのため、図10に示すように、指示前期間と指示中期間と指示後期間とは航空機毎に定められる。指示前期間と指示中期間と指示後期間とからなる基準期間は、航空機間で重複している場合もある。 In this way, the controller controls multiple aircraft simultaneously. Therefore, as shown in FIG. 10, the pre-instruction period, the mid-instruction period, and the post-instruction period are determined for each aircraft. The reference period consisting of the pre-instruction period, the mid-instruction period, and the post-instruction period may overlap between aircraft.

図11を参照して、実施の形態1に係る総合評価処理(図4のステップS3)を説明する。
(ステップS31:情報取得処理)
管制評価部38は、ステップS1で生成された音声解釈情報44と、ステップS2で計算された視線評価値47とを取得する。また、管制評価部38は、管制指示情報53を読み出す。
The overall evaluation process (step S3 in FIG. 4) according to the first embodiment will be described with reference to FIG.
(Step S31: Information acquisition process)
The control evaluation unit 38 acquires the voice interpretation information 44 generated in step S1 and the line of sight evaluation value 47 calculated in step S2. The control evaluation unit 38 also reads out the control instruction information 53.

(ステップS32:音声判定処理)
管制評価部38は、指示音声42と復唱音声43との間で、航空機及び指示内容が一致したことを音声解釈情報44が示しているか否かを判定する。
管制評価部38は、一致したことを音声解釈情報44が示す場合には、処理をステップS33に進める。一方、管制評価部38は、一致したことを音声解釈情報44が示していない場合には、処理を終了する。
(Step S32: Voice determination process)
The control evaluation unit 38 determines whether the voice interpretation information 44 indicates that the aircraft and the instruction content match between the instruction voice 42 and the read-back voice 43.
If the voice interpretation information 44 indicates that there is a match, the control evaluation unit 38 advances the process to step S33. On the other hand, if the voice interpretation information 44 does not indicate that there is a match, the control evaluation unit 38 ends the process.

(ステップS33:管制評価処理)
管制評価部38は、視線評価値47と管制指示情報53との組合せに応じて、管制対象の航空機に対する管制業務を評価する。具体的には、管制評価部38は、以下の(a)から(d)の4ケースのいずれに該当するかを特定することにより、管制業務を評価する。
(Step S33: Control evaluation process)
The control evaluation unit 38 evaluates the control operations for the aircraft to be controlled, according to a combination of the line-of-sight evaluation value 47 and the control instruction information 53. Specifically, the control evaluation unit 38 evaluates the control operations by identifying which of the following four cases (a) to (d) applies:

(a)視線評価値47が基準値以下、かつ、指示後指定時間内に管制対象の航空機に対する操作指示が管制指示情報53に登録されていない。
(b)視線評価値47が基準値以下、かつ、指示後指定時間内に管制対象の航空機に対する操作指示が管制指示情報53に登録された。
(c)視線評価値47が基準値より高い、かつ、指示後指定時間内に管制対象の航空機に対する操作指示が管制指示情報53に登録されていない。
(d)視線評価値47が基準値より高い、かつ、指示後指定時間内に管制対象の航空機に対する操作指示が管制指示情報53に登録された。
(a) The line of sight evaluation value 47 is below the reference value, and no operational instructions for the controlled aircraft are registered in the control instruction information 53 within the specified time after the instruction.
(b) The line of sight evaluation value 47 is equal to or less than the reference value, and an operational instruction for an aircraft to be controlled is registered in the air traffic control instruction information 53 within a specified time after the instruction.
(c) The line of sight evaluation value 47 is higher than the reference value, and no operational instructions for the controlled aircraft are registered in the control instruction information 53 within the specified time after the instruction.
(d) The line of sight evaluation value 47 is higher than the reference value, and an operational instruction for a controlled aircraft is registered in the air traffic control instruction information 53 within a specified time after the instruction.

(a)及び(b)の場合には、視線評価値47が低く、管制対象の航空機を十分に目視していないと認められる。そのため、管制評価部38は、管制対象の航空機を誤っている可能性があると判定する。そして、管制評価部38は、管制官に対して、管制対象の航空機を誤っている可能性があることを通知する。例えば、管制評価部38は、視線の向きと管制対象の航空機の位置とが一致しないことを通知してもよい。
(c)の場合には、視線評価値47は高いものの、管制指示情報53に登録がない。そのため、管制評価部38は、操作漏れの可能性が有ると判定する。そして、管制評価部38は、管制官に対して、操作漏れの可能性が有ることを通知する。
(d)の場合には、管制業務が正常に実行されていると認められる。そのため、管制評価部38は、管制業務は正常であると判定し、通知は行わない。
In the cases of (a) and (b), the line of sight evaluation value 47 is low, and it is recognized that the target aircraft is not visually observed sufficiently. Therefore, the control evaluation unit 38 determines that there is a possibility that the target aircraft is incorrect. Then, the control evaluation unit 38 notifies the air traffic controller that there is a possibility that the target aircraft is incorrect. For example, the control evaluation unit 38 may notify that the direction of the line of sight does not match the position of the target aircraft.
In the case of (c), although the line-of-sight evaluation value 47 is high, there is no record in the air traffic control instruction information 53. Therefore, the air traffic control evaluation unit 38 determines that there is a possibility of an operation omission. Then, the air traffic control evaluation unit 38 notifies the air traffic controller that there is a possibility of an operation omission.
In the case of (d), it is recognized that the control operation is being performed normally. Therefore, the control evaluation unit 38 determines that the control operation is normal and does not issue a notification.

管制評価部38は、さらに(e)のケースを特定してもよい。
(e)管制対象の航空機に対する操作指示が管制指示情報53に登録されていないにも関わらず、指示後指定時間内に他の航空機に対する操作指示が管制指示情報53に登録された。
(e)の場合には、管制評価部38は、操作対象の航空機を誤っている可能性があると判定する。操作対象の航空機とは、操作指示を出した航空機である。そして、管制評価部38は、管制官に対して、操作対象の航空機を誤っている可能性があることを通知する。
The control evaluation unit 38 may further identify case (e).
(e) Although an operational instruction for an aircraft to be controlled is not registered in the air traffic control instruction information 53, an operational instruction for another aircraft is registered in the air traffic control instruction information 53 within a specified time after the instruction.
In the case of (e), the control evaluation unit 38 determines that there is a possibility that the target aircraft is incorrect. The target aircraft is the aircraft that issued the operation instruction. The control evaluation unit 38 then notifies the air traffic controller that there is a possibility that the target aircraft is incorrect.

なお、以上の通知方法としては、表示装置に警告表示する等が考えられる。 Note that possible notification methods include displaying a warning on a display device.

***実施の形態1の効果***
以上のように、実施の形態1に係る管制支援装置10は、基準期間における管制官の視線位置と管制対象の航空機が表示された位置とから視線評価値47を計算する。これにより、誤った航空機を見ているといった管制対象の航空機を十分に見ていない状態を特定することができる。これを利用することにより、表示装置に表示されている内容を読み間違えることに起因した、意図せぬ管制指示を防止可能な構成を実現することができる。
***Advantages of First Embodiment***
As described above, the air traffic control assistance device 10 according to the first embodiment calculates the gaze evaluation value 47 from the gaze position of the air traffic controller during the reference period and the position where the controlled aircraft is displayed. This makes it possible to identify a state where the controller is not looking at the controlled aircraft sufficiently, such as when the controller is looking at the wrong aircraft. By utilizing this, it is possible to realize a configuration that can prevent unintended air traffic control instructions caused by misreading the contents displayed on the display device.

特に、実施の形態1に係る管制支援装置10は、指示の瞬間における視線位置ではなく、指示中期間の前後を含む基準期間における視線位置を用いて、視線評価値47を計算する。これにより、管制業務の特性を考慮した適切な視線評価値47を計算することができる。 In particular, the air traffic control assistance device 10 according to the first embodiment calculates the gaze evaluation value 47 using the gaze position during a reference period that includes both before and after the instruction period, rather than the gaze position at the moment of instruction. This makes it possible to calculate an appropriate gaze evaluation value 47 that takes into account the characteristics of air traffic control operations.

また、実施の形態1に係る管制支援装置10は、視線評価値47だけでなく、操作指示が登録されたかも考慮して、管制業務を評価する。これにより、さらに細かく管制業務を評価することができる。 The air traffic control assistance device 10 according to the first embodiment also evaluates air traffic control operations by considering not only the line of sight evaluation value 47 but also whether an operation instruction has been registered. This allows for even more detailed evaluation of air traffic control operations.

また、実施の形態1に係る管制支援装置10は、指示音声42と復唱音声43との一致度に基づき、管制業務を評価する。これにより、より適切に管制業務を評価することができる。 The air traffic control assistance device 10 according to the first embodiment also evaluates air traffic control operations based on the degree of agreement between the instruction voice 42 and the recited voice 43. This allows for a more appropriate evaluation of air traffic control operations.

***他の構成***
<変形例1>
実施の形態1では、評価値計算部37は、数1により視線評価値47を計算した。評価値計算部37は、数1に代えて、学習済モデルを利用して視線評価値47を計算してもよい。
学習済モデルは、以下の(1)から(3)の情報を入力とし、視線評価値47を出力するモデルである。(1)基準期間における単位時間毎の視線位置を示す視線情報45。(2)基準期間における、表示装置の表示領域における管制対象の航空機が表示された位置。(3)指示前期間の時間(開始時刻及び終了時刻)と、指示中期間の時間(開始時刻及び終了時刻)と、指示後期間の時間(開始時刻及び終了時刻)。なお、基準期間には、指示前期間と指示中期間と指示後期間とが含まれる。
***Other configurations***
<Modification 1>
In the first embodiment, the evaluation value calculation unit 37 calculates the gaze evaluation value 47 by Equation 1. The evaluation value calculation unit 37 may calculate the gaze evaluation value 47 by using a learned model instead of Equation 1.
The trained model is a model that takes the following information (1) to (3) as input and outputs a gaze evaluation value 47: (1) Gaze information 45 indicating the gaze position per unit time during a reference period. (2) The position at which an aircraft to be controlled is displayed in the display area of the display device during the reference period. (3) The time of the pre-instruction period (start time and end time), the time during the instruction period (start time and end time), and the time of the post-instruction period (start time and end time). Note that the reference period includes the pre-instruction period, the instruction period, and the post-instruction period.

<変形例2>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例2として、各機能構成要素はハードウェアで実現されてもよい。この変形例2について、実施の形態1と異なる点を説明する。
<Modification 2>
In the first embodiment, each functional component is realized by software. However, as a second modification, each functional component may be realized by hardware. The following describes the second modification, focusing on the differences from the first embodiment.

各機能構成要素がハードウェアで実現される場合には、管制支援装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路を備える。電子回路は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。 When each functional component is realized by hardware, the air traffic control assistance device 10 has an electronic circuit instead of the processor 11, memory 12, and storage 13. The electronic circuit is a dedicated circuit that realizes the functions of each functional component, memory 12, and storage 13.

電子回路としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、ASIC、FPGAが想定される。GAは、Gate Arrayの略である。ASICは、Application Specific Integrated Circuitの略である。FPGAは、Field-Programmable Gate Arrayの略である。
各機能構成要素を1つの電子回路で実現してもよいし、各機能構成要素を複数の電子回路に分散させて実現してもよい。
The electronic circuits may be a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA, an ASIC, or an FPGA. GA is an abbreviation for Gate Array. ASIC is an abbreviation for Application Specific Integrated Circuit. FPGA is an abbreviation for Field-Programmable Gate Array.
Each functional component may be realized by one electronic circuit, or each functional component may be realized by distributing it among a plurality of electronic circuits.

<変形例3>
変形例3として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
<Modification 3>
As a third modification, some of the functional components may be realized by hardware, and other functional components may be realized by software.

プロセッサ11とメモリ12とストレージ13と電子回路とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。 The processor 11, memory 12, storage 13, and electronic circuitry are referred to as the processing circuit. In other words, the functions of each functional component are realized by the processing circuit.

なお、以上の説明における「部」を、「回路」、「工程」、「手順」、「処理」又は「処理回路」に読み替えてもよい。 In addition, the word "part" in the above description may be interpreted as "circuit," "process," "procedure," "processing," or "processing circuit."

以下、本開示の諸態様を付記としてまとめて記載する。
(付記1)
移動体を映した表示装置における管制官が見ている視線位置を示す視線情報を取得する視線取得部と、
管制対象の移動体に対して指示をした時点を基準とする基準期間における、表示装置の表示領域における前記管制対象の移動体が表示された位置と、前記視線取得部によって取得された前記視線情報が示す前記視線位置とから、前記管制対象の移動体に対する視線評価値を計算する視線評価部と
を備える管制支援装置。
(付記2)
前記基準期間は、前記管制対象の移動体に対して指示をする前の指示前期間と、前記指示をしている指示中期間と、前記指示をした後の指示後期間とを含む
付記1に記載の管制支援装置。
(付記3)
前記視線評価部は、
前記表示装置の表示領域を分割した複数の分割領域のうち、前記管制対象の移動体が表示された位置を含む分割領域を識別範囲とし、前記識別範囲の周囲の分割領域を視線範囲とし、前記識別範囲及び前記視線範囲以外の分割領域を外部範囲として、前記基準期間において、前記視線情報が示す前記視線位置が前記識別範囲と前記視線範囲と前記外部範囲のどの範囲にあるかを特定する範囲特定部と、
前記範囲特定部によって特定された前記範囲から前記視線評価値を計算する評価値計算部と
を備える付記1又は2に記載の管制支援装置。
(付記4)
前記範囲特定部は、前記基準期間において、前記視線情報が示す前記視線位置が前記識別範囲と前記視線範囲とそれぞれにあった割合を特定し、
前記評価値計算部は、前記割合から前記視線評価値を計算する
付記3に記載の管制支援装置。
(付記5)
前記基準期間は、前記管制対象の移動体に対して指示をする前の指示前期間と、前記指示をしている指示中期間と、前記指示をした後の指示後期間とを含み、
前記評価値計算部は、前記指示前期間における前記割合から計算される指示前評価値と、前記指示中期間における前記割合から計算される指示中評価値と、前記指示後期間における前記割合から計算される指示後評価値とから、前記視線評価値を計算する
付記4に記載の管制支援装置。
(付記6)
前記評価値計算部は、
前記指示前期間において前記視線位置が前記識別範囲にあった割合Eα1に、前記識別範囲の重みEaを乗じた値と、前記指示前期間において前記視線位置が前記視線範囲にあった割合Eβ1に、前記視線範囲の重みEbを乗じた値と、前記指示前期間において前記視線位置が前記外部範囲にあった割合Eγ1に、前記視線範囲の重みEcを乗じた値との合計値に対して、前記指示前期間の重みTaを乗じて、前記指示前評価値を計算し、
前記指示中期間において前記視線位置が前記識別範囲にあった割合Eα2に、前記識別範囲の重みEaを乗じた値と、前記指示中期間において前記視線位置が前記視線範囲にあった割合Eβ2に、前記視線範囲の重みEbを乗じた値と、前記指示中期間において前記視線位置が前記外部範囲にあった割合Eγ2に、前記視線範囲の重みEcを乗じた値との合計値に対して、前記指示中期間の重みTbを乗じて、前記指示中評価値を計算し、
前記指示後期間において前記視線位置が前記識別範囲にあった割合Eα3に、前記識別範囲の重みEaを乗じた値と、前記指示後期間において前記視線位置が前記視線範囲にあった割合Eβ3に、前記視線範囲の重みEbを乗じた値と、前記指示後期間において前記視線位置が前記外部範囲にあった割合Eγ3に、前記視線範囲の重みEcを乗じた値との合計値に対して、前記指示後期間の重みTcを乗じて、前記指示後評価値を計算する
付記5に記載の管制支援装置。
(付記7)
前記管制支援装置は、さらに、
前記視線評価部によって計算された前記視線評価値に基づき、前記管制対象の移動体を誤っている可能性があるか否かを判定する管制評価部
を備える付記1から6までのいずれか1項に記載の管制支援装置。
(付記8)
前記管制支援装置は、さらに、
前記管制対象の移動体に対して管制官が発話による指示をした指示音声と、前記指示音声に対して前記管制対象の移動体の操縦者が発話した復唱音声との内容の一致度を評価する音声評価部
を備え、
前記管制評価部は、前記音声評価部によって評価された前記一致度が基準値以上である場合に、前記管制対象の移動体を誤っている可能性があるか否かを判定する
付記7に記載の管制支援装置。
(付記9)
前記音声評価部は、前記指示音声から特定される移動体及び指示内容と、前記復唱音声から特定される移動体及び指示内容との一致度を評価する
付記8に記載の管制支援装置。
(付記10)
前記管制評価部は、前記視線評価値が基準値以下である場合には、前記管制対象の移動体を誤っている可能性があると判定する
付記7から9までのいずれか1項に記載の管制支援装置。
(付記11)
前記管制評価部は、前記管制対象の移動体について制限時間内に操作入力されていない場合には、前記操作漏れの可能性があると判定する
付記10に記載の管制支援装置。
(付記12)
前記管制評価部は、前記管制対象の移動体とは異なる移動体について制限時間内に操作入力された場合には、前記操作対象の移動体の誤りの可能性があると判定する
付記10又は11に記載の管制支援装置。
(付記13)
前記管制評価部は、前記管制対象の移動体を誤っている可能性があると判定した場合には、前記管制官に対して通知する
付記7から12までのいずれか1項に記載の管制支援装置。
(付記14)
コンピュータが、移動体を映した表示装置における管制官が見ている視線位置を示す視線情報を取得し、
コンピュータが、管制対象の移動体に対して指示をした時点を基準とする基準期間における、表示装置の表示領域における前記管制対象の移動体が表示された位置と、前記視線情報が示す前記視線位置とから、前記管制対象の移動体に対する視線評価値を計算する管制支援方法。
(付記15)
移動体を映した表示装置における管制官が見ている視線位置を示す視線情報を取得する視線取得処理と、
管制対象の移動体に対して指示をした時点を基準とする基準期間における、表示装置の表示領域における前記管制対象の移動体が表示された位置と、前記視線取得処理によって取得された前記視線情報が示す前記視線位置とから、前記管制対象の移動体に対する視線評価値を計算する視線評価処理と
を行う管制支援装置としてコンピュータを機能させる管制支援プログラム。
Various aspects of the present disclosure are summarized below as appendices.
(Appendix 1)
a line-of-sight acquisition unit that acquires line-of-sight information indicating a line-of-sight position of an air traffic controller on a display device showing a moving object;
A control support device comprising: a gaze evaluation unit that calculates a gaze evaluation value for a moving object to be controlled from the position at which the moving object to be controlled is displayed in a display area of a display device during a reference period based on the time when instructions were given to the moving object to be controlled, and the gaze position indicated by the gaze information acquired by the gaze acquisition unit.
(Appendix 2)
The control support device of claim 1, wherein the reference period includes a pre-instruction period before an instruction is given to the mobile object to be controlled, an instruction period during which the instruction is given, and a post-instruction period after the instruction is given.
(Appendix 3)
The gaze evaluation unit is
a range specification unit which specifies, among a plurality of divided regions obtained by dividing a display region of the display device, a divided region including a position where the moving object to be controlled is displayed, as an identification range, a divided region around the identification range as a line of sight range, and a divided region other than the identification range and the line of sight range as an external range, and specifies in which range of the identification range, the line of sight range, or the external range the line of sight position indicated by the line of sight information is located during the reference period;
and an evaluation value calculation unit that calculates the line-of-sight evaluation value from the range identified by the range identification unit.
(Appendix 4)
the range specification unit specifies a ratio of the gaze position indicated by the gaze information being within the identification range and the gaze range during the reference period;
4. The air traffic control assistance device according to claim 3, wherein the evaluation value calculation unit calculates the line-of-sight evaluation value from the ratio.
(Appendix 5)
the reference period includes a pre-instruction period before an instruction is given to the moving object to be controlled, an instruction period during which the instruction is given, and a post-instruction period after the instruction is given,
The control support device described in Appendix 4, wherein the evaluation value calculation unit calculates the gaze evaluation value from a pre-instruction evaluation value calculated from the ratio in the pre-instruction period, a during-instruction evaluation value calculated from the ratio in the during-instruction period, and a post-instruction evaluation value calculated from the ratio in the post-instruction period.
(Appendix 6)
The evaluation value calculation unit
calculate the pre-pointing evaluation value by multiplying a weight Ea of the identification range by a proportion Eα1 of the gaze position during the pre-pointing period, a weight Ea of the identification range by a weight Eb of the gaze range by a weight Eb of the gaze range by a weight Ec of the gaze range by a weight Eγ1 of the gaze position during the pre-pointing period, and a total value of the weight Ta of the pre-pointing period by a weight Ta of the gaze range by the proportion Eα1 of the gaze position during the pre-pointing period that was within the identification range by a weight Ea of the gaze range by the weight Eb of the gaze range by the weight Ec of the gaze range by the weight Ta of the pre-pointing period;
calculate the during-pointing evaluation value by multiplying a weight Ea of the identification range by a proportion Eα2 of the gaze position that was within the identification range during the during pointing period, a weight Ea of the gaze range by a weight Eb of the gaze range by a proportion Eβ2 of the gaze position that was within the gaze range during the during pointing period, and a weight Ec of the gaze range by a weight Tb of the during-pointing period;
The air traffic control support device according to claim 5, which calculates the post-instruction evaluation value by multiplying a weight Ea of the identification range by a proportion Eα3 of the gaze position during the post-instruction period, a weight Ea of the identification range, a weight Eb of the gaze range by a proportion Eβ3 of the gaze position during the post-instruction period, and a weight Ec of the gaze range by a weight Tc of the post-instruction period.
(Appendix 7)
The air traffic control assistance device further comprises:
A control support device as described in any one of appendices 1 to 6, comprising a control evaluation unit that determines whether or not the moving object to be controlled is possibly incorrect based on the line of sight evaluation value calculated by the line of sight evaluation unit.
(Appendix 8)
The air traffic control assistance device further comprises:
a voice evaluation unit that evaluates a degree of agreement between a command voice given by an air traffic controller to the mobile object to be controlled and a repeat voice spoken by a pilot of the mobile object to be controlled in response to the command voice,
The control support device described in Appendix 7, wherein the control evaluation unit determines whether or not there is a possibility that the moving object to be controlled is incorrect when the degree of similarity evaluated by the voice evaluation unit is equal to or greater than a reference value.
(Appendix 9)
The control support device according to claim 8, wherein the voice evaluation unit evaluates the degree of agreement between the moving object and instruction content identified from the instruction voice and the moving object and instruction content identified from the recited voice.
(Appendix 10)
A control support device as described in any one of appendices 7 to 9, wherein the control evaluation unit determines that the moving object to be controlled may be incorrect if the line of sight evaluation value is below a reference value.
(Appendix 11)
The control support device according to claim 10, wherein the control evaluation unit determines that there is a possibility of an operation being omitted if no operation input is made for the moving object to be controlled within a time limit.
(Appendix 12)
The control support device according to claim 10 or 11, wherein the control evaluation unit determines that there is a possibility that the moving object to be operated is an error when an operation input is made within a time limit for a moving object other than the moving object to be controlled.
(Appendix 13)
A control support device as described in any one of Appendices 7 to 12, in which the control evaluation unit notifies the controller when it determines that the moving object to be controlled may be incorrect.
(Appendix 14)
The computer acquires line-of-sight information indicating the line-of-sight position of the air traffic controller on a display device showing the moving object,
A control support method in which a computer calculates a gaze evaluation value for a moving object to be controlled from the position at which the moving object to be controlled is displayed in the display area of a display device and the gaze position indicated by the gaze information during a reference period based on the time when the computer gave instructions to the moving object to be controlled.
(Appendix 15)
A line-of-sight acquisition process for acquiring line-of-sight information indicating a line-of-sight position of an air traffic controller on a display device showing a moving object;
A control support program that causes a computer to function as a control support device that performs a gaze evaluation process that calculates a gaze evaluation value for a mobile object to be controlled from the position at which the mobile object to be controlled is displayed in the display area of a display device during a reference period based on the time when instructions were given to the mobile object to be controlled, and the gaze position indicated by the gaze information acquired by the gaze acquisition process.

以上、本開示の実施の形態及び変形例について説明した。これらの実施の形態及び変形例のうち、いくつかを組み合わせて実施してもよい。また、いずれか1つ又はいくつかを部分的に実施してもよい。なお、本開示は、以上の実施の形態及び変形例に限定されるものではなく、必要に応じて種々の変更が可能である。 The above describes the embodiments and modifications of the present disclosure. Some of these embodiments and modifications may be combined and implemented. Also, one or some of them may be implemented partially. Note that the present disclosure is not limited to the above embodiments and modifications, and various modifications are possible as necessary.

10 管制支援装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、21 管制指示処理部、22 視線処理部、23 総合評価部、31
音声取得部、32 音声解析部、33 音声評価部、34 視線取得部、35 視線評価部、36 範囲特定部、37 評価値計算部、38 管制評価部、41 無線情報、42 指示音声、43 復唱音声、44 音声解釈情報、45 視線情報、46 計算用パラメータ、47 視線評価値、48 管制評価情報、51 航空機位置情報、52 範囲情報、53 管制指示情報、61 識別範囲、62 視線範囲、63 外部範囲。
10 Air traffic control support device, 11 Processor, 12 Memory, 13 Storage, 14 Communication interface, 21 Air traffic control instruction processing unit, 22 Line of sight processing unit, 23 Overall evaluation unit, 31
Voice acquisition unit, 32 voice analysis unit, 33 voice evaluation unit, 34 line of sight acquisition unit, 35 line of sight evaluation unit, 36 range identification unit, 37 evaluation value calculation unit, 38 control evaluation unit, 41 radio information, 42 instruction voice, 43 repeated voice, 44 voice interpretation information, 45 line of sight information, 46 calculation parameters, 47 line of sight evaluation value, 48 control evaluation information, 51 aircraft position information, 52 range information, 53 control instruction information, 61 identification range, 62 line of sight range, 63 external range.

Claims (17)

移動体を映した表示装置における管制官が見ている視線位置を示す視線情報を取得する視線取得部と、
管制対象の移動体に対して指示をする前の指示前期間と、前記指示をしている指示中期間と、前記指示をした後の指示後期間とを含む基準期間における、表示装置の表示領域における前記管制対象の移動体が表示された位置と、前記視線取得部によって取得された前記視線情報が示す前記視線位置とから、前記管制対象の移動体に対する視線評価値を計算する視線評価部と
を備える管制支援装置。
a line-of-sight acquisition unit that acquires line-of-sight information indicating a line-of-sight position of an air traffic controller on a display device showing a moving object;
A control support device comprising: a gaze evaluation unit that calculates a gaze evaluation value for a moving object to be controlled from a position where the moving object to be controlled is displayed in a display area of a display device during a reference period including a pre-instruction period before instructions are given to the moving object to be controlled, an instruction period during which the instructions are given , and a post-instruction period after the instructions are given, and from the gaze position indicated by the gaze information acquired by the gaze acquisition unit.
前記視線評価部は、
前記表示装置の表示領域を分割した複数の分割領域のうち、前記管制対象の移動体が表示された位置を含む分割領域を識別範囲とし、前記識別範囲の周囲の分割領域を視線範囲とし、前記識別範囲及び前記視線範囲以外の分割領域を外部範囲として、前記基準期間において、前記視線情報が示す前記視線位置が前記識別範囲と前記視線範囲と前記外部範囲のどの範囲にあるかを特定する範囲特定部と、
前記範囲特定部によって特定された前記範囲から前記視線評価値を計算する評価値計算部と
を備える請求項1に記載の管制支援装置。
The gaze evaluation unit is
a range specification unit which specifies, among a plurality of divided regions obtained by dividing a display region of the display device, a divided region including a position where the moving object to be controlled is displayed, as an identification range, a divided region around the identification range as a line of sight range, and a divided region other than the identification range and the line of sight range as an external range, and specifies in which range of the identification range, the line of sight range, or the external range the line of sight position indicated by the line of sight information is located during the reference period;
The air traffic control assistance device according to claim 1 , further comprising an evaluation value calculation unit that calculates the line-of-sight evaluation value from the range specified by the range specification unit.
移動体を映した表示装置における管制官が見ている視線位置を示す視線情報を取得する視線取得部と、
管制対象の移動体に対して指示をした時点を基準とする基準期間における、表示装置の表示領域における前記管制対象の移動体が表示された位置と、前記視線取得部によって取得された前記視線情報が示す前記視線位置とから、前記管制対象の移動体に対する視線評価値を計算する視線評価部と
を備え
前記視線評価部は、
前記表示装置の表示領域を分割した複数の分割領域のうち、前記管制対象の移動体が表示された位置を含む分割領域を識別範囲とし、前記識別範囲の周囲の分割領域を視線範囲とし、前記識別範囲及び前記視線範囲以外の分割領域を外部範囲として、前記基準期間において、前記視線情報が示す前記視線位置が前記識別範囲と前記視線範囲と前記外部範囲のどの範囲にあるかを特定する範囲特定部と、
前記範囲特定部によって特定された前記範囲から前記視線評価値を計算する評価値計算部と
を備える管制支援装置。
a line-of-sight acquisition unit that acquires line-of-sight information indicating a line-of-sight position of an air traffic controller on a display device showing a moving object;
a line-of-sight evaluation unit that calculates a line-of-sight evaluation value for the moving object to be controlled from a position where the moving object to be controlled is displayed in a display area of a display device during a reference period based on a time point when an instruction is given to the moving object to be controlled, and the line-of-sight position indicated by the line-of-sight information acquired by the line-of-sight acquisition unit ,
The gaze evaluation unit is
a range specification unit which specifies, among a plurality of divided regions obtained by dividing a display region of the display device, a divided region including a position where the moving object to be controlled is displayed, as an identification range, a divided region around the identification range as a line of sight range, and a divided region other than the identification range and the line of sight range as an external range, and specifies in which range of the identification range, the line of sight range, or the external range the line of sight position indicated by the line of sight information is located during the reference period;
an evaluation value calculation unit that calculates the gaze evaluation value from the range specified by the range specification unit;
A control support device comprising :
前記範囲特定部は、前記基準期間において、前記視線情報が示す前記視線位置が前記識別範囲と前記視線範囲と前記外部範囲とのそれぞれにあった割合を特定し、
前記評価値計算部は、前記割合から前記視線評価値を計算する
請求項2又は3に記載の管制支援装置。
the range specification unit specifies a proportion of the gaze position indicated by the gaze information that was within the identification range, the gaze range, and the external range during the reference period;
The air traffic control assistance device according to claim 2 or 3, wherein the evaluation value calculation unit calculates the line-of-sight evaluation value from the ratio.
前記基準期間は、前記管制対象の移動体に対して指示をする前の指示前期間と、前記指示をしている指示中期間と、前記指示をした後の指示後期間とを含み、
前記評価値計算部は、前記指示前期間における前記割合から計算される指示前評価値と、前記指示中期間における前記割合から計算される指示中評価値と、前記指示後期間における前記割合から計算される指示後評価値とから、前記視線評価値を計算する
請求項4に記載の管制支援装置。
the reference period includes a pre-instruction period before an instruction is given to the moving object to be controlled, an instruction period during which the instruction is given, and a post-instruction period after the instruction is given,
The control assistance device according to claim 4, wherein the evaluation value calculation unit calculates the gaze evaluation value from a pre-instruction evaluation value calculated from the ratio in the pre-instruction period, a during-instruction evaluation value calculated from the ratio in the during-instruction period, and a post-instruction evaluation value calculated from the ratio in the post-instruction period.
前記評価値計算部は、
前記指示前期間において前記視線位置が前記識別範囲にあった割合Eα1に、前記識別範囲の重みEaを乗じた値と、前記指示前期間において前記視線位置が前記視線範囲にあった割合Eβ1に、前記視線範囲の重みEbを乗じた値と、前記指示前期間において前記視線位置が前記外部範囲にあった割合Eγ1に、前記視線範囲の重みEcを乗じた値との合計値に対して、前記指示前期間の重みTaを乗じて、前記指示前評価値を計算し、
前記指示中期間において前記視線位置が前記識別範囲にあった割合Eα2に、前記識別範囲の重みEaを乗じた値と、前記指示中期間において前記視線位置が前記視線範囲にあった割合Eβ2に、前記視線範囲の重みEbを乗じた値と、前記指示中期間において前記視線位置が前記外部範囲にあった割合Eγ2に、前記視線範囲の重みEcを乗じた値との合計値に対して、前記指示中期間の重みTbを乗じて、前記指示中評価値を計算し、
前記指示後期間において前記視線位置が前記識別範囲にあった割合Eα3に、前記識別範囲の重みEaを乗じた値と、前記指示後期間において前記視線位置が前記視線範囲にあった割合Eβ3に、前記視線範囲の重みEbを乗じた値と、前記指示後期間において前記視線位置が前記外部範囲にあった割合Eγ3に、前記視線範囲の重みEcを乗じた値との合計値に対して、前記指示後期間の重みTcを乗じて、前記指示後評価値を計算する
請求項5に記載の管制支援装置。
The evaluation value calculation unit
calculate the pre-pointing evaluation value by multiplying a weight Ea of the identification range by a proportion Eα1 of the gaze position during the pre-pointing period, a weight Ea of the identification range by a weight Eb of the gaze range by a weight Eb of the gaze range by a weight Ec of the gaze range by a weight Eγ1 of the gaze position during the pre-pointing period, and a total value of the weight Ta of the pre-pointing period by a weight Ta of the gaze range by the proportion Eα1 of the gaze position during the pre-pointing period that was within the identification range by a weight Ea of the gaze range by the weight Eb of the gaze range by the weight Ec of the gaze range by the weight Ta of the pre-pointing period;
calculate the during-pointing evaluation value by multiplying a weight Ea of the identification range by a proportion Eα2 of the gaze position that was within the identification range during the during pointing period, a weight Ea of the gaze range by a weight Eb of the gaze range by a proportion Eβ2 of the gaze position that was within the gaze range during the during pointing period, and a weight Ec of the gaze range by a weight Tb of the during-pointing period;
6. The air traffic control support device according to claim 5, wherein the post-instruction evaluation value is calculated by multiplying a weight Ea of the identification range by a proportion Eα3 of the gaze position within the post-instruction period, a weight Ea of the identification range, a weight Eb of the gaze range by a proportion Eβ3 of the gaze position within the post-instruction period, and a weight Ec of the gaze range by a weight Tc of the post-instruction period.
前記管制支援装置は、さらに、
前記視線評価部によって計算された前記視線評価値に基づき、前記管制対象の移動体を誤っている可能性があるか否かを判定する管制評価部
を備える請求項1に記載の管制支援装置。
The air traffic control assistance device further comprises:
The control assistance device according to claim 1 , further comprising a control evaluation unit that determines whether or not there is a possibility that the moving object to be controlled is incorrect, based on the line-of-sight evaluation value calculated by the line-of-sight evaluation unit.
前記管制支援装置は、さらに、
前記管制対象の移動体に対して管制官が発話による指示をした指示音声と、前記指示音声に対して前記管制対象の移動体の操縦者が発話した復唱音声との内容の一致度を評価する音声評価部
を備え、
前記管制評価部は、前記音声評価部によって評価された前記一致度が基準値以上である場合に、前記管制対象の移動体を誤っている可能性があるか否かを判定する
請求項7に記載の管制支援装置。
The air traffic control assistance device further comprises:
a voice evaluation unit that evaluates a degree of agreement between a command voice given by an air traffic controller to the mobile object to be controlled and a repeat voice spoken by a pilot of the mobile object to be controlled in response to the command voice,
The control assistance device according to claim 7 , wherein the control evaluation unit determines whether or not there is a possibility that the moving object to be controlled is incorrect when the degree of coincidence evaluated by the voice evaluation unit is equal to or greater than a reference value.
前記音声評価部は、前記指示音声から特定される移動体及び指示内容と、前記復唱音声から特定される移動体及び指示内容との一致度を評価する
請求項8に記載の管制支援装置。
The air traffic control support device according to claim 8 , wherein the voice evaluation unit evaluates a degree of agreement between a moving object and an instruction content specified from the instruction voice and a moving object and an instruction content specified from the recited voice.
前記管制評価部は、前記視線評価値が基準値以下である場合には、前記管制対象の移動体を誤っている可能性があると判定する
請求項7に記載の管制支援装置。
The control assistance device according to claim 7 , wherein the control evaluation unit determines that the moving object to be controlled may be incorrect when the line-of-sight evaluation value is equal to or smaller than a reference value.
前記管制評価部は、前記視線評価値が基準値より高く、かつ、前記管制対象の移動体について制限時間内に操作入力されていない場合には、操作漏れの可能性があると判定する
請求項10に記載の管制支援装置。
The control support device according to claim 10, wherein the control evaluation unit determines that there is a possibility of an operation being missed when the gaze evaluation value is higher than a reference value and no operation input is made for the moving object to be controlled within a time limit.
前記管制評価部は、前記視線評価値の値に関わらず、前記管制対象の移動体とは異なる移動体について制限時間内に操作入力された場合には、操作対象の移動体を誤っている可能性があると判定する
請求項10に記載の管制支援装置。
The control assistance device of claim 10, wherein the control evaluation unit determines that the moving object to be operated may be incorrect when an operation input is made within a time limit for a moving object other than the moving object to be controlled, regardless of the value of the gaze evaluation value.
前記管制評価部は、前記管制対象の移動体を誤っている可能性があると判定した場合には、前記管制官に対して通知する
請求項7に記載の管制支援装置。
The air traffic control support device according to claim 7 , wherein the control evaluation unit notifies the air traffic controller when it determines that the moving object to be controlled may be incorrect.
コンピュータが、移動体を映した表示装置における管制官が見ている視線位置を示す視線情報を取得し、
コンピュータが、管制対象の移動体に対して指示をする前の指示前期間と、前記指示をしている指示中期間と、前記指示をした後の指示後期間とを含む基準期間における、表示装置の表示領域における前記管制対象の移動体が表示された位置と、前記視線情報が示す前記視線位置とから、前記管制対象の移動体に対する視線評価値を計算する管制支援方法。
The computer acquires line-of-sight information indicating the line-of-sight position of the air traffic controller on a display device showing the moving object,
A control support method in which a computer calculates a gaze evaluation value for a moving object to be controlled from the position at which the moving object to be controlled is displayed in the display area of a display device and the gaze position indicated by the gaze information during a reference period including a pre-instruction period before instructions are given to the moving object to be controlled, an instruction period during which the instructions are given, and a post-instruction period after the instructions are given.
コンピュータが、移動体を映した表示装置における管制官が見ている視線位置を示す視線情報を取得し、
コンピュータが、管制対象の移動体に対して指示をした時点を基準とする基準期間における、表示装置の表示領域における前記管制対象の移動体が表示された位置と、前記視線情報が示す前記視線位置とから、前記管制対象の移動体に対する視線評価値を計算し、
コンピュータが、前記表示装置の表示領域を分割した複数の分割領域のうち、前記管制対象の移動体が表示された位置を含む分割領域を識別範囲とし、前記識別範囲の周囲の分割領域を視線範囲とし、前記識別範囲及び前記視線範囲以外の分割領域を外部範囲として、前記基準期間において、前記視線情報が示す前記視線位置が前記識別範囲と前記視線範囲と前記外部範囲のどの範囲にあるかを特定し、
コンピュータが、前記範囲から前記視線評価値を計算する管制支援方法。
The computer acquires line-of-sight information indicating the line-of-sight position of the air traffic controller on a display device showing the moving object,
the computer calculates a line-of-sight evaluation value for the moving object to be controlled from a position where the moving object to be controlled is displayed in a display area of a display device and the line-of-sight position indicated by the line-of-sight information during a reference period based on a time point when the computer issues an instruction to the moving object to be controlled;
the computer defines, among a plurality of divided regions obtained by dividing a display region of the display device, a divided region including a position where the moving object to be controlled is displayed as an identification range, defines divided regions around the identification range as a line of sight range, and defines divided regions other than the identification range and the line of sight range as an external range, and specifies in which range of the identification range, the line of sight range, or the external range the line of sight position indicated by the line of sight information is located during the reference period;
A control support method in which a computer calculates the line-of-sight evaluation value from the range .
移動体を映した表示装置における管制官が見ている視線位置を示す視線情報を取得する視線取得処理と、
管制対象の移動体に対して指示をする前の指示前期間と、前記指示をしている指示中期間と、前記指示をした後の指示後期間とを含む基準期間における、表示装置の表示領域における前記管制対象の移動体が表示された位置と、前記視線取得処理によって取得された前記視線情報が示す前記視線位置とから、前記管制対象の移動体に対する視線評価値を計算する視線評価処理と
を行う管制支援装置としてコンピュータを機能させる管制支援プログラム。
A line-of-sight acquisition process for acquiring line-of-sight information indicating a line-of-sight position of an air traffic controller on a display device showing a moving object;
A control support program that causes a computer to function as a control support device that performs a gaze evaluation process that calculates a gaze evaluation value for a moving object to be controlled from the position where the moving object to be controlled is displayed in the display area of a display device during a reference period that includes a pre-instruction period before instructions are given to the moving object to be controlled, an instruction period during which the instructions are given, and a post-instruction period after the instructions are given, and the gaze position indicated by the gaze information acquired by the gaze acquisition process.
移動体を映した表示装置における管制官が見ている視線位置を示す視線情報を取得する視線取得処理と、
管制対象の移動体に対して指示をした時点を基準とする基準期間における、表示装置の表示領域における前記管制対象の移動体が表示された位置と、前記視線取得処理によって取得された前記視線情報が示す前記視線位置とから、前記管制対象の移動体に対する視線
評価値を計算する視線評価処理と
を行う管制支援装置としてコンピュータを機能させ
前記視線評価処理は、
前記表示装置の表示領域を分割した複数の分割領域のうち、前記管制対象の移動体が表示された位置を含む分割領域を識別範囲とし、前記識別範囲の周囲の分割領域を視線範囲とし、前記識別範囲及び前記視線範囲以外の分割領域を外部範囲として、前記基準期間において、前記視線情報が示す前記視線位置が前記識別範囲と前記視線範囲と前記外部範囲のどの範囲にあるかを特定する範囲特定処理と、
前記範囲特定処理によって特定された前記範囲から前記視線評価値を計算する評価値計算処理と
を行う管制支援プログラム。
A line-of-sight acquisition process for acquiring line-of-sight information indicating a line-of-sight position of an air traffic controller on a display device showing a moving object;
a computer is caused to function as a control support device that performs a gaze evaluation process that calculates a gaze evaluation value for a moving object to be controlled from a position where the moving object to be controlled is displayed in a display area of a display device during a reference period based on a time point at which an instruction is given to the moving object to be controlled and the gaze position indicated by the gaze information acquired by the gaze acquisition process ;
The gaze evaluation process includes:
a range specification process for specifying, among a plurality of divided regions obtained by dividing a display region of the display device, a divided region including a position where the moving object to be controlled is displayed, as an identification range, a divided region around the identification range as a line of sight range, and a divided region other than the identification range and the line of sight range as an external range, and specifying in which range of the identification range, the line of sight range, or the external range the line of sight position indicated by the line of sight information is located during the reference period;
an evaluation value calculation process for calculating the gaze evaluation value from the range specified by the range specification process;
A control support program that performs the following :
JP2023061053A 2023-04-05 2023-04-05 Air traffic control support device, air traffic control support method, and air traffic control support program Active JP7538280B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023061053A JP7538280B1 (en) 2023-04-05 2023-04-05 Air traffic control support device, air traffic control support method, and air traffic control support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023061053A JP7538280B1 (en) 2023-04-05 2023-04-05 Air traffic control support device, air traffic control support method, and air traffic control support program

Publications (2)

Publication Number Publication Date
JP7538280B1 true JP7538280B1 (en) 2024-08-21
JP2024148183A JP2024148183A (en) 2024-10-18

Family

ID=92419310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023061053A Active JP7538280B1 (en) 2023-04-05 2023-04-05 Air traffic control support device, air traffic control support method, and air traffic control support program

Country Status (1)

Country Link
JP (1) JP7538280B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160009411A1 (en) 2014-07-09 2016-01-14 Honeywell International Inc. Visual search assistance for an occupant of a vehicle
JP2020501227A (en) 2016-11-07 2020-01-16 ナウト, インコーポレイテッドNauto, Inc. System and method for driver distraction determination
JP2022513192A (en) 2018-12-11 2022-02-07 エッジ ケース リサーチ,インコーポレイテッド Human monitoring Methods and devices for monitoring the performance and safety of autonomous systems
JP2023129877A (en) 2022-03-07 2023-09-20 沖電気工業株式会社 Information processing device, information processing method, program, presentation control device and system
WO2023248776A1 (en) 2022-06-22 2023-12-28 株式会社デンソー Remote support device, remote support method, and remote support program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160009411A1 (en) 2014-07-09 2016-01-14 Honeywell International Inc. Visual search assistance for an occupant of a vehicle
JP2020501227A (en) 2016-11-07 2020-01-16 ナウト, インコーポレイテッドNauto, Inc. System and method for driver distraction determination
JP2022513192A (en) 2018-12-11 2022-02-07 エッジ ケース リサーチ,インコーポレイテッド Human monitoring Methods and devices for monitoring the performance and safety of autonomous systems
JP2023129877A (en) 2022-03-07 2023-09-20 沖電気工業株式会社 Information processing device, information processing method, program, presentation control device and system
WO2023248776A1 (en) 2022-06-22 2023-12-28 株式会社デンソー Remote support device, remote support method, and remote support program

Also Published As

Publication number Publication date
JP2024148183A (en) 2024-10-18

Similar Documents

Publication Publication Date Title
US10503996B2 (en) Context-aware display of objects in mixed environments
US20230138650A1 (en) Test method for automatic driving, and electronic device
US20130093612A1 (en) Automatic Monitoring Of Flight Related Radio Communications
US20140248588A1 (en) Portable device to control simulated aircraft in air traffic control training system
WO2013049876A1 (en) Portable device to manage and control an air traffic control training system
CN113378835A (en) Labeling model training method, sample labeling method and related device
CN112331197A (en) Response method and response device of electronic equipment, computer system and storage medium
CN112306447A (en) Interface navigation method, device, terminal and storage medium
JP7538280B1 (en) Air traffic control support device, air traffic control support method, and air traffic control support program
CN114355879A (en) Unmanned ship and formation keeping control method for formation of unmanned ship
KR101461486B1 (en) Flight simulator apparatus providing formation flight tranining function
US11104329B2 (en) Parking control method and apparatus, and storage medium
JP2010128288A (en) Radar control simulator device, and control state take-over method
US20210043097A1 (en) Determining a runway exit for landing an aircraft
CN113946729B (en) Data processing method and device for vehicle, electronic equipment and medium
US20160155343A1 (en) Traffic control training scenario generation apparatus, traffic control training apparatus, and traffic control training scenerio generation program
US20160163207A1 (en) Apparatus and method for playing video based on real-time data
CN115061762A (en) Page display method and device, electronic equipment and medium
CN113380246A (en) Instruction execution method, related device and computer program product
CN106895850B (en) Situation display method supporting multi-source target screening
JP3660083B2 (en) Task margin analysis device, task margin analysis method, and recording medium storing task margin analysis program
CN114511694B (en) Image recognition method, device, electronic equipment and medium
CN117970930A (en) Control method, device, equipment and storage medium of navigation equipment
US10402730B2 (en) Method and system for determining whether, when, and how an unmanned agent interrupts a human
JP7160077B2 (en) Speech processing device, speech processing method, system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240808

R150 Certificate of patent or registration of utility model

Ref document number: 7538280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150