FR3109436A1 - Method and electronic device for determining at least one recommended action for an aircraft, associated computer program and electronic display system - Google Patents
Method and electronic device for determining at least one recommended action for an aircraft, associated computer program and electronic display system Download PDFInfo
- Publication number
- FR3109436A1 FR3109436A1 FR2003959A FR2003959A FR3109436A1 FR 3109436 A1 FR3109436 A1 FR 3109436A1 FR 2003959 A FR2003959 A FR 2003959A FR 2003959 A FR2003959 A FR 2003959A FR 3109436 A1 FR3109436 A1 FR 3109436A1
- Authority
- FR
- France
- Prior art keywords
- aircraft
- image
- geo
- algorithm
- list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009471 action Effects 0.000 title claims abstract description 124
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000004590 computer program Methods 0.000 title claims abstract description 7
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 116
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 72
- 238000004364 calculation method Methods 0.000 claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 claims description 34
- 230000002787 reinforcement Effects 0.000 claims description 29
- 210000002569 neuron Anatomy 0.000 claims description 13
- 230000001537 neural effect Effects 0.000 claims description 10
- 239000000446 fuel Substances 0.000 claims description 4
- 230000006870 function Effects 0.000 description 49
- 238000011156 evaluation Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 6
- 230000000295 complement effect Effects 0.000 description 5
- 230000003466 anti-cipated effect Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 3
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C23/00—Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Procédé et dispositif électronique de détermination d’au moins une action préconisée pour un aéronef, programme d’ordinateur et s ystème électronique d’affichage associés Ce procédé de détermination d’au moins une action préconisée pour un aéronef, est mis en œuvre un dispositif électronique de détermination et comprend les étapes suivantes : - acquisition d’un ensemble d’image(s) (24) de zone(s) géo-référencée(s) relative(s) à l’aéronef, - réception d’un groupe (28) de donnée(s) contextuelle(s) relative(s) à l’aéronef, - calcul d’une liste (32) d’action(s) préconisée(s) pour l’aéronef, via un algorithme d’intelligence artificielle et à partir de l’ensemble d’image(s) (24) de zone(s) géo-référencée(s) et du groupe (28) de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, l’ensemble d’image(s) (24) de zone(s) géo-référencée(s), et d’autre part, le groupe (28) de donnée(s) contextuelle(s), et en variable de sortie la liste (32) d’action(s) préconisée(s). Figure pour l'abrégé : Figure 2Method and electronic device for determining at least one recommended action for an aircraft, associated computer program and electronic display system This method for determining at least one recommended action for an aircraft is implemented by a device determination electronics and comprises the following steps: - acquisition of a set of image(s) (24) of geo-referenced zone(s) relating to the aircraft, - reception of a group (28) of contextual data(s) relating to the aircraft, - calculation of a list (32) of action(s) recommended for the aircraft, via an algorithm of artificial intelligence and from the set of image(s) (24) of geo-referenced zone(s) and the group (28) of contextual data(s), the algorithm of artificial intelligence comprising as input variables, on the one hand, the set of image(s) (24) of geo-referenced zone(s), and on the other hand, the group (28) of contextual data(s), and as an output variable e the list (32) of recommended action(s). Figure for the abstract: Figure 2
Description
La présente invention concerne un procédé de détermination d’au moins une action préconisée pour un aéronef, le procédé étant mis en œuvre un dispositif électronique de détermination.The present invention relates to a method for determining at least one action recommended for an aircraft, the method being implemented by an electronic determination device.
L’invention concerne également un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un tel procédé de détermination.The invention also relates to a computer program comprising software instructions which, when executed by a computer, implement such a determination method.
L’invention concerne aussi un dispositif électronique de détermination d’au moins une action préconisée pour un aéronef, et un système électronique d’affichage comprenant un tel dispositif de détermination.The invention also relates to an electronic device for determining at least one action recommended for an aircraft, and an electronic display system comprising such a determination device.
L’invention concerne le domaine des systèmes d’aide à la décision pour un utilisateur d’un aéronef, tel qu’un pilote d’aéronef, en particulier pour la gestion temps réel de problèmes complexes, tels qu’un atterrissage d’urgence.The invention relates to the field of decision support systems for a user of an aircraft, such as an aircraft pilot, in particular for the real-time management of complex problems, such as an emergency landing .
Le contexte aéronautique se complexifiant (densité trafic aérien, situations ambigües, rapidité des moyens technologiques, nombre d’acteurs sur un théâtre d’opération, etc.), un système d’aide à la résolution de problème est souhaitable pour les opérateurs.As the aeronautical context becomes more complex (density of air traffic, ambiguous situations, speed of technological means, number of actors in a theater of operation, etc.), a problem-solving support system is desirable for operators.
Les systèmes d’aide à la décision actuels reposent essentiellement sur une analyse fine du savoir-faire métier humain et de capture de ses connaissances, afin que le système puisse gérer le plus grand nombre de cas possibles déjà vus par l’humain.Current decision support systems are essentially based on a detailed analysis of human business know-how and the capture of its knowledge, so that the system can manage the largest possible number of cases already seen by humans.
Ces systèmes d’aide à la décision sont cependant peu robustes à la rencontre de nouveaux contextes ou situations.However, these decision support systems are not very robust when faced with new contexts or situations.
Le but de l’invention est alors de proposer un procédé, et un dispositif électronique associé, de détermination d’au moins une action préconisée pour un aéronef, qui soit plus robuste et efficace vis-à-vis de nouveaux contextes ou situations.The object of the invention is then to propose a method, and an associated electronic device, for determining at least one action recommended for an aircraft, which is more robust and effective vis-à-vis new contexts or situations.
A cet effet, l’invention a pour objet un procédé de détermination d’au moins une action préconisée pour un aéronef, le procédé étant mis en œuvre un dispositif électronique de détermination et comprenant les étapes suivantes :To this end, the subject of the invention is a method for determining at least one recommended action for an aircraft, the method being implemented by an electronic determination device and comprising the following steps:
- acquisition d’un ensemble d’image(s) de zone(s) géo-référencée(s) relative(s) à l’aéronef,- acquisition of a set of image(s) of geo-referenced zone(s) relating to the aircraft,
- réception d’un groupe de donnée(s) contextuelle(s) relative(s) à l’aéronef,- reception of a group of contextual data(s) relating to the aircraft,
- calcul d’une liste d’action(s) préconisée(s) pour l’aéronef, via un algorithme d’intelligence artificielle et à partir de l’ensemble d’image(s) de zone(s) géo-référencée(s) et du groupe de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, l’ensemble d’image(s) de zone(s) géo-référencée(s), et d’autre part, le groupe de donnée(s) contextuelle(s), et en variable de sortie la liste d’action(s) préconisée(s).- calculation of a list of action(s) recommended for the aircraft, via an artificial intelligence algorithm and from the set of image(s) of geo-referenced zone(s) s) and the group of contextual data(s), the artificial intelligence algorithm comprising as input variables, on the one hand, the set of image(s) of geo-zone(s) referenced, and on the other hand, the group of contextual data(s), and as an output variable the list of recommended action(s).
Ainsi, avec le procédé selon l’invention, le calcul de liste d’action(s) préconisée(s) à partir de l’algorithme d’intelligence artificielle et de l’ensemble d’image(s) de zone(s) géo-référencée(s) et du groupe de donnée(s) contextuelle(s) permet une plus grande robustesse et une plus grande efficacité vis-à-vis de nouveaux contextes ou situations. L’algorithme d’intelligence artificielle s’adapte alors à de nouveaux contextes ou situations, en traitant en variables d’entrée l’ensemble d’image(s) de zone(s) géo-référencée(s) et le groupe de donnée(s) contextuelle(s), et en délivrant en sortie la liste d’action(s) préconisée(s) à partir de ces variables d’entrée.Thus, with the method according to the invention, the calculation of the list of recommended action(s) from the artificial intelligence algorithm and the set of image(s) of zone(s) geo-referenced(s) and the group of contextual data(s) allows greater robustness and greater efficiency vis-à-vis new contexts or situations. The artificial intelligence algorithm then adapts to new contexts or situations, by processing as input variables the set of image(s) of geo-referenced zone(s) and the group of data contextual(s), and delivering as output the list of recommended action(s) from these input variables.
De préférence, l’algorithme d’intelligence artificielle est entraîné via un apprentissage par renforcement, par exemple via un algorithme de Q-learning avec un estimateur neuronal (DQN) ou encore un algorithme de gradient de politique de type acteur-critique, tel qu’un algorithme DDPG, un algorithme PPO ou un algorithme SAC.Preferably, the artificial intelligence algorithm is trained via reinforcement learning, for example via a Q-learning algorithm with a neural estimator (DQN) or even an actor-critic type policy gradient algorithm, such as a DDPG algorithm, a PPO algorithm or an SAC algorithm.
Lorsque l’apprentissage par renforcement est un algorithme de gradient de politique de type acteur-critique, l’algorithme d’intelligence artificielle comporte de préférence encore au moins un réseau de neurones et l’apprentissage par renforcement comportant au moins un autre réseau de neurones.When the reinforcement learning is an actor-critic type policy gradient algorithm, the artificial intelligence algorithm preferably further comprises at least one neural network and the reinforcement learning comprising at least one other neural network .
Suivant d’autres aspects avantageux de l’invention, le procédé de détermination comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :According to other advantageous aspects of the invention, the determination method comprises one or more of the following characteristics, taken in isolation or in all technically possible combinations:
- le procédé comprend en outre une étape d’affichage, sur un écran d’affichage, de la liste d’action(s) préconisée(s) pour l’aéronef ;the method further comprises a step of displaying, on a display screen, the list of action(s) recommended for the aircraft;
- l’ensemble d’image(s) de zone(s) géo-référencée(s) comporte au moins une image parmi le groupe consistant en : une image d’une zone d’intérêt, telle qu’une image contenant une ou plusieurs informations météorologiques géo-référencées ; une image d’une zone de menace, telle qu’une image contenant une ou plusieurs informations d’obstacles géo-référencés ; une image d’une zone d’incertitude contenant une information géo-référencée indiquant, pour une position donnée, la probabilité qu’un objet puisse être présent à cette position ;- the set of image(s) of geo-referenced area(s) comprises at least one image from among the group consisting of: an image of an area of interest, such as an image containing one or several geo-referenced meteorological information; an image of a threat area, such as an image containing one or more geo-referenced obstacle information; an image of an area of uncertainty containing geo-referenced information indicating, for a given position, the probability that an object may be present at this position;
- le groupe de donnée(s) contextuelle(s) comporte au moins une donnée parmi le groupe consistant en : une quantité de ressource(s) disponible(s), telle qu’une quantité de carburant, un nombre d’équipement(s) emporté(s) ; un nombre d’entité(s) identifiée(s) présente(s) dans une zone géo-référencée respective ; et un nombre d’entité(s) inconnue(s) présente(s) dans une zone géo-référencée respective ;- the group of contextual data(s) comprises at least one data item from the group consisting of: a quantity of resource(s) available, such as a quantity of fuel, a number of equipment(s) ) carried away; a number of identified entity(ies) present in a respective geo-referenced area; and a number of unknown entity(ies) present in a respective geo-referenced area;
- la liste d’action(s) préconisée(s) comporte au moins une action parmi le groupe consistant en : une consigne de cap, une consigne de vitesse, une consigne de position, une consigne d’altitude, une utilisation d’un capteur respectif, une utilisation d’un équipement respectif, une sélection d’un mode/paramètre d’usage d’un capteur ou équipement ;- the list of recommended action(s) comprises at least one action from the group consisting of: a heading instruction, a speed instruction, a position instruction, an altitude instruction, use of a respective sensor, a use of a respective equipment, a selection of a mode/parameter of use of a sensor or equipment;
- l’algorithme d’intelligence artificielle comporte au moins un réseau de neurones ;- the artificial intelligence algorithm includes at least one neural network;
l’algorithme d’intelligence artificielle comportant de préférence un réseau de neurones avec, en tête, un premier sous-réseau de neurones ayant pour variable d’entrée l’ensemble d’image(s) de zone(s) géo-référencée(s), un deuxième sous-réseau de neurones ayant pour variable d’entrée le groupe de donnée(s) contextuelle(s), et en queue, un troisième sous-réseau de neurones connecté en sortie des premier et deuxième sous-réseaux de neurones et ayant pour variable de sortie la liste d’action(s) préconisée(s) ;the artificial intelligence algorithm preferably comprising a network of neurons headed by a first sub-network of neurons having as input variable the set of image(s) of geo-referenced zone(s) ( s), a second sub-network of neurons having as input variable the group of contextual data(s), and at the bottom, a third sub-network of neurons connected at the output of the first and second sub-networks of neurons and having as output variable the list of recommended action(s);
le premier sous-réseau de neurones comportant de préférence des couches de convolutions, les deuxième et troisième sous-réseaux de neurones étant chacun un perceptron multicouche comportant des couches denses ;the first sub-network of neurons preferably comprising layers of convolutions, the second and third sub-networks of neurons each being a multilayer perceptron comprising dense layers;
- l’algorithme d’intelligence artificielle est obtenu via un apprentissage par renforcement ;- the artificial intelligence algorithm is obtained via reinforcement learning;
l’apprentissage par renforcement étant de préférence choisi parmi le groupe consistant en : un algorithme de Q-learning avec un estimateur neuronal ; un algorithme de gradient de politique de type acteur-critique, tel qu’un algorithme DDPG, un algorithme PPO ou un algorithme SAC ;reinforcement learning preferably being selected from the group consisting of: a Q-learning algorithm with a neural estimator; an actor-critic type policy gradient algorithm, such as a DDPG algorithm, a PPO algorithm or an SAC algorithm;
lorsque l’apprentissage par renforcement est un algorithme de gradient de politique de type acteur-critique, l’algorithme d’intelligence artificielle comportant de préférence encore au moins un réseau de neurones dit(s) acteur(s) et l’apprentissage par renforcement comportant au moins un autre réseau de neurones dit(s) critique(s) ;when the reinforcement learning is an actor-critic type policy gradient algorithm, the artificial intelligence algorithm preferably further comprising at least one neural network called actor(s) and the reinforcement learning comprising at least one other so-called critical neural network(s);
- l’apprentissage par renforcement comporte la résolution d’un problème d’optimisation d’au moins une fonction de récompense,- reinforcement learning involves solving an optimization problem of at least one reward function,
l’apprentissage par renforcement mettant de préférence en œuvre une pluralité de fonctions de récompense avec un apprentissage respectif de l’algorithme d’intelligence artificielle pour chaque fonction de récompense,reinforcement learning preferably implementing a plurality of reward functions with respective learning of the artificial intelligence algorithm for each reward function,
lorsque l’algorithme d’intelligence artificielle comporte au moins un réseau de neurones l’apprentissage par renforcement comportant alors de préférence encore l’obtention d’un ensemble de poids de réseau pour chaque fonction de récompense ;when the artificial intelligence algorithm comprises at least one neural network, the reinforcement learning then preferably also comprises obtaining a set of network weights for each reward function;
- le procédé comporte en outre une étape de sélection d’une fonction de récompense parmi la pluralité de fonctions de récompense, par exemple à partir d’une interaction d’un utilisateur ;- the method further comprises a step of selecting a reward function from among the plurality of reward functions, for example from an interaction of a user;
- l’étape de calcul comporte plusieurs itérations successives de l’algorithme d’intelligence artificielle, afin d’avoir une mise en œuvre anticipée de l’algorithme d’intelligence artificielle à des instants ultérieurs successifs ;- the calculation step includes several successive iterations of the artificial intelligence algorithm, in order to have an anticipated implementation of the artificial intelligence algorithm at subsequent successive instants;
- le procédé comporte en outre une étape d’évaluation, via un algorithme de théorie des jeux, d’un ou plusieurs paramètres prépondérants dans le calcul de la liste d’action(s) préconisée(s).- the method also includes an evaluation step, via a game theory algorithm, of one or more preponderant parameters in the calculation of the list of recommended action(s).
L’invention a également pour objet un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé de détermination tel que défini ci-dessus.The invention also relates to a computer program comprising software instructions which, when they are executed by a computer, implement a determination method as defined above.
L’invention a également pour objet un dispositif électronique de détermination d’au moins une action préconisée pour un aéronef, le dispositif comprenant :The invention also relates to an electronic device for determining at least one recommended action for an aircraft, the device comprising:
- un module d’acquisition configuré pour acquérir un ensemble d’image(s) de zone(s) géo-référencée(s) relative(s) à l’aéronef,- an acquisition module configured to acquire a set of image(s) of geo-referenced zone(s) relating to the aircraft,
- un module de réception configuré pour recevoir un groupe de donnée(s) contextuelle(s) relative(s) à l’aéronef,- a reception module configured to receive a group of contextual data(s) relating to the aircraft,
- un module de calcul configuré pour calculer une liste d’action(s) préconisée(s) pour l’aéronef, via un algorithme d’intelligence artificielle et à partir de l’ensemble d’image(s) de zone(s) géo-référencée(s) et du groupe de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, l’ensemble d’image(s) de zone(s) géo-référencée(s), et d’autre part, le groupe de donnée(s) contextuelle(s), et en variable de sortie la liste d’action(s) préconisée(s).- a calculation module configured to calculate a list of recommended action(s) for the aircraft, via an artificial intelligence algorithm and from the set of zone(s) image(s) geo-referenced data(s) and of the group of contextual data(s), the artificial intelligence algorithm comprising as input variables, on the one hand, the set of image(s) of zone( s) geo-referenced, and on the other hand, the group of contextual data(s), and as an output variable the list of recommended action(s).
L’invention a également pour objet un système électronique d’affichage pour un aéronef, le système comprenant :The invention also relates to an electronic display system for an aircraft, the system comprising:
- un écran d’affichage,- a display screen,
- un dispositif électronique de détermination d’au moins une action préconisée pour l’aéronef, le dispositif de détermination étant tel que défini ci-dessus, et- an electronic device for determining at least one action recommended for the aircraft, the determination device being as defined above, and
- un module d’affichage, sur l’écran d’affichage, d’une liste d’action(s) préconisée(s) pour l’aéronef.- a display module, on the display screen, of a list of action(s) recommended for the aircraft.
Ces caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple non limitatif, et faite en référence aux dessins annexés, sur lesquels :These characteristics and advantages of the invention will appear more clearly on reading the following description, given solely by way of non-limiting example, and made with reference to the appended drawings, in which:
Sur la figure 1, un aéronef 10 comprend plusieurs systèmes avioniques 12, une base de données 14, telle qu’une base de données cartographiques, et un système électronique d’affichage 16 connecté au système avionique 12 et à la base de données 14, le système d’affichage 16 comportant un écran d’affichage 18 et un dispositif électronique 20 de détermination d’au moins une action préconisée pour l’aéronef 10.In FIG. 1, an aircraft 10 comprises several avionic systems 12, a database 14, such as a cartographic database, and an electronic display system 16 connected to the avionic system 12 and to the database 14, the display system 16 comprising a display screen 18 and an electronic device 20 for determining at least one recommended action for the aircraft 10.
L’aéronef 10 est par exemple un avion, comme représenté dans l’exemple de la figure 2. En variante, l’aéronef 10 est un hélicoptère, un drone pilotable à distance par un pilote, ou encore un aéronef autonome sans opérateur. L’homme du métier observera que dans le cas où l’aéronef 10 est un aéronef autonome sans opérateur, il ne comprend de préférence pas de système d’affichage embarqué à l’intérieur de l’aéronef, le système d’affichage étant alors disposé au sol.The aircraft 10 is for example an airplane, as represented in the example of FIG. 2. Alternatively, the aircraft 10 is a helicopter, a drone that can be controlled remotely by a pilot, or else an autonomous aircraft without an operator. Those skilled in the art will observe that in the case where the aircraft 10 is an autonomous aircraft without an operator, it preferably does not include an on-board display system inside the aircraft, the display system then being placed on the ground.
Les systèmes avioniques 12 sont connus en soi et sont aptes à transmettre au système d’affichage 16, et en particulier au dispositif électronique de détermination 20, différentes données avioniques, par exemple des données dites « aéronefs », telles que la position, la vitesse, l’accélération, l’orientation, le cap ou encore l’altitude de l’aéronef 10, et/ou des données dites « navigation », telles qu’un plan de vol.The avionic systems 12 are known per se and are capable of transmitting to the display system 16, and in particular to the electronic determination device 20, various avionic data, for example so-called "aircraft" data, such as position, speed , the acceleration, the orientation, the heading or even the altitude of the aircraft 10, and/or so-called “navigation” data, such as a flight plan.
Les systèmes avioniques 12 sont également aptes à recevoir des consignes, ou encore des commandes, de la part du dispositif de détermination 20. Ces systèmes avioniques 12 aptes à recevoir des consignes, comportent par exemple au moins un système parmi :The avionic systems 12 are also able to receive instructions, or even commands, from the determination device 20. These avionic systems 12 able to receive instructions, comprise for example at least one system from among:
- un système de commandes de vol, également noté FCS (de l’anglaisFlight Control System) ou FBW (de l’anglaisFly By Wire), pour agir sur un ensemble de gouvernes et d’actionneurs de l’aéronef. Dans le cas d’un aéronef à voilure fixe, les gouvernes sont, par exemple, des ailerons, la gouverne de profondeur ou la gouverne de direction. Dans le cas d’un aéronef à voilure tournante, les gouvernes sont, par exemple, le pas collectif, le pas cyclique ou le pas du rotor de queue ;a flight control system, also denoted FCS ( Flight Control System ) or FBW ( Fly By Wire ), to act on a set of control surfaces and actuators of the aircraft. In the case of a fixed-wing aircraft, the control surfaces are, for example, ailerons, the elevator or the rudder. In the case of a rotary-wing aircraft, the control surfaces are, for example, collective pitch, cyclic pitch or tail rotor pitch;
- un système de contrôle moteur, également noté ECU (de l’anglaisEngine Control Unit) pour faire varier l’énergie délivrée par un moteur de l’aéronef, tel qu’un réacteur, un turbopropulseur ou encore une turbine ;an engine control system, also denoted ECU ( Engine Control Unit ) for varying the energy delivered by an engine of the aircraft, such as a jet engine, a turboprop or even a turbine;
- au moins un système de guidage, tel qu’un dispositif de pilotage automatique, également noté AFCS (de l’anglaisAuto-Flight Control System), également appelé pilote automatique et noté PA ou AP (de l’anglaisAutomatic Pilot), tel qu’un système de gestion du vol de l’aéronef, également noté FMS (de l’anglaisFlight Management System). En complément, le système de guidage est un dispositif d’auto-poussée, également appelé auto-manette.- at least one guidance system, such as an autopilot device, also denoted AFCS ( Auto-Flight Control System ), also called autopilot and denoted PA or AP ( Automatic Pilot ), such as an aircraft flight management system, also denoted FMS ( Flight Management System ). In addition, the guidance system is an auto-thrust device, also called auto-throttle.
La base de données 14 est optionnelle, typiquement une base de données de navigation, et est connue en soi. La base de données de navigation est également appelée NAVDB (de l’anglaisNAVigation Data Base), et comporte notamment des données relatives à des espaces ou zones de vol interdits, des données relatives à des pistes d’atterrissage sur lesquelles l’aéronef 10 est susceptible d’atterrir, ces données étant typiquement une position d’un seuil de la piste d’atterrissage, une orientation de la piste d’atterrissage, une longueur de piste, une altitude ou un point de décision, etc.The database 14 is optional, typically a navigation database, and is known per se. The navigation database is also called NAVDB (from the English NAVigation Data Base ), and includes in particular data relating to prohibited flight spaces or zones, data relating to landing strips on which the aircraft 10 is likely to land, these data being typically a position of a landing runway threshold, an orientation of the landing runway, a runway length, an altitude or a decision point, etc.
Dans l’exemple de la figure 1, la base de données 14 est une base de données externe au dispositif de détermination 20. En variante, non représentée, la base de données 14 est une base de données interne au dispositif de détermination 20.In the example of Figure 1, the database 14 is a database external to the determination device 20. Alternatively, not shown, the database 14 is a database internal to the determination device 20.
Le système d’affichage 16 est, par exemple, un système d’affichage tête basse et/ou un système d’affichage tête haute, également appelé HUD (de l’anglaisHead-Up Display). Le système d’affichage tête basse est, par exemple, un système d’affichage de données de navigation (de l’anglaisNavigation Display).The display system 16 is, for example, a head-down display system and/or a head-up display system, also called HUD ( Head-Up Display ). The head-down display system is, for example, a navigation data display system (English Navigation Display ).
Lorsque le système d’affichage 16 est un système d’affichage tête basse, l’écran d’affichage 18 est un écran d’affichage tête basse, et lorsque le système d’affichage 16 est un système d’affichage tête haute, l’écran d’affichage 18 est un écran d’affichage tête haute. En variante, le système d’affichage 16 est un système d’affichage déporté, en particulier un système d’affichage externe à l’aéronef 10, tel qu’un système d’affichage dans une station au sol, ou encore la télécommande ou les lunettes de vision d’un opérateur drone, notamment lorsque l’aéronef 10 est un aéronef autonome sans opérateur.When display system 16 is a head-down display system, display screen 18 is a head-down display screen, and when display system 16 is a head-up display system, the display screen 18 is a head-down display system. The display screen 18 is a head-up display screen. As a variant, the display system 16 is a remote display system, in particular a display system external to the aircraft 10, such as a display system in a ground station, or even the remote control or the vision glasses of a drone operator, in particular when the aircraft 10 is an autonomous aircraft without an operator.
Le dispositif électronique de détermination 20 est configuré pour déterminer au moins une action préconisée pour l’aéronef 10. Le dispositif de détermination 20 forme alors un dispositif d’aide à décision, notamment pour un opérateur, tel que le pilote de l’aéronef 10. Ce dispositif d’aide à la décision est particulièrement utile pour la gestion en temps réel de problème(s) complexe(s), et vise notamment à aider le pilote à améliorer la gestion de situation(s) critique(s) ou complexe(s), telle(s) qu’un atterrissage d’urgence.The electronic determination device 20 is configured to determine at least one action recommended for the aircraft 10. The determination device 20 then forms a decision aid device, in particular for an operator, such as the pilot of the aircraft 10 This decision support device is particularly useful for the real-time management of complex problem(s), and aims in particular to help the pilot improve the management of critical or complex situation(s). (s), such as an emergency landing.
Le dispositif électronique de détermination 20 comprend un module 22 d’acquisition d’un ensemble d’image(s) 24 de zone(s) géo-référencée(s) relative(s) à l’aéronef 10, un module 26 de réception d’un groupe de donnée(s) contextuelle(s) 28 relative(s) à l’aéronef 10, et un module 30 de calcul d’une liste d’action(s) préconisée(s) 32 pour l’aéronef 10.The electronic determination device 20 comprises a module 22 for acquiring a set of image(s) 24 of geo-referenced zone(s) relating to the aircraft 10, a module 26 for receiving a group of contextual data(s) 28 relating to the aircraft 10, and a module 30 for calculating a list of recommended action(s) 32 for the aircraft 10 .
En complément facultatif, le dispositif de détermination 20 comprend un module 34 d’affichage de la liste 32 d’action(s) préconisée(s) sur l’écran d’affichage 18 et/ou un module 36 de transmission de la liste 32 d’action(s) préconisée(s) à au moins un système avionique 12 correspondant.As an optional addition, the determination device 20 comprises a module 34 for displaying the list 32 of recommended action(s) on the display screen 18 and/or a module 36 for transmitting the list 32 of recommended action(s) to at least one corresponding avionic system 12 .
En complément facultatif encore ou en variante, le dispositif de détermination 20 comprend un module 38 d’évaluation de paramètre(s) prépondérant(s) dans le calcul de la liste 32 d’action(s) préconisée(s).As a further optional addition or as a variant, the determination device 20 comprises a module 38 for evaluating the predominant parameter(s) in the calculation of the list 32 of recommended action(s).
En complément facultatif encore ou en variante, le dispositif de détermination 20 comprend un module 40 de sélection d’une fonction de récompense parmi une pluralité de fonctions de récompense, la fonction de récompense étant associée à un algorithme d’intelligence artificielle mis en œuvre par le module de calcul 30 pour l’obtention de la liste 32 d’action(s) préconisée(s).As a further optional addition or as a variant, the determination device 20 comprises a module 40 for selecting a reward function from among a plurality of reward functions, the reward function being associated with an artificial intelligence algorithm implemented by the calculation module 30 for obtaining the list 32 of recommended action(s).
Dans l’exemple de la figure 1, le dispositif électronique de détermination 20 comprend une unité de traitement d’information(s) 50 formée par exemple d’une mémoire 52 et d’un processeur 54 associé à la mémoire 52.In the example of Figure 1, the electronic determination device 20 comprises an information processing unit 50 formed for example of a memory 52 and a processor 54 associated with the memory 52.
Dans l’exemple de la figure 1, le module d’acquisition 22, le module de réception 26 et le module de calcul 30, ainsi qu’en complément facultatif le module d’affichage 34, le module de transmission 36, le module d’évaluation 38 et le module de sélection 40, sont réalisés chacun sous forme d’un logiciel, ou d’une brique logicielle, exécutable par le processeur 54. La mémoire 52 du dispositif électronique de détermination 20 est alors apte à stocker un logiciel d’acquisition de l’ensemble d’image(s) 24 de zone(s) géo-référencée(s) relative(s) à l’aéronef, un logiciel de réception du groupe 28 de donnée(s) contextuelle(s) et un logiciel de calcul de la liste 32 d’action(s) préconisée(s) pour l’aéronef. En complément facultatif, la mémoire 52 du dispositif électronique de détermination 20 est apte à stocker un logiciel d’affichage de la liste 32 d’action(s) préconisée(s) sur l’écran d’affichage 18, un logiciel de transmission de la liste 32 d’action(s) préconisée(s) à au moins un système avionique 12 respectif, un logiciel d’évaluation de paramètre(s) prépondérant(s) dans le calcul de la liste 32 d’action(s) préconisée(s) et un logiciel de sélection de la fonction de récompense parmi la pluralité de fonctions de récompense. Le processeur 54 est alors apte à exécuter chacun des logiciels parmi le logiciel d’acquisition, le logiciel de réception et le logiciel de calcul, ainsi qu’en complément facultatif le logiciel d’affichage, le logiciel de transmission, le logiciel d’évaluation et/ou le logiciel de sélection.In the example of Figure 1, the acquisition module 22, the reception module 26 and the calculation module 30, as well as optionally the display module 34, the transmission module 36, the module of evaluation 38 and the selection module 40, are each produced in the form of software, or a software brick, executable by the processor 54. The memory 52 of the electronic determination device 20 is then capable of storing software for acquisition of the set of image(s) 24 of geo-referenced zone(s) relating to the aircraft, software for receiving the group 28 of contextual data(s) and software for calculating the list 32 of recommended action(s) for the aircraft. As an optional addition, the memory 52 of the electronic determination device 20 is capable of storing software for displaying the list 32 of recommended action(s) on the display screen 18, software for transmitting the list 32 of recommended action(s) to at least one respective avionics system 12, software for evaluating the predominant parameter(s) in the calculation of the list 32 of recommended action(s) (s) and software for selecting the reward function from the plurality of reward functions. The processor 54 is then capable of executing each of the software programs among the acquisition software, the reception software and the calculation software, as well as, as an optional complement, the display software, the transmission software, the evaluation software and/or selection software.
Lorsqu’en variante, non représentée, la base de données 14 est une base de données interne du dispositif de détermination 20, elle est typiquement apte à être stockée dans une mémoire du dispositif de détermination 20, telle que la mémoire 52.When in a variant, not shown, the database 14 is an internal database of the determination device 20, it is typically able to be stored in a memory of the determination device 20, such as the memory 52.
En variante non représentée, le module d’acquisition 22, le module de réception 26, et le module de calcul 30, ainsi qu’en complément facultatif le module d’affichage 34, le module de transmission 36, le module d’évaluation 38 et le module de sélection 40, sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglaisField Programmable Gate Array), ou encore sous forme d’un circuit intégré dédié, tel qu’un ASIC (de l’anglaisApplication Specific Integrated Circuit).In a variant not shown, the acquisition module 22, the reception module 26, and the calculation module 30, as well as in optional addition the display module 34, the transmission module 36, the evaluation module 38 and the selection module 40, are each made in the form of a programmable logic component, such as an FPGA ( Field Programmable Gate Array ), or even in the form of a dedicated integrated circuit, such as a ASIC (from the English Application Specific Integrated Circuit ).
Lorsque le dispositif électronique de détermination 20 est réalisé sous forme d’un ou plusieurs logiciels, c’est-à-dire sous forme d’un programme ordinateur, il est en outre apte à être enregistré sur un support, non représenté, lisible par ordinateur. Le support lisible par ordinateur est par exemple un médium apte à mémoriser des instructions électroniques et à être couplé à un bus d’un système informatique. A titre d’exemple, le support lisible est un disque optique, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, tout type de mémoire non volatile (par exemple EPROM, EEPROM, FLASH, NVRAM), une carte magnétique ou une carte optique. Sur le support lisible est alors mémorisé un programme d’ordinateur comprenant des instructions logicielles.When the electronic determination device 20 is produced in the form of one or more software, that is to say in the form of a computer program, it is also capable of being recorded on a medium, not shown, readable by computer. The computer-readable medium is, for example, a medium capable of storing electronic instructions and of being coupled to a bus of a computer system. By way of example, the readable medium is an optical disc, a magneto-optical disc, a ROM memory, a RAM memory, any type of non-volatile memory (for example EPROM, EEPROM, FLASH, NVRAM), a magnetic card or an optical card. On the readable medium is then stored a computer program comprising software instructions.
Le module d’acquisition 22 est configuré pour acquérir l’ensemble d’image(s) 24 de zone(s) géo-référencée(s) relative(s) à l’aéronef 10, par exemple à partir de la base de données 14. L’ensemble d’image(s) 32 est typiquement construit préalablement à la mise en œuvre du dispositif de détermination 20.The acquisition module 22 is configured to acquire the set of image(s) 24 of geo-referenced zone(s) relating to the aircraft 10, for example from the database 14. The set of image(s) 32 is typically constructed prior to the implementation of the determination device 20.
Chaque image 24 est par exemple une carte géo-référencée, ou encore une cartographie aéronautique, et est typiquement construite à partir de données brutes, telles que des données issues d’une base de données de navigation, et/ou à partir de représentations virtuelles d’un contexte environnant de l’aéronef 10. La ou les images 24 sont par exemple construites par niveau d’importance en fonction d’une mission à effectuer par l’aéronef 10, ou encore par fonction aéronautique. Une première image 24 représente ainsi par exemple la ou les zones aéronautiques importantes, notamment celles où se situe un état final ou un objectif recherché. Une deuxième image 24 représente alors une zone d’importance intermédiaire, et une troisième image 24 représente une zone de faible importance. En complément, d’autres images 24 représentent typiquement une zone géographique à éviter, déterminée par exemple à partir d’informations météorologiques, ou encore une zone interdite de vol.Each image 24 is for example a geo-referenced map, or even an aeronautical cartography, and is typically constructed from raw data, such as data from a navigation database, and/or from virtual representations of a context surrounding the aircraft 10. The image or images 24 are for example constructed by level of importance according to a mission to be carried out by the aircraft 10, or even by aeronautical function. A first image 24 thus represents for example the important aeronautical zone(s), in particular those where a final state or a desired objective is located. A second image 24 then represents an area of intermediate importance, and a third image 24 represents an area of low importance. In addition, other images 24 typically represent a geographical area to be avoided, determined for example from meteorological information, or even a no-fly zone.
En complément, lors de la construction préalable de ces images 24, des données métier issues de modèles d’analyse comportementaux haut niveau, tels que des doctrines, des usages métier, etc., sont en outre prises en compte pour enrichir ces images 24 afin d’obtenir des cartes graphiques géo-référencées contenant des critères métier. En complément ou en variante, ces cartes graphiques sont construites également à partir de données physiques et comportementales d’un niveau de simulation, telles que des données relatives à la position de l’aéronef, des informations météorologiques, etc…In addition, during the preliminary construction of these images 24, business data from high-level behavioral analysis models, such as doctrines, business uses, etc., are also taken into account to enrich these images 24 in order to to obtain geo-referenced graphic maps containing business criteria. In addition or as a variant, these graphic maps are also built from physical and behavioral data of a simulation level, such as data relating to the position of the aircraft, meteorological information, etc.
En complément facultatif encore, ces images 24, ou cartes, sont interactives, et sont alors modifiables par un utilisateur, typiquement par l’intermédiaire d’une interface homme-machine, telle qu’une interface graphique.As a further optional addition, these images 24, or maps, are interactive, and can then be modified by a user, typically via a man-machine interface, such as a graphical interface.
En variante, la ou les images 24 sont des images acquises via un ou plusieurs capteurs, non représentés.As a variant, the image(s) 24 are images acquired via one or more sensors, not shown.
L’ensemble d’image(s) 24 de zone(s) géo-référencée(s) comporte alors au moins une image 24 parmi le groupe consistant en : une image d’une zone d’intérêt, telle qu’une image contenant une ou plusieurs informations météorologiques géo-référencées ; une image d’une zone de menace, telle qu’une image contenant une ou plusieurs informations d’obstacle(s) géo-référencé(s) ; une image d’une zone d’incertitude contenant une information géo-référencée indiquant, pour une position donnée, la probabilité qu’un objet puisse être présent à cette position.The set of image(s) 24 of geo-referenced area(s) then comprises at least one image 24 from among the group consisting of: an image of an area of interest, such as an image containing one or more geo-referenced meteorological information; an image of a threat area, such as an image containing one or more geo-referenced obstacle(s) information; an image of an area of uncertainty containing geo-referenced information indicating, for a given position, the probability that an object may be present at this position.
L’ensemble d’images 24 comporte par exemple M images 24. Les images 24 sont par exemple des images en deux dimensions, et sont représentées soit en couleur, par exemple sur trois canaux RGB, soit en niveau de gris. Les images 24 sont par exemple des images de forme rectangulaire et de dimension N1 x N2, où N1, N2représentent des nombres respectifs de pixels, voire carrée auquel cas N1est bien entendu égal à N2.The set of images 24 comprises for example M images 24. The images 24 are for example two-dimensional images, and are represented either in color, for example on three RGB channels, or in gray level. The images 24 are for example images of rectangular shape and of dimension N1 x N2, where N1, NOT2represent respective numbers of pixels, or even square in which case N1is of course equal to N2.
Le module de réception 26 est configuré pour recevoir le groupe 28 de donnée(s) contextuelle(s) relative(s) à l’aéronef 10, par exemple de la part de la base de données 14.The reception module 26 is configured to receive the group 28 of contextual data(s) relating to the aircraft 10, for example from the database 14.
Le groupe 28 de donnée(s) contextuelle(s) comporte par exemple au moins une donnée parmi le groupe consistant en : une quantité de ressource(s) disponible(s), telle qu’une quantité de carburant, un nombre d’équipement(s) emporté(s) ; un nombre d’entité(s) identifiée(s) présente(s) dans une zone géo-référencée respective ; et un nombre d’entité(s) inconnue(s) présente(s) dans une zone géo-référencée respective.The group 28 of contextual data(s) comprises for example at least one data item from the group consisting of: a quantity of available resource(s), such as a quantity of fuel, a number of equipment (s) carried away; a number of identified entity(ies) present in a respective geo-referenced area; and a number of unknown entity(ies) present in a respective geo-referenced area.
Le groupe 28 de donnée(s) contextuelle(s) est par exemple en forme d’un vecteur de dimension P1. Ce vecteur sert alors à concaténer toutes les données contextuelles sous forme d’une unique représentation.The group 28 of contextual data(s) is for example in the form of a vector of dimension P 1 . This vector is then used to concatenate all the contextual data in the form of a single representation.
Le module de calcul 30 est configuré pour calculer, la liste 32 d’action(s) préconisée(s) via un algorithme d’intelligence artificielle à partir de l’ensemble d’image(s) 24 de zone(s) géo-référencée(s) et du groupe 28 de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, ledit ensemble d’image(s) 24, et d’autre part, le groupe 28 de donnée(s) contextuelle(s), et en variable de sortie la liste 32 d’action(s) préconisée(s).The calculation module 30 is configured to calculate the list 32 of action(s) recommended via an artificial intelligence algorithm from the set of image(s) 24 of geo-zone(s). referenced(s) and of the group 28 of contextual data(s), the artificial intelligence algorithm comprising as input variables, on the one hand, said set of image(s) 24, and on the other hand, the group 28 of contextual data(s), and as an output variable the list 32 of recommended action(s).
En sortie de l’algorithme d’apprentissage, la liste 32 d’action(s) préconisée(s) est par exemple en forme d’un vecteur de taille P2concaténant un ensemble d’action(s) préconisée(s) pour l’aéronef 10, c’est-à-dire un ensemble d’action(s), telle(s) que des consignes ou commandes, recommandée(s) pour l’aéronef 10.At the output of the learning algorithm, the list 32 of recommended action(s) is for example in the form of a vector of size P 2 concatenating a set of recommended action(s) for the aircraft 10, that is to say a set of action(s), such as instructions or commands, recommended for the aircraft 10.
Par action préconisée, on entend typiquement une consigne ou une commande qu’il est conseillé de suivre ou d’effectuer pour l’aéronef 10, par exemple via un système avionique 12 correspondant.By recommended action is typically meant an instruction or a command that it is advisable to follow or perform for the aircraft 10, for example via a corresponding avionic system 12 .
La liste 32 d’action(s) préconisée(s) comporte alors par exemple au moins une action choisie parmi le groupe consistant en : une consigne de cap, une consigne de vitesse, une consigne de position, une consigne d’altitude, une utilisation d’un capteur respectif, une utilisation d’un équipement respectif, une sélection d’un mode/paramètre d’usage d’un capteur ou équipement.The list 32 of recommended action(s) then comprises for example at least one action chosen from the group consisting of: a heading setpoint, a speed setpoint, a position setpoint, an altitude setpoint, a use of a respective sensor, use of a respective equipment, selection of a mode/parameter of use of a sensor or equipment.
L’algorithme d’intelligence artificielle est configuré pour recevoir en entrée M images 24 de dimensions N1 x N2et un vecteur de dimension P1représentant le groupe 28 de donnée(s) contextuelle(s), et délivrer en sortie un vecteur de dimension P2représentant la liste 32 d’action(s) préconisée(s), où M, N1, N2, P1et P2sont chacun un nombre entier supérieur ou égal à 1.The artificial intelligence algorithm is configured to receive as input M 24 images of dimensions N1 x N2and a vector of dimension P1representing the group 28 of contextual data(s), and outputting a vector of dimension P2representing the list 32 of recommended action(s), where M, N1, NOT2, P1and P2are each an integer greater than or equal to 1.
L’algorithme d’intelligence artificielle comporte par exemple au moins un réseau de neurones 60, visible sur la figure 2.The artificial intelligence algorithm includes for example at least one neural network 60, visible in Figure 2.
Dans l’exemple de la figure 2, l’algorithme d’intelligence artificielle est le réseau de neurones 60 avec, en tête, un premier sous-réseau de neurones 62 ayant pour variable d’entrée l’ensemble d’image(s) 24 de zone(s) géo-référencée(s), un deuxième sous-réseau de neurones 64 ayant pour variable d’entrée le groupe 28 de donnée(s) contextuelle(s), et en queue, un troisième sous-réseau de neurones 66 connecté en sortie des premier 62 et deuxième 64 sous-réseaux de neurones et ayant pour variable de sortie la liste 32 d’action(s) préconisée(s). Le premier sous-réseau de neurones 62 comporte typiquement des couches de convolution, et est également noté CNN (de l’anglaisConvolutional Neural Network). Les deuxième 64 et troisième 66 sous-réseaux de neurones sont typiquement chacun un perceptron multicouche, également noté MLP (de l’anglaisMulti Layer Perceptron) comportant des couches denses.In the example of FIG. 2, the artificial intelligence algorithm is the neural network 60 headed by a first sub-network of neurons 62 whose input variable is the set of image(s) 24 of geo-referenced zone(s), a second sub-network of neurons 64 having as input variable the group 28 of contextual data(s), and at the bottom, a third sub-network of neurons 66 connected at the output of the first 62 and second 64 sub-networks of neurons and having as output variable the list 32 of recommended action(s). The first sub-network of neurons 62 typically comprises convolution layers, and is also denoted CNN (from the English Convolutional Neural Network ). The second 64 and third 66 neural sub-networks are each typically a multilayer perceptron, also denoted MLP ( Multi Layer Perceptron ) comprising dense layers.
L’algorithme d’intelligence artificielle est par exemple obtenu via un apprentissage à partir de variables d’entrée de référence, c’est-à-dire à partir d’une part d’image(s) de zone(s) géo-référencée(s) de référence, et d’autre part de donnée(s) contextuelle(s) de référence, et avec pour variables de sortie une liste d’action(s) préconisée(s) de référence.The artificial intelligence algorithm is for example obtained via learning from reference input variables, that is to say from a part of image(s) of geo-zone(s). referenced reference(s), and on the other hand contextual reference data(s), and with a list of recommended reference action(s) as output variables.
L’algorithme d’intelligence artificielle est de préférence obtenu via un apprentissage par renforcement, tel qu’un apprentissage par renforcement profond permettant d’apprendre une politique d’action(s) pour un problème de contrôle donné et ayant pour objectif de maximiser une fonction de retour G.The artificial intelligence algorithm is preferably obtained via reinforcement learning, such as deep reinforcement learning, making it possible to learn a policy of action(s) for a given control problem and having the objective of maximizing a return function G.
La fonction de retour G d’un tel apprentissage par renforcement vérifie par exemple l’équation suivante :The feedback function G of such reinforcement learning verifies for example the following equation:
où Gtreprésente la fonction de retour G à l’instant t,where G t represents the feedback function G at time t,
Rtreprésente la récompense à l’instant t, etR t represents the reward at time t, and
γ représente un facteur, de valeur comprise entre 0 et 1 et pénalisant les récompenses futures.γ represents a factor, with a value between 0 and 1 and penalizing future rewards.
Une politique d’action optimale permet alors de maximiser une fonction de valeur d’état (de l’anglaisstate-value function), telle que la fonction de valeur d’état V, et la politique d’action optimale, notée π*vérifie alors par exemple l’équation suivante :An optimal action policy then makes it possible to maximize a state-value function, such as the state -value function V, and the optimal action policy, denoted π * then verify for example the following equation:
où la fonction de valeur d’état V vérifie par exemple l’équation suivante :where the state value function V verifies for example the following equation:
En variante ou en complément, la politique d’action optimale π* permet de maximiser une fonction de valeur d’action (de l’anglaisa ction-value function)Q, par exemple selon l’équation suivante :Alternatively or in addition, the optimal action policy π* maximizes an action value functionTo ction-value function)Q, for example according to the following equation:
où la fonction de valeur d’action Q vérifie par exemple l’équation suivante :where the action value function Q verifies for example the following equation:
où Streprésente l’état d’observation du système à l’instant t,where S t represents the observation state of the system at time t,
s représente une valeur prise par l’état d’observation dans un espace d’états,s represents a value taken by the observation state in a state space,
Atreprésente l’action que doit prendre le système à l’instant t ; etA t represents the action that the system must take at time t; And
A représente la valeur de cette action dans un espace d’actions.A represents the value of this action in an action space.
Autrement dit, l’apprentissage par renforcement de l’algorithme d’intelligence artificielle comporte la résolution d’un problème d’optimisation d’au moins une fonction de récompense (de l’anglaisreward), notée R.In other words, the reinforcement learning of the artificial intelligence algorithm involves solving an optimization problem for at least one reward function, denoted R.
L’apprentissage par renforcement est par exemple choisi parmi le groupe consistant en : un algorithme de Q-learning avec un estimateur neuronal, également appelé DQN (de l’anglaisDeep Q l ear n ing) ; un algorithme de gradient de politique de type acteur-critique (de l’anglaisActor- C ritic).Reinforcement learning is for example chosen from the group consisting of : a Q-learning algorithm with a neural estimator, also called DQN ( Deep Q ear n ing ); an Actor-Critic type policy gradient algorithm.
L’algorithme de gradient de politique de type acteur-critique comporte typiquement un réseau de neurones afin d’apprendre quelles sont les actions définies par la politique optimale, correspondant à l’acteur, tout en jugeant de la politique choisie, correspondant aux critiques.The actor-critic type policy gradient algorithm typically involves a neural network to learn which actions are defined by the optimal policy, corresponding to the actor, while judging the chosen policy, corresponding to the critics.
L’algorithme de gradient de politique de type acteur-critique est par exemple l’algorithme DDPG (de l’anglaisDeep D etermi stic Policy Gradient), l’algorithme PPO (de l’anglaisProximal Policy Optimization), ou encore l’algorithme SAC (de l’anglaisSoft Actor Critic).The actor-critical type policy gradient algorithm is for example the DDPG ( Deep Determining Policy Gradient ) algorithm, the PPO ( Proximal Policy Optimization ) algorithm, or the SAC ( Soft Actor Critic ) algorithm.
Lorsque l’apprentissage par renforcement est un algorithme de gradient de politique de type acteur-critique, l’algorithme d’intelligence artificielle comporte alors typiquement au moins un réseau de neurones 60 dit acteur(s), et l’apprentissage par renforcement comporte au moins un autre réseau de neurones, non représenté, dit critique(s).When reinforcement learning is an actor-critic type policy gradient algorithm, the artificial intelligence algorithm then typically comprises at least one neural network 60 called actor(s), and reinforcement learning comprises at minus one other neural network, not shown, called critical(s).
Dans le cas d’un algorithme de type acteur-critique, la fonction de valeur(s), telle que la fonction de valeur d’état V ou la fonction de valeur d’action Q est alors apprise par l’entité critique, telle que le réseau de neurones critique, et l’entité acteur, telle que le réseau de neurones acteur, apprend la politique, c’est-à-dire l’ensemble des actions à prendre dans un état donné, afin d’aller dans la direction suggérée par l’entité critique.In the case of an actor-critical type algorithm, the function of value(s), such as the state value function V or the action value function Q is then learned by the critical entity, such as that the critical neural network, and the actor entity, such as the actor neural network, learns the policy, i.e. the set of actions to be taken in a given state, in order to go into the direction suggested by the critical entity.
Ainsi, et autrement dit, en apprentissage par renforcement profond de type acteur-critique, un premier réseau de neurones apprend la fonction de valeur, soit la fonction de valeur d’état V, soit la fonction de valeur d’action Q, et un deuxième réseau de neurones apprend la politique π.Thus, and in other words, in actor-critic type deep reinforcement learning, a first neural network learns the value function, either the state value function V or the action value function Q, and a second neural network learns the policy π.
L’homme du métier comprendra en outre que le réseau de neurones dit acteur et le réseau de neurones dit critique ont de préférence des architectures similaires, à la différence que le réseau de neurones dit critique prend en entrée l’action en plus de l’état courant, et que leurs sorties sont de nature différente. La sortie du réseau de neurones critique correspond à une estimation de la fonction valeur d’état ou de la fonction valeur d’action pour une transition donnée. Cette estimation est par exemple formée de l’état à l’instant t, de l’action prise à l’instant t, de la récompense obtenue par cette action, et de l’état obtenu à l’instant suivant t+1. La sortie réseau de neurones acteur correspond quant à elle à la liste d’actions à prendre à l’instant t.Those skilled in the art will also understand that the so-called actor neural network and the so-called critical neural network preferably have similar architectures, with the difference that the so-called critical neural network takes as input the action in addition to the current state, and that their outputs are of a different nature. The output of the critical neural network is an estimate of the state value function or the action value function for a given transition. This estimate is for example formed from the state at time t, the action taken at time t, the reward obtained by this action, and the state obtained at the following time t+1. The actor neural network output corresponds to the list of actions to be taken at time t.
L’homme du métier observera alors que le réseau de neurones 60 représenté à la figure 2 est le réseau de neurones acteur, le réseau de neurones critique n’étant pas représenté.Those skilled in the art will then observe that the neural network 60 represented in FIG. 2 is the actor neural network, the critical neural network not being represented.
En complément facultatif, l’apprentissage par renforcement met de préférence en œuvre une pluralité de fonctions de récompense avec un apprentissage respectif de l’algorithme d’intelligence artificielle pour chaque fonction de récompense. La fonction de récompense est typiquement décidée en fonction de l’objectif recherché, et est par exemple liée au type d’images 24 et/ou de données contextuelles du groupe 28 fourni en variables d’entrée de l’algorithme d’intelligence artificielle, et au type d’objectif fixé pour la mission, notamment au type d’action préconisée attendue en sortie de l’algorithme d’intelligence artificielle.As an optional complement, reinforcement learning preferably implements a plurality of reward functions with respective training of the artificial intelligence algorithm for each reward function. The reward function is typically decided according to the objective sought, and is for example linked to the type of images 24 and/or contextual data of the group 28 supplied as input variables of the artificial intelligence algorithm, and the type of objective set for the mission, in particular the type of recommended action expected at the output of the artificial intelligence algorithm.
Lorsque l’algorithme d’intelligence artificielle comporte au moins un réseau de neurones 60, l’apprentissage par renforcement comporte alors de préférence l’obtention d’un ensemble de poids de réseau pour chaque fonction de récompense.When the AI algorithm includes at least one 60 neural network, then reinforcement learning preferably includes obtaining a set of network weights for each reward function.
A titre d’exemple, si la mission correspondant à l’objectif fixé est une mission d’atterrissage en urgence, alors la politique devra pénaliser le passage dans des zones météo de turbulence, et au contraire récompenser le choix d’une zone d’atterrissage la plus proche du point d’accès. En prenant alors typiquement une première métrique correspondant à la proximité avec les zones météorologiques à éviter, une deuxième métrique correspondant à la distance à la piste sélectionnée et une troisième métrique correspondant à la durée de disponibilité de la piste, la fonction de récompense R vérifiera l’équation suivante :For example, if the mission corresponding to the set objective is an emergency landing mission, then the policy should penalize passage through turbulent weather zones, and on the contrary reward the choice of an area of nearest landing point to the access point. By then typically taking a first metric corresponding to the proximity to the meteorological zones to be avoided, a second metric corresponding to the distance to the selected runway and a third metric corresponding to the duration of availability of the runway, the reward function R will verify the following equation:
où Rtreprésente la fonction de récompense à l’instant temporel t.where R t represents the reward function at time instant t.
F1représente une fonction d’utilité de la première métrique correspondant à la proximité avec les zones météorologiques à éviter,F 1 represents a utility function of the first metric corresponding to the proximity to the meteorological zones to be avoided,
F2représente une fonction d’utilité de la deuxième métrique correspondant à la proximité à la piste d’atterrissage ;F 2 represents a utility function of the second metric corresponding to the proximity to the landing strip;
F3représente une fonction d’utilité de la troisième métrique correspondant à la durée de disponibilité de la piste.F 3 represents a utility function of the third metric corresponding to the duration of availability of the track.
Le module d’affichage 34 est configuré pour afficher la liste 32 d’action(s) préconisée(s) sur l’écran d’affichage 18. Le module d’affichage 34 est par exemple configuré pour afficher cette liste 32 d’action(s) préconisée(s) sous forme de symbole(s) ou icône(s) en superposition par rapport à une ou plusieurs images 24 de l’ensemble d’image(s) de zone(s) géo-référencée(s) relative(s) à l’aéronef 10, afin d’obtenir une image résultante 70.The display module 34 is configured to display the list 32 of recommended action(s) on the display screen 18. The display module 34 is for example configured to display this list 32 of action (s) recommended in the form of symbol(s) or icon(s) superimposed on one or more images 24 of the set of image(s) of geo-referenced zone(s) relating to the aircraft 10, in order to obtain a resulting image 70.
Dans l’exemple de la figure 2, l’action préconisée est une consigne de position, représentée sous la forme d’une flèche sur l’image résultante 70, la position objet de ladite consigne correspondant à l’extrémité de la flèche.In the example of FIG. 2, the recommended action is a position instruction, represented in the form of an arrow on the resulting image 70, the object position of said instruction corresponding to the end of the arrow.
En variante ou en complément, le module de transmission 36 est configuré pour transmettre la liste 32 d’action(s) préconisée(s) à au moins un système avionique 12 respectif. Le module de transmission 36 permet alors de transmettre directement une ou plusieurs consignes ou commandes, incluses dans ladite liste 32 d’action(s) préconisée(s), à au moins un système avionique 12 correspondant, afin d’agir sur le comportement de l’aéronef 10.As a variant or in addition, the transmission module 36 is configured to transmit the list 32 of action(s) recommended(s) to at least one avionic system 12 respectively. The transmission module 36 then makes it possible to directly transmit one or more instructions or commands, included in said list 32 of recommended action(s), to at least one corresponding avionic system 12, in order to act on the behavior of the aircraft 10.
En complément facultatif encore, le module d’évaluation 38 est configuré pour évaluer, via un algorithme de théorie des jeux, un ou plusieurs paramètres prépondérants dans le calcul de la liste 32 d’action(s) préconisée(s). L’algorithme de théorie des jeux est alors par exemple adapté pour recevoir en entrée l’ensemble d’image(s) 24 de zone(s) géo-référencée(s) relative(s) à l’aéronef 10, d’une part, et d’autre part, la liste 32 d’action(s) préconisée(s), puis à délivrer en sortie un ou plusieurs paramètres prépondérants dans le calcul effectué par l’algorithme d’intelligence artificielle.As a further optional addition, the evaluation module 38 is configured to evaluate, via a game theory algorithm, one or more preponderant parameters in the calculation of the list 32 of recommended action(s). The game theory algorithm is then, for example, adapted to receive as input the set of image(s) 24 of geo-referenced zone(s) relating to the aircraft 10, from a hand, and on the other hand, the list 32 of recommended action(s), then to deliver as output one or more preponderant parameters in the calculation performed by the artificial intelligence algorithm.
Le ou les paramètres prépondérants fournis par le module d’évaluation 38 sont par exemple une ou plusieurs images 24, c’est-à-dire ou plusieurs cartes graphiques, qui ont été particulièrement prises en compte dans le calcul effectué par l’algorithme d’intelligence artificielle.The preponderant parameter(s) supplied by the evaluation module 38 are for example one or more images 24, that is to say or several graphics cards, which have been particularly taken into account in the calculation carried out by the algorithm of 'artificial intelligence.
Le module d’évaluation 28 permet alors de fournir à l’utilisateur l’explication causale des propositions de l’algorithme d’intelligence artificielle, en particulier des propositions du réseau de neurones 60, et permet alors de confronter la vision du problème du point de vue de l’algorithme d’intelligence artificielle avec la vision métier de l’utilisateur et des critères que celui-ci aurait considéré comme prépondérants au vu de la situation courante de l’aéronef 10.The evaluation module 28 then makes it possible to provide the user with the causal explanation of the proposals of the artificial intelligence algorithm, in particular of the proposals of the neural network 60, and then makes it possible to confront the vision of the problem from the point view of the artificial intelligence algorithm with the user's business vision and the criteria that the latter would have considered to be preponderant in view of the current situation of the aircraft 10.
L’algorithme de théorie des jeux mis en œuvre par le module d’évaluation 38 est par exemple l’algorithme basé sur la valeur de Shapley permettant de donner la contribution de chaque joueur à un score global. De manière plus générale, lorsque plusieurs attributs contribuent à un même score ou résultat global, la valeur de Shapley permet de calculer la contribution de chaque attribut à ce score global. Le calcul de cette valeur correspond à la moyenne des contributions obtenues grâce à cet attribut, en prenant toutes les combinaisons possibles d’attribut.The game theory algorithm implemented by the evaluation module 38 is for example the algorithm based on Shapley's value making it possible to give the contribution of each player to an overall score. More generally, when several attributes contribute to the same overall score or result, the Shapley value makes it possible to calculate the contribution of each attribute to this overall score. The calculation of this value corresponds to the average of the contributions obtained thanks to this attribute, by taking all the possible combinations of attributes.
La valeur de Shapley est par exemple calculée suivant l’équation suivante :The Shapley value is for example calculated according to the following equation:
où X1, …, Xpreprésentent les différents attributs.where X 1 , …, X p represent the different attributes.
Val correspond à la fonction de score global.Val is the global score function.
L’homme du métier comprendra alors que les attributs correspondent aux différents paramètres influant sur le choix de l’algorithme d’intelligence artificielle, tel que le réseau de neurones 60, ces paramètres influant étant notamment les images 24 ou cartes graphiques, de l’ensemble fourni en variable d’entrée de l’algorithme d’intelligence artificielle. La fonction de valeur Val correspond alors à la probabilité que l’algorithme d’intelligence artificielle, tel que le réseau de neurones 60, choisisse l’action sélectionnée en sortie.Those skilled in the art will then understand that the attributes correspond to the various parameters influencing the choice of the artificial intelligence algorithm, such as the neural network 60, these influencing parameters being in particular the images 24 or graphics cards, of the set provided as input variable of the artificial intelligence algorithm. The value function Val then corresponds to the probability that the artificial intelligence algorithm, such as the neural network 60, chooses the action selected as output.
Autrement dit, l’algorithme de théorie des jeux, tel que l’algorithme basé sur la valeur Shapley, permet - pour une décision d’action donnée par l’algorithme d’intelligence artificielle, c’est-à-dire par exemple par le réseau de neurones dit acteur - de retrouver la contribution de chaque paramètre, par exemple de chaque image 24 de l’ensemble fourni en entrée de l’algorithme d’intelligence artificielle, et ainsi de sélectionner celle ayant le plus fort impact.That is, the game theory algorithm, such as the Shapley value-based algorithm, allows - for an action decision given by the artificial intelligence algorithm, i.e. for example by the so-called actor neural network - to find the contribution of each parameter, for example of each image 24 of the set supplied as input to the artificial intelligence algorithm, and thus to select the one having the greatest impact.
Selon ce complément facultatif, l’image 24 ayant eu le plus fort impact sur la liste 32 d’action(s) préconisée(s) fournie par l’algorithme d’intelligence artificielle est en complément affichée sur l’écran d’affichage 18 par le module d’affichage 34.According to this optional addition, the image 24 having had the greatest impact on the list 32 of recommended action(s) provided by the artificial intelligence algorithm is additionally displayed on the display screen 18 by the display module 34.
L’homme du métier comprendra alors que, dans l’exemple de la figure 2, l’image résultante 70, affichée par le module d’affichage 24, correspond à l’image 24 ayant eu le plus fort impact sur laquelle est superposée la liste 32 d’actions préconisées par le module du calcul 30.Those skilled in the art will then understand that, in the example of FIG. 2, the resulting image 70, displayed by the display module 24, corresponds to the image 24 having had the greatest impact on which is superimposed the list 32 of actions recommended by the calculation module 30.
En complément facultatif encore, le module de sélection 40 est configuré pour sélectionner une fonction de récompense parmi la pluralité de fonctions de récompense R, par exemple à partir d’une interaction de l’utilisateur. La sélection ainsi effectuée influence alors l’apprentissage de l’algorithme d’intelligence artificielle mis en œuvre par le module de calcul 30.As a further optional addition, the selection module 40 is configured to select a reward function from among the plurality of reward functions R, for example based on a user interaction. The selection thus made then influences the learning of the artificial intelligence algorithm implemented by the calculation module 30.
Selon ce complément facultatif, le module de sélection 40 est en effet configuré pour sélectionner alors la fonction de récompense R qui sera utilisée pour l’apprentissage par renforcement de l’algorithme d’intelligence artificielle, comme décrit précédemment.According to this optional complement, the selection module 40 is indeed configured to then select the reward function R which will be used for learning by reinforcement of the artificial intelligence algorithm, as described above.
L’homme du métier comprendra alors que cette sélection a au final une influence sur la liste 32 d’action(s) préconisée(s) qui sera calculée par le module de calcul 30.The person skilled in the art will then understand that this selection ultimately has an influence on the list 32 of recommended action(s) which will be calculated by the calculation module 30.
En complément facultatif encore, le module de calcul 30 est configuré pour effectuer plusieurs itérations successives de l’algorithme d’intelligence artificielle, afin d’avoir une mise en œuvre anticipée de l’algorithme d’intelligence artificielle à des instants ultérieurs successifs, et calculer alors différentes listes 32 successives d’action(s) préconisée(s), ces listes 32 successives étant associées aux instants ultérieurs successifs.As a further optional addition, the calculation module 30 is configured to carry out several successive iterations of the artificial intelligence algorithm, in order to have an anticipated implementation of the artificial intelligence algorithm at successive subsequent instants, and then calculate different successive lists 32 of recommended action(s), these successive lists 32 being associated with successive subsequent instants.
Selon ce complément facultatif, le module de calcul 30 est alors configuré pour, partant d’une situation, c’est-à-dire d’un état, à un instant temporel t, calculer une liste 32 d’actions préconisées à un premier instant ultérieur, noté t+1, et alors donner une situation ou état de l’aéronef à cet instant ultérieur t+1. La liste 32 d’actions(s) préconisée(s) à cet instant ultérieur t+1 est notamment susceptible d’être affichée dans le module d’affichage 34 sur l’écran d’affichage 18. De manière itérative et partant de la situation calculée de l’aéronef à cet instant ultérieur t+1, le module de calcul 30 est alors configuré pour calculer lors d’une nouvelle itération une liste 32 d’action(s) préconisée(s) à un deuxième instant ultérieur, noté t+2, afin d’obtenir la situation de l’aéronef à ce deuxième instant ultérieur t+2, et ainsi de suite, comme représenté sur la figure 4.According to this optional complement, the calculation module 30 is then configured to, starting from a situation, that is to say from a state, at a time instant t, calculate a list 32 of recommended actions at a first subsequent instant, denoted t+1, and then give a situation or state of the aircraft at this subsequent instant t+1. The list 32 of action(s) recommended at this later instant t+1 is in particular likely to be displayed in the display module 34 on the display screen 18. Iteratively and starting from the calculated situation of the aircraft at this subsequent instant t+1, the calculation module 30 is then configured to calculate during a new iteration a list 32 of recommended action(s) at a second subsequent instant, denoted t+2, in order to obtain the situation of the aircraft at this second subsequent instant t+2, and so on, as represented in figure 4.
Le fonctionnement du système électronique d’affichage 16 selon l’invention, et en particulier du dispositif électronique de détermination 20, va être à présent décrit en regard de la figure 3 représentant un organigramme du procédé selon l’invention de détermination d’au moins une action préconisée pour l’aéronef 10, ainsi qu’en complément facultatif en regard de la figure 4 représentant un organigramme du calcul de la liste 32 d’actions préconisées lorsque ce calcul comporte plusieurs itérations successives de l’algorithme d’intelligence artificielle.The operation of the electronic display system 16 according to the invention, and in particular of the electronic determination device 20, will now be described with reference to FIG. 3 representing a flowchart of the method according to the invention for determining at least a recommended action for the aircraft 10, as well as an optional addition with regard to FIG. 4 representing a flowchart of the calculation of the list 32 of recommended actions when this calculation comprises several successive iterations of the artificial intelligence algorithm.
Lors d’une étape initiale 100, le dispositif de détermination 20 acquiert, via son module d’acquisition 22, l’ensemble d’image(s) 24 de zone(s) géo-référencée(s) relative(s) à l’aéronef 10, par exemple à partir de la base de données 14. Ces images 24 stockées dans la base de données 14 ont typiquement été préalablement construites via une interface homme-machine respective, telle qu’une interface graphique.During an initial step 100, the determination device 20 acquires, via its acquisition module 22, the set of image(s) 24 of geo-referenced zone(s) relating to the aircraft 10, for example from the database 14. These images 24 stored in the database 14 have typically been constructed beforehand via a respective man-machine interface, such as a graphical interface.
Ces images 24 sont alors typiquement des données spatiales discrétisées sur la zone d’intérêt, telles que des données météorologiques, les zones de menace, les zones d’intérêt, la direction dans laquelle se situe une menace, des trajectoires d’obstacles passés ou futurs, des zones d’incertitude dans lesquelles aucune information n’est disponible, ou encore des représentations des liens entre entités connectées sur un même réseau par un maillage.These images 24 are then typically discretized spatial data on the area of interest, such as meteorological data, threat areas, areas of interest, the direction in which a threat is located, trajectories of past obstacles or future, areas of uncertainty in which no information is available, or even representations of the links between entities connected on the same network by a mesh.
Lors d’une étape suivante 110, le dispositif de détermination 20 reçoit, via son module de réception 26, le groupe 28 de donnée(s) contextuelle(s) relative(s) à l’aéronef 10, ce groupe 24 de donnée(s) contextuelle(s) étant par exemple en forme d’un vecteur de dimension P1. Ces données contextuelles sont alors typiquement des données non-spatiales, par exemple le nombre de ressources disponibles, telles qu’une quantité de carburant, ou un nombre d’équipements emportés, le nombre d’entités identifiées présentes sur la scène, c’est-à-dire dans une zone géo-référencée respective, ou encore le nombre d’entités inconnues présentes sur la scène.During a next step 110, the determination device 20 receives, via its reception module 26, the group 28 of contextual data(s) relating to the aircraft 10, this group 24 of data( s) contextual(s) being for example in the form of a vector of dimension P 1 . This contextual data is then typically non-spatial data, for example the number of resources available, such as a quantity of fuel, or a number of equipment carried, the number of identified entities present on the scene, that is i.e. in a respective geo-referenced area, or even the number of unknown entities present on the scene.
Le dispositif de détermination 20 calcule alors, lors de l’étape suivante 120 et via son module de calcul 30, la liste 32 d’action(s) préconisée(s) pour l’aéronef 10 via l’algorithme d’intelligence artificielle, tel que le réseau de neurones 60. La liste 32 d’action(s) préconisée(s) est alors typiquement en forme d’un vecteur respectif de taille P2concaténant un ensemble d’actions préconisées pour l’aéronef 10. Ces actions préconisées sont par exemple un cap, une vitesse, une position à atteindre, une altitude, le choix d’un équipement, la sélection d’un capteur, la sélection d’un mode/paramètre d’usage d’un capteur ou équipement.The determination device 20 then calculates, during the next step 120 and via its calculation module 30, the list 32 of recommended action(s) for the aircraft 10 via the artificial intelligence algorithm, such as the neural network 60. The list 32 of recommended action(s) is then typically in the form of a respective vector of size P 2 concatenating a set of recommended actions for the aircraft 10. These actions recommended are for example a heading, a speed, a position to be reached, an altitude, the choice of equipment, the selection of a sensor, the selection of a mode/parameter for use of a sensor or equipment.
Comme décrit précédemment, l’algorithme d’intelligence artificielle mis en œuvre par le module de calcul 30 résulte d’un apprentissage, de préférence d’un apprentissage par renforcement. Cet apprentissage par renforcement est par exemple un algorithme DQN, c’est-à-dire un algorithme de Q-learning avec un estimateur neuronal, ou encore un algorithme de gradient de politique de type acteur-critique.As described previously, the artificial intelligence algorithm implemented by the calculation module 30 results from learning, preferably from reinforcement learning. This reinforcement learning is for example a DQN algorithm, i.e. a Q-learning algorithm with a neural estimator, or an actor-critic type policy gradient algorithm.
A l’issue de l’étape de calcul 120, le dispositif de détermination 20 affiche, lors de l’étape 130 et via son module d’affichage 34, la liste 32 d’action(s) préconisée(s) sur l’écran d’affichage 18 et/ou transmet, via son module de transmission 36 et lors de l’étape 140, la liste 32 d’action(s) préconisée(s) à au moins un système avionique 12 respectif.At the end of the calculation step 120, the determination device 20 displays, during step 130 and via its display module 34, the list 32 of recommended action(s) on the display screen 18 and/or transmits, via its transmission module 36 and during step 140, the list 32 of action(s) recommended(s) to at least one avionic system 12 respectively.
En complément facultatif, lors de l’étape optionnelle 150, le dispositif de détermination 20 évalue, via son module d’évaluation 38, mettant en œuvre l’algorithme de théorie des jeux, le ou les paramètres prépondérants dans le calcul 32 d’action(s) préconisée(s). Ce ou ces paramètres prépondérants sont par exemple la ou les images 24 qui ont eu le plus fort impact sur le calcul, effectué par l’algorithme d’intelligence artificielle, de la liste 32 d’action(s) préconisée(s). L’algorithme de théorie des jeux est par exemple basé sur la valeur de Shapley.As an optional complement, during the optional step 150, the determination device 20 evaluates, via its evaluation module 38, implementing the game theory algorithm, the predominant parameter(s) in the action calculation 32 (s) recommended. This or these preponderant parameters are for example the image or images 24 which have had the greatest impact on the calculation, carried out by the artificial intelligence algorithm, of the list 32 of recommended action(s). The game theory algorithm is for example based on the Shapley value.
Lors de cette étape d’évaluation 150, le ou les paramètres prépondérants sont en complément facultatif affichés à l’écran d’affichage 18.During this evaluation step 150, the predominant parameter or parameters are optionally displayed on the display screen 18.
Comme représenté sur la figure 3, cette étape d’évaluation est effectuée, d’une part, à partir de la liste 32 d’actions préconisées calculée par le module de calcul 30 lors de l’étape 120, et d’autre part, à partir de l’ensemble d’images 24 acquis lors de l’étape 100 par le module d’acquisition 22 et fourni en entrée de l’algorithme d’intelligence artificielle.As represented in FIG. 3, this evaluation step is carried out, on the one hand, from the list 32 of recommended actions calculated by the calculation module 30 during step 120, and on the other hand, from the set of images 24 acquired during step 100 by the acquisition module 22 and supplied as input to the artificial intelligence algorithm.
En complément facultatif encore, lors d’une étape optionnelle 160, le dispositif de détermination 20 sélectionne, via son module de sélection 40 et typiquement à partir d’une interaction de l’utilisateur, une fonction de récompense parmi la pluralité de fonctions de récompense R utilisées pour l’apprentissage de l’algorithme d’intelligence artificielle. L’interaction de l’utilisateur conduisant à cette sélection résulte par exemple de la liste 32 d’action(s) préconisée(s) affichée(s) lors de l’étape 130 et/ou des paramètres prépondérants évalués lors de l’étape 150 et permettant à l’utilisateur de mieux comprendre les paramètres ayant influencé le calcul de la liste 32 d’action(s) préconisée(s).As a further optional addition, during an optional step 160, the determination device 20 selects, via its selection module 40 and typically on the basis of user interaction, a reward function from among the plurality of reward functions. R used for artificial intelligence algorithm learning. The user interaction leading to this selection results for example from the list 32 of recommended action(s) displayed during step 130 and/or from the preponderant parameters evaluated during step 150 and allowing the user to better understand the parameters having influenced the calculation of the list 32 of recommended action(s).
Cette sélection de fonction de récompense lors de l’étape 160 aura alors une influence sur un futur calcul de liste(s) 32 d’action(s) préconisée(s), ce calcul de liste(s) 32 d’action(s) préconisée(s) étant alors effectué en utilisant l’ensemble de poids de réseau appris avec la fonction de récompense sélectionnée.This selection of reward function during step 160 will then have an influence on a future calculation of list(s) 32 of recommended action(s), this calculation of list(s) 32 of action(s) ) predicted(s) then being performed using the learned set of network weights with the selected reward function.
En complément facultatif encore, l’étape de calcul 120 comporte plusieurs itérations successives de l’algorithme d’intelligence artificielle, afin d’avoir une mise en œuvre anticipée de l’algorithme d’intelligence artificielle à des instants ultérieurs successifs, comme représenté sur la figure 4.As a further optional addition, the calculation step 120 comprises several successive iterations of the artificial intelligence algorithm, in order to have an anticipated implementation of the artificial intelligence algorithm at successive subsequent instants, as shown in Figure 4.
Dans l’exemple de la figure 4, partant d’une situation, ou d’un état, de l’aéronef à l’instant temporel t représenté par une sous-étape 200, le module de calcul 30 requiert lors d’une sous-étape 210 et auprès de l’algorithme d’intelligence artificielle, la liste 32 d’action(s) préconisée(s) au premier instant temporel ultérieur t+1, ce qui permet d’aboutir lors d’une sous-étape 220 à une situation, ou état, de l’aéronef 10 au premier instant temporel ultérieur t+1. La liste 32 d’action(s) préconisée(s) au premier instant temporel ultérieur t+1 et matérialisant la situation de l’aéronef 10 à cet instant est en outre affichée à l‘écran d’affichage 18 lors d’une sous-étape 230, et ainsi de suite. Le module de calcul 30 est notamment capable de poursuivre cette itération en partant de la situation, ou état, de l’aéronef au premier instant temporel ultérieur t+1 afin de calculer une nouvelle liste 32 d’action(s) préconisée(s) à un nouvel instant temporel ultérieur, tel que le deuxième instant temporel ultérieur t+2.In the example of FIG. 4, starting from a situation, or a state, of the aircraft at the time instant t represented by a sub-step 200, the calculation module 30 requests during a sub - step 210 and with the artificial intelligence algorithm, the list 32 of action(s) recommended at the first subsequent time instant t+1, which makes it possible to succeed during a sub-step 220 to a situation, or state, of the aircraft 10 at the first subsequent time instant t+1. The list 32 of action(s) recommended at the first subsequent time instant t+1 and materializing the situation of the aircraft 10 at this instant is also displayed on the display screen 18 during a sub -step 230, and so on. The calculation module 30 is in particular capable of continuing this iteration starting from the situation, or state, of the aircraft at the first subsequent time instant t+1 in order to calculate a new list 32 of recommended action(s) at a new subsequent time instant, such as the second subsequent time instant t+2.
Ainsi, le système d’affichage 16 selon l’invention, et en particulier le dispositif de détermination 20, ainsi que le procédé de détermination associé, permettent d’apporter à l’utilisateur, tel que le pilote de l’aéronef 10, une aide à la décision significative, notamment pour la gestion en temps réel de problème(s) complexe(s). En effet, le dispositif de détermination 20 permet de calculer facilement et efficacement la liste 32 d’action(s) préconisée(s), c’est-à-dire la liste 32 d’action(s) qu’il est recommandé pour l’utilisateur d’effectuer avec l’aéronef 10, ou encore qu’il est recommandé d’effectuer par le ou les systèmes avioniques 12 auxquels ladite liste 32 d’action(s) a été transmise, afin de gérer le problème complexe correspondant. La ou les actions à prendre pour l’aéronef 10 sont typiquement un cap à suivre, une vitesse à respecter, une position à atteindre, une consigne d’altitude, le choix d’un équipement, la sélection d’un capteur ou encore la sélection d’un mode/paramètre d’usage d’un capteur ou équipement.Thus, the display system 16 according to the invention, and in particular the determination device 20, as well as the associated determination method, make it possible to provide the user, such as the pilot of the aircraft 10, with a significant decision-making support, in particular for the real-time management of complex problem(s). Indeed, the determination device 20 makes it possible to easily and efficiently calculate the list 32 of recommended action(s), that is to say the list 32 of action(s) that is recommended for the user to perform with the aircraft 10, or that it is recommended to be performed by the avionic system or systems 12 to which said list 32 of action(s) has been transmitted, in order to manage the corresponding complex problem . The action or actions to be taken for the aircraft 10 are typically a heading to follow, a speed to respect, a position to reach, an altitude instruction, the choice of equipment, the selection of a sensor or even the selection of a mode/use parameter of a sensor or equipment.
En outre, de par le module d’évaluation 38, le dispositif de détermination 20 permet de mettre en œuvre une communication bidirectionnelle entre l’utilisateur et le dispositif de détermination 20, en particulier entre l’utilisateur et l’algorithme d’intelligence artificielle mis en œuvre par le dispositif de détermination 20, ce qui revient à mettre l’utilisateur dans la boucle. Cette communication bidirectionnelle entre l’utilisateur et l’algorithme d’intelligence artificielle provient également de la sélection possible d’un apprentissage par renforcement, et en particulier de la fonction de récompense utilisée pour ledit apprentissage, ceci via le module de sélection 40 et sur des données entièrement visuelles et interprétables par l’utilisateur. En outre, les images 24 sont préférentiellement des images interactives pour la prise en compte immédiate de modifications souhaitées par l’utilisateur.In addition, through the evaluation module 38, the determination device 20 makes it possible to implement two-way communication between the user and the determination device 20, in particular between the user and the artificial intelligence algorithm. implemented by the determination device 20, which amounts to putting the user in the loop. This two-way communication between the user and the artificial intelligence algorithm also comes from the possible selection of reinforcement learning, and in particular from the reward function used for said learning, this via the selection module 40 and on data that is entirely visual and interpretable by the user. In addition, the images 24 are preferentially interactive images for the immediate taking into account of modifications desired by the user.
L’évaluation via l’algorithme de théorie des jeux des actions préconisées, proposées par le dispositif de détermination 20, fournit également à l’utilisateur une explication des propositions de l’algorithme d’intelligence artificielle, ce qui lui permet de valider ou non lesdites propositions de l’algorithme d’intelligence artificielle.The evaluation via the game theory algorithm of the recommended actions, proposed by the determination device 20, also provides the user with an explanation of the proposals of the artificial intelligence algorithm, which allows him to validate or not said artificial intelligence algorithm proposals.
En outre, le dispositif de détermination 20 permet de calculer avec une plus grande robustesse et une plus grande efficacité la liste 32 d’actions(s) préconisée(s) vis-à-vis de nouveaux contextes ou situations, de par la mise en œuvre de l’algorithme d’intelligence artificielle qui s’adapte à de tels nouveaux contextes ou situations en traitant en variables d’entrée l’ensemble d’images 24 de zone(s) géo-référencée(s) et le groupe 28 de données contextuelles et en délivrant en sortie la liste 32 d’action(s) préconisée(s) à partir de ces variables d’entrée, l’algorithme d’intelligence artificielle ayant été préalablement entraîné sur une large variété d’images 24 et de données contextuelles correspondant à divers contextes et situations.In addition, the determination device 20 makes it possible to calculate with greater robustness and greater efficiency the list 32 of action(s) recommended with respect to new contexts or situations, by implementation of the artificial intelligence algorithm which adapts to such new contexts or situations by processing as input variables the set of images 24 of geo-referenced zone(s) and the group 28 of contextual data and delivering as output the list 32 of action(s) recommended from these input variables, the artificial intelligence algorithm having been previously trained on a wide variety of images 24 and contextual data corresponding to various contexts and situations.
En outre, lorsque l’algorithme d’intelligence artificielle est entraîné via un apprentissage par renforcement, tel qu’un algorithme DQN ou encore un algorithme de gradient de politique de type acteur-critique, le calcul de la liste 32 d’action(s) préconisée(s) est encore plus robuste et plus efficace.Furthermore, when the artificial intelligence algorithm is trained via reinforcement learning, such as a DQN algorithm or else an actor-critic type policy gradient algorithm, the calculation of the list 32 of action(s ) recommended is even more robust and efficient.
On conçoit ainsi que le dispositif de détermination 20 selon l’invention et le procédé de détermination associé permettent de déterminer une ou plusieurs actions préconisée(s) pour l’aéronef 10 de manière plus robuste et plus efficace vis-à-vis de nouveaux contextes ou situations.It can thus be seen that the determination device 20 according to the invention and the associated determination method make it possible to determine one or more recommended actions for the aircraft 10 in a more robust and more efficient manner with respect to new contexts. or situations.
Claims (10)
- acquisition (100) d’un ensemble d’image(s) (24) de zone(s) géo-référencée(s) relative(s) à l’aéronef (10),
- réception (110) d’un groupe (28) de donnée(s) contextuelle(s) relative(s) à l’aéronef (10),
- calcul (120) d’une liste (32) d’action(s) préconisée(s) pour l’aéronef (10), via un algorithme d’intelligence artificielle et à partir de l’ensemble d’image(s) (24) de zone(s) géo-référencée(s) et du groupe (28) de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, l’ensemble d’image(s) (24) de zone(s) géo-référencée(s), et d’autre part, le groupe (28) de donnée(s) contextuelle(s), et en variable de sortie la liste (32) d’action(s) préconisée(s).Method for determining at least one recommended action for an aircraft (10), the method being implemented by an electronic determination device (20) and comprising the following steps:
- acquisition (100) of a set of image(s) (24) of geo-referenced zone(s) relating to the aircraft (10),
- reception (110) of a group (28) of contextual data(s) relating to the aircraft (10),
- calculation (120) of a list (32) of recommended action(s) for the aircraft (10), via an artificial intelligence algorithm and from the set of image(s) (24) of geo-referenced zone(s) and of the group (28) of contextual data(s), the artificial intelligence algorithm comprising as input variables, on the one hand, the set of image(s) (24) of geo-referenced zone(s), and on the other hand, the group (28) of contextual data(s), and as an output variable the list (32) of recommended action(s).
l’algorithme d’intelligence artificielle comportant de préférence un réseau de neurones (60) avec, en tête, un premier sous-réseau de neurones (62) ayant pour variable d’entrée l’ensemble d’image(s) (24) de zone(s) géo-référencée(s), un deuxième sous-réseau de neurones (64) ayant pour variable d’entrée le groupe (28) de donnée(s) contextuelle(s), et en queue, un troisième sous-réseau de neurones (66) connecté en sortie des premier (62) et deuxième (64) sous-réseaux de neurones et ayant pour variable de sortie la liste (32) d’action(s) préconisée(s) ;
le premier sous-réseau de neurones (62) comportant de préférence des couches de convolutions, les deuxième (64) et troisième (66) sous-réseaux de neurones étant chacun un perceptron multicouche (MLP) comportant des couches denses.A method according to any preceding claim, wherein the artificial intelligence algorithm includes at least one neural network (60);
the artificial intelligence algorithm preferably comprising a neural network (60) headed by a first neural sub-network (62) having the set of image(s) (24) as input variable of geo-referenced zone(s), a second sub-network of neurons (64) having as input variable the group (28) of contextual data(s), and at the tail end, a third sub-network neural network (66) connected at the output of the first (62) and second (64) neural sub-networks and having as output variable the list (32) of recommended action(s);
the first neural subnetwork (62) preferably having layers of convolutions, the second (64) and third (66) neural subnetworks each being a multilayer perceptron (MLP) having dense layers.
l’apprentissage par renforcement étant de préférence choisi parmi le groupe consistant en : un algorithme de Q-learning avec un estimateur neuronal (DQN) ; un algorithme de gradient de politique de type acteur-critique, tel qu’un algorithme DDPG, un algorithme PPO ou un algorithme SAC ;
lorsque l’apprentissage par renforcement est un algorithme de gradient de politique de type acteur-critique, l’algorithme d’intelligence artificielle comportant de préférence encore au moins un réseau de neurones (60) dit(s) acteur(s) et l’apprentissage par renforcement comportant au moins un autre réseau de neurones dit(s) critique(s).A method according to any preceding claim, wherein the artificial intelligence algorithm is obtained via reinforcement learning;
the reinforcement learning being preferably selected from the group consisting of: a Q-learning algorithm with a neural estimator (DQN); an actor-critic type policy gradient algorithm, such as a DDPG algorithm, a PPO algorithm or an SAC algorithm;
when the reinforcement learning is an actor-critical type policy gradient algorithm, the artificial intelligence algorithm preferably further comprising at least one neural network (60) called actor(s) and the reinforcement learning comprising at least one other so-called critical neural network.
- un module d’acquisition (22) configuré pour acquérir un ensemble d’image(s) (24) de zone(s) géo-référencée(s) relative(s) à l’aéronef (10),
- un module de réception (26) configuré pour recevoir un groupe (28) de donnée(s) contextuelle(s) relative(s) à l’aéronef (10),
- un module de calcul (30) configuré pour calculer une liste (32) d’action(s) préconisée(s) pour l’aéronef (10), via un algorithme d’intelligence artificielle et à partir de l’ensemble d’image(s) (24) de zone(s) géo-référencée(s) et du groupe (28) de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, l’ensemble d’image(s) (24) de zone(s) géo-référencée(s), et d’autre part, le groupe (28) de donnée(s) contextuelle(s), et en variable de sortie la liste (32) d’action(s) préconisée(s).Electronic device (20) for determining at least one recommended action for an aircraft (10), the device (20) comprising:
- an acquisition module (22) configured to acquire a set of image(s) (24) of geo-referenced zone(s) relating to the aircraft (10),
- a reception module (26) configured to receive a group (28) of contextual data(s) relating to the aircraft (10),
- a calculation module (30) configured to calculate a list (32) of recommended action(s) for the aircraft (10), via an artificial intelligence algorithm and from the set of image(s) (24) of geo-referenced zone(s) and of the group (28) of contextual data(s), the artificial intelligence algorithm comprising as input variables, on the one hand, the set of image(s) (24) of geo-referenced zone(s), and on the other hand, the group (28) of contextual data(s), and output variable the list (32) of recommended action(s).
- un écran d’affichage (18), et
- un dispositif électronique (20) de détermination d’au moins une action préconisée pour l’aéronef (10),
caractérisé en ce que le dispositif (20) est selon la revendication précédente, et comprend en outre un module d’affichage (34) configuré pour afficher, sur l’écran d’affichage (18), une liste (32) d’action(s) préconisée(s) pour l’aéronef (10).An electronic display system (16) for an aircraft (10), the system (16) comprising:
- a display screen (18), and
- an electronic device (20) for determining at least one recommended action for the aircraft (10),
characterized in that the device (20) is according to the preceding claim, and further comprises a display module (34) configured to display, on the display screen (18), a list (32) of actions (s) recommended for the aircraft (10).
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2003959A FR3109436B1 (en) | 2020-04-21 | 2020-04-21 | Method and electronic device for determining at least one recommended action for an aircraft, associated computer program and electronic display system |
PCT/EP2021/060308 WO2021214098A1 (en) | 2020-04-21 | 2021-04-21 | Method and electronic device for determining at least one recommended action for an aircraft, associated computer program and associated electronic display system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2003959A FR3109436B1 (en) | 2020-04-21 | 2020-04-21 | Method and electronic device for determining at least one recommended action for an aircraft, associated computer program and electronic display system |
FR2003959 | 2020-04-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3109436A1 true FR3109436A1 (en) | 2021-10-22 |
FR3109436B1 FR3109436B1 (en) | 2022-04-29 |
Family
ID=72266397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2003959A Active FR3109436B1 (en) | 2020-04-21 | 2020-04-21 | Method and electronic device for determining at least one recommended action for an aircraft, associated computer program and electronic display system |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR3109436B1 (en) |
WO (1) | WO2021214098A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024218118A1 (en) * | 2023-04-17 | 2024-10-24 | Thales | Method and electronic device for assisting in the piloting of an aircraft via the monitoring of at least one operational criterion, and associated computer program and aircraft |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220292994A1 (en) * | 2021-03-12 | 2022-09-15 | The Boeing Company | Artificial intelligence powered emergency pilot assistance system |
US20230025154A1 (en) * | 2021-07-22 | 2023-01-26 | The Boeing Company | Dual agent reinforcement learning based system for autonomous operation of aircraft |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8600587B1 (en) * | 2010-09-16 | 2013-12-03 | Rockwell Collins, Inc. | System and method for determining an object threat level |
US9019128B1 (en) * | 2013-05-21 | 2015-04-28 | The Boeing Company | Augmented reality aircraft management system |
-
2020
- 2020-04-21 FR FR2003959A patent/FR3109436B1/en active Active
-
2021
- 2021-04-21 WO PCT/EP2021/060308 patent/WO2021214098A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8600587B1 (en) * | 2010-09-16 | 2013-12-03 | Rockwell Collins, Inc. | System and method for determining an object threat level |
US9019128B1 (en) * | 2013-05-21 | 2015-04-28 | The Boeing Company | Augmented reality aircraft management system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024218118A1 (en) * | 2023-04-17 | 2024-10-24 | Thales | Method and electronic device for assisting in the piloting of an aircraft via the monitoring of at least one operational criterion, and associated computer program and aircraft |
Also Published As
Publication number | Publication date |
---|---|
WO2021214098A1 (en) | 2021-10-28 |
FR3109436B1 (en) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021214098A1 (en) | Method and electronic device for determining at least one recommended action for an aircraft, associated computer program and associated electronic display system | |
US11537887B2 (en) | Action selection for reinforcement learning using a manager neural network that generates goal vectors defining agent objectives | |
US11662210B2 (en) | Performing navigation tasks using grid codes | |
EP3719603B1 (en) | Action control method and apparatus | |
CN112119406A (en) | Deep reinforcement learning using fast update cyclic neural network and slow update cyclic neural network | |
FR3103048A1 (en) | PROCESS AND DEVICE FOR GENERATING SYNTHETIC LEARNING DATA FOR ARTIFICIAL INTELLIGENCE MACHINE FOR AIRCRAFT LANDING AID | |
US20200166896A1 (en) | Deep reinforcement learning based models for hard-exploration problems | |
EP3701432A1 (en) | Distributional reinforcement learning using quantile function neural networks | |
FR3101703A1 (en) | AUTOMATIC LEARNING FOR MISSION SYSTEM | |
EP4066224A1 (en) | Decision assistance device and method for managing aerial conflicts | |
FR3103047A1 (en) | ARTIFICIAL NEURON NETWORK LEARNING PROCESS AND DEVICE FOR AIRCRAFT LANDING ASSISTANCE | |
US11694426B2 (en) | Determining traffic control features based on telemetry patterns within digital image representations of vehicle telemetry data | |
Tremblay et al. | Multimodal dynamics modeling for off-road autonomous vehicles | |
US20210397198A1 (en) | Enhanced vehicle operation | |
WO2015155202A1 (en) | System and method for determining flight parameters and fuel consumption of at least one flight phase of an aeroplane | |
CN113330458A (en) | Controlling agents using a potential plan | |
WO2022117765A1 (en) | Method and device for generating the path of a moving apparatus within a predetermined time constraint | |
FR3089624A1 (en) | Avionics method and system for generating an optimal vertical trajectory | |
WO2020165544A1 (en) | Identification of drivable areas with consideration of the uncertainty by a deep learning method | |
CN117648866A (en) | Technical method for landing boundary sliding at final approach stage of civil aircraft test flight | |
Milanov et al. | Method for clustering and identification of objects in laser scanning point clouds using dynamic logic | |
FR3110020A1 (en) | Method and electronic system for assisting in the management of the flight of an aircraft with management of loop (s), associated computer program | |
EP4055349A1 (en) | Method and device for generating learning data for an artificial intelligence machine for aircraft landing assistance | |
Parlange et al. | Leveraging single-shot detection and random sample consensus for wind turbine blade inspection | |
Musić et al. | Adaptive fuzzy mediation for multimodal control of mobile robots in navigation-based tasks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20211022 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |