Nothing Special   »   [go: up one dir, main page]

FR3082013A1 - Dispositif electronique de pilotage d'un drone, drone, procede de pilotage et programme d'ordinateur associes - Google Patents

Dispositif electronique de pilotage d'un drone, drone, procede de pilotage et programme d'ordinateur associes Download PDF

Info

Publication number
FR3082013A1
FR3082013A1 FR1854585A FR1854585A FR3082013A1 FR 3082013 A1 FR3082013 A1 FR 3082013A1 FR 1854585 A FR1854585 A FR 1854585A FR 1854585 A FR1854585 A FR 1854585A FR 3082013 A1 FR3082013 A1 FR 3082013A1
Authority
FR
France
Prior art keywords
image
drone
altitude
current
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1854585A
Other languages
English (en)
Inventor
Sergio Rodriguez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Parrot Drones SAS
Original Assignee
Parrot Drones SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Parrot Drones SAS filed Critical Parrot Drones SAS
Priority to FR1854585A priority Critical patent/FR3082013A1/fr
Publication of FR3082013A1 publication Critical patent/FR3082013A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • G05D1/0676Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Ce dispositif électronique (14) de pilotage d'un drone (10) comprend un module (30) d'acquisition d'au moins une image prise par un capteur d'images, notamment une image de référence d'une scène incluant la zone de décollage, prise à une altitude prédéfinie après le décollage du drone ; un module (32) de calcul d'au moins une image secondaire à partir de l'image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l'altitude prédéfinie. Il comprend un module (34) de détection, dans au moins une image secondaire, d'un ensemble de portion(s) caractéristique(s) ; et un module (36) de détermination d'une position du drone par rapport à la zone de décollage, en détectant dans l'image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l'ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l'ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires.

Description

La présente invention concerne un dispositif électronique de pilotage d’un drone.
L’invention concerne également un drone comprenant un tel dispositif électronique de pilotage.
L’invention concerne également un procédé de pilotage du drone.
L’invention concerne également un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en oeuvre un tel procédé de pilotage.
L’invention concerne le domaine des drones, c’est-à-dire des appareils motorisés volants pilotés à distance. L’invention concerne notamment des drones à voilure tournante propres à se déplacer dans l’air au moyen d’au moins un rotor actionné par au moins un moteur, aussi bien les drones mono-rotor que les drones multi-rotors, notamment des quadricoptères à quatre rotors. L’invention concerne également des drones à voilure fixe.
On connaît un dispositif électronique de pilotage comprenant un module d’acquisition configuré pour acquérir des images de référence d’une scène, prises à une ou plusieurs altitudes prédéfinies, typiquement de 6 à 10 mètres, après le décollage du drone depuis une zone de décollage, ladite scène incluant la zone de décollage.
Le dispositif de pilotage comprend un module de détection configuré pour détecter un ensemble de portion(s) caractéristique(s) dans les images de référence, et un module de guidage configuré pour, lors de l’atterrissage, guider le drone vers la zone de décollage initial, en détectant dans une image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec l’ensemble de portion(s) caractéristique(s) détecté dans les images de référence.
Toutefois, avec un tel dispositif de pilotage, le retour du drone à proximité de sa zone de décollage n’est pas optimal.
Le but de l’invention est alors de proposer un dispositif électronique de pilotage permettant d’améliorer le retour du drone à proximité de sa zone de décollage, tout en offrant une mise en oeuvre facilitée.
A cet effet, l’invention a pour objet un dispositif électronique de pilotage d’un drone, le dispositif comprenant :
- un module d’acquisition configuré pour acquérir au moins une image prise par un capteur d’images équipant le drone, le module d’acquisition étant configuré pour acquérir une image de référence d’une scène, prise à une altitude prédéfinie, après le décollage du drone depuis une zone de décollage, ladite scène incluant la zone de décollage,
- un module de calcul configuré pour calculer au moins une image secondaire à partir de l’image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l’altitude prédéfinie,
- un module de détection configuré pour détecter, dans au moins une image secondaire, un ensemble de portion(s) caractéristique(s), et
- un module de détermination configuré pour déterminer une position du drone par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires.
Avec le dispositif électronique de pilotage selon l’invention, le module de calcul calcule au moins une image secondaire à partir de l’image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l’altitude prédéfinie, et l’altitude prédéfinie à laquelle est prise l’image de référence peut être faible, par exemple de l’ordre d’un mètre.
Avec le dispositif électronique de pilotage de l’état de la technique, l’altitude prédéfinie à laquelle est prise l’image de référence est au contraire élevée, généralement supérieure à 5 mètres, voire à 10 mètres, ce qui est contraignant. Cette altitude prédéfinie élevée est nécessaire pour que le module de guidage puisse ensuite, lors de l’atterrissage du drone depuis un vol stationnaire à une altitude généralement comprise entre 10 m et 20 m, retrouver dans l’image courante acquise une ou plusieurs portions caractéristiques correspondant à celles préalablement détectées dans l’image de référence.
Suivant d’autres aspects avantageux de l’invention, le dispositif électronique de pilotage comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :
- le dispositif comprend en outre un module de guidage configuré pour, sur réception d’une instruction d’atterrissage, guider le drone vers une zone d’atterrissage, en fonction de la position du drone déterminée par le module de détermination ;
- le dispositif comprend en outre un deuxième module d’acquisition configuré pour acquérir la sélection d’un mode de retour à proximité de la zone de décollage, et si ledit mode de retour est sélectionné, le module de guidage est alors configuré pour, sur réception d’une instruction d’atterrissage, guider le drone vers la zone de décollage, en fonction de la position du drone déterminée par le module de détermination ;
- le module de détection est configuré pour détecter, dans chaque image parmi l’image de référence et la ou les images secondaires, un ensemble respectif de portion(s) caractéristique(s) ;
- le module de détermination est configuré pour comparer l’ensemble courant de portion(s) caractéristique(s) avec chaque ensemble détecté de portion(s) caractéristique(s) pour l’image de référence et la ou les images secondaires ;
- le module de détermination est configuré pour comparer l’ensemble courant de portion(s) caractéristique(s) avec l’ensemble détecté de portion(s) caractéristique(s) correspondant à l’image qui parmi l’image de référence et la ou les images secondaires est associée à l’altitude la plus proche d’une altitude courante du drone ; et
- le module de détermination est configuré en outre pour modifier une orientation de l’image courante en fonction d’une orientation de l’image de référence, préalablement à la détection dans l’image courante acquise de l’ensemble courant de portion(s) caractéristique(s).
L’invention a également pour objet un drone comprenant un dispositif électronique de pilotage, dans lequel le dispositif électronique de pilotage est tel que défini ci-dessus.
L’invention a également pour objet un procédé de pilotage d’un drone, le procédé étant mis en oeuvre par un dispositif électronique et comprenant les étapes consistant à :
- acquérir au moins une image prise par un capteur d’images équipant le drone, ladite étape comportant l’acquisition d’une image de référence d’une scène, prise à une altitude prédéfinie après le décollage du drone depuis une zone de décollage, ladite scène incluant la zone de décollage,
- calculer au moins une image secondaire à partir de l’image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l’altitude prédéfinie,
- détecter, dans au moins une image secondaire, un ensemble de portion(s) caractéristique(s), et
- déterminer une position du drone par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires.
L’invention a également pour objet un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en oeuvre un procédé de pilotage tel que défini ci-dessus.
Ces caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple non limitatif, et faite en référence aux dessins annexés, sur lesquels :
- la figure 1 est une représentation schématique d’un drone comprenant un dispositif électronique de pilotage, le dispositif électronique de pilotage comportant notamment un module d’acquisition d’image(s) prise(s) par un capteur d’images équipant le drone, en particulier d’une image de référence d’une scène, prise à une altitude prédéfinie, après le décollage du drone depuis une zone de décollage, un module de calcul d’au moins une image secondaire à partir de l’image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l’altitude prédéfinie, un module de détection, dans au moins une image secondaire, d’un ensemble de portion(s) caractéristique(s), et un module de détermination d’une position du drone par rapport à la zone de décollage, en détectant dans une image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires ;
- les figures 2 et 3 illustrent le calcul d’images secondaires à partir de l’image de référence acquise pour différentes altitudes ;
- la figure 4 est un organigramme d’un procédé de pilotage du drone selon l’invention ;
- la figure 5 est une représentation d’un exemple de machine d’états mise en oeuvre pour effectuer le procédé de pilotage selon l’invention ;
- la figure 6 est une comparaison de positions du drone déterminées par le dispositif de pilotage, représentées sous forme de points, avec celles déterminées par une centrale inertielle équipant le drone, représentées sous forme d’une courbe ;
- la figure 7 est une vue d’une image de référence acquise ;
- la figure 8 est une vue d’une image courante acquise ; et
- la figure 9 illustre la détection dans l’image courante acquise de portion(s) caractéristique(s) correspondant au(x) portion(s) caractéristique(s) associé(s) à la ou aux images secondaires, et la détermination d’une altitude du drone à partir de cette détection.
Dans la suite de la description, l’expression « sensiblement égal à >> s’entend comme une relation d’égalité à plus ou moins 10%, c’est-à-dire avec une variation d’au plus 10%, de préférence encore comme une relation d’égalité à plus ou moins 5%, c’est-à-dire avec une variation d’au plus 5%. De même, l’expression « sensiblement parallèle à >>
s’entend comme une relation de parallélisme à plus ou moins 10°, de préférence encore comme une relation de parallélisme à plus ou moins 5°.
Sur la figure 1, un drone 10, c’est-à-dire un aéronef sans pilote à bord, comprend une caméra 12 et un dispositif électronique de pilotage 14.
Le drone 10 est un engin volant motorisé pilotable à distance, notamment via une manette 16 équipée d’un écran d’affichage 18, permettant à l’utilisateur de saisir ses commandes de vol.
Le drone 10 est par exemple un drone à voilure tournante, comportant au moins un rotor 20. Sur la figure 1, le drone 10 comporte une pluralité de rotors 20, et est alors appelé drone multirotor. Le nombre de rotors 20 est par exemple égal à 4, et le drone 10 est alors un drone quadrirotor. En variante, non représentée, le drone 10 est un drone à voilure fixe.
Le drone 10 comporte un module de transmission 22 configuré pour échanger des données, de préférence par ondes radioélectriques, avec un ou plusieurs équipements électroniques, notamment avec la manette 16, voire avec d’autres équipements électroniques pour la transmission de la ou des images acquises par la caméra 12 et/ou d’autres informations relatives au drone 10, telles qu’une altitude, une inclinaison, une vitesse, un état de vol, une qualité de géolocalisation GPS ou Galliléo, une charge d’une batterie équipant le drone 10.
La caméra 12 est par exemple une caméra montée sur une nacelle (de l’anglais gimbal), de préférence stabilisatrice, non représentée. En variante, la caméra 12 est une caméra à visée frontale permettant d’obtenir une image d’une scène vers laquelle est orienté le drone 10. En variante encore, la caméra 12 est une caméra à visée verticale, non représentée, pointant vers le bas et configurée pour capter des images successives d’un terrain survolé par le drone 10.
La caméra 12 comporte au moins un capteur d’image(s) et un objectif associé au capteur d’image(s), non représentés. Le capteur d’image(s) comprend par exemple un photodétecteur matriciel comportant une pluralité de photosites, chaque photosite correspondant à un pixel respectif de l’image prise par le capteur. Le capteur d’image(s) s’étend alors suivant un plan d’extension, et le plan d’extension correspond au plan du photodétecteur matriciel. L’objectif est par exemple un objectif à focale fixe, tel qu’un objectif hémisphérique de type hypergone (de l’anglais fisheye), c’est-à-dire couvrant un champ visuel ayant un angle de vue, également appelé champ de vue et noté FOV (de l’anglais Field Of View), de valeur élevée, de l’ordre de 180° ou plus. Lbbjectif est disposé devant le capteur d’image(s) de façon que le capteur d’image(s) capte les images à travers l’objectif. En variante, l’objectif est un objectif avec une focale variable.
Le dispositif électronique de pilotage 14 comprend un premier module d’acquisition 30 configuré pour acquérir au moins une image prise par le capteur d’images équipant le drone 10, le premier module d’acquisition 30 étant configuré pour acquérir une image de référence lR d’une scène, prise à une altitude prédéfinie Zref, après le décollage du drone 10 depuis une zone de décollage, ladite scène incluant la zone de décollage.
Le dispositif électronique de pilotage 14 comprend un module de calcul 32 configuré pour calculer au moins une image secondaire Is à partir de l’image de référence acquise lR, chaque image secondaire Is correspondant à une altitude supérieure à l’altitude prédéfinie Zref.
Le dispositif électronique de pilotage 14 comprend également un module de détection 34 configuré pour détecter, dans au moins une image secondaire Is, un ensemble de portion(s) caractéristique(s), et un module de détermination 36 configuré pour déterminer une position du drone par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires Is.
En complément facultatif, le dispositif électronique de pilotage 14 comprend en outre un module de guidage 38 configuré pour, sur réception d’une instruction d’atterrissage, guider le drone 10 vers une zone d’atterrissage, en fonction de la position du drone 10 déterminée par le module de détermination 36.
En complément facultatif encore, le dispositif électronique de pilotage 14 comprend en outre un deuxième module d’acquisition 39 configuré pour acquérir la sélection d’un mode de retour à proximité de la zone de décollage, et si ledit mode de retour est sélectionné, le module de guidage 38 est alors configuré pour, sur réception d’une instruction d’atterrissage, guider le drone 10 vers la zone de décollage, en fonction de la position du drone 10 déterminée par le module de détermination 36. Autrement dit, le module de guidage 38 est alors configuré pour guider le drone 10 vers une zone d’atterrissage proche de la zone de décollage.
Dans l’exemple de la figure 1, le dispositif électronique de pilotage 14 comporte une unité de traitement d’informations 40, formée par exemple d’une mémoire 42 et d’un processeur 44, tel qu’un processeur de type CPU (de l’anglais Central Processing Unit), de type GPU (de l’anglais Graphies Processing Unit), ou de type VPU (de l’anglais Vision Processing Unit), associé à la mémoire 42.
Dans l’exemple de la figure 1, le dispositif électronique de pilotage 14 est embarqué à bord du drone 10.
L’homme du métier comprendra que le dispositif électronique de pilotage 14 n’est pas nécessairement embarqué à bord du drone 10 et qu’en variante, non représentée, le dispositif électronique de pilotage 14 est au moins partiellement externe au drone 10. Selon cette variante, le dispositif électronique de pilotage 14 est par exemple au moins partiellement embarqué dans la manette 16, notamment lorsque la manette 16 est un ordiphone. Le module de calcul 32 et le module de détection 34 sont par exemple disposés à l’extérieur du drone 10, et sont distincts du drone 10, et sont alors typiquement embarqués dans ladite manette 16.
En variante encore, le dispositif électronique de pilotage 14 est totalement, ou encore intégralement, disposé à l’extérieur du drone 10. L’ensemble du dispositif électronique de pilotage 14 est alors distinct du drone 10, et par exemple embarqué dans la manette 16, notamment lorsqu’elle est en forme d’un ordiphone ou d’une tablette électronique.
La manette 16 est connue en soi et permet de piloter le drone 10. Dans l’exemple de la figure 1, la manette 16 est mise en oeuvre via un ordiphone (de l’anglais smartphone) ou une tablette électronique, comportant l’écran d’affichage 18, de préférence tactile.
En variante non représentée ou en complément, la manette 16 comprend deux poignées de préhension, chacune étant destinée à être saisie par une main respective du pilote, une pluralité d’organes de commande, dont deux manches à balai (de l’anglais Joystick), chacun étant disposé à proximité d’une poignée de préhension respective et étant destiné à être actionné par le pilote, de préférence par un pouce respectif.
La manette 16 comprend une antenne radioélectrique et un émetteur-récepteur radioélectrique, non représentés, pour l’échange de données par ondes radioélectriques avec le drone 10, à la fois en liaison montante et en liaison descendante.
Dans l’exemple de la figure 1, le premier module d’acquisition 30, le module de calcul 32, le module de détection 34 et le module de détermination 36, ainsi qu’en complément facultatif le module de guidage 38 et le deuxième module d’acquisition 39, sont réalisés chacun sous forme d’un logiciel exécutable par le processeur 44. La mémoire 42 de l’unité de traitement d’informations 40 est alors apte à stocker un premier logiciel d’acquisition configuré pour acquérir au moins une image prise par le capteur d’images équipant le drone 10, le premier logiciel d’acquisition étant configuré pour acquérir l’image de référence lR d’une scène, prise à l’altitude prédéfinie Zref, après le décollage du drone 10 depuis la zone de décollage, un logiciel de calcul configuré pour calculer au moins une image secondaire Is à partir de l’image de référence acquise lR, chaque image secondaire Is correspondant à une altitude supérieure à l’altitude prédéfinie Zref, un logiciel de détection configuré pour détecter, dans au moins une image secondaire Is, l’ensemble de portion(s) caractéristique(s), et un logiciel de détermination configuré pour déterminer une position du drone par rapport à la zone de décollage, en détectant dans l’image courante acquise l’ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires Is. En complément facultatif, la mémoire 42 de l’unité de traitement d’informations 40 est apte à stocker un logiciel de guidage configuré pour, sur réception d’une instruction d’atterrissage, guider le drone 10 vers la zone d’atterrissage, en fonction de la position du drone 10 déterminée par le logiciel de détermination. En complément facultatif encore, la mémoire 42 de l’unité de traitement d’informations 40 est apte à stocker un deuxième logiciel d’acquisition configuré pour acquérir la sélection d’un mode de retour à proximité de la zone de décollage, et si ledit mode de retour est sélectionné, le logiciel de guidage est alors configuré pour, sur réception d’une instruction d’atterrissage, guider le drone 10 vers la zone de décollage, en fonction de la position du drone 10 déterminée par le logiciel de détermination. Le processeur 44 est alors apte à exécuter le premier logiciel d’acquisition, le logiciel de calcul, le logiciel de détection et le logiciel de détermination, ainsi qu’en complément facultatif le logiciel de guidage et le deuxième logiciel d’acquisition.
En variante non représentée, le premier module d’acquisition 30, le module de calcul 32, le module de détection 34 et le module de détermination 36, ainsi qu’en complément facultatif le module de guidage 38 et le deuxième module d’acquisition 39, sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglais Field Programmable Gate Array), ou encore sous forme d’un circuit intégré dédié, tel qu’un ASIC (de l’anglais Application Specific Integrated Circuit).
Lorsque le dispositif électronique de pilotage 14 est réalisé sous forme d’un ou plusieurs logiciels, c’est-à-dire sous forme d’un programme d’ordinateur, il est en outre apte à être enregistré sur un support, non représenté, lisible par ordinateur. Le support lisible par ordinateur est par exemple, un médium apte à mémoriser des instructions électroniques et à être couplé à un bus d’un système informatique. A titre d’exemple, le support lisible est un disque optique, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, tout type de mémoire non volatile (par exemple EPROM, EEPROM, FLASH, NVRAM), une carte magnétique ou une carte optique. Sur le support lisible est alors mémorisé un programme d’ordinateur comprenant des instructions logicielles.
Le module de calcul 32 est configuré pour calculer au moins une image secondaire Is, de préférence plusieurs images secondaires Is, à partir de l’image de référence acquise lR, chaque image secondaire Is correspondant à une altitude respective supérieure à l’altitude prédéfinie Zref qui est associée à l’image de référence acquise lR.
Dans l’exemple des figures 2 et 3, les images secondaires Is calculées correspondent à des octaves successives d’une octave 0 associée à l’image de référence acquise Ir.
Autrement dit, le module de calcul 32 est par exemple configuré pour calculer les images secondaires Is à partir de l’image de référence acquise Ir, selon une implémentation de type pyramidale, comme représenté sur la figure 2, la pyramide 50 comportant plusieurs niveaux 52 et l’image lK associée à un niveau K respectif étant une image souséchantillonnée de l’image lK_1 associée au niveau précédent K-1. K est un indice représentant le niveau et compris entre 0 et N, 0 désignant le niveau initial correspondant l’image de référence acquise Ir et 1, ..., N désignant les niveaux suivants correspondant chacun à une image secondaire Is calculée.
L’image lN la plus sous-échantillonnée correspond alors au niveau final N, ou encore au niveau supérieur de la pyramide 50. L’image l° associée au niveau initial 0, ou encore au niveau inférieur de la pyramide 50, est l’image de référence Ir telle qu’acquise par le premier module d’acquisition 30. En d’autres termes, l’image l° associée au niveau initial 0 n’est pas sous-échantillonnée. En termes de notations, l’image l° désigne l’image de référence Ir, et les images I1, ..., IN désignent les images secondaires Is calculées successivement, celles-ci étant par exemple notées Is1 pour la première image secondaire calculée correspondant au niveau 1, Is2 pour la deuxième image secondaire calculée correspondant au niveau 2 et à l’image I2, ... et lsN pour la dernière image secondaire calculée correspondant au niveau final N et à l’image lN.
Le facteur F de sous-échantillonnage d’un niveau K au niveau suivant K+1 est par exemple égal à 2. Le nombre de niveaux 52, égal à N+1, est, par exemple, compris entre 2 et 5, et de préférence égal à 4. Autrement dit, N est, par exemple, compris entre 1 et 4, et de préférence égal à 3.
L’image de référence acquise Ir présente un petit côté A et un grand côté B, chacun exprimé en nombre de pixels, soit une résolution B x A. La première image secondaire calculée Is1 correspondant au niveau 1 a alors une résolution égale (B/F) x (A/F), la deuxième image secondaire calculée Is2 correspondant au niveau 2 a alors une résolution égale (B/F2) x (A/F2), et la dernière image secondaire calculée lsN correspondant au niveau final N a alors une résolution égale (B/FN) x (A/FN).
Dans l’exemple des figures 2 et 3, où F est égal à 2 et où A et B sont respectivement égaux à 240 pixels et 360 pixels, l’image de référence acquise Ir a une résolution de 320 x 240 pixels, la première image secondaire calculée Is1 a une résolution de 160 x 120 pixels, la deuxième image secondaire calculée Is2 a une résolution de 80 x 60 pixels, et la troisième image secondaire calculée Is3 a une résolution de 40 x 30 pixels, N étant égal à 3 dans cet exemple.
Le sous-échantillonnage de l’image lK associée à un niveau K par rapport à l’image lK_1 associée au niveau précédent K-1 est, par exemple, obtenu en calculant chaque pixel de l’image lK à partir de F2 pixels de l’image lK_1, chaque pixel de l’image lK étant par exemple une moyenne de F2 pixels correspondants de l’image lK_1, F représentant le facteur de souséchantillonnage. Dans l’exemple des figures 2 et 3, F est égal à 2, et chaque pixel de l’image lK dépend alors de 4 pixels de l’image lK_1, en étant par exemple une moyenne de ces 4 pixels.
L’altitude correspondant à chaque image secondaire Is calculée est par exemple un multiple respectif de l’altitude prédéfinie Zref qui est associée à l’image de référence acquise Ir.
Dans l’exemple de l’implémentation de type pyramidale de la figure 2, ce multiple respectif est un multiple dépendant du facteur F de sous-échantillonnage d’un niveau K au niveau suivant K+1.
L’altitude correspondant à la première image secondaire calculée Is1 est alors par exemple égale à F x Zref, celle correspondant à la deuxième image secondaire calculée Is2 est égale à F2 x Zref, et celle correspondant à la dernière image secondaire calculée lsN égale à FN x Zref.
L’altitude correspondant à chaque image secondaire calculée Is vérifie alors par exemple l’équation suivante :
Zi = Fi-Zref (1) où Z, représente l’altitude correspondant à la ième image secondaire calculée, i est un indice entier compris entre 1 et N, représentant le numéro de l’image secondaire calculée parmi la succession d’images secondaires calculées Is,
F représente le facteur de sous-échantillonnage de l’image de référence acquise Ir à la 1ère image secondaire calculée, ou encore d’une image secondaire calculée à la suivante, et
Zref représente l’altitude prédéfinie.
L’altitude prédéfinie Zref est par exemple comprise entre 1 mètre et 5 mètres.
Dans l’exemple des figures 2 et 3, où F est égal à 2 et N est égal à 3, pour une altitude prédéfinie Zref égale à 1 mètre, les altitudes respectives correspondant aux N images secondaires calculées Is sont alors égales à 2 mètres, 4 mètres et 8 mètres. De manière analogue, pour une altitude prédéfinie Zref égale à 3 mètres, les altitudes respectives correspondant aux N images secondaires calculées Is sont alors égales à 6 mètres, 12 mètres et 24 mètres.
Le module de détection 34 est configuré pour détecter un ensemble de portion(s) caractéristique(s) dans au moins une image secondaire Is, de préférence dans chaque image parmi l’image de référence lR et la ou les images secondaires Is.
Le module de détection 34 est configuré pour détecter d’abord un ensemble de point(s) caractéristique(s) dans l’image Is, Ir correspondante via la mise en oeuvre d’un algorithme de détection de point(s) caractéristique(s), puis pour caractériser, via la mise en oeuvre d’un algorithme de caractérisation, une portion de l’image associée à chaque point caractéristique détecté.
L’homme du métier comprendra que la portion de l’image associée à chaque point caractéristique détecté correspond à un voisinage de ce point, également appelé descripteur, une telle portion étant ensuite plus à même d’être identifiée par comparaison dans une nouvelle image qu’un simple point.
L’algorithme de détection de point(s) caractéristique(s) est, par exemple, un algorithme de caractéristiques issues de tests accélérés de segments, également appelé FAST (de l’anglais Features from Accelerated Segment Test), ou un algorithme de détection de coins de type Harris, également appelé Harris Corner (de l’anglais Harris Corner Detector).
L’algorithme de caractérisation est, par exemple, un algorithme BRIEF (de l’anglais Binary Robust Independent Elementary Features), ou un algorithme ORB qui est une combinaison des algorithmes FAST et BRIEF (de l’anglais Oriented FAST and rotated BRIEF), ou un algorithme BRISK (de l’anglais Binary Robust Invariant Scalable Keypoints), ou encore un algorithme FREAK (de l’anglais Fast REtinA Keypoint).
En variante, l’algorithme mis en oeuvre par le module de détection 34 est par exemple un algorithme de transformation de caractéristiques visuelles invariante à l'échelle, également appelé SIFT (de l’anglais Scale-Invariant Feature Transform), qui est à la fois un algorithme de détection de point(s) caractéristique(s) et de de caractérisation, en fournissant en sortie la ou les portions caractéristiques détectées, sous forme de descripteurs SIFT.
En variante encore, l’algorithme mis en oeuvre par le module de détection 34 est par exemple un algorithme de caractéristiques robustes accélérées, également appelé SURF (de l’anglais Speeded Up Robust Features), qui est à la fois un algorithme de détection de point(s) caractéristique(s) et de de caractérisation, en fournissant en sortie la ou les portions caractéristiques détectées, sous forme de descripteurs SURF.
Le module de détermination 36 est configuré pour déterminer la position du drone 10 par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s).
Le module de détermination 36 est de préférence configuré pour comparer ensuite l’ensemble courant de portion(s) caractéristique(s) avec chaque ensemble détecté de portion(s) caractéristique(s) pour l’image de référence lR et la ou les images secondaires Is.
Le module de détermination 36 est de préférence encore configuré pour comparer l’ensemble courant de portion(s) caractéristique(s) avec l’ensemble détecté de portion(s) caractéristique(s) correspondant à l’image qui parmi l’image de référence lR et la ou les images secondaires Is est associée à l’altitude la plus proche d’une altitude courante du drone 10.
L’altitude courante est par exemple estimée via une centrale inertielle, non représentée, ou encore via un dispositif de géolocalisation, tel qu’un dispositif de positionnement par satellite, par exemple GPS ou Galliléo, équipant le drone 10.
A titre d’exemple, en supposant l’altitude courante du drone 10 sensiblement égale à 20 mètres et les altitudes correspondant aux N images secondaires calculées Is respectivement égales à 6 mètres, 12 mètres et 24 mètres avec l’exemple précédent de l’altitude prédéfinie Zref égale à 3 mètres, alors le module de détermination 36 est configuré pour comparer dans ce cas l’ensemble courant de portion(s) caractéristique(s) avec l’ensemble détecté de portion(s) caractéristique(s) associé à la 3ème image secondaire calculée, l’altitude courante de 20 mètres étant plus proche de 24 mètres que de 12 mètres.
Le module de détermination 36 est configuré en outre pour modifier une orientation de l’image courante en fonction d’une orientation de l’image de référence lR, préalablement à la détection dans l’image courante acquise de l’ensemble courant de portion(s) caractéristique(s).
Le module de détermination 36 est alors de préférence configuré pour modifier l’orientation de l’image courante de manière à ce qu’elle soit identique à celle de l’image de référence lR, en appliquant à l’image courante une rotation d’angle égal à la différence angulaire entre l’orientation de l’image de référence lR et l’orientation de l’image courante avant modification. Ceci permet que l’image prise en compte ait alors la même orientation que l’image de référence lR.
Le module de détermination 36 est alors configuré pour établir une correspondance entre une ou des portions caractéristiques de l’ensemble courant de portions caractéristiques associé à l’image courante et une ou des portions caractéristiques de l’ensemble détecté de portions caractéristiques associé à la ou aux images secondaires Is voire à l’image de référence lR. Le module de détermination 36 est par exemple configuré pour établir cette correspondance via une méthode RANSAC (de l’anglais RANdom SAmple Consensus), et les correspondances entre portions caractéristiques sont déduites des « inliers » obtenus via la méthode RANSAC, c’est-à-dire aux données pertinentes, par opposition aux « outliers » correspondant aux données non-pertinentes.
Le module de détermination 36 est alors, de par cette ou ces correspondances, apte à identifier la zone de décollage dans l’image courante, puis à déterminer la position du drone 10 par rapport à la zone de décollage en fonction de l’emplacement de la représentation de la zone de décollage identifiée à l’intérieur de l’image courante.
Le fonctionnement du dispositif électronique de pilotage 14 selon l’invention va être à présent expliqué en regard de la figure 4 représentant un organigramme du procédé de pilotage du drone 10 selon l’invention.
Lors de chaque étape 100, le dispositif de pilotage 14 acquiert, via son premier module d’acquisition 30, au moins une image prise par le capteur d’images équipant le drone 10.
Initialement, lorsque le drone 10 est sensiblement à l’altitude prédéfinie Zref après le décollage du drone 10, le dispositif de pilotage 14 acquiert, via son premier module d’acquisition 30, l’image de référence lR d’une scène incluant la zone de décollage.
Le dispositif de pilotage 14 calcule, ensuite lors de l’étape suivante 110 et via son module de calcul 32, au moins une image secondaire Is à partir de l’image de référence lR acquise, chaque image secondaire Is correspondant à une altitude supérieure à l’altitude prédéfinie Zref.
Le dispositif de pilotage 14 calcule de préférence plusieurs images secondaires Is à partir de l’image de référence acquise lR, selon une implémentation de type pyramidale, comme représenté sur la figure 2.
L’altitude associée à chaque image secondaire Is calculée vérifie par exemple l’équation (1) précédente.
Lors de l’étape suivante 120, le dispositif de pilotage 14 détecte, via son module de détection 34, un ensemble de portion(s) caractéristique(s) dans au moins une image secondaire Is, et de préférence dans chaque image parmi l’image de référence lR et la ou les images secondaires Is.
Cette détection comporte la mise en oeuvre d’un algorithme de détection de point(s) caractéristique(s), tel que FAST ou Harris Corners ; suivie de la mise en oeuvre d’un algorithme de caractérisation, tel que ORB, BRISK, FREADK, ou encore BRIEF. L’homme du métier observera qu’en variante, l’algorithme de détection de point(s) caractéristique(s) et l’algorithme de caractérisation sont un unique algorithme, tel que l’algorithme SIFT ou encore l’algorithme SURF.
Le dispositif de pilotage 14 détermine, ensuite lors de l’étape suivante 130 et via son module de détermination 36, la position du drone 10 par rapport à la zone de décollage, en détectant l’ensemble courant de portion(s) caractéristique(s)dans l’image courante acquise, puis en comparant ledit ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires Is voire à l’image de référence lR.
Lors de l’étape suivante 140, le dispositif électronique de pilotage 14 détermine, via son deuxième module d’acquisition 39, si le mode de retour à proximité de la zone de décollage a été sélectionné par l’utilisateur ou prédéfini selon le type de drone 10, et acquiert le cas échéant cette sélection via son deuxième module d’acquisition 39.
Si, lors de l’étape 140, aucune sélection du mode de retour à proximité de la zone de décollage n’est acquise, le dispositif électronique de pilotage 14 retourne alors à l’étape 100 pour acquérir une nouvelle image courante.
Lorsqu’une sélection du mode de retour à proximité de la zone de décollage a été acquise lors de l’étape 140, le dispositif électronique de pilotage 14 passe ensuite à l’étape 150 pour guider, via son module de guidage 38, le drone 10 vers une zone d’atterrissage la plus proche possible de la zone de décollage, en fonction de la position du drone 10 déterminée par le module de détermination 36.
A la fin de l’étape 150, le dispositif électronique de pilotage 14 retourne à l’étape 100 pour acquérir une nouvelle image courante.
L’homme du métier observera que les étapes 110 et 120 sont effectuées une seule fois après l’acquisition initiale de l’image de référence lR lors de l’étape 100, et que lorsque le dispositif électronique de pilotage 14 retourne ensuite à l’étape 100 pour acquérir une image courante ou une nouvelle image courante, il passe directement de l’étape d’acquisition 100 à l’étape 130 de détermination de la position du drone 10 par rapport à la zone de décollage.
Sur la figure 5, représentant un exemple de machine d’états mise en oeuvre pour effectuer le procédé de pilotage selon l’invention, lors d’un état inactif 200, le drone 10 est posé, c’est-à-dire au contact du sol, dans l’attente d’une instruction de décollage.
Le dispositif de pilotage 14 reste dans cet état inactif 200 en bouclant selon la flèche F1, tant qu’il n’a pas reçu d’instruction de décollage. Dans cet état inactif 200, le dispositif de pilotage 14 acquiert, via un dispositif de mesure, tel que la centrale inertielle, une position du drone 10 dans cet état, c’est-à-dire une position de décollage.
Après avoir reçu une instruction de décollage, le dispositif de pilotage 14 passe, selon la flèche F2, de l’état inactif 200 à un état initial 210.
Dans cet état initial 210, le dispositif de pilotage 14 acquiert, via le dispositif de mesure, une nouvelle position du drone, également appelée position initiale, et la compare à la position de décollage du drone 10 pour déterminer si des conditions de passage dans un état d’apprentissage 220 sont remplies ou non.
Les conditions de passage dans l’état d’apprentissage 220 sont par exemple un écart inférieur à 0,5 mètre selon les axes longitudinal X et transversal Y du référentiel terrestre entre la position initiale et la position de décollage, et une altitude en position initiale supérieure ou égale à l’altitude prédéfinie Zref par rapport au sol, c’est-à-dire un écart supérieur à l’altitude prédéfinie Zref selon l’axe vertical Z du référentiel terrestre entre la position initiale et la position de décollage.
Si lors de la transition de l’état inactif 200 à l’état initial 210, le drone 10 s’est trop décalé latéralement par rapport à la position de décollage, et que l’écart entre la position initiale et la position de décollage est supérieur à 0,5 mètre selon l’un des axes longitudinal X et transversal Y du référentiel terrestre, alors le dispositif de pilotage 14 retourne à l’état inactif 200 selon la flèche F3. L’aide à l’atterrissage du drone 10 via la détection de la zone de décollage dans l’image courante n’est alors pas mise en oeuvre pour ce vol.
Depuis l’état initial 210, le dispositif de pilotage 14 retourne également à l’état inactif 200 selon la flèche F3, en cas de réception d’une instruction d’atterrissage de l’utilisateur, d’une instruction d’urgence, par exemple en cas d’énergie électrique restante insuffisante, ou encore d’une instruction d’atterrissage urgent, par exemple en cas de vent trop fort ou de collision avec un obstacle.
Depuis l’état initial 210, le dispositif de pilotage 14 passe à l’état d’apprentissage 220 selon la flèche F4 dès que les conditions de passage précitées sont remplies.
Enfin, si l’écart entre la position initiale et la position de décollage est inférieur à 0,5 mètre selon les axes longitudinal X et transversal Y du référentiel terrestre, mais que l’altitude par rapport au sol n’est pas encore à l’altitude prédéfinie Zref, le dispositif de pilotage 14 reste dans cet état initial 210 en bouclant selon la flèche F4’, jusqu’à ce que l’altitude par rapport au sol soit égale à l’altitude prédéfinie Zref.
Dans cet état d’apprentissage 220, effectué sensiblement à l’altitude prédéfinie Zref, le dispositif de pilotage 14 acquiert l’image de référence lR de la scène incluant la zone de décollage, puis calcule au moins une image secondaire Is, et de préférence plusieurs images secondaires Is, à partir de l’image de référence lR acquise, et détecte ensuite un ensemble de portion(s) caractéristique(s) dans au moins une image secondaire Is, et de préférence dans chaque image parmi l’image de référence lR et la ou les images secondaires Is.
Si lors de cet état d’apprentissage 220, le dispositif de pilotage 14 ne détecte aucune portion caractéristique, l’image de référence lR ne contenant aucune caractéristique particulière, alors le dispositif de pilotage 14 retourne à l’état inactif 200 selon la flèche F5.
L’aide à l’atterrissage du drone 10 via la détection de la zone de décollage dans l’image courante n’est plus mise en œuvre pour ce vol.
Après avoir effectué les opérations précitées dans l’état d’apprentissage 220 et détecté au moins une portion caractéristique, passe selon la flèche F6 à l’état prêt 230, indiquant que le dispositif de pilotage 14 est prêt à mettre en œuvre une fonction d’atterrissage de précision, avec aide à l’atterrissage du drone 10 via la détection de la zone de décollage dans l’image courante, pour que l’atterrissage s’effectue aussi près que possible de la zone de décollage.
Le dispositif de pilotage 14 reste dans cet état prêt 230 en bouclant selon la flèche F7, tant qu’il n’a pas reçu d’instruction d’atterrissage. Cet état prêt 230 correspond à une phase de vol principal ou à une phase de vol stationnaire avant atterrissage.
Après avoir reçu une instruction d’atterrissage, le dispositif de pilotage 14 passe ensuite, selon la flèche F8, de l’état prêt 230 à un état d’atterrissage de précision 240.
Depuis l’état prêt 230, le dispositif de pilotage 14 retourne également à l’état inactif 200 selon la flèche F9, en cas de réception d’une instruction d’urgence, ou encore d’une instruction d’atterrissage urgent. L’aide à l’atterrissage du drone 10 via la détection de la zone de décollage dans l’image courante n’est plus mise en œuvre pour ce vol.
Depuis l’état d’atterrissage de précision 240, le dispositif de pilotage 14 retourne selon la flèche F10 à l’état prêt 230, en cas de réception d’une instruction de vol annulant l’instruction d’atterrissage précédemment reçue, telle qu’une instruction de montée du drone 10.
Le dispositif de pilotage 14 reste dans cet état d’atterrissage de précision 240, en bouclant selon la flèche F11, tant que l’instruction d’atterrissage reste active.
Dans cet état d’atterrissage de précision 240, le dispositif de pilotage 14 met en œuvre la fonction d’atterrissage de précision, avec aide à l’atterrissage du drone 10 via la détection de la zone de décollage dans l’image courante. A cet effet, le dispositif de pilotage 14 détermine la position du drone 10 par rapport à la zone de décollage, en détectant l’ensemble courant de portion(s) caractéristique(s) dans l’image courante acquise, puis en comparant ledit ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires Is voire à l’image de référence IR, puis guide progressivement le drone 10 vers une zone d’atterrissage la plus proche possible de la zone de décollage, en fonction de la position du drone 10 ainsi déterminée.
Lorsque le drone 10 est posé, et est alors à nouveau en contact avec le sol, le dispositif de pilotage 14 retourne enfin à l’état inactif 200 selon la flèche F12.
Sur la figure 6, les positions du drone 10 déterminées par le dispositif de pilotage 14 sont représentées successivement dans le temps T, indiqué en abscisse, sous forme de points 300 et 310 pour les coordonnées selon les axes X et Y du référentiel considéré, et de points 320 pour les coordonnées selon l’axe vertical Z du référentiel considéré, par une distance D, exprimée en mètres et indiquée en ordonnée, par rapport à la position de décollage, correspondant à l’origine du référentiel considéré.
Sur la figure 6, le positionnement à l’état haut d’un indicateur 340 indique les phases durant lesquelles les positions du drone 10 ne sont pas déterminées par le dispositif de pilotage 14 selon l’invention, soit parce que le drone 10 est trop éloigné de la zone de décollage et que celle-ci n’apparait alors plus dans l’image courante acquise, correspondant à la phase principale durant laquelle l’indicateur 340 est à l’état haut ; soit parce que le drone 10 est au contact ou à proximité immédiate du sol, correspondant à la phase finale durant laquelle l’indicateur 340 est à l’état haut.
Une courbe 350 représente les coordonnées, selon l’axe vertical Z du référentiel considéré, des positions du drone 10 fournies successivement au cours du temps T par la centrale inertielle équipant le drone 10.
L’homme du métier pourra alors observer que le dispositif de pilotage 14 selon l’invention permet de déterminer, avec une précision satisfaisante, la position du drone 10 lors des phases de décollage et d’atterrissage, par comparaison avec celle issue de la centrale inertielle.
Lors de la phase d’atterrissage, le dispositif de pilotage 14 selon l’invention fournit même une position du drone 10 plus précise que celle fournie par la centrale inertielle équipant le drone 10, la position issue de la centrale inertielle rejoignant celle déterminée par le dispositif de pilotage 14 en fin de phase d’atterrissage.
Les figures 7 à 9 représentent des exemples d’images utilisées par le dispositif de pilotage 14 selon l’invention. La figure 7 est un exemple d’image de référence acquise lR et la figure 8 est une vue 400 d’une image courante acquise. La figure 9 est une vue 410 de l’image courante acquise, avec en outre la détection dans l’image courante acquise de portion(s) caractéristique(s) correspondant au(x) portion(s) caractéristique(s) associé(s) à la ou aux images secondaires, permettant de retrouver l’image de référence acquise lR indiquée par l’encadré rectangulaire, puis de déterminer l’altitude du drone 10 à partir de cette détection, l’altitude déterminée étant égale à 11,36 m dans cet exemple.
Ainsi, le dispositif électronique de pilotage 14 selon l’invention permet d’éviter l’acquisition de l’image de référence lR à une altitude prédéfinie Zref trop élevée, en calculant au moins une image secondaire à partir de l’image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l’altitude prédéfinie. L’altitude prédéfinie Zref à laquelle est prise l’image de référence est alors de préférence faible, par exemple de l’ordre d’un mètre, ce qui permet en outre d’avoir plus facilement une image de référence lR qui soit plus représentative de la zone de décollage.
Avec le dispositif électronique de pilotage de l’état de la technique, l’altitude prédéfinie à laquelle est prise l’image de référence est au contraire élevée, généralement supérieure à 5 mètres, voire à 10 mètres, ce qui est contraignant. Cette altitude prédéfinie élevée est, avec le dispositif électronique de pilotage de l’état de la technique, nécessaire pour que le module de guidage puisse ensuite, lors de l’atterrissage du drone depuis un vol stationnaire à une altitude généralement comprise entre 10 m et 20 m, retrouver dans 10 l’image courante acquise une ou plusieurs portions caractéristiques correspondant à celles préalablement détectées dans l’image de référence.
On conçoit ainsi que le dispositif électronique de pilotage 14 et le procédé de pilotage selon l’invention permettent d’améliorer le retour du drone 10 à proximité de sa zone de décollage, tout en offrant une mise en oeuvre facilitée.

Claims (10)

  1. REVENDICATIONS
    1. Dispositif électronique (14) de pilotage d’un drone (10), le dispositif (14) comprenant :
    - un module d’acquisition (30) configuré pour acquérir au moins une image prise par un capteur d’images équipant le drone (10), le module d’acquisition (30) étant configuré pour acquérir une image de référence (lr) d’une scène, prise à une altitude prédéfinie (Zref), après le décollage du drone (10) depuis une zone de décollage, ladite scène incluant la zone de décollage,
    - un module de calcul (32) configuré pour calculer au moins une image secondaire (ls) à partir de l’image de référence acquise (Ir), chaque image secondaire (Is) correspondant à une altitude (F' x Zref) supérieure à l’altitude prédéfinie (Zref),
    - un module de détection (34) configuré pour détecter, dans au moins une image secondaire (Is), un ensemble de portion(s) caractéristique(s), et
    - un module de détermination (36) configuré pour déterminer une position du drone (10) par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires (Is).
  2. 2. Dispositif (14) selon la revendication 1, dans lequel le dispositif (14) comprend en outre un module de guidage (38) configuré pour, sur réception d’une instruction d’atterrissage, guider le drone (10) vers une zone d’atterrissage, en fonction de la position du drone (10) déterminée par le module de détermination (36).
  3. 3. Dispositif (14) selon la revendication 2, dans lequel le dispositif (14) comprend en outre un deuxième module d’acquisition (39) configuré pour acquérir la sélection d’un mode de retour à proximité de la zone de décollage, et si ledit mode de retour est sélectionné, le module de guidage (38) est alors configuré pour, sur réception d’une instruction d’atterrissage, guider le drone (10) vers la zone de décollage, en fonction de la position du drone (10) déterminée par le module de détermination (36).
  4. 4. Dispositif (14) selon l’une quelconque des revendications précédentes, dans lequel le module de détection (34) est configuré pour détecter, dans chaque image parmi l’image de référence (Ir) et la ou les images secondaires (Is), un ensemble respectif de portion(s) caractéristique(s).
  5. 5. Dispositif (14) selon l’une quelconque des revendications précédentes, dans lequel le module de détermination (36) est configuré pour comparer l’ensemble courant de portion(s) caractéristique(s) avec chaque ensemble détecté de portion(s) caractéristique(s) pour l’image de référence (lR) et la ou les images secondaires (Is).
  6. 6. Dispositif (14) selon l’une quelconque des revendications 1 à 4, dans lequel le module de détermination (36) est configuré pour comparer l’ensemble courant de portion(s) caractéristique(s) avec l’ensemble détecté de portion(s) caractéristique(s) correspondant à l’image qui parmi l’image de référence (lR) et la ou les images secondaires (Is) est associée à l’altitude la plus proche d’une altitude courante du drone (10).
  7. 7. Dispositif (14) selon l’une quelconque des revendications précédentes, dans lequel le module de détermination (36) est configuré en outre pour modifier une orientation de l’image courante en fonction d’une orientation de l’image de référence (lR), préalablement à la détection dans l’image courante acquise de l’ensemble courant de portion(s) caractéristique(s).
  8. 8. Drone (10) comprenant un dispositif électronique de pilotage (14), caractérisé en ce que le dispositif électronique de pilotage (14) est selon l’une quelconque des revendications précédentes.
  9. 9. Procédé de pilotage d’un drone (10), le procédé étant mis en oeuvre par un dispositif électronique (14) et comprenant les étapes consistant à :
    - acquérir (100) au moins une image prise par un capteur d’images équipant le drone (10), ladite étape (100) comportant l’acquisition d’une image de référence (lR) d’une scène, prise à une altitude prédéfinie (Zref) après le décollage du drone (10) depuis une zone de décollage, ladite scène incluant la zone de décollage,
    - calculer (110) au moins une image secondaire (Is) à partir de l’image de référence (lR) acquise, chaque image secondaire (Is) correspondant à une altitude (F' x Zref) supérieure à l’altitude prédéfinie (Zref),
    - détecter (120), dans au moins une image secondaire (Is), un ensemble de portion(s) caractéristique(s), et
    - déterminer (130) une position du drone (10) par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires (Is).
    5
  10. 10. Programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en oeuvre un procédé selon la revendication précédente.
FR1854585A 2018-05-29 2018-05-29 Dispositif electronique de pilotage d'un drone, drone, procede de pilotage et programme d'ordinateur associes Withdrawn FR3082013A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1854585A FR3082013A1 (fr) 2018-05-29 2018-05-29 Dispositif electronique de pilotage d'un drone, drone, procede de pilotage et programme d'ordinateur associes

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1854585 2018-05-29
FR1854585A FR3082013A1 (fr) 2018-05-29 2018-05-29 Dispositif electronique de pilotage d'un drone, drone, procede de pilotage et programme d'ordinateur associes

Publications (1)

Publication Number Publication Date
FR3082013A1 true FR3082013A1 (fr) 2019-12-06

Family

ID=63637980

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1854585A Withdrawn FR3082013A1 (fr) 2018-05-29 2018-05-29 Dispositif electronique de pilotage d'un drone, drone, procede de pilotage et programme d'ordinateur associes

Country Status (1)

Country Link
FR (1) FR3082013A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106774423A (zh) * 2017-02-28 2017-05-31 亿航智能设备(广州)有限公司 一种无人机的降落方法及系统
WO2018035835A1 (fr) * 2016-08-26 2018-03-01 SZ DJI Technology Co., Ltd. Procédés et système pour atterrissage autonome
WO2018053861A1 (fr) * 2016-09-26 2018-03-29 SZ DJI Technology Co., Ltd. Procédés et système pour l'atterrissage visuel
WO2018064657A1 (fr) * 2016-09-30 2018-04-05 Stealth Air Corp Procédé de recherche pendant un processus d'atterrissage d'uav

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018035835A1 (fr) * 2016-08-26 2018-03-01 SZ DJI Technology Co., Ltd. Procédés et système pour atterrissage autonome
WO2018053861A1 (fr) * 2016-09-26 2018-03-29 SZ DJI Technology Co., Ltd. Procédés et système pour l'atterrissage visuel
WO2018064657A1 (fr) * 2016-09-30 2018-04-05 Stealth Air Corp Procédé de recherche pendant un processus d'atterrissage d'uav
CN106774423A (zh) * 2017-02-28 2017-05-31 亿航智能设备(广州)有限公司 一种无人机的降落方法及系统

Similar Documents

Publication Publication Date Title
EP2400460B1 (fr) Procédé d'évaluation de la vitesse horizontale d'un drone, notamment d'un drone apte au vol stationnaire autopiloté
Fazeli et al. Evaluating the potential of RTK-UAV for automatic point cloud generation in 3D rapid mapping
EP3270365B1 (fr) Dispositif d'aide au pilotage d'un giravion, giravion associe et procede d'aide au pilotage correspondant
EP3531375B1 (fr) Procédé et appareil de mesure de distance, et véhicule aérien sans équipage
FR3038482A1 (fr) Bloc camera apte a etre embarque dans un drone pour cartographier un terrain et procede de gestion de capture d'images par un bloc camera
EP3388914A1 (fr) Procédé de suivi de cible par un drone, programme d'ordinateur, système électronique et drone associés
EP3276591A1 (fr) Drone ayant un systeme d'evitement d'obstacles
FR3087134A1 (fr) Ensemble de detection d'obstacle pour drone, drone equipe d'un tel ensemble de detection d'obstacle et procede de detection d'obstacle
US20240007752A1 (en) Variable focal length multi-camera aerial imaging system and method
EP3281870A1 (fr) Procédé de capture d'une vidéo par un drone, programme d'ordinateur, et système électronique de capture d'une vidéo associés
CN114544006B (zh) 一种基于环境光照条件的低空遥感影像校正系统及方法
WO2014147042A2 (fr) Procédé et dispositif de détermination d'une interdistance entre un drone et un objet, procédé de pilotage de vol d'un drone
FR3038585A1 (fr) Systeme de pilotage automatique d'aeronef et procede associe
FR3047829A1 (fr) Procede d'estimation de la position du disque solaire dans une image de ciel
FR3082013A1 (fr) Dispositif electronique de pilotage d'un drone, drone, procede de pilotage et programme d'ordinateur associes
EP3333539A1 (fr) Dispositif électronique de pilotage d'un drone, drone, procédé de pilotage et programme d'ordinateur associés
EP3571468B1 (fr) Procédé d'observation de la surface terrestre et dispositif pour sa mise en oeuvre
CA3048013C (fr) Procede et drone muni d'un systeme d'aide a l'atterrissage/decollage
CN111433819A (zh) 目标场景三维重建方法、系统及无人机
EP3620852B1 (fr) Procédé de capture d'images aériennes d'une zone géographique, procédé de cartographie tridimensionnelle d'une zone géographique et aéronef pour la réalisation de tels procédés
WO2021035746A1 (fr) Procédé et dispositif de traitement d'image, et plate-forme mobile
Cramer et al. Quality assessment of high-resolution UAV imagery and products
FR3071624B1 (fr) Systeme d'affichage, procede d'affichage et programme d'ordinateur associes
EP3882735B1 (fr) Procédé et système électronique de génération d'au moins une consigne de guidage pour un aéronef, programme d'ordinateur et aéronef associés
FR3015091A1 (fr) Procede de suppression d'une empreinte d'helice capturee par une optique d'un aeronef

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20191206

ST Notification of lapse

Effective date: 20200108