Nothing Special   »   [go: up one dir, main page]

FR2997258A1 - Systeme de detection et de mesure comprenant un senseur optique, et procedes de detection et de mesure associe - Google Patents

Systeme de detection et de mesure comprenant un senseur optique, et procedes de detection et de mesure associe Download PDF

Info

Publication number
FR2997258A1
FR2997258A1 FR1259937A FR1259937A FR2997258A1 FR 2997258 A1 FR2997258 A1 FR 2997258A1 FR 1259937 A FR1259937 A FR 1259937A FR 1259937 A FR1259937 A FR 1259937A FR 2997258 A1 FR2997258 A1 FR 2997258A1
Authority
FR
France
Prior art keywords
zone
objects
integration time
detection surface
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1259937A
Other languages
English (en)
Other versions
FR2997258B1 (fr
Inventor
Pierre Emmanuel Martinez
Laurent Majewski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National dEtudes Spatiales CNES
SODERN SA
Original Assignee
Centre National dEtudes Spatiales CNES
SODERN SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National dEtudes Spatiales CNES, SODERN SA filed Critical Centre National dEtudes Spatiales CNES
Priority to FR1259937A priority Critical patent/FR2997258B1/fr
Publication of FR2997258A1 publication Critical patent/FR2997258A1/fr
Application granted granted Critical
Publication of FR2997258B1 publication Critical patent/FR2997258B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/36Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
    • B64G1/361Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors using star sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7867Star trackers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • H04N25/535Control of the integration time by using differing integration times for different sensor regions by dynamic region selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Navigation (AREA)

Abstract

L'invention concerne un système (1) de détection et de mesure comprenant un senseur (2) optique, ledit senseur (2) comprenant une surface (3) de détection pour la détection et la prise d'image d'objets (7) évoluant dans l'espace, la surface (3) de détection comprenant une ou plusieurs zones (4) comprenant chacune au moins un pixel, chaque zone (4) étant configurée pour détecter un flux lumineux émis par les objets durant un temps d'intégration, ledit système (1) étant caractérisé en ce que ledit temps d'intégration de chaque zone (4) de la surface (3) de détection est fonction des objets (7) détectés par cette zone (4).

Description

DOMAINE DE L'INVENTION L'invention concerne un système de détection et de mesure comprenant un senseur optique, adapté pour la détection et la prise d'image d'objets évoluant dans l'espace. L'invention concerne également un procédé de détection et de prise d'image d'objets évoluant dans l'espace, mettant en oeuvre ce système. ETAT DE LA TECHNIQUE Les satellites embarquent en général un ou plusieurs senseurs optiques, dénommés senseurs stellaires. Ces senseurs sont également, le cas échéant, utilisés dans d'autres types d'aéronefs. Les senseurs stellaires sont des systèmes optiques comprenant une surface de détection, par exemple de type CCD ou APS, adaptée pour détecter un flux lumineux émis par des étoiles.
Un traitement des images obtenues par les senseurs stellaires consiste alors à identifier dans ces images des étoiles connues, par comparaison avec un catalogue embarqué d'étoiles dans lequel des étoiles connues sont stockées. Ce traitement permet d'en déduire l'attitude du satellite, notamment à des fins de pilotage et de contrôle d'attitude du satellite. Comme on le comprend, la qualité de la détection des étoiles par le senseur stellaire a un impact direct sur les performances de pilotage et de contrôle du satellite. Toutefois, les senseurs stellaires de l'état de la technique présentent certains inconvénients. En particulier, le rapport signal à bruit de ces senseurs stellaires n'est pas optimal. Ceci dégrade donc le contrôle et le pilotage des aéronefs embarquant ces senseurs stellaires. En outre, le dimensionnement et la mise en oeuvre de ces senseurs stellaires sont figés, ce qui implique que les performances de détection et de mesure ne peuvent s'adapter aux scènes observées, et restent donc moyennes.
PRESENTATION DE L'INVENTION Afin de pallier ces inconvénients, l'invention propose un système de détection et de mesure comprenant un senseur optique, ledit senseur comprenant une surface de détection pour la détection et la prise d'image d'objets évoluant dans l'espace, la surface de détection comprenant une ou plusieurs zones comprenant chacune au moins un pixel, chaque zone étant configurée pour détecter un flux lumineux émis par les objets durant un temps d'intégration, ledit système étant caractérisé en ce que le temps d'intégration de chaque zone de la surface de détection est fonction des objets détectés par cette zone. L'invention est avantageusement complétée par les caractéristiques suivantes, prises seules ou en une quelconque de leur combinaison techniquement possible : - le temps d'intégration de chaque zone de la surface de détection est fonction de l'intensité lumineuse des objets à détecter par cette zone; - le temps d'intégration est choisi de sorte à maximiser le signal correspondant au flux lumineux détecté par chaque zone, tout en évitant une saturation des pixels de cette zone ; - le système comprend en outre une mémoire stockant un catalogue d'objets connus évoluant dans l'espace, le système comprenant une unité de traitement configurée pour déterminer le temps d'intégration des zones de la surface de détection à partir de l'identification d'objets du catalogue ; - le temps d'intégration de chaque zone est le temps durant lequel la zone est activée pour détecter un flux lumineux émis par les objets, ou le système comprend un dispositif de lecture configuré pour lire à des instants différents un signal correspondant à un flux lumineux mesuré par chaque zone, afin de réaliser un temps d'intégration adapté à chaque zone ; - le système comprend une mémoire configurée pour stocker les signaux mesurés par les zones de la surface de détection, et une unité de traitement, configurée pour comparer l'amplitude des signaux mesurés par chaque zone au cours du temps avec au moins un seuil de saturation des pixels de la zone, et en déduire un signal mesuré optimum par rapport audit seuil de saturation, afin de réaliser un temps d'intégration adapté à chaque zone.
Dans un mode de réalisation, le système de détection est embarqué à bord d'un aéronef, ledit aéronef étant choisi parmi : un avion, un drone, un satellite, un missile, un ballon d'observation, un engin spatial. Il est également décrit un procédé de détection et de prise d'image d'objets évoluant dans l'espace, mettant en oeuvre un système comprenant un senseur optique, ledit senseur comprenant une surface de détection pour la détection et la prise d'image d'objets évoluant dans l'espace, la surface de détection comprenant une ou plusieurs zones comprenant chacune au moins un pixel, ledit procédé étant caractérisé en ce que chaque zone détecte un flux lumineux émis par les objets durant un temps d'intégration, et le temps d'intégration de chaque zone de la surface de détection est fonction des objets détectés. Ce procédé de détection et de mesure est avantageusement complétée par les caractéristiques suivantes, prises seules ou en une quelconque de leur combinaison techniquement possible : - le temps d'intégration de chaque zone de la surface de détection est fonction de l'intensité lumineuse des objets à détecter ; - une unité de traitement du système identifie des objets à détecter évoluant dans l'espace, à partir d'un catalogue d'objets connus évoluant dans l'espace, et l'unité de traitement détermine le temps d'intégration des zones de la surface de détection à partir de l'identification d'objets du catalogue ; - chaque zone est activée durant le temps d'intégration pour détecter un flux lumineux émis par les objets, ou le système comprend un dispositif de lecture qui lit à des instants différents un signal mesuré par chaque zone, afin de réaliser un temps d'intégration adapté à chaque zone ; - le procédé comprend les étapes consistant à stocker les signaux mesurés par les zones de la surface de détection dans une mémoire, comparer l'amplitude des signaux mesurés par chaque zone au cours du temps avec au moins un seuil de saturation des pixels de la zone, et en déduire pour chaque zone un signal mesuré optimum par rapport audit seuil de saturation ; - l'unité de traitement règle de manière dynamique la taille, et/ou la forme, et/ou le nombre et/ou la position des différentes zones sur la surface de détection, afin de les adapter à la scène détectée ; - le procédé comprend les étapes consistant à prendre des images d'une scène comprenant à la fois au moins un premier objet dont la position est connue dans un repère inertiel, et au moins un second objet dont la position est à déterminer dans le repère inertiel, le temps d'intégration de chaque zone étant réglé en fonction des objets détectés par cette zone, déterminer, à partir des images, la direction du second objet par rapport au premier objet, et en déduire la position du second objet dans le repère inertiel. Ces systèmes et procédés permettent d'obtenir différents avantages. Le rapport signal à bruit dans la détection et la mesure d'objets évoluant dans l'espace par le senseur optique est optimisé. En outre, la détection s'adapte aux objets observés et aux scènes observées, ce qui permet d'affiner la qualité de la détection et de la mesure. Par conséquent, les performances de pilotage et de contrôle d'attitude d'aéronefs sont améliorées.
Par ailleurs, le système proposé est polyvalent et s'adapte à différents types d'aéronefs, évoluant dans différentes conditions. DESCRIPTION DES FIGURES D'autres avantages et caractéristiques ressortiront mieux de la description qui va suivre, de plusieurs variantes d'exécution, données à titre d'exemples non limitatifs, à partir des dessins annexés sur lesquels : - La Figure 1 est un mode de réalisation d'un système de détection et de mesure selon l'invention, comprenant un senseur optique ; - La Figure 2 est un graphique représentant des temps d'intégration différents en fonction d'objets détectés ; - La Figure 3 est une représentation schématique d'un mode de réalisation d'un procédé de détection et de mesure selon l'invention ; - La Figure 4 est une représentation schématique d'un autre mode de réalisation d'un procédé de détection et de mesure selon l'invention; - La Figure 5 est une représentation schématique d'un autre mode de réalisation de la sélection du temps d'intégration selon l'invention, à partir du signal détecté par chaque zone de la surface de détection.
DESCRIPTION DETAILLEE DE L'INVENTION Présentation du système de détection et de mesure On a représenté en Figure 1 un système 1 de détection et de mesure selon un mode de réalisation de l'invention. Ce système 1 comprend un senseur 2 optique. Le senseur 2 optique est destiné à la détection et la prise d'image d'objets 7 évoluant dans l'espace, comme par exemples des étoiles, ou des débris spatiaux, ou autres. A cet effet, le senseur 2 optique comprend une surface 3 de détection sensible, qui comprend une pluralité de pixels. A titre d'exemple non limitatif, la surface de détection est de type APS (selon l'acronyme anglo-saxon « active-pixel sensor »), ou CMOS (selon 30 l'acronyme anglo-saxon « Complementary metal-oxide-semiconductor »).
De manière classique, le senseur 2 optique comprend une pluralité d'éléments 20 optiques, permettant de capter le flux lumineux émis par les objets 7, pour le diriger vers la surface 3 de détection sensible. Ces éléments 20 optiques incluent par exemple des lentilles, et/ou des déflecteurs, et/ou des miroirs, et/ou des objectifs, ou d'autres dispositifs optiques adaptés aux senseurs optiques. La surface 3 de détection du senseur 2 optique comprend une ou plusieurs zones 4 comprenant chacune au moins un pixel. Dans certains modes de réalisation décrits par la suite, la surface 3 de détection est décrite comme comprenant une pluralité de zones, mais il est entendu que ces modes de réalisation s'appliquent au cas d'une unique zone. Dans le cas d'une pluralité de zones, celles-ci ne sont pas nécessairement définies de manière identique ou symétrique, mais peuvent néanmoins l'être. Les zones 4 ne sont pas figées dans le temps, ni en forme, ni en nombre, ni en position sur la surface 3 de détection. Selon les applications, les zones 4 peuvent toutefois être figées selon un ou plusieurs des paramètres précités, mais ceci n'est pas obligatoire.
Chaque zone 4 est configurée pour détecter et mesurer un flux lumineux émis par les objets 7 durant un temps d'intégration. Ainsi, les zones 4 permettent de fournir chacune un signal représentant le flux lumineux émis par les objets 7 durant ce temps d'intégration. Ce signal est par exemple un signal électrique ou numérique en sortie du senseur 2 optique. Le temps d'intégration d'une zone de pixels est le temps durant lequel le flux lumineux émis par des objets est mesuré par cette zone. Comme explicité par la suite, différents modes de réalisation sont possibles pour régler ce temps d'intégration.
Le système 1 comprend, dans un mode de réalisation, une mémoire 10 et une unité 12 de traitement. La mémoire 10 peut notamment être utilisée pour stocker les signaux mesurés par le senseur optique. L'unité 12 de traitement peut notamment être utilisée pour contrôler le senseur optique et sa surface de détection, ainsi que pour traiter, le cas échéant, les signaux mesurés par la surface de détection. L'unité 12 de traitement est par exemple associée à un calculateur. L'unité de traitement peut par exemple être intégrée dans le senseur 2 optique. Adaptation du temps d'intégration de chaque zone Dans un mode de réalisation, le temps d'intégration de chaque zone 4 de la surface de détection est fonction des objets 7 détectés par cette zone. Ainsi, on adapte le temps d'intégration des zones 4 aux objets détectés, ce qui permet d'obtenir un rapport signal à bruit optimisé. En particulier, le temps d'intégration est avantageusement choisi de sorte à maximiser le signal correspondant au flux lumineux détecté par chaque zone, tout en évitant une saturation des pixels de cette zone. Ainsi, le signal de mesure est optimisé, tout en évitant une saturation indésirable. En particulier, étant donné que la scène observée (par exemple la voûte céleste) présente une variété d'objets différents, les zones 4 présentent chacune dans un mode de réalisation un temps d'intégration étant adapté aux objets observés par cette zone 4. Si chaque zone 4 observe des objets différents, chaque zone 4 peut présenter un temps d'intégration différent des autres zones. Dans un mode de réalisation, le temps d'intégration des zones 4 de la surface 3 de détection est fonction de l'intensité lumineuse des objets 7 à détecter. L'intensité lumineuse des objets évoluant dans l'espace est également dénommée magnitude par l'homme du métier. On rappelle que la magnitude est une mesure de l'éclairement énergétique d'un objet céleste. La magnitude repose sur une échelle logarithmique inversée. Plus un objet présente une magnitude élevée, plus l'éclairement énergétique est faible et donc plus difficile à observer.
Ainsi, dans un mode de réalisation, le temps d'intégration des zones 4 est réglé en fonction de l'intensité lumineuse des objets observés par le senseur 2 optique. Ces objets sont par exemple des étoiles. Dans un mode de réalisation, plus une zone 4 doit observer des objets d'intensité lumineuse faible (et donc de magnitude élevée), plus le système 1 va augmenter le temps d'intégration de ladite zone 4. Inversement, plus une zone doit observer des objets d'intensité lumineuse élevée (et donc de magnitude faible), plus le système va diminuer, notamment par son unité 12 de traitement, le temps d'intégration de ladite zone 4. Cette augmentation ou cette diminution du temps d'intégration peuvent être contrôlées par l'unité 12 de traitement. Ce réglage adaptatif du temps d'intégration permet d'optimiser pour chaque zone 4 de la surface 3 de détection le rapport signal à bruit. Dans un mode de réalisation, l'unité 12 de traitement règle de manière dynamique la taille, et/ou la forme, et/ou le nombre et/ou la position des différentes zones sur la surface de détection, afin de les adapter à la scène détectée. La scène étant susceptible d'évoluer, le réglage dynamique des zones permet d'adapter les zones aux objets présents dans la scène. Selon les cas, la taille des différentes zones de la surface de détection 20 peut être réglée de sorte à ce que chaque zone détecte un seul objet, comme par exemple une seule étoile. Exemple de réalisation 25 Pour illustrer ce réglage adaptatif, on a représenté un exemple en Figure 2, avec deux étoiles El et E2. La première étoile El présente une magnitude moins élevée que la deuxième étoile E2. Le graphique de la Figure 2 représente le signal S (accumulé) mesuré 30 par deux zones distinctes de la surface de détection au cours du temps, chacune recevant le flux lumineux d'une des deux étoiles.
Comme on peut le voir en Figure 2, l'étoile El présente une magnitude plus faible que l'étoile E2. Avantageusement, l'unité de traitement du dispositif 1 fixe le temps d'intégration pour l'étoile El comme égal à T1. En effet, ce temps d'intégration T1 permet de maximiser le signal mesuré pour la première étoile El (et donc le flux lumineux perçu), tout en étant en-dessous du seuil de saturation Sm>, des pixels de la zone 4. On rappelle que le seuil de saturation est la valeur maximum du signal pour laquelle les pixels ne peuvent plus faire de différence dans le signal mesuré, et affichent de manière uniforme une valeur de saturation. De même, l'unité de traitement du dispositif 1 fixe le temps d'intégration pour l'étoile E2 comme égal à T2 (T2>T1). En effet, ce temps d'intégration permet de maximiser le signal mesuré pour la deuxième étoile E2, tout en étant en-dessous du seuil de saturation Sm>, des pixels de la zone 4. Comme on peut le constater, le signal mesuré par la surface de détection est maximisé quelle que soit la magnitude de l'objet détecté ou de l'étoile détectée, grâce à un réglage du temps d'intégration de chaque zone en fonction des objets détectés.
Le graphique de la Figure 2 dépeint une configuration dans laquelle la mesure des flux lumineux des objets détectés par la surface de détection est démarrée au même instant (t = 0). Toutefois, il est clair que ceci n'est pas obligatoire, et que différents instants de départ de la mesure peuvent être utilisés. Dans ce cas, l'unité 12 de traitement du système peut être configurée pour resynchroniser les signaux mesurés. Adaptation du temps d'intégration à partir de l'identification d'objets Dans un mode de réalisation, le système 1 comprend en outre une mémoire 10 stockant un catalogue 11 d'objets connus évoluant dans l'espace. On entend par objet connus le fait que le catalogue comprend des données caractéristiques sur ces objets. Il s'agit par exemple d'un catalogue d'étoiles, dont on connaît la position ou la direction dans un repère inertiel, et leur magnitude. D'autres objets évoluant dans l'espace peuvent être connus, comme par exemple des débris, ou des corps célestes. Dans un mode de réalisation, le système comprend une unité 12 de traitement configurée pour déterminer le temps d'intégration des zones 4 de la surface 3 de détection à partir de l'identification d'objets 7 du catalogue. Comme illustré en Figure 3, l'unité 12 de traitement du système identifie des objets à détecter évoluant dans l'espace, à partir du catalogue d'objets connus évoluant dans l'espace (étape Si). Puis, l'unité 12 de traitement détermine le temps d'intégration des zones 4 de la surface 3 de détection à partir de l'identification d'objets 7 du catalogue (étape S2). Avantageusement, le temps d'intégration est choisi de sorte à maximiser le signal correspondant au flux lumineux détecté par chaque zone, tout en évitant une saturation des pixels de cette zone. Ainsi, le fait de connaître les objets qui vont être vus par le senseur optique, par exemple dans le cas d'un aéronef embarquant ledit senseur, permet à l'unité 12 de traitement de prévoir les temps d'intégration nécessaires pour les zones 4 de la surface de détection. Dans un exemple de réalisation, les objets sont des étoiles. Il s'agit par exemple d'un cas dans lequel le système 1 est embarqué à bord d'un satellite. Le senseur 2 optique prend des images des étoiles par détection de leur flux lumineux, lesdites images étant traitées par l'unité 12 de traitement. L'unité 12 de traitement compare ces images avec le catalogue d'étoiles, et identifie des étoiles connues présentes dans le catalogue. Cette identification est par exemple réalisée par identification de motifs particuliers permettant à l'unité de traitement de reconnaître dans les images les étoiles.
L'unité 12 de traitement règle alors les temps d'intégration des différentes zones 4 de la surface de détection, en fonction des étoiles détectées par ces zones. De même, le système est apte à prédire, à partir des images prises par le senseur 2 optique, et du catalogue d'étoiles, les étoiles qui vont être vues par le senseur. Ceci permet à l'unité 12 de traitement de régler en avance les temps d'intégration nécessaires à chaque zone, en fonction des étoiles à détecter. La mise à jour des temps d'intégration des différentes zones de la surface de détection peut être effectuée à chaque prise d'image par le senseur optique, ou à une autre fréquence, selon les besoins. Premier mode de réalisation pour la gestion du temps d'intégration L'adaptabilité des temps d'intégration des différentes zones 4 de la surface peut être réalisée selon divers modes de réalisation. Dans un mode de réalisation, le temps d'intégration de chaque zone 4 est le temps durant lequel la zone 4 est activée pour détecter un flux lumineux émis par les objets 7. Cette activation peut par exemple être contrôlée via l'unité 12 de traitement. En dehors de ces périodes d'activation, la zone 4 n'est pas active et n'est donc pas apte à détecter un flux lumineux émis par les objets 7. La surface 3 de détection peut par exemple être configurée pour permettre à l'unité 12 de traitement de fixer le temps d'intégration physique de chaque zone de pixels de ladite surface. Second mode de réalisation pour la gestion du temps d'intégration Alternativement, le système 1 comprend un dispositif 15 de lecture configuré pour lire à des instants différents un signal mesuré par chaque zone 4, afin de réaliser un temps d'intégration adapté à chaque zone. Le signal correspond au flux lumineux détecté par chaque zone 4. Le dispositif 15 de lecture est de type unité logicielle et/ou physique. Ainsi, dans ce cas, il n'est plus nécessaire de gérer l'activation des différentes zones 4. Celles-ci peuvent rester actives en permanence. Toutefois, le dispositif 15 de lecture vient lire le signal mesuré par les zones à la fin du temps d'intégration requis pour chaque zone. Ainsi, dans l'exemple de la Figure 2, le dispositif 15 de lecture vient lire le signal S mesuré pour l'étoile El par la zone correspondante à l'instant Ti. Toutefois, la zone 4 ayant obtenue ce signal peut rester active pour les instants postérieurs à Ti. De même, le dispositif 15 de lecture vient lire le signal S mesuré pour l'étoile E2 à l'instant T2. Tout autre mode de réalisation adapté à la mise en place de temps d'intégration variables et différenciés peut être utilisé. La surface 3 de détection est choisie de sorte à permettre une lecture indépendante par l'unité de traitement des signaux mesurés par les zones de pixels de ladite surface.
Troisième mode de réalisation pour la gestion du temps d'intégration On décrit à présent un autre mode de réalisation pour l'obtention d'un temps d'intégration fonction des objets détectés, en référence à la Figure 4.
A cet effet, le système comprend une mémoire 10 configurée pour stocker les signaux mesurés par les zones de la surface 3 de détection (étape El). En général, il s'agit de signaux discrétisés. En outre, l'unité 12 de traitement, réalise les étapes consistant à : comparer l'amplitude des signaux mesurés par chaque zone 4 au cours du temps avec au moins un seuil de saturation des pixels de la zone 4 (étape E2), et en déduire pour chaque zone un signal mesuré optimum par rapport audit seuil de saturation (étape E3), afin de réaliser une détection optimale des objets par chaque zone. Lorsque l'unité 12 de traitement détecte que l'amplitude des signaux mesurés par une zone a atteint le seuil de saturation à un instant T, l'unité 12 de traitement sélectionne dans la mémoire un signal qui a été mesuré précédemment dans le temps (instant t<T, t devenant alors le temps d'intégration). Dans un mode de réalisation, illustré schématiquement en Figure 5, l'unité 12 de traitement sélectionne le signal mesuré par la zone à l'instant précédant immédiatement l'atteinte du seuil de saturation (si T, est l'instant de saturation, le signal sélectionné est celui obtenu à t = Etant donné que les signaux mesurés sont discrets, il s'agit de l'instant correspondant au coup d'horloge précédent l'instant pour lequel la saturation des pixels a été atteinte. Alternativement, l'unité 12 de traitement sélectionne un signal mesuré par chaque zone 4, dont l'amplitude respecte un critère de proximité vis-à-vis du seuil de saturation. Néanmoins, le signal sélectionné doit se situer au-dessous du seuil de saturation. Par exemple, mais non limitativement, le signal mesuré choisi par l'unité 12 de traitement est inférieur ou égal au seuil de saturation à 5% près. Les modes de réalisation décrits précédemment peuvent être combinés. Par exemple, les différentes zones d'une même surface de détection peuvent mettre en oeuvre différents modes de réalisation pour l'adaptation du temps d'intégration. De manière similaire, une même zone peut mettre en oeuvre différents modes de réalisation au cours du temps. Détermination de la position d'objets dans un repère absolu Dans un mode de réalisation, le procédé de détection d'objets permet de déterminer la position d'objets dans un repère absolu.
Le procédé comprend les étapes consistant à: - prendre des images d'une scène comprenant à la fois: o au moins un premier objet dont la position est connue dans un repère inertiel, et o au moins un second objet dont la position est à déterminer dans le repère inertiel, le temps d'intégration des zones de la surface de détection étant réglé en fonction des objets détectés, - déterminer la direction du second objet par rapport au premier objet, à partir des images, et - en déduire la position du second objet dans le repère inertiel. Dans un exemple non limitatif, les seconds objets à positionner sont des débris spatiaux, et les premiers objets sont des étoiles. Dans ce cas, le senseur 2 optique observe une scène comprenant des débris spatiaux et des étoiles. La surface 3 de détection du senseur optique est réglée par l'unité 12 de traitement de sorte à ce que des zones de la surface 3 de détection détectent le flux lumineux des débris avec un temps d'intégration adapté à ces débris. De même, des zones de la surface 3 de détection sont contrôlées par l'unité 12 de traitement de sorte à détecter le flux lumineux des étoiles avec un temps d'intégration adapté à ces étoiles. Le réglage du temps d'intégration est opéré selon l'un ou l'autre des modes de réalisation précédemment décrits. Si le système 1 dispose d'une mémoire dans laquelle la position d'étoiles connues est stockée, l'unité de traitement peut déterminer l'attitude du satellite embarquant le système par rapport aux étoiles, comme explicité précédemment, par reconnaissance et traitement des images prises par la surface de détection du senseur optique. En outre, comme le système 1 est capable de réaliser une mesure simultanée des étoiles et des débris, l'unité de traitement peut calculer la direction des débris par rapport aux étoiles, et donc la direction des débris dans le repère inertiel dans lequel les étoiles sont repérées.
Dans un autre exemple non limitatif, le second objet à positionner est une cible artificielle ou naturelle, par exemple pour une manoeuvre de rendez-vous. Dans ce cas, le senseur 2 optique observe une scène comprenant la cible et des étoiles, la cible pouvant être ponctuelle ou étendue sur la surface 3 de détection. La surface 3 de détection du senseur optique est réglée par l'unité 12 de traitement de sorte à ce que des zones de la surface 3 de détection détectent le flux lumineux de la cible avec un temps d'intégration adapté à cette cible ou à certains de ses éléments. De même, des zones de la surface 3 de détection sont contrôlées par l'unité 12 de traitement de sorte à détecter le flux lumineux des étoiles avec un temps d'intégration adapté à ces étoiles. Le réglage du temps d'intégration est opéré selon l'un ou l'autre des modes de réalisation précédemment décrits.
Si le système 1 dispose d'une mémoire dans laquelle la position d'étoiles connues est stockée, l'unité de traitement peut déterminer l'attitude du satellite embarquant le système par rapport aux étoiles, comme explicité précédemment, par reconnaissance et traitement des images prises par la surface de détection du senseur optique.
En outre, comme le système 1 est capable de réaliser une mesure simultanée des étoiles et de la cible ou de certains de ses éléments, l'unité de traitement peut calculer la direction de la cible ou de ses éléments par rapport aux étoiles, et par conséquent la direction de la cible ou de ses éléments dans le repère inertiel dans lequel les étoiles sont repérées.
Exemples d'applications du système Le système tel que décrit peut être embarqué à bord d'un aéronef 8. A titre d'exemple non limitatif, il peut s'agir d'un des aéronefs suivants : un avion, un drone, un satellite, un missile, un ballon d'observation, ou un engin spatial.
La détection réalisée par le senseur optique peut être utilisée de diverses manières. Dans un mode de réalisation, cette détection est utilisée pour mesurer et/ou contrôler la position et/ou l'orientation d'un aéronef embarquant le système par rapport aux objets détectés.
Le système 1 permet de fournir une détection précise des objets évoluant dans l'espace, comme par exemple des étoiles. Par conséquent, l'unité 12 de traitement du système est apte à fournir une mesure d'attitude précise à partir de la détection desdites étoiles. Cette mesure d'attitude est utilisée pour le guidage et le pilotage de l'aéronef embarquant le système 1.
Les objets détectés et mesurés simultanément par le système 1 peuvent être divers. Il peut tout aussi bien s'agir d'objets ponctuels que d'objets étendus, qu'ils soient naturels ou artificiels. Il s'agit par exemple d'étoiles, de planètes, d'astéroïdes, de comètes, de débris spatiaux (comme par exemple des débris de satellites ou de lanceurs), de satellites ou d'engins spatiaux, ou des portions de satellites ou d'engins spatiaux. Comme le comprend l'homme du métier, de nombreuses applications sont possibles à partir de la détection précise et optimale d'objets évoluant dans l'espace par l'intermédiaire du système de détection et de mesure comprenant le senseur optique.20

Claims (14)

  1. REVENDICATIONS1. Système (1) de détection et de mesure comprenant un senseur (2) optique, ledit senseur (2) comprenant une surface (3) de détection pour la détection et la prise d'image d'objets (7) évoluant dans l'espace, la surface (3) de détection comprenant une ou plusieurs zones (4) comprenant chacune au moins un pixel, chaque zone (4) étant configurée pour détecter un flux lumineux émis par les objets durant un temps d'intégration, ledit système (1) étant caractérisé en ce que ledit temps d'intégration de chaque zone (4) de la surface (3) de détection est fonction des objets (7) détectés par cette zone (4).
  2. 2. Système selon la revendication 1, dans lequel le temps d'intégration de chaque zone est configuré pour permettre de maximiser le signal correspondant au flux lumineux détecté par chaque zone, tout en évitant une saturation des pixels de cette zone.
  3. 3. Système selon l'une des revendications 1 ou 2, dans lequel le temps d'intégration de chaque zone (4) de la surface (3) de détection est fonction de l'intensité lumineuse des objets (7) à détecter par cette zone.
  4. 4. Système selon l'une des revendications 1 à 3, comprenant en outre une mémoire (10) stockant un catalogue (11) d'objets connus évoluant dans l'espace, le système comprenant une unité (12) de traitement configurée pour déterminer le temps d'intégration des zones (4) de la surface (3) de détection à partir de l'identification d'objets (7) du catalogue.
  5. 5. Système selon l'une des revendications 1 à 4, dans lequel : - le temps d'intégration de chaque zone (4) est le temps durant lequel la zone (4) est activée pour détecter un flux lumineux émis par les objets (7), ou- le système (1) comprend un dispositif (15) de lecture configuré pour lire à des instants différents un signal correspondant à un flux lumineux mesuré par chaque zone (4), afin de réaliser un temps d'intégration adapté à chaque zone.
  6. 6. Système selon la revendication 1, comprenant : - une mémoire (10), configurée pour stocker les signaux mesurés par les zones de la surface (3) de détection, et - une unité (12) de traitement, configurée pour : o comparer l'amplitude des signaux mesurés par chaque zone (4) au cours du temps avec au moins un seuil de saturation des pixels de la zone (4), et o en déduire un signal mesuré optimum par rapport audit seuil de saturation, afin de réaliser une détection optimale des objets par chaque zone.
  7. 7. Aéronef caractérisé en ce qu'il comprend un système selon l'une des revendications 1 à 6, ledit aéronef étant choisi parmi : un avion, un drone, un satellite, un missile, un ballon d'observation, un engin spatial.
  8. 8. Procédé de détection et de prise d'image d'objets (7) évoluant dans l'espace, mettant en oeuvre un système (1) comprenant un senseur (2) optique, ledit senseur (2) comprenant une surface (3) de détection pour la détection et la prise d'image d'objets (7) évoluant dans l'espace, la surface (3) de détection comprenant une ou plusieurs zones (4) comprenant chacune au moins un pixel, ledit procédé étant caractérisé en ce que : - chaque zone (4) détecte un flux lumineux émis par les objets durant un temps d'intégration, et - le temps d'intégration de chaque zone (4) de la surface (3) de détection est fonction des objets (7) détectés par cette zone. 2 99 72 5 8 19
  9. 9. Procédé selon la revendication 8, dans lequel le temps d'intégration de chaque zone (4) de la surface (3) de détection est fonction de l'intensité lumineuse des objets (7) à détecter par cette zone. 5
  10. 10. Procédé selon l'une des revendications 8 ou 9, dans lequel : - une unité (12) de traitement du système identifie des objets à détecter évoluant dans l'espace, à partir d'un catalogue d'objets connus évoluant dans l'espace, et - l'unité (12) de traitement détermine le temps d'intégration de chaque 10 zone (4) de la surface (3) de détection à partir de l'identification d'objets (7) du catalogue.
  11. 11. Procédé selon l'une des revendications 8 à 10, dans lequel : - chaque zone (4) est activée durant le temps d'intégration pour 15 détecter un flux lumineux émis par les objets (7), ou - le système (1) comprend un dispositif (15) de lecture qui lit à des instants différents un signal mesuré par chaque zone (4), afin de réaliser un temps d'intégration adapté à chaque zone. 20
  12. 12. Procédé selon la revendication 8, comprenant les étapes consistant à: - stocker les signaux mesurés par les zones de la surface (3) de détection dans une mémoire, - comparer l'amplitude des signaux mesurés par chaque zone (4) au cours du temps avec au moins un seuil de saturation des pixels de la 25 zone (4), et - en déduire pour chaque zone un signal mesuré optimum par rapport audit seuil de saturation, afin de réaliser une détection optimale des objets par chaque zone. 30
  13. 13. Procédé selon l'une des revendications 8 à 12, dans lequel l'unité (12) de traitement règle de manière dynamique la taille, et/ou la forme, et/ou lenombre et/ou la position des différentes zones sur la surface de détection, afin de les adapter à la scène détectée.
  14. 14. Procédé selon l'une des revendications 8 à 13, comprenant les étapes consistant à: - prendre des images d'une scène comprenant à la fois: o au moins un premier objet dont la position est connue dans un repère inertiel, et o au moins un second objet dont la position est à déterminer dans le repère inertiel, le temps d'intégration de chaque zone étant réglé en fonction des objets détectés par cette zone, - déterminer, à partir des images, la direction du second objet par rapport au premier objet, et - en déduire la position du second objet dans le repère inertiel.
FR1259937A 2012-10-18 2012-10-18 Systeme de detection et de mesure comprenant un senseur optique, et procedes de detection et de mesure associe Active FR2997258B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1259937A FR2997258B1 (fr) 2012-10-18 2012-10-18 Systeme de detection et de mesure comprenant un senseur optique, et procedes de detection et de mesure associe

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1259937A FR2997258B1 (fr) 2012-10-18 2012-10-18 Systeme de detection et de mesure comprenant un senseur optique, et procedes de detection et de mesure associe

Publications (2)

Publication Number Publication Date
FR2997258A1 true FR2997258A1 (fr) 2014-04-25
FR2997258B1 FR2997258B1 (fr) 2016-10-07

Family

ID=48050823

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1259937A Active FR2997258B1 (fr) 2012-10-18 2012-10-18 Systeme de detection et de mesure comprenant un senseur optique, et procedes de detection et de mesure associe

Country Status (1)

Country Link
FR (1) FR2997258B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021156560A1 (fr) * 2020-02-06 2021-08-12 Centre National d'Études Spatiales Procédé et dispositif de détection optique

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995001048A1 (fr) * 1993-06-17 1995-01-05 Litton Systems, Inc. Dispositif d'imagerie a reseau en plan focal a architecture a acces aleatoire
US6175383B1 (en) * 1996-11-07 2001-01-16 California Institute Of Technology Method and apparatus of high dynamic range image sensor with individual pixel reset
US20040155175A1 (en) * 2003-02-03 2004-08-12 Goodrich Corporation Random access imaging sensor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995001048A1 (fr) * 1993-06-17 1995-01-05 Litton Systems, Inc. Dispositif d'imagerie a reseau en plan focal a architecture a acces aleatoire
US6175383B1 (en) * 1996-11-07 2001-01-16 California Institute Of Technology Method and apparatus of high dynamic range image sensor with individual pixel reset
US20040155175A1 (en) * 2003-02-03 2004-08-12 Goodrich Corporation Random access imaging sensor

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHRISTOPHER CLARK, ORLYYADID-PECHT, ERIC FOSSUM, PHIL SALOMON AND ED DENNISON: "APPLICATION OF APS ARRAYS TO STAR AND FEATURE TRACKING SYSTEMS", PROC. SPIE 2810, SPACE SCIENCECRAFT CONTROL AND TRACKING IN THE NEW MILLENNIUM, vol. SPIE 2810, no. 116, 28 October 1996 (1996-10-28), Denver, XP002705971, DOI: 10.1117/12.255130 *
ORLY YADID-PECHT ET AL: "CMOS Active Pixel Sensor Star Tracker with Regional Electronic Shutter", IEEE JOURNAL OF SOLID-STATE CIRCUITS, IEEE SERVICE CENTER, PISCATAWAY, NJ, USA, vol. 32, no. 2, 1 February 1997 (1997-02-01), XP011060425, ISSN: 0018-9200 *
TAKAYUKI HAMAMOTO ET AL: "A Computational Image Sensor with Adaptive Pixel-Based Integration Time", IEEE JOURNAL OF SOLID-STATE CIRCUITS, IEEE SERVICE CENTER, PISCATAWAY, NJ, USA, vol. 36, no. 4, 1 April 2001 (2001-04-01), XP011061490, ISSN: 0018-9200 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021156560A1 (fr) * 2020-02-06 2021-08-12 Centre National d'Études Spatiales Procédé et dispositif de détection optique
FR3107123A1 (fr) * 2020-02-06 2021-08-13 Centre National d'Études Spatiales Procédé et dispositif de détection optique.

Also Published As

Publication number Publication date
FR2997258B1 (fr) 2016-10-07

Similar Documents

Publication Publication Date Title
EP2795580B1 (fr) Procédé d&#39;estimation de flot optique à partir d&#39;un capteur asynchrone de lumière
FR2903200A1 (fr) Stabilisation hybride d&#39;images pour camera video
EP2495531B1 (fr) Procédé de mesure de la stabilité d&#39;une ligne de visée et senseur stellaire correspondant
EP2695377B1 (fr) Detection de debris spatiaux
FR3082038A1 (fr) Estimation dynamique du tangage instantane d&#39;une camera embarquee dans un vehicule automobile
FR2997258A1 (fr) Systeme de detection et de mesure comprenant un senseur optique, et procedes de detection et de mesure associe
EP3571468B1 (fr) Procédé d&#39;observation de la surface terrestre et dispositif pour sa mise en oeuvre
EP3839600B1 (fr) Procede d&#39;estimation precis avec une disponibilite totale de la ligne de visee d&#39;un telescope embarque a bord d&#39;un satellite d&#39;observation de la terre
FR2723810A1 (fr) Dispositif capteur terrestre pour satellite ou similaire, a matrice de detecteurs pyroelectriques
EP3170205B1 (fr) Dispositif de détection de mouvement
EP0508897B1 (fr) Procédé et système pour la mise au point automatique d&#39;une caméra utilisant la TCD
FR2979022A1 (fr) Dispositif de visee a chercheur de nord stellaire et procede de recalage d&#39;un compas magnetique d&#39;un tel dispositif
WO2024033583A1 (fr) Procédé et dispositif de traitement d&#39;une séquence d&#39;images pour la détermination de vignettes poursuivies dans ladite séquence d&#39;images
EP3072110B1 (fr) Procédé d&#39;estimation du mouvement d&#39;un objet
FR2968876A1 (fr) Systeme d&#39;acquisition d&#39;images presentant une dynamique elevee
WO2017081104A1 (fr) Procede d&#39;elaboration d&#39;une navigation et procede d&#39;orientation d&#39;un organe de visee a partir de cette navigation
CA2955368C (fr) Procede et dispositif de traitement de mouvements de hautes frequences dans un systeme optronique
FR2968499A1 (fr) Procede d&#39;utilisation d&#39;un capteur d&#39;image.
EP0457414A1 (fr) Dispositif de détection d&#39;objets dans une séquence d&#39;images
FR2826222A1 (fr) Procede d&#39;utilisation d&#39;une camera thermique, dispositif pour sa mise en oeuvre, et camera thermique incorporant un tel dispositif
FR2716596A1 (fr) Dispositif de poursuite du centre d&#39;une cible.

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13